More stories

  • in

    Bere il mare

    In Sicilia da alcune settimane si discute sulla riapertura del dissalatore di Porto Empedocle, in provincia di Agrigento, per trattare l’acqua di mare e renderla potabile in modo da ridurre i forti problemi legati alla siccità degli ultimi mesi. La Regione ha previsto un milione di euro di spesa e alcuni mesi di lavoro per riattivare l’impianto fermo da 12 anni, ma sono stati espressi alcuni dubbi considerati i costi. I dissalatori consumano infatti molta energia e producono acque di scarto difficili da gestire: per questo sono ancora relativamente poco utilizzati in tutto il mondo, anche se negli ultimi decenni ci sono stati progressi nel miglioramento dei sistemi per renderli più efficienti dal punto di vista energetico.Il 97 per cento dell’acqua presente sulla Terra è salato: è presente nei mari e negli oceani e non può essere bevuto né tanto meno utilizzato per l’agricoltura. Il resto dell’acqua è dolce, con il 2 per cento conservato nei ghiacciai, nelle calotte polari e negli accumuli di neve sulle montagne e l’1 per cento disponibile per le nostre esigenze e quelle dei numerosi altri organismi che per vivere hanno bisogno di acqua quasi totalmente priva di sali, a cominciare dal cloruro di sodio (NaCl, quello che comunemente chiamiamo “sale da cucina”). In media l’acqua marina contiene il 3,5 per cento circa di sale, una concentrazione sufficiente per causare danni ai reni ed essere letale.
    Quell’1 per cento di acqua dolce sarebbe più che sufficiente, se non fosse che non è distribuito uniformemente nel pianeta: ci sono aree in cui abbonda e altre in cui scarseggia, in assoluto oppure a seconda delle stagioni e delle condizioni atmosferiche. Il cambiamento climatico in corso negli ultimi decenni ha peggiorato le cose con aree che sono diventate più aride, riducendo le possibilità di accesso per milioni di persone all’acqua dolce. Stando alle stime dell’Organizzazione mondiale della sanità (OMS), circa 2 miliardi di persone vivono in zone del mondo in cui il reperimento dell’acqua è difficoltoso e solo nel 2022 almeno 1,7 miliardi di persone hanno avuto accesso per lo più ad acqua contaminata, con seri rischi per la salute.
    Considerate le difficoltà nel disporre di acqua dolce, ci si chiede spesso perché non si possa sfruttare su larga scala quella degli oceani, privandola dei sali che non la rendono bevibile. Le tecnologie per farlo ci sono da tempo e alcune furono sperimentate millenni fa, eppure non siamo ancora in grado di trasformare l’acqua di mare in acqua potabile in modo conveniente e sostenibile. In un certo senso è un grande paradosso: il pianeta è ricolmo d’acqua, ma quella che possiamo usare per sopravvivere è una minuscola frazione.
    L’oceano Pacifico è di gran lunga la più vasta distesa d’acqua salata della Terra (NOAA)
    Per molto tempo il sistema più pratico per dissalare l’acqua è consistito nell’imitare ciò che avviene in natura facendola evaporare. Grazie al calore del Sole e a quello del nostro pianeta, ogni giorno una enorme quantità di acqua evapora dagli oceani, dai fiumi e dagli altri corsi d’acqua, raggiungendo gli strati dell’atmosfera dove si formano le nuvole e di conseguenza le piogge, che porteranno l’acqua dolce a cadere al suolo. Con la “dissalazione evaporativa” si fa artificialmente qualcosa di analogo: l’acqua del mare viene scaldata e fatta evaporare, in modo che si separi da buona parte dei sali. Il vapore acqueo viene poi fatto raffreddare in modo che condensi e che si possa recuperare l’acqua quasi priva di sali.
    Negli anni sono state sviluppate varie tipologie di dissalatori evaporativi, per lo più per provare a rendere il più efficiente possibile il processo dal punto di vista energetico, ma il concetto di base rimane più o meno lo stesso. I dissalatori di questo tipo sono impiegati in molti impianti in giro per il mondo, specialmente nelle aree costiere lungo il Golfo in Medio Oriente, dove spesso si sfrutta la grande disponibilità di combustibili fossili per alimentare gli stabilimenti. Il processo richiede infatti grandi quantità di energia e per questo molti gruppi di ricerca hanno sperimentato alternative nei decenni passati.
    Il progresso più importante nelle tecnologie di dissalazione fu raggiunto negli anni Sessanta, quando fu messo a punto il processo di “osmosi inversa”. L’acqua di mare viene fatta passare ad alta pressione attraverso una membrana semipermeabile, che permette solo alle molecole d’acqua di passare dall’altra parte, obbligandola a lasciarsi alle spalle gli ioni dei sali che la rendono salata.
    In un dissalatore a osmosi inversa, l’acqua salata viene aspirata dal mare attraverso potenti pompe e fatta fluire tra grandi grate per separarla dalle impurità più grandi. L’acqua attraversa poi membrane con pori via via più piccoli per bloccare il passaggio della sabbia, dei batteri e di altre sostanze. L’acqua è infine pronta per essere spinta ad alta pressione attraverso una membrana che ha solitamente pori di dimensioni intorno a 0,1 nanometri (un nanometro è un miliardesimo di metro), tali da bloccare il passaggio dei sali, ma non delle molecole d’acqua.

    Da un punto di vista energetico, la dissalazione per osmosi inversa è più conveniente rispetto a quella per evaporazione, perché non richiede di scaldare l’acqua. Alcuni impianti sono arrivati a produrre acqua dolce con un consumo di 2 kWh (“kilowattora”) per metro cubo d’acqua, un risultato importante se si considera che negli anni Settanta il consumo era di 16 kWh per metro cubo. In media si stima che la dissalazione dell’acqua con i metodi più diffusi comporti un consumo di 3 kWh/m3 e che negli ultimi cinquant’anni si sia ridotto di circa dieci volte. L’attuale consumo è paragonabile a quello del trasporto dell’acqua su lunghe distanze verso i luoghi in cui manca, mentre è ancora lontano da quello degli impianti che forniscono localmente l’acqua dolce disponibile sul territorio.
    L’osmosi inversa, nelle sue varie declinazioni, ha contribuito più di altre tecnologie a ridurre l’impatto energetico della dissalazione, ma ha comunque i suoi limiti. A causa della forte pressione, le membrane per realizzarla devono essere sostituite di frequente e la loro costruzione è laboriosa e delicata. Inoltre, man mano che si estrae l’acqua dolce, l’acqua marina di partenza diventa sempre più salata e sempre più difficile da separare dai sali che contiene. Oltre un certo limite non si può andare e si ottiene una salamoia che deve essere gestita e smaltita.
    I livelli di efficienza variano molto a seconda degli impianti, ma in media un dissalatore a osmosi inversa produce un litro di salamoia per ogni litro di acqua dolce (ci sono analisi più o meno pessimistiche sul rapporto). Si stima che ogni giorno siano prodotti circa 140 miliardi di litri di salamoia, la maggior parte dei quali vengono dispersi nuovamente in mare. Lo sversamento avviene di solito utilizzando condotte sottomarine che si spingono lontano da quelle che effettuano i prelievi, in modo da evitare che sia aspirata acqua di mare troppo salata.
    L’impianto di desalinizzazione a Barcellona, Spagna (AP Photo/Emilio Morenatti)
    Data l’alta quantità di sali al suo interno, la salamoia è più densa della normale acqua di mare e tende quindi a rimanere sul fondale marino prima di disperdersi nel resto dell’acqua marina. La maggiore concentrazione di sali potrebbe avere conseguenze sugli ecosistemi marini e per questo il rilascio della salamoia in mare è studiato da tempo, anche se per ora le ricerche non hanno portato a trovare molti indizi sugli eventuali effetti deleteri. In alcuni paesi ci sono comunque leggi che regolamentano le modalità di sversamento, per esempio richiedendo l’utilizzo di tubature che si spingano più al largo e che abbiano molte diramazioni, in modo da rilasciare la salamoia in più punti favorendo la sua diluizione col resto dell’acqua marina.
    Lo sversamento in mare non è comunque l’unica tecnica per liberarsi della salamoia. Un’alternativa è lasciare che evapori al sole, raccogliendo poi i sali in un secondo momento per utilizzarli in altre attività industriali. È però un processo che richiede del tempo, la disponibilità di porzioni di territorio sufficientemente grandi e un clima che renda possibile l’evaporazione in buona parte dell’anno. In alternativa l’evaporazione può essere ottenuta scaldando la salamoia, ma anche in questo caso sono necessarie grandi quantità di energia e il processo non è efficiente.
    Non tutte le salamoie sono uguali perché la concentrazione di sali non è uniforme e omogenea negli oceani, per questo alcuni gruppi di ricerca stanno esplorando la possibilità di sfruttarle per ottenere minerali particolarmente richiesti. L’interesse principale è per il litio, una materia prima molto richiesta per la produzione di batterie e dispositivi elettrici. La sua estrazione viene effettuata di solito in alcune zone aride del mondo, a cominciare da quelle del Sudamerica, dove acque sature di sali vengono lasciate evaporare sotto al Sole per mesi. Sono in fase di sperimentazione sistemi alternativi di estrazione, ma separare il litio dalle altre sostanze non è semplice e richiede comunque energia.
    In Arabia Saudita, uno dei paesi che hanno più investito nello sviluppo di tecnologie di dissalazione a causa della ricorrente mancanza di acqua dolce, è in progettazione un impianto per estrarre dalla salamoia ulteriore acqua da rendere potabile e al tempo stesso ottenere cloruro di sodio. Questa sostanza è fondamentale per molti processi dell’industria chimica, ma deve avere un alto livello di purezza difficile da raggiungere tramite i classici processi di desalinizzazione. L’impianto utilizzerà particolari membrane per separare le impurità e produrre di conseguenza del cloruro di sodio puro a sufficienza, almeno nelle intenzioni dei responsabili dell’iniziativa.
    Altri gruppi di ricerca si sono invece orientati verso il perfezionamento di tecniche che prevedono l’applicazione di una corrente elettrica per diluire la salamoia, in modo da poter estrarre più quantità di acqua dolce attraverso l’osmosi inversa. Ulteriori approcci prevedono invece l’impiego di solventi chimici che a basse temperature favoriscono la separazione delle molecole d’acqua dal resto, permettendo di nuovo un maggiore recupero di acqua dolce dalla salamoia.
    Come ha spiegato al sito di Nature un ingegnere ambientale della Princeton University (Stati Uniti): «Per molti anni abbiamo mancato il bersaglio. Ci siamo concentrati sull’acqua come un prodotto: secondo me, l’acqua dovrebbe essere un prodotto secondario di altre risorse». L’idea, sempre più condivisa, è che per rendere economicamente vantaggiosa la desalinizzazione ci si debba concentrare sulle opportunità derivanti dallo sfruttamento delle sostanze di risulta, lasciando l’acqua dolce a tutti e senza costi. Non tutti sono però convinti della sostenibilità di questa impostazione, soprattutto per la sostenibilità in generale del settore.
    I dissalatori attivi nel mondo sono circa 15-20mila con dimensioni, capacità e tecnologie impiegate che variano a seconda dei paesi e delle necessità. Si stima che dall’acqua dolce prodotta con la desalinizzazione dipendano almeno 300 milioni di persone, anche se le stime variano molto ed è difficile fare calcoli precisi. L’impatto energetico dei dissalatori è però ancora molto alto e di conseguenza il costo di ogni litro di acqua dolce prodotto in questo modo rispetto ai luoghi dove l’acqua dolce è naturalmente disponibile.
    Un operaio al lavoro sui filtri di un impianto di dissalazione a San Diego, California, Stati Uniti (AP Photo/Gregory Bull)
    Gli impianti per dissalare l’acqua sono generalmente più convenienti quando possono essere costruiti direttamente in prossimità delle aree dove scarseggia l’acqua dolce, ma solo in alcune parti del mondo le zone aride si trovano lungo aree costiere. Per le comunità che vivono in luoghi siccitosi lontano dai mari il trasporto dell’acqua deve essere comunque gestito in qualche modo. Ci sono quindi casi in cui è più economico trasportare acqua dolce da una fonte distante rispetto a desalinizzare quella di mare.
    In futuro la desalinizzazione potrebbe riguardare una quantità crescente di persone a causa dell’aumento della salinità di alcune riserve d’acqua soprattutto lungo le aree costiere. L’aumento della temperatura media globale ha reso più intensi i processi di evaporazione in certe aree del mondo, influendo sulla concentrazione dei sali anche nei corsi d’acqua dolce. L’innalzamento dei mari, sempre dovuto al riscaldamento globale, è visto come un altro rischio per la contaminazione delle falde acquifere vicino alle coste che potrebbero aumentare le quantità di sali.
    I più ottimisti sostengono che i problemi energetici legati ai dissalatori potranno essere superati grazie allo sviluppo delle centrali nucleari a fusione, che metteranno a disposizione enormi quantità di energia a una frazione dei prezzi attuali. La fusione porterebbe certamente a una riduzione del costo dell’energia senza paragoni nella storia umana, ma il suo sviluppo procede a rilento e richiederà ancora decenni, ammesso che possa mai portare a qualche applicazione tecnica su larga scala.
    Invece di fare affidamento su tecnologie di cui ancora non disponiamo, gli esperti consigliano di ripensare il modo in cui utilizziamo l’acqua dolce, riducendo il più possibile gli sprechi e ottimizzando i consumi in modo da avere necessità dei dissalatori solo dove non ci sono alternative. Nelle aree esposte stagionalmente alla siccità si dovrebbero invece costruire bacini per l’accumulo e la conservazione dell’acqua piovana, per esempio, insieme a impianti per la purificazione e il riciclo delle acque reflue. LEGGI TUTTO

  • in

    Lo scorso giugno è stato il più caldo mai registrato

    Secondo il Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, il mese di giugno è stato il più caldo mai registrato sulla Terra. La temperatura media globale è stata di 16,66 °C, cioè 0,14 °C più alta del precedente record, del giugno del 2023. Inoltre lo scorso giugno è stato il tredicesimo mese consecutivo considerato il più caldo mai registrato a livello globale rispetto ai mesi corrispondenti degli anni passati. Le stime di Copernicus sono realizzate usando diversi tipi di dati, tra cui le misurazioni dirette della temperatura fatte da reti di termometri presenti sulla terra e in mare e le stime dei satelliti. LEGGI TUTTO

  • in

    Le navi cargo dovrebbero andare più lentamente

    Caricamento playerBuona parte degli oggetti che usiamo ogni giorno, dai cellulari agli abiti passando per le banane, ha attraversato almeno un oceano dal momento in cui è stata prodotta a quello in cui è stata venduta. Ogni giorno migliaia di navi trasportano merci di ogni tipo producendo annualmente tra il 2 e il 3 per cento di tutta l’anidride carbonica che viene immessa nell’atmosfera attraverso le attività umane. È un settore con una forte dipendenza dai combustibili fossili, ma che potrebbe diminuire sensibilmente le proprie emissioni ricorrendo a una soluzione all’apparenza semplice, quasi banale: ridurre la velocità.
    L’idea non è di per sé rivoluzionaria – si conoscono da tempo gli intervalli entro cui mantenersi per ottimizzare i consumi – ma applicarla su larga scala non è semplice soprattutto in un settore dove la velocità viene spesso vista come una priorità e un valore aggiunto. Se si cambia il modo in cui sono organizzati i trasporti marittimi ci sono conseguenze per molti altri settori, che dipendono dalle consegne delle materie prime o dei prodotti finiti. Un ritardo può avere effetti sulla capacità di un’azienda di produrre automobili o di consegnarle in tempo nei luoghi del mondo dove la domanda per le sue auto è più alta, per esempio.
    La necessità di ridurre il rischio di ritardi ha portato a una pratica piuttosto comune nel settore nota come “Sail fast, then wait”, letteralmente: “Naviga veloce, poi aspetta”. Spesso le navi cargo effettuano il più velocemente possibile il proprio viaggio in modo da arrivare quasi sempre in anticipo a destinazione rispetto al momento in cui avranno il loro posto in porto per scaricare le merci. L’attesa in alcuni casi può durare giorni, nei quali le navi restano ferme al largo prima di ricevere l’assegnazione di un posto.
    Il “naviga veloce, poi aspetta” è diventato la norma per molti trasportatori marittimi in seguito all’adozione da parte di molte aziende della strategia “just in time”, che prevede di ridurre il più possibile i tempi di risposta delle aziende alle variazioni della domanda. È un approccio che ha tra gli obiettivi la riduzione al minimo dei tempi di magazzino, rendendo idealmente possibile il passaggio diretto dall’impianto di produzione al cliente finale. Ciò consente di ridurre i costi di conservazione delle merci e i rischi di avere periodi con molti prodotti invenduti, ma comporta una gestione molto più precisa delle catene di rifornimento perché un ritardo di un singolo fornitore o di una consegna può fare inceppare l’intero meccanismo.
    Chi si occupa del trasporto delle merci deve quindi garantire il più possibile la puntualità delle consegne: di conseguenza adotta varie strategie per ridurre i rischi di ritardi dovuti per esempio alle condizioni del mare poco favorevoli o imprevisti burocratici. In molti casi sono i clienti stessi a chiedere garanzie ai trasportatori sul ricorso al “naviga veloce, poi aspetta” per la gestione delle loro merci. Il risultato è in media un maggior consumo di carburante per raggiungere le destinazioni in fretta e una maggiore quantità di emissioni di gas serra, la principale causa del riscaldamento globale.
    Per provare a cambiare le cose e a ridurre consumi ed emissioni del settore, un gruppo di aziende e di istituzioni partecipa a Blue Visby Solution, una iniziativa nata pochi anni fa e che di recente ha avviato le prime sperimentazioni di un nuovo sistema per far rallentare le navi e ridurre i tempi di attesa nei porti. Il sistema tiene traccia delle navi in partenza e in arrivo e utilizza algoritmi e modelli di previsione per stimare l’affollamento nei porti, in modo da fornire alle singole navi indicazioni sulla velocità da mantenere per arrivare al momento giusto in porto. I modelli tengono in considerazione non solo il traffico marittimo, ma anche le condizioni meteo e del mare.
    (Cover Images via ZUMA Press)
    Il sistema è stato sperimentato con simulazioni al computer utilizzando i dati reali sulle rotte e il tempo impiegato per percorrerle di migliaia di navi cargo, in modo da verificare come le modifiche alla loro velocità potessero ridurre i tempi di attesa, i consumi e di conseguenza le emissioni di gas serra. Terminata questa fase di test, tra marzo e aprile di quest’anno Blue Visby ha sperimentato il sistema in uno scenario reale, grazie alla collaborazione con un produttore di cereali australiano che ha accettato di rallentare il trasporto da parte di due navi cargo delle proprie merci in mare.
    Il viaggio delle due navi cargo è stato poi messo a confronto con simulazioni al computer degli stessi viaggi effettuati alla normale velocità. Secondo Blue Visby, i viaggi rallentati hanno prodotto tra l’8 e il 28 per cento in meno di emissioni: l’ampio intervallo è dovuto alle simulazioni effettuate in scenari più o meno ottimistici, soprattutto per le condizioni meteo e del mare. Il rallentamento delle navi ha permesso di ridurre emissioni e consumi, con una minore spesa per il carburante. Parte del risparmio è servita per compensare i maggiori costi operativi legati al periodo più lungo di navigazione, ha spiegato Blue Visby.
    I responsabili dell’iniziativa hanno detto a BBC Future che l’obiettivo non è fare istituire limiti alla velocità di navigazione per le navi cargo, ma offrire un servizio che ottimizzi i loro spostamenti e il tempo che dividono tra la navigazione e la permanenza nei porti o nelle loro vicinanze. Il progetto non vuole modificare la durata di un viaggio, ma intervenire su come sono distribuite le tempistiche al suo interno. Se per esempio in un porto si forma una coda per l’attracco con lunghi tempi di attesa, Blue Visby può comunicare a una nave in viaggio verso quella destinazione di ridurre la velocità ed evitare lunghi tempi di attesa in prossimità del porto.
    La proposta ha suscitato qualche perplessità sia perché per funzionare bene richiederebbe la collaborazione per lo meno delle aziende e dei porti più grandi, sia perché potrebbero sempre esserci navi che decidono di mettere in pratica il “naviga veloce, poi aspetta”, magari per provare ad avvantaggiarsi rispetto a qualche concorrente. I sostenitori di Blue Visby riconoscono questo rischio, ma ricordano anche che i nuovi regolamenti e le leggi per ridurre le emissioni da parte del settore dei trasporti marittimi potrebbero favorire l’adozione del nuovo sistema, che porta comunque a una minore produzione di gas serra.
    (AP Photo/POLFOTO, Rasmus Flindt Pedersen)
    Il nuovo approccio non funzionerebbe comunque per tutti allo stesso modo. È considerato applicabile soprattutto per le navi portarinfuse, cioè utilizzate per trasportare carichi non divisi in singole unità (per esempio cereali o carbone), visto che hanno quasi sempre un solo cliente di riferimento e sono maggiormente coinvolte nella consegna di materie prime. Il sistema è invece ritenuto meno adatto per le navi portacontainer, che di solito coprono quasi sempre le stesse rotte e con i medesimi tempi per ridurre il rischio di girare a vuoto o di rimanere a lungo nei porti.
    Rallentare alcune tipologie di navi cargo potrebbe ridurre le emissioni, ma non può comunque essere considerata una soluzione definitiva al problema delle emissioni prodotte dal trasporto marittimo delle merci. Da tempo si discute della necessità di convertire le navi a carburanti meno inquinanti e di sperimentare sistemi ibridi, che rendano possibili almeno in parte l’impiego di motori elettrici e la produzione di energia elettrica direttamente a bordo utilizzando pannelli solari e pale eoliche.
    Il settore, insieme a quello aereo, è considerato uno dei più difficili da convertire a soluzioni meno inquinanti, anche a causa dell’attuale mancanza di alternative. Oltre alle condizioni meteo e del mare, i trasporti attraverso gli oceani sono inoltre esposti ai rischi legati alla pirateria e agli attacchi terroristici, che portano gli armatori a rivedere le rotte in alcuni casi allungandole e rendendo di conseguenza necessaria una maggiore velocità di navigazione per rispettare i tempi delle consegne. LEGGI TUTTO

  • in

    Weekly Beasts

    Negli anni Ottanta sulla piccola isola di Anma, nella contea del Yeonggwang (Corea del Sud), vennero introdotti una decina di cervi sika, le cui corna erano utilizzate nella medicina tradizionale. Ad anni di distanza il loro numero è cresciuto fino a raggiungere un migliaio, al punto che gli abitanti dell’isola sono esasperati dai danni che causano ai raccolti e al territorio e chiedono che vengano classificati come fauna selvatica dannosa (e non come bestiame) in modo da mettere in atto un programma di abbattimento. Nelle foto di animali della settimana c’è uno di questi cervi che prova a sfuggire a un abitante che vorrebbe anestetizzarlo con una cerbottana, che fa parte di un bel reportage dell’agenzia Reuters. Completano la raccolta un po’ di animali nati da poco: un rinoceronte bianco, una renna, un pinguino di Humboldt, tre pulcini di tucano e due di suricato nati al parco delle Cornelle in provincia di Bergamo. Per finire con il salto di due delfini e un’elegantissima berta maggiore. LEGGI TUTTO

  • in

    L’eruzione dell’Etna vista da vicino

    Caricamento playerGiovedì sera è iniziata una nuova eruzione dell’Etna, il vulcano siciliano che è il più alto vulcano attivo dell’Europa continentale. L’attività eruttiva era in corso già da alcuni giorni, ma ieri è aumentata, tanto che venerdì si è dovuto chiudere temporaneamente l’aeroporto di Catania per lo strato di cenere che si è depositato sulle piste di decollo e atterraggio. L’eruzione riguarda il cosiddetto Cratere Voragine, uno dei quattro crateri sommitali del vulcano, e ha prodotto una colonna di lava che ha raggiunto un’altezza di 4.500 metri secondo la stima dell’Istituto nazionale di geofisica e vulcanologia (INGV). Il vulcano di suo è alto 3.357 metri. LEGGI TUTTO

  • in

    La classifica delle città italiane in cui è più facile trovare lavoro

    Uno dei tanti problemi che caratterizzano la penisola italiana è proprio la questione lavorativa. L’Italia, infatti, sicuramente non è il Paese europeo con la miglior nomea in termini di opportunità in tal senso. Va precisato, che il deficit occupazionale non è costante; al contrario, esso si verifica maggiormente in determinate zone della penisola. Vediamo dunque la classifica delle città italiane in cui è più facile trovare lavoro. Operaio di 33 anni muore schiacciato da un macchinario – Nanopress.itLa classifica è stata stilata di seguito a uno studio condotto dalla Fondazione Aidp – Lavoro e Sostenibilità, in collaborazione con Isfort. In testa alla graduatoria troviamo Milano, seguita da diverse città del Nord. La capitale, anche quest’anno non è riuscita a salire sul podio.La classifica delle città italiane più “vive” lavorativamenteUno studio depositato oggi presso il Comune di Napoli –  condotto dalla Fondazione Aidp – Lavoro e Sostenibilità, in collaborazione con Isfort – ha permesso di classificare le città con maggiori opportunità lavorative all’interno del nostro Paese. Ad aggiudicarsi il podio vi sono tre città nordiche: tra queste Milano, la quale si conquista il primo posto, a seguire Bergamo, Padova, Trieste e Trento.  Persone in cerca di lavoro – Nanopress.itIn sesta posizione troviamo, invece, Cagliari, seguita da Udine, Monza e Modena. La graduatoria rappresenta chiaramente la disparità territoriale tra Nord e Sud. Infatti nelle prime 40 posizioni vi sono ben 17 città del nord-est, 14 del nord-ovest e sei del centro. Solo tre sono, invece, le città del Sud e delle Isole.Roma – pur avendo subito un miglioramento rispetto agli anni precedenti – si classifica al 25esimo posto. Napoli, invece, non rientra all’interno della classifica.I criteri utilizzati all’interno dello studioLo studio messo in atto dalla Fondazione Aidp si basa su una serie di criteri volti a fornire un quadro generale delle condizioni lavorative all’interno delle varie città. I fattori presi in considerazione per stilare la classifica sono stati: dal lato interno, le retribuzioni, l’ambiente di lavoro e le opportunità professionali. Mentre da quello esterno, l’ambito dei trasporti, la vivibilità ambientale, i servizi digitali, di sicurezza e quelli per garantire un corretto godimento del tempo libero.Ampiamente presi in considerazione anche gli aspetti economici, come i redditi destinati ai servizi di cittadinanza (offerta formativa, sanità ecc..).“Questo rapporto fotografa il divario del Paese soprattutto dal punto di vista economico, ma se guardiamo nel dettaglio i vari indicatori vediamo un Sud dinamico, che sta crescendo dal punto di vista infrastrutturale e di contributo alla crescita del Paese che va attentamente considerato”. Afferma, come riportato da Fanpage, il sindaco di Napoli Gaetano Manfredi.  LEGGI TUTTO

  • in

    Negli Stati Uniti è stato approvato un nuovo farmaco contro l’Alzheimer precoce

    Caricamento playerMartedì la Food and Drug Administration (FDA), l’agenzia statunitense che si occupa della regolamentazione dei prodotti alimentari e farmaceutici, ha approvato un nuovo farmaco che dovrebbe rallentare gli effetti del morbo di Alzheimer, la malattia che causa una progressiva perdita della memoria e per cui al momento non è disponibile una cura. Il farmaco si chiama donanemab, è un anticorpo monoclonale ed è venduto negli Stati Uniti con il nome commerciale Kisunla da parte dell’azienda farmaceutica Eli Lilly.
    Il Kisunla è il terzo medicinale studiato per rallentare gli effetti dell’Alzheimer a essere approvato dalla FDA, ma come gli altri due farmaci approvati in precedenza non è una terapia risolutiva. In un test clinico che ha coinvolto 1.700 persone ed è durato 18 mesi si è dimostrato in grado di avere un’efficacia limitata: nei pazienti a cui era stato somministrato è stato rilevato un declino delle capacità cognitive del 35 per cento più lento rispetto ai pazienti con placebo, cioè una sostanza che non fa nulla.
    Attualmente i farmaci disponibili per le persone a cui è stato diagnosticato l’Alzheimer cercano di intervenire sui sintomi della malattia, ma non sono molto efficaci contro la malattia in sé, soprattutto nelle forme più avanzate. Per questo da tempo vari gruppi di ricerca stanno cercando modi per intervenire sulle cause della patologia – che non sono però ancora completamente chiare – in modo da farla progredire più lentamente.
    Più nello specifico sono state fatte ricerche sulla betamiloide, una proteina che causa un accumulo di placche nei neuroni (le cellule del cervello) rendendoli via via meno reattivi e funzionali. Questa proteina è sospettata di essere una, se non la principale, causa dell’Alzheimer, ma tenerla sotto controllo è molto difficile e ci sono ancora dubbi sul suo ruolo nella malattia.
    Nel 2021 la FDA aveva approvato l’Aduhelm (aducanumab) di Biogen tra molti dubbi della comunità scientifica: il farmaco non aveva dato i risultati sperati, per questo era stato poco usato e lo scorso gennaio è stato ritirato dal commercio. La scorsa estate invece la FDA aveva approvato un altro farmaco sviluppato da Biogen insieme a un’altra azienda, Eisai, cioè il Leqembi (lecanemab). Nel test clinico dedicato, i pazienti che avevano ricevuto il lecanemab avevano fatto rilevare un declino delle capacità cognitive del 27 per cento più lento rispetto ai pazienti con placebo.
    Sia nel caso del lecanemab che nel caso del donanemab la riduzione degli effetti dell’Alzheimer è tutto sommato poco marcata e di conseguenza medici ed esperti si chiedono se possa essere sufficiente per essere notata dai pazienti e dai loro cari. Inoltre entrambi i medicinali possono causare gravi effetti collaterali, potenzialmente mortali: nella sperimentazione sul donanemab tre persone sono morte in relazione all’assunzione del farmaco. Tuttavia secondo la commissione che ha consigliato l’approvazione dei farmaci i benefici sono superiori ai rischi.

    – Leggi anche: Perché andarci cauti sul lecanemab

    Eli Lilly non ha ancora fatto sapere quanto costeranno i trattamenti con il Kisunla, ma probabilmente saranno necessarie decine di migliaia di dollari all’anno. LEGGI TUTTO

  • in

    A giugno non si era mai formato un uragano forte come Beryl

    Caricamento playerNelle prime ore di lunedì un uragano chiamato Beryl ha raggiunto la zona del mar dei Caraibi in cui si trovano le Isole Sopravento Meridionali, di cui fanno parte gli stati di Grenada di Saint Vincent e Grenadine. Finora non ci sono notizie di danni, ma di Beryl si è già molto discusso tra i meteorologi perché è il primo uragano di categoria 4, cioè della seconda categoria più alta nella scala Saffir-Simpson delle tempeste tropicali, a essere registrato nel mese di giugno. Tale primato è probabilmente dovuto alle recenti condizioni meteorologiche degli oceani: le temperature particolarmente alte della superficie dell’acqua dell’Atlantico da un lato e lo sviluppo del fenomeno periodico conosciuto come La Niña nel Pacifico dall’altro.
    La stagione degli uragani nell’oceano Atlantico occidentale va all’incirca dall’inizio di giugno alla fine di novembre. Da quando disponiamo di dati satellitari accurati per tutto il bacino Atlantico, cioè dal 1966, il primo uragano della stagione si è formato, in media, intorno al 26 luglio. E generalmente i primi non raggiungono la categoria 4, come ha fatto invece Beryl il 30 giugno, quando i suoi venti hanno superato la velocità di 209 chilometri orari. Finora il più precoce uragano di categoria 4 che fosse stato registrato era stato l’uragano Dennis, l’8 luglio 2005. Anche quelli di categoria 3 sono sempre stati molto rari a giugno: da quando sono disponibili dati sulla velocità del vento ce n’erano stati solo due, l’uragano Alma del 6 giugno 1966 e l’uragano Audrey del 27 giugno 1957.
    Generalmente il mese in cui si formano più tempeste tropicali e di maggiore intensità nell’Atlantico settentrionale è agosto perché è il periodo dell’anno in cui le acque superficiali dell’oceano sono più calde. La temperatura degli strati superiori dell’acqua influisce sulle tempeste perché più sono caldi, maggiore è l’evaporazione e dunque la quantità di acqua presente nell’atmosfera che si può raccogliere nelle grandi nubi coinvolte nelle tempeste. Per questo gli scienziati dicono spesso, per farsi capire, che il calore degli stati superficiali dell’oceano è il carburante degli uragani.
    Di solito a giugno e a luglio le temperature dell’oceano non sono sufficientemente alte da favorire uragani molto distruttivi, ma nell’ultimo anno nell’Atlantico sono state raggiunte temperature più alte della norma, in parte per via del più generale riscaldamento globale causato dalle attività umane, che non riguarda solo l’atmosfera, in parte per altri fattori che gli scienziati stanno ancora studiando.
    L’altro fattore che contribuisce alla formazione degli uragani insieme alla temperatura degli strati più superficiali dell’acqua sono venti deboli. Infatti, mentre se soffiano venti forti l’evaporazione diminuisce, con poco vento aumenta; l’assenza di vento inoltre non fa disperdere le grosse nubi create dall’alta evaporazione, quelle da cui poi si formano le tempeste. E attualmente nella fascia tropicale dell’Atlantico i venti sono deboli perché si sta sviluppando “La Niña”, uno dei complessi di eventi atmosferici che periodicamente influenzano il meteo di varie parti del mondo.
    La Niña avviene nell’oceano Pacifico meridionale, e come il più noto El Niño (che deve il suo nome, “il bambino” in spagnolo, al Natale) fa parte dell’ENSO, acronimo inglese di “El Niño-Oscillazione Meridionale”, un fenomeno che dipende da variazioni di temperatura nell’oceano e di pressione nell’atmosfera. La Niña è la fase di raffreddamento dell’ENSO e ha tra i suoi vari effetti lo sviluppo di siccità nell’ovest degli Stati Uniti, precipitazioni particolarmente abbondanti in paesi come il Pakistan, la Thailandia e l’Australia, e temperature più basse in molte regioni del Sudamerica e dell’Africa e in India. Un altro effetto è l’indebolimento dei venti sull’Atlantico tropicale, dunque un’intensificazione del numero delle tempeste tropicali e della loro forza.
    Già a maggio la National Oceanic and Atmospheric Administration (NOAA), l’agenzia statunitense che si occupa degli studi meteorologici e oceanici, aveva previsto che la stagione degli uragani di quest’anno sarebbe stata più intensa della media per via delle condizioni meteorologiche. La NOAA ha stimato che si svilupperanno tra le 17 e le 25 tempeste tropicali nel 2024, di cui tra gli 8 e i 13 uragani: in media si registrano 14 tempeste tropicali in un anno nell’Atlantico. Nel 2020, in occasione dell’ultima Niña, c’erano state 30 tempeste tropicali e 14 uragani.
    All’avvicinarsi alle Isole Sopravento Meridionali e a Barbados l’uragano Beryl ha inizialmente perso intensità e la velocità dei suoi venti è diminuita al punto da rientrare nella categoria 3 della scala Saffir-Simpson (con venti di 178–208 chilometri orari); poi però si è nuovamente rafforzato, tornando alla categoria 4. In questa parte dei Caraibi era dall’uragano Ivan del 2004 che non arrivava una tempesta tanto intensa.

    – Leggi anche: Le categorie per classificare gli uragani non bastano più? LEGGI TUTTO