More stories

  • in

    Il grande tsunami che non ha visto nessuno

    Caricamento playerA settembre del 2023 le stazioni di rilevamento dei terremoti in buona parte del mondo registrarono una strana attività sismica diversa da quelle solitamente rilevate, e che durò per circa nove giorni. Il fenomeno era così singolare e insolito da essere classificato come un “oggetto sismico non identificato” (USO), un po’ come si fa con gli avvistamenti aerei di oggetti difficili da definire, i famosi UFO. Dopo circa un anno, quel mistero è infine risolto e lo studio del fenomeno ha permesso di scoprire nuove cose sulla propagazione delle onde sismiche nel nostro pianeta, sugli tsunami, sugli effetti del cambiamento climatico e sulla perdita di enormi masse di roccia e ghiaccio.
    L’onda sismica era stata rilevata dai sismometri a partire dal 16 settembre 2023 e aveva una forma particolare, più semplice e uniforme di quelle che solitamente si registrano in seguito a un terremoto. Era una sorta di rumore di fondo ed era stata registrata in diverse parti del mondo: i sensori delle stazioni di rilevamento sono molto sensibili e la Terra dopo un terremoto “risuona”, dunque si possono rilevare terremoti anche a grande distanza da dove sono avvenuti. Nei giorni in cui l’onda continuava a essere rilevata e poi ancora nelle settimane seguenti, iniziarono a emergere alcuni indizi su quale potesse essere la causa dell’USO. Il principale indiziato era un fiordo dove si era verificata una grande frana che aveva portato a un’onda anomala e a devastazioni a diversi chilometri di distanza.
    Tutto aveva avuto infatti inizio in una delle aree più remote del pianeta lungo la costa orientale della Groenlandia, più precisamente dove inizia il fiordo Dickson. È un’insenatura lunga circa 40 chilometri con una forma particolare a zig zag, che termina con una curva a gomito qualche chilometro prima di immettersi nel fiordo Kempes, più a oriente. Niente di strano o singolare per una costa frastagliata e intricatissima, con centinaia di fiordi, come quella della Groenlandia orientale.

    Sulla costa, qualche chilometro prima della curva a gomito, c’era un rilievo di circa 1.200 metri affacciato su parte del ghiacciaio sottostante che raggiunge poi l’insenatura. A causa dell’aumento della temperatura, il ghiacciaio non era più in grado di sostenere il rilievo, che a settembre dello scorso anno era quindi collassato producendo un’enorme slavina con un volume stimato intorno ai 25 milioni di metri cubi di detriti (circa dieci volte la Grande Piramide di Giza in Egitto).
    Questa grande massa di ghiaccio e rocce si tuffò nel fiordo spingendosi fino a 2 chilometri di distanza e producendo uno tsunami che raggiunse un’altezza massima stimata di 200 metri. A causa della particolare forma a zig-zag del fiordo, l’onda non raggiunse l’esterno dell’insenatura e continuò a infrangersi al suo interno per giorni, producendo uno sciabordio (più precisamente una “sessa”) che fu poi rilevato dai sismometri incuriosendo infine alcuni esperti di terremoti in giro per il mondo.

    Come ha spiegato il gruppo di ricerca che ha messo insieme tutti gli indizi in uno studio pubblicato su Science, con la collaborazione di 68 sismologi in 15 paesi diversi, dopo pochi minuti dalla prima grande onda lo tsunami si ridusse a circa 7 metri e nei giorni seguenti sarebbe diventato di pochi centimetri, ma sufficienti per produrre onde sismiche rilevabili a causa della grande massa d’acqua coinvolta. Per pura coincidenza nelle settimane prima del collasso del rilievo un gruppo di ricerca aveva collocato alcuni sensori nel fiordo per misurarne la profondità, inconsapevole sia del rischio che stava correndo in quel tratto dell’insenatura sia di creare le condizioni per raccogliere dati che sarebbero stati utili per analizzare lo tsunami che si sarebbe verificato poco tempo dopo.
    Per lo studio su Science, il gruppo di ricerca internazionale ha infatti realizzato un proprio modello al computer per simulare l’onda anomala e ha poi confrontato i dati della simulazione con quelli reali, trovando molte corrispondenze per confermare le teorie iniziali sulle cause dell’evento sismico. L’andamento stimato dell’onda, compresa la sua riduzione nel corso del tempo, corrispondeva alle informazioni che potevano essere dedotte dalle rilevazioni sismiche.
    La ricerca ha permesso di approfondire le conoscenze sulla durata e sulle caratteristiche che può assumere uno tsunami in certe condizioni di propagazione, come quelle all’interno di un’insenatura. Lo studio di questi fenomeni riguarda spesso grandi eventi sismici, come quello che interessò il Giappone nel 2011, e che tendono a esaurirsi in alcune ore in mare aperto. L’analisi di fenomeni su scala più ridotta, ma comunque rilevante per la loro portata, può offrire nuovi elementi per comprendere meglio in generale sia gli tsunami sia le cause di alcuni eventi insoliti.

    La frana è stata inoltre la più grande a essere mai stata registrata nella Groenlandia orientale, hanno detto i responsabili della ricerca. Le onde hanno distrutto un’area un tempo abitata da una comunità Inuit, che si era stabilita nella zona circa due secoli fa. Il fatto che l’area fosse rimasta pressoché intatta fino allo scorso settembre indica che nel fiordo non si verificavano eventi di grande portata da almeno duecento anni.
    Su Ella, un’isola che si trova a circa 70 chilometri da dove si è verificata la frana, lo tsunami ha comunque causato la distruzione di parte di una stazione di ricerca. L’isola viene utilizzata da scienziati e dall’esercito della Danimarca, che ha sovranità sulla Groenlandia, ma era disabitata al momento dell’ondata.
    In un articolo di presentazione della loro ricerca pubblicato sul sito The Conversation, gli autori hanno ricordato che l’evento iniziale si è verificato in pochi minuti, ma che le sue cause sono più antiche: «Sono stati decenni di riscaldamento globale ad avere fatto assottigliare il ghiacciaio di diverse decine di metri, facendo sì che il rilievo soprastante non fosse più stabile. Al di là della particolarità di questa meraviglia scientifica, questo evento mette in evidenza una verità più profonda e inquietante: il cambiamento climatico sta riplasmando il nostro pianeta e il nostro modo di fare scienza in modi che solo ora iniziamo a comprendere».
    Il gruppo di ricerca ha anche segnalato come fino a qualche anno fa sarebbe apparsa assurda l’ipotesi che una sessa potesse durare per nove giorni, «così come un secolo fa il concetto che il riscaldamento globale potesse destabilizzare dei versanti nell’Artico, portando a enormi frane e tsunami. Eventi di questo tipo vengono ormai registrati annualmente proprio a causa dell’aumento della temperatura media globale, delle estati artiche con temperature spesso al di sopra della media e a una maggiore presenza del ghiaccio stagionale rispetto a un tempo. LEGGI TUTTO

  • in

    Le tartarughe del Mediterraneo nidificano sempre più a nord e a ovest

    Tra il 27 e il 30 agosto sulla spiaggia di Laigueglia, in Liguria, sono nate 92 tartarughe marine della specie Caretta caretta, la più diffusa nel mar Mediterraneo, da una buca nella sabbia scavata alla fine di giugno. In questi mesi il nido era stato osservato con grande attenzione da un gruppo di studiosi e volontari, non solo per proteggere lo sviluppo delle uova, ma anche per l’eccezionalità del luogo in cui erano state deposte. Infatti finora ci sono stati solo cinque casi noti di nidificazioni di tartarughe Caretta caretta in Liguria: uno nel 2021, uno nel 2022 e tre quest’estate. Secondo vari studiosi l’aumento delle temperature sta spingendo le tartarughe del Mediterraneo a spostarsi verso nord e verso ovest per nidificare, per cui nei prossimi anni i nidi nella regione, e in Italia in generale, potrebbero aumentare.Storicamente le Caretta caretta sono le uniche tartarughe marine che nidificano in Italia. Gli animali adulti si trovano un po’ in tutto il Mediterraneo, ma la deposizione delle uova – tra la fine di maggio e l’inizio di agosto – avviene generalmente nella regione più orientale del bacino e principalmente in Grecia e in Turchia. Il requisito indispensabile delle spiagge affinché una tartaruga ci possa deporre le uova è che siano sabbiose: le femmine adulte devono poter scavare una buca e deporvi in sicurezza le uova. La temperatura della sabbia, che si scalda molto durante il giorno, permette poi l’incubazione delle uova.
    Anche le spiagge sabbiose italiane sono frequentate dalle Caretta caretta, ma fino a poco tempo fa i nidi si trovavano soprattutto in Sicilia, Calabria, Campania e Puglia, non più a nord. Dal 2013 però sono osservati nidi in Toscana, lungo le coste del Tirreno, e più di recente in Liguria e, sull’Adriatico, ancora più a nord, in provincia di Rovigo e di Venezia. E anche nelle regioni in cui i nidi erano fatti da tempo, le nidificazioni osservate sono aumentate. Da maggio al 20 agosto di quest’anno ce ne sono state almeno 531, secondo i dati raccolti da Tartapedia, un’associazione di esperti e appassionati di tartarughe che portano avanti un monitoraggio nazionale. Negli ultimi vent’anni inoltre sono stati trovati sempre più spesso dei nidi anche sulle coste spagnole, ben più a ovest.

    L’attenzione alle tartarughe marine, anche da parte di chi lavora sulle spiagge o le frequenta per fare il bagno, «è sicuramente cresciuta», spiega la biologa Chiara Mancino, ricercatrice dell’Università La Sapienza di Roma che studia questi animali, ma anche escludendo gli effetti di tale sensibilizzazione sulle segnalazioni di nidi si osserva un aumento del loro numero verso l’ovest del Mediterraneo.
    Mancino lo ha verificato insieme ad alcuni colleghi con uno studio pubblicato nel 2022: negli anni Sessanta il centro della distribuzione spaziale dei nidi di Caretta caretta era a sud-est dell’isola di Creta, nel mar Egeo, stando alle osservazioni scientifiche; già negli anni Settanta questo punto ideale si era spostato verso ovest, nel mar Ionio, e nell’ultimo decennio è arrivato vicino alla Sicilia. Le zone con maggior densità di nidi sono tuttora nel Mediterraneo orientale ma, è sicuramente in corso un ampliamento della regione di nidificazione verso nord e verso ovest.
    «È una conoscenza comune che le tartarughe depongono le uova dove sono nate», aggiunge Mancino, «e per questo molte volte mi è stato chiesto se il fatto che oggi ci siano nidi in Liguria non significhi che c’erano anche anni fa: in realtà non è detto, è stato dimostrato che la “filopatria”, la tendenza a tornare nel luogo di nascita, è influenzata anche dai cambiamenti ambientali».
    Secondo vari biologi che studiano le Caretta caretta infatti l’ampliamento dell’areale di riproduzione delle tartarughe è probabilmente dovuto al cambiamento climatico. In tutto il mondo i suoi effetti hanno già varie ripercussioni sulla vita delle tartarughe marine, così come altri effetti delle attività umane. Ad esempio l’innalzamento del livello del mare riduce le spiagge sabbiose adatte per la deposizione delle uova, che già spesso sono diventate inospitali per le tartarughe a causa degli stabilimenti balneari e dell’illuminazione notturna, che le disturba. Gli eventi meteorologici estremi inoltre contribuiscono ad aumentare l’erosione delle spiagge.
    Ci sono poi dei problemi legati alla temperatura media della sabbia, che sta aumentando insieme a quella dell’atmosfera e dell’acqua del mare. Nei rettili la temperatura in cui si sviluppano gli embrioni nelle uova influenza il sesso dei nascituri, e più è alta più femmine nascono: questo potrebbe creare degli squilibri demografici nelle popolazioni di tartarughe e potenzialmente causare una riduzione del loro numero a lungo andare. E se le temperature aumentano troppo può anche succedere che le uova non si schiudano proprio.
    Lo studio di Mancino del 2022 ha trovato un legame tra l’ampliamento della regione in cui le Caretta caretta nidificano e l’aumento della temperatura media dell’acqua del Mediterraneo. Le spiagge più adatte per la deposizione delle uova, stando ai dati di cui disponiamo, sono quelle dove la temperatura superficiale dell’acqua del mare è di 25 °C. Le spiagge sabbiose dell’est del bacino mediterraneo continuano a essere adatte per i nidi, e quelle disponibili sono praticamente tutte usate; l’aumento delle temperature intanto sta rendendo più accoglienti le spiagge italiane e spagnole. Mancino continua a spiegare: «Può darsi che la popolazione delle tartarughe sia aumentata al punto da non trovare più spazio nel bacino orientale e si stia espandendo verso ovest dato che le condizioni attuali lo consentono. Ma questa ipotesi dobbiamo ancora verificarla».
    Le Caretta caretta non sono le uniche tartarughe del Mediterraneo di cui sono stati osservati dei nidi in località nuove negli ultimi anni. Proprio nel luglio del 2024 un gruppo di volontari del WWF di Vibo Valentia ha visto una tartaruga verde tentare di nidificare su una spiaggia della costa ionica della Calabria. Le tartarughe verdi (secondo la nomenclatura scientifica Chelonia mydas) sono l’altra specie di tartarughe marine presenti e nidificanti nel Mediterraneo, ma nidificano sulle spiagge più orientali, in particolare di Turchia, Siria, Libano, Israele ed Egitto: finora mai in Italia.
    Secondo un altro studio a cui ha lavorato Mancino, pubblicato a dicembre su Scientific Reports di Nature, ulteriori aumenti delle temperature dovuti al riscaldamento globale renderanno altre regioni del Mediterraneo più accoglienti dal punto di vista climatico anche per i nidi delle tartarughe verdi. Si tratta però di aree più antropizzate, cioè sfruttate e frequentate dalle persone, dunque potenzialmente insidiose per i nidi e le tartarughe appena nate.
    Inoltre anche se l’ampliamento dell’area di riproduzione potrebbe facilitare un aumento del numero di tartarughe marine nel Mediterraneo, e quindi in un certo senso si può dire che il cambiamento climatico le stia favorendo, le temperature più alte nell’est del bacino potrebbero avere l’effetto opposto. In Turchia è stato osservato che tra le nuove nate le femmine sono più numerose dei maschi e quando le temperature aumentano eccessivamente le uova non si sviluppano correttamente e non nasce nessuna tartaruga.
    «Poi bisogna vedere se le nuove spiagge trovate dalle tartarughe sono davvero idonee», aggiunge Mancino: «Può darsi che il successo di schiusa sia bassissimo, è quello che sto studiando ora».
    Per chi si occupa di studiare le tartarughe marine e difenderle dalle minacce alla loro sopravvivenza dovute alle attività umane l’ampliamento del loro territorio di nidificazione rappresenta una sfida, perché richiede di mettere a conoscenza delle buone abitudini per non danneggiare i nidi nuove comunità di persone. Nel caso dei nidi di Laigueglia, Arma di Taggia e Alassio, le tre località liguri dove sono state osservate le nidificazioni di quest’anno, gli scienziati dell’Acquario di Genova e dell’Agenzia regionale per la protezione dell’ambiente ligure (ARPAL) hanno collaborato coi gestori degli stabilimenti balneari dove sono stati trovati i nidi, isolando una porzione della spiaggia. Se in futuro i nidi aumenteranno «bisognerà fare tanta sensibilizzazione», conclude Mancino. LEGGI TUTTO

  • in

    Produrre cibo dalla plastica, o almeno provarci

    Ogni anno vengono prodotti oltre 400 milioni di tonnellate di rifiuti derivanti dall’impiego dei vari tipi di plastica usati per gli imballaggi, i contenitori, gli abiti sintetici e molti altri prodotti. Una percentuale crescente di questi rifiuti viene riciclata, ma l’impatto della plastica è ancora oggi una delle principali preoccupazioni legate alla contaminazione degli ecosistemi e alla tutela della nostra salute. Mentre si fatica a concordare nuovi trattati internazionali per ridurre la produzione e gli sprechi di plastica c’è chi sta sperimentando una via alternativa un po’ più creativa: renderla commestibile.L’idea non è completamente nuova, ma negli ultimi anni ha avuto qualche maggiore attenzione in seguito a una iniziativa della Defense Advanced Research Projects Agency (DARPA), l’agenzia del dipartimento della Difesa degli Stati Uniti che si occupa dello sviluppo di nuove tecnologie da utilizzare in ambito militare. Nel 2019, la DARPA invitò i gruppi di ricerca interessati a proporre nuovi sistemi per ridurre la quantità di rifiuti prodotti dai soldati quando sono in guerra o lavorano per dare sostegno alla popolazione in seguito a emergenze e disastri naturali. L’agenzia era interessata a trovare sistemi per convertire gli imballaggi in nuovi prodotti, possibilmente sul posto, in modo da ridurre la produzione di rifiuti e rendere meno onerosa la loro gestione.
    La richiesta portò alla presentazione di progetti da vari centri di ricerca e al finanziamento da parte della DARPA di alcuni di quelli più promettenti. Uno di questi è gestito dalla Michigan Technological University (MTU) e consiste nell’impiegare sostanze e microorganismi per degradare la plastica e trasformarla in qualcos’altro. Il sistema per ora è dedicato a ricavare materiale organico che sia commestibile, mentre solo in un secondo momento si penserà ai modi in cui utilizzarlo.
    La plastica viene triturata e successivamente inserita in un reattore dove viene aggiunto l’idrossido di ammonio (il composto chimico che in soluzione acquosa chiamiamo ammoniaca) ad alta temperatura. Non tutta la plastica è uguale, la parola stessa è un termine ombrello che usiamo per riferirci a materiali molto diversi tra loro, di conseguenza non tutto ciò che viene sottoposto al trattamento reagisce allo stesso modo.

    Alcuni tipi di plastica come il polietilene tereftalato (PET), il materiale con cui sono solitamente fatte le bottiglie, si disgrega dopo questo primo passaggio, mentre altre plastiche hanno necessità di ulteriori trattamenti ad alte temperature e in assenza di ossigeno, che vengono effettuati in un reattore a parte. Le plastiche di questo tipo possono essere convertite in carburante oppure in sostanze lubrificanti, entrambe utili in un ipotetico scenario in cui il processo possa essere eseguito direttamente sul campo dai soldati come richiesto dalla DARPA.
    Ciò che si è ottenuto dal PET con il passaggio nel reattore viene invece dato in pasto a colonie di batteri, in grado di nutrirsi della plastica, che ha tra i propri componenti anche composti organici. Come ha raccontato al sito Undark, il gruppo di ricerca della MTU inizialmente riteneva che trovare i batteri più adatti per nutrirsi della plastica processata avrebbe richiesto molto tempo, ma le cose sono andate diversamente. In breve tempo, il gruppo di ricerca ha infatti notato che i batteri che normalmente degradano il compost (fatto per lo più di rifiuti e scarti alimentari) si adattano facilmente alla plastica trattata nel reattore. L’ipotesi è che la struttura a livello molecolare di alcuni composti delle piante abbia alcune caratteristiche in comune con ciò che viene processato con l’idrossido di ammonio, favorendo il banchetto dei batteri.
    Dopo che i batteri hanno consumato e trasformato la plastica, la poltiglia che si ottiene viene fatta essiccare fino a ottenere una polvere che contiene i principali macronutrienti: proteine, carboidrati e grassi. Il gruppo di ricerca ne ha elencato le caratteristiche in uno studio pubblicato lo scorso anno sulla rivista Trends in Biotechnology, ma il passaggio dal bidone della plastica alle razioni dei soldati o dei piatti in qualche ristorante non sarà così immediata.
    Da tempo si discute sull’opportunità di utilizzare particolari batteri e altri microrganismi come fonte di proteine e di altre sostanze nutrienti. La loro coltivazione richiede meno risorse e acqua rispetto a ciò che viene coltivato nei campi e per questo c’è chi sostiene che potrebbero affiancare la produzione di cibo più tradizionale riducendo l’impatto ambientale dell’intera catena alimentare. Le stime variano sensibilmente, ma si ritiene che circa un terzo di tutte le emissioni di gas serra sia prodotto dal settore alimentare.
    La polvere ottenuta dal processo messo a punto dalla MTU è stata testata senza trovare per ora sostanze note per essere tossiche. Il preparato è stato dato in pasto ad alcuni nematodi (vermi cilindrici) senza conseguenze e sono stati avviati test sui ratti, per effettuare osservazioni in periodi di tempo più lunghi rispetto alle settimane di vita dei nematodi. I risultati dai test sui ratti saranno essenziali per procedere con una prima richiesta alla Food and Drug Administration (FDA), l’agenzia governativa statunitense che tra le altre cose si occupa di sicurezza alimentare, per dichiarare il consumo della plastica trasformata in cibo sicuro per gli esseri umani.
    Non è comunque ancora detto che la sperimentazione porti a qualche risultato concreto, come del resto spesso avviene con i progetti finanziati dalla DARPA. L’agenzia è nota per promuovere iniziative di ricerca molto ambiziose se non impossibili da realizzare, confidando che almeno alcune delle sperimentazioni avviate portino da qualche parte. Il cibo dalla plastica potrebbe rivelarsi molto utile per migliorare la gestione della logistica, considerato che il trasferimento di cibo e rifornimenti è uno degli aspetti più onerosi per gli eserciti soprattutto se attivi in territori lontani dal loro paese, come avviene quasi sempre nel caso degli Stati Uniti.
    Se dovesse rivelarsi sicuro e affidabile, il sistema per convertire alcuni tipi di plastica in cibo potrebbe essere adottato in futuro per scopi civili, ma lo stesso gruppo di ricerca della MTU ha qualche dubbio in proposito. Stephen Techtmann, uno dei responsabili del progetto, ha detto sempre a Undark che potrebbe essere molto difficile convincere le persone a mangiare qualcosa che è stato ottenuto mettendo all’ingrasso dei batteri con la plastica, mentre ci potrebbero essere maggiori opportunità in particolari circostanze legate a strette necessità di sopravvivenza nelle emergenze: «Penso ci possa essere qualche preoccupazione in meno sul fattore disgusto nel caso in cui si tratti di un: “Questo mi terrà in vita per un altro paio di giorni”».
    I batteri sono comunque strettamente legati alla nostra alimentazione, come alcuni tipi di funghi e altri microrganismi. Li ingeriamo quando mangiamo un vasetto di yogurt, assaggiamo un formaggio o proviamo del kimchi e altri cibi fermentati. Oltre a rendere più semplici e sicuri da conservare alcuni elementi, contribuiscono alla salute del microbiota, cioè l’insieme dei microrganismi che vivono nel nostro intestino e che ci aiutano a digerire gli alimenti e a regolare numerose altre attività dell’organismo. Naturalmente non tutti i batteri sono commestibili (alcuni possono causare gravi danni) e per questo sono necessarie verifiche sulla sicurezza alimentare.
    I batteri impiegati da millenni per la produzione dello yogurt partono dal latte, quindi da una sostanza che sappiamo essere commestibile e l’idea di usarli fa sicuramente un effetto diverso rispetto alla trasformazione in alimenti della plastica, di cui sono noti gli effetti inquinanti e tossici. Ma in chimica una sostanza può sparire nel corso di una reazione, semplicemente perché si trasforma in qualcosa di diverso, che in questo caso secondo il gruppo di ricerca potrebbe aiutare almeno in parte a sfamare il mondo. LEGGI TUTTO

  • in

    Quando finisce questo caldo?

    Caricamento playerPiù o meno dall’8 agosto l’Italia e vari altri paesi europei sono interessati da un’ondata di calore, cioè da temperature inusualmente più alte rispetto alla media, che ha fatto registrare massime superiori ai 36 o ai 38 °C in molte località. Il caldo è dovuto all’anticiclone sub-tropicale africano, un’area atmosferica di alta pressione proveniente dall’Africa che ha mantenuto il meteo mediamente stabile (lo si può immaginare come una grande montagna di aria calda che impedisce il passaggio di correnti più fresche).
    Nell’ultimo bollettino sulle ondate di calore, il ministero della Salute ha previsto per il 15 agosto il più alto livello di rischio per il caldo in 21 delle 27 città dove vengono fatti i monitoraggi, tra cui Roma, Milano, Napoli, Torino, Firenze e Bologna. Il livello di rischio più alto, che corrisponde al 3 ed è informalmente chiamato “bollino rosso”, segnala le condizioni meteorologiche che possono avere effetti negativi per la salute non solo per le persone più vulnerabili, come anziani, bambini molto piccoli e malati cronici, ma anche per le persone sane. La situazione sarà più o meno invariata anche il 16 agosto; migliorerà però fino al livello 1 a Milano e Torino.
    Nei giorni successivi le cose dovrebbero cambiare perché è previsto l’arrivo di una perturbazione proveniente dall’oceano Atlantico che porterà precipitazioni e un abbassamento delle temperature. Il servizio meteorologico dell’Aeronautica militare ha previsto temperature più o meno stazionarie per le giornate di giovedì (Ferragosto) e venerdì, e un lieve raffrescamento nel corso del fine settimana, in particolare domenica e soprattutto nelle regioni del Centro-Nord.

    Rispetto ad altre zone d’Europa, comunque, in Italia quest’estate non sono stati registrati dei particolari record di temperatura. È andata peggio alla Spagna e alla Grecia, dove le alte temperature degli ultimi giorni hanno favorito l’espansione di un vasto incendio vicino ad Atene.

    – Leggi anche: Perché si muore per il caldo LEGGI TUTTO

  • in

    L’iceberg più grande del mondo è finito in un loop

    Caricamento playerDa qualche mese l’iceberg più grande del mondo, noto con il nome di A-23A, è finito in una sorta di vortice: sta girando lentamente su se stesso, intrappolato in una corrente che si è formata tra esso e la montagna sottomarina sopra cui galleggia. L’iceberg è vicino alle isole Orcadi Meridionali, poco più di 600 chilometri a nord est della Penisola Antartica, l’estremo settentrionale del continente che si protende verso le coste del Sudamerica. È grande 3.880 chilometri quadrati, più dell’intera Valle d’Aosta, e ha un’altezza di più di trecento metri, tre volte quella del Bosco Verticale di Milano. La dimensione ne rende i movimenti impercettibili, ma dalle immagini satellitari si vede chiaramente che dallo scorso aprile ogni 24 giorni compie un giro completo su se stesso: se dureranno ancora per molto, questi movimenti ininterrotti potrebbero portare al suo scioglimento, con conseguenze sull’ecosistema marino.

    L’iceberg è in un’area dell’oceano Antartico conosciuta come “vicolo degli iceberg”: di solito i grossi iceberg ci passano velocemente per dirigersi poi altrove grazie alle correnti. Questo non è successo all’iceberg A-23A: è rimasto intrappolato in una cosiddetta “colonna di Taylor”, una corrente che si forma attorno alle montagne sottomarine creando proprio una sorta di vortice che fa ruotare lentamente l’acqua in senso antiorario attorno alla cima. La montagna sottomarina su cui sta ruotando l’A-23A è larga circa 100 chilometri e alta circa mille metri.
    Non sembra possibile stabilire per quanto tempo l’iceberg rimarrà lì e quali saranno le conseguenze. I ricercatori che ne seguono la traiettoria sostengono che il fatto che si sia bloccato in acque ancora fredde ne abbia posticipato lo scioglimento, a cui solitamente vanno comunque incontro gli iceberg che si dirigono a nord, dove le acque sono più calde. Se trascorresse un periodo prolungato nel vortice, potrebbe comunque finire per sciogliersi in modo significativo a causa del movimento, e danneggiare così l’ecosistema marino della zona. Secondo alcuni studiosi è però possibile che alla fine finisca per seguire il percorso di altri grossi iceberg, come quello dell’A-68A, che nel 2020 aveva ruotato per qualche mese un po’ più a ovest rispetto a dov’è ora l’A-23A prima di liberarsi dalle correnti e dirigersi verso acque più calde, e finire per sciogliersi comunque.

    L’iceberg A-23A aveva già avuto un percorso tormentato, a partire da quando nel 1986 si era staccato da un altro iceberg, l’A-23, uno dei tre che si erano staccati quell’anno dalla piattaforma di ghiaccio Filchner-Ronne, nel mare di Weddell, in Antartide. Da allora era rimasto fermo per 34 anni.
    È piuttosto comune per gli iceberg più grandi rimanere fermi per molto tempo: il grande spessore del ghiaccio ne ostacola infatti la deriva, soprattutto nelle acque intorno alla Penisola Antartica e in quelle del mare di Weddell, che sono relativamente basse. Capita dunque che gli iceberg più grandi si incaglino, restino fermi per un po’, ruotando lievemente su loro stessi, prima di riuscire a superare le asperità del fondale e raggiungere acque più profonde.
    Nel 2020 l’A-23A ha iniziato ad allontanarsi. Alex Brearley, uno studioso a capo del gruppo di ricerca della British Antarctic Survey che ne studia i movimenti, ha detto che a dicembre, quando ha guidato una spedizione, ci è voluto un giorno intero per circumnavigarlo tutto. È talmente vasto che «sembra proprio terraferma, è l’unico modo per descriverlo», ha detto Brearley al New York Times.

    Il distaccamento degli iceberg è un processo naturale molto comune e ben noto ai ricercatori, che indirettamente viene influenzato dal cambiamento climatico e dal riscaldamento delle acque. La ricerca si occupa molto dei movimenti degli iceberg, perché conoscerne dimensioni e caratteristiche è importante per prevedere come si potrebbero muovere e verso quale direzione, soprattutto per garantire la sicurezza delle rotte commerciali vicine all’Antartide. LEGGI TUTTO

  • in

    Bere il mare

    In Sicilia da alcune settimane si discute sulla riapertura del dissalatore di Porto Empedocle, in provincia di Agrigento, per trattare l’acqua di mare e renderla potabile in modo da ridurre i forti problemi legati alla siccità degli ultimi mesi. La Regione ha previsto un milione di euro di spesa e alcuni mesi di lavoro per riattivare l’impianto fermo da 12 anni, ma sono stati espressi alcuni dubbi considerati i costi. I dissalatori consumano infatti molta energia e producono acque di scarto difficili da gestire: per questo sono ancora relativamente poco utilizzati in tutto il mondo, anche se negli ultimi decenni ci sono stati progressi nel miglioramento dei sistemi per renderli più efficienti dal punto di vista energetico.Il 97 per cento dell’acqua presente sulla Terra è salato: è presente nei mari e negli oceani e non può essere bevuto né tanto meno utilizzato per l’agricoltura. Il resto dell’acqua è dolce, con il 2 per cento conservato nei ghiacciai, nelle calotte polari e negli accumuli di neve sulle montagne e l’1 per cento disponibile per le nostre esigenze e quelle dei numerosi altri organismi che per vivere hanno bisogno di acqua quasi totalmente priva di sali, a cominciare dal cloruro di sodio (NaCl, quello che comunemente chiamiamo “sale da cucina”). In media l’acqua marina contiene il 3,5 per cento circa di sale, una concentrazione sufficiente per causare danni ai reni ed essere letale.
    Quell’1 per cento di acqua dolce sarebbe più che sufficiente, se non fosse che non è distribuito uniformemente nel pianeta: ci sono aree in cui abbonda e altre in cui scarseggia, in assoluto oppure a seconda delle stagioni e delle condizioni atmosferiche. Il cambiamento climatico in corso negli ultimi decenni ha peggiorato le cose con aree che sono diventate più aride, riducendo le possibilità di accesso per milioni di persone all’acqua dolce. Stando alle stime dell’Organizzazione mondiale della sanità (OMS), circa 2 miliardi di persone vivono in zone del mondo in cui il reperimento dell’acqua è difficoltoso e solo nel 2022 almeno 1,7 miliardi di persone hanno avuto accesso per lo più ad acqua contaminata, con seri rischi per la salute.
    Considerate le difficoltà nel disporre di acqua dolce, ci si chiede spesso perché non si possa sfruttare su larga scala quella degli oceani, privandola dei sali che non la rendono bevibile. Le tecnologie per farlo ci sono da tempo e alcune furono sperimentate millenni fa, eppure non siamo ancora in grado di trasformare l’acqua di mare in acqua potabile in modo conveniente e sostenibile. In un certo senso è un grande paradosso: il pianeta è ricolmo d’acqua, ma quella che possiamo usare per sopravvivere è una minuscola frazione.
    L’oceano Pacifico è di gran lunga la più vasta distesa d’acqua salata della Terra (NOAA)
    Per molto tempo il sistema più pratico per dissalare l’acqua è consistito nell’imitare ciò che avviene in natura facendola evaporare. Grazie al calore del Sole e a quello del nostro pianeta, ogni giorno una enorme quantità di acqua evapora dagli oceani, dai fiumi e dagli altri corsi d’acqua, raggiungendo gli strati dell’atmosfera dove si formano le nuvole e di conseguenza le piogge, che porteranno l’acqua dolce a cadere al suolo. Con la “dissalazione evaporativa” si fa artificialmente qualcosa di analogo: l’acqua del mare viene scaldata e fatta evaporare, in modo che si separi da buona parte dei sali. Il vapore acqueo viene poi fatto raffreddare in modo che condensi e che si possa recuperare l’acqua quasi priva di sali.
    Negli anni sono state sviluppate varie tipologie di dissalatori evaporativi, per lo più per provare a rendere il più efficiente possibile il processo dal punto di vista energetico, ma il concetto di base rimane più o meno lo stesso. I dissalatori di questo tipo sono impiegati in molti impianti in giro per il mondo, specialmente nelle aree costiere lungo il Golfo in Medio Oriente, dove spesso si sfrutta la grande disponibilità di combustibili fossili per alimentare gli stabilimenti. Il processo richiede infatti grandi quantità di energia e per questo molti gruppi di ricerca hanno sperimentato alternative nei decenni passati.
    Il progresso più importante nelle tecnologie di dissalazione fu raggiunto negli anni Sessanta, quando fu messo a punto il processo di “osmosi inversa”. L’acqua di mare viene fatta passare ad alta pressione attraverso una membrana semipermeabile, che permette solo alle molecole d’acqua di passare dall’altra parte, obbligandola a lasciarsi alle spalle gli ioni dei sali che la rendono salata.
    In un dissalatore a osmosi inversa, l’acqua salata viene aspirata dal mare attraverso potenti pompe e fatta fluire tra grandi grate per separarla dalle impurità più grandi. L’acqua attraversa poi membrane con pori via via più piccoli per bloccare il passaggio della sabbia, dei batteri e di altre sostanze. L’acqua è infine pronta per essere spinta ad alta pressione attraverso una membrana che ha solitamente pori di dimensioni intorno a 0,1 nanometri (un nanometro è un miliardesimo di metro), tali da bloccare il passaggio dei sali, ma non delle molecole d’acqua.

    Da un punto di vista energetico, la dissalazione per osmosi inversa è più conveniente rispetto a quella per evaporazione, perché non richiede di scaldare l’acqua. Alcuni impianti sono arrivati a produrre acqua dolce con un consumo di 2 kWh (“kilowattora”) per metro cubo d’acqua, un risultato importante se si considera che negli anni Settanta il consumo era di 16 kWh per metro cubo. In media si stima che la dissalazione dell’acqua con i metodi più diffusi comporti un consumo di 3 kWh/m3 e che negli ultimi cinquant’anni si sia ridotto di circa dieci volte. L’attuale consumo è paragonabile a quello del trasporto dell’acqua su lunghe distanze verso i luoghi in cui manca, mentre è ancora lontano da quello degli impianti che forniscono localmente l’acqua dolce disponibile sul territorio.
    L’osmosi inversa, nelle sue varie declinazioni, ha contribuito più di altre tecnologie a ridurre l’impatto energetico della dissalazione, ma ha comunque i suoi limiti. A causa della forte pressione, le membrane per realizzarla devono essere sostituite di frequente e la loro costruzione è laboriosa e delicata. Inoltre, man mano che si estrae l’acqua dolce, l’acqua marina di partenza diventa sempre più salata e sempre più difficile da separare dai sali che contiene. Oltre un certo limite non si può andare e si ottiene una salamoia che deve essere gestita e smaltita.
    I livelli di efficienza variano molto a seconda degli impianti, ma in media un dissalatore a osmosi inversa produce un litro di salamoia per ogni litro di acqua dolce (ci sono analisi più o meno pessimistiche sul rapporto). Si stima che ogni giorno siano prodotti circa 140 miliardi di litri di salamoia, la maggior parte dei quali vengono dispersi nuovamente in mare. Lo sversamento avviene di solito utilizzando condotte sottomarine che si spingono lontano da quelle che effettuano i prelievi, in modo da evitare che sia aspirata acqua di mare troppo salata.
    L’impianto di desalinizzazione a Barcellona, Spagna (AP Photo/Emilio Morenatti)
    Data l’alta quantità di sali al suo interno, la salamoia è più densa della normale acqua di mare e tende quindi a rimanere sul fondale marino prima di disperdersi nel resto dell’acqua marina. La maggiore concentrazione di sali potrebbe avere conseguenze sugli ecosistemi marini e per questo il rilascio della salamoia in mare è studiato da tempo, anche se per ora le ricerche non hanno portato a trovare molti indizi sugli eventuali effetti deleteri. In alcuni paesi ci sono comunque leggi che regolamentano le modalità di sversamento, per esempio richiedendo l’utilizzo di tubature che si spingano più al largo e che abbiano molte diramazioni, in modo da rilasciare la salamoia in più punti favorendo la sua diluizione col resto dell’acqua marina.
    Lo sversamento in mare non è comunque l’unica tecnica per liberarsi della salamoia. Un’alternativa è lasciare che evapori al sole, raccogliendo poi i sali in un secondo momento per utilizzarli in altre attività industriali. È però un processo che richiede del tempo, la disponibilità di porzioni di territorio sufficientemente grandi e un clima che renda possibile l’evaporazione in buona parte dell’anno. In alternativa l’evaporazione può essere ottenuta scaldando la salamoia, ma anche in questo caso sono necessarie grandi quantità di energia e il processo non è efficiente.
    Non tutte le salamoie sono uguali perché la concentrazione di sali non è uniforme e omogenea negli oceani, per questo alcuni gruppi di ricerca stanno esplorando la possibilità di sfruttarle per ottenere minerali particolarmente richiesti. L’interesse principale è per il litio, una materia prima molto richiesta per la produzione di batterie e dispositivi elettrici. La sua estrazione viene effettuata di solito in alcune zone aride del mondo, a cominciare da quelle del Sudamerica, dove acque sature di sali vengono lasciate evaporare sotto al Sole per mesi. Sono in fase di sperimentazione sistemi alternativi di estrazione, ma separare il litio dalle altre sostanze non è semplice e richiede comunque energia.
    In Arabia Saudita, uno dei paesi che hanno più investito nello sviluppo di tecnologie di dissalazione a causa della ricorrente mancanza di acqua dolce, è in progettazione un impianto per estrarre dalla salamoia ulteriore acqua da rendere potabile e al tempo stesso ottenere cloruro di sodio. Questa sostanza è fondamentale per molti processi dell’industria chimica, ma deve avere un alto livello di purezza difficile da raggiungere tramite i classici processi di desalinizzazione. L’impianto utilizzerà particolari membrane per separare le impurità e produrre di conseguenza del cloruro di sodio puro a sufficienza, almeno nelle intenzioni dei responsabili dell’iniziativa.
    Altri gruppi di ricerca si sono invece orientati verso il perfezionamento di tecniche che prevedono l’applicazione di una corrente elettrica per diluire la salamoia, in modo da poter estrarre più quantità di acqua dolce attraverso l’osmosi inversa. Ulteriori approcci prevedono invece l’impiego di solventi chimici che a basse temperature favoriscono la separazione delle molecole d’acqua dal resto, permettendo di nuovo un maggiore recupero di acqua dolce dalla salamoia.
    Come ha spiegato al sito di Nature un ingegnere ambientale della Princeton University (Stati Uniti): «Per molti anni abbiamo mancato il bersaglio. Ci siamo concentrati sull’acqua come un prodotto: secondo me, l’acqua dovrebbe essere un prodotto secondario di altre risorse». L’idea, sempre più condivisa, è che per rendere economicamente vantaggiosa la desalinizzazione ci si debba concentrare sulle opportunità derivanti dallo sfruttamento delle sostanze di risulta, lasciando l’acqua dolce a tutti e senza costi. Non tutti sono però convinti della sostenibilità di questa impostazione, soprattutto per la sostenibilità in generale del settore.
    I dissalatori attivi nel mondo sono circa 15-20mila con dimensioni, capacità e tecnologie impiegate che variano a seconda dei paesi e delle necessità. Si stima che dall’acqua dolce prodotta con la desalinizzazione dipendano almeno 300 milioni di persone, anche se le stime variano molto ed è difficile fare calcoli precisi. L’impatto energetico dei dissalatori è però ancora molto alto e di conseguenza il costo di ogni litro di acqua dolce prodotto in questo modo rispetto ai luoghi dove l’acqua dolce è naturalmente disponibile.
    Un operaio al lavoro sui filtri di un impianto di dissalazione a San Diego, California, Stati Uniti (AP Photo/Gregory Bull)
    Gli impianti per dissalare l’acqua sono generalmente più convenienti quando possono essere costruiti direttamente in prossimità delle aree dove scarseggia l’acqua dolce, ma solo in alcune parti del mondo le zone aride si trovano lungo aree costiere. Per le comunità che vivono in luoghi siccitosi lontano dai mari il trasporto dell’acqua deve essere comunque gestito in qualche modo. Ci sono quindi casi in cui è più economico trasportare acqua dolce da una fonte distante rispetto a desalinizzare quella di mare.
    In futuro la desalinizzazione potrebbe riguardare una quantità crescente di persone a causa dell’aumento della salinità di alcune riserve d’acqua soprattutto lungo le aree costiere. L’aumento della temperatura media globale ha reso più intensi i processi di evaporazione in certe aree del mondo, influendo sulla concentrazione dei sali anche nei corsi d’acqua dolce. L’innalzamento dei mari, sempre dovuto al riscaldamento globale, è visto come un altro rischio per la contaminazione delle falde acquifere vicino alle coste che potrebbero aumentare le quantità di sali.
    I più ottimisti sostengono che i problemi energetici legati ai dissalatori potranno essere superati grazie allo sviluppo delle centrali nucleari a fusione, che metteranno a disposizione enormi quantità di energia a una frazione dei prezzi attuali. La fusione porterebbe certamente a una riduzione del costo dell’energia senza paragoni nella storia umana, ma il suo sviluppo procede a rilento e richiederà ancora decenni, ammesso che possa mai portare a qualche applicazione tecnica su larga scala.
    Invece di fare affidamento su tecnologie di cui ancora non disponiamo, gli esperti consigliano di ripensare il modo in cui utilizziamo l’acqua dolce, riducendo il più possibile gli sprechi e ottimizzando i consumi in modo da avere necessità dei dissalatori solo dove non ci sono alternative. Nelle aree esposte stagionalmente alla siccità si dovrebbero invece costruire bacini per l’accumulo e la conservazione dell’acqua piovana, per esempio, insieme a impianti per la purificazione e il riciclo delle acque reflue. LEGGI TUTTO

  • in

    Lo scorso giugno è stato il più caldo mai registrato

    Secondo il Climate Change Service di Copernicus, il programma di collaborazione scientifica dell’Unione Europea che si occupa di osservazione della Terra, il mese di giugno è stato il più caldo mai registrato sulla Terra. La temperatura media globale è stata di 16,66 °C, cioè 0,14 °C più alta del precedente record, del giugno del 2023. Inoltre lo scorso giugno è stato il tredicesimo mese consecutivo considerato il più caldo mai registrato a livello globale rispetto ai mesi corrispondenti degli anni passati. Le stime di Copernicus sono realizzate usando diversi tipi di dati, tra cui le misurazioni dirette della temperatura fatte da reti di termometri presenti sulla terra e in mare e le stime dei satelliti. LEGGI TUTTO

  • in

    Le navi cargo dovrebbero andare più lentamente

    Caricamento playerBuona parte degli oggetti che usiamo ogni giorno, dai cellulari agli abiti passando per le banane, ha attraversato almeno un oceano dal momento in cui è stata prodotta a quello in cui è stata venduta. Ogni giorno migliaia di navi trasportano merci di ogni tipo producendo annualmente tra il 2 e il 3 per cento di tutta l’anidride carbonica che viene immessa nell’atmosfera attraverso le attività umane. È un settore con una forte dipendenza dai combustibili fossili, ma che potrebbe diminuire sensibilmente le proprie emissioni ricorrendo a una soluzione all’apparenza semplice, quasi banale: ridurre la velocità.
    L’idea non è di per sé rivoluzionaria – si conoscono da tempo gli intervalli entro cui mantenersi per ottimizzare i consumi – ma applicarla su larga scala non è semplice soprattutto in un settore dove la velocità viene spesso vista come una priorità e un valore aggiunto. Se si cambia il modo in cui sono organizzati i trasporti marittimi ci sono conseguenze per molti altri settori, che dipendono dalle consegne delle materie prime o dei prodotti finiti. Un ritardo può avere effetti sulla capacità di un’azienda di produrre automobili o di consegnarle in tempo nei luoghi del mondo dove la domanda per le sue auto è più alta, per esempio.
    La necessità di ridurre il rischio di ritardi ha portato a una pratica piuttosto comune nel settore nota come “Sail fast, then wait”, letteralmente: “Naviga veloce, poi aspetta”. Spesso le navi cargo effettuano il più velocemente possibile il proprio viaggio in modo da arrivare quasi sempre in anticipo a destinazione rispetto al momento in cui avranno il loro posto in porto per scaricare le merci. L’attesa in alcuni casi può durare giorni, nei quali le navi restano ferme al largo prima di ricevere l’assegnazione di un posto.
    Il “naviga veloce, poi aspetta” è diventato la norma per molti trasportatori marittimi in seguito all’adozione da parte di molte aziende della strategia “just in time”, che prevede di ridurre il più possibile i tempi di risposta delle aziende alle variazioni della domanda. È un approccio che ha tra gli obiettivi la riduzione al minimo dei tempi di magazzino, rendendo idealmente possibile il passaggio diretto dall’impianto di produzione al cliente finale. Ciò consente di ridurre i costi di conservazione delle merci e i rischi di avere periodi con molti prodotti invenduti, ma comporta una gestione molto più precisa delle catene di rifornimento perché un ritardo di un singolo fornitore o di una consegna può fare inceppare l’intero meccanismo.
    Chi si occupa del trasporto delle merci deve quindi garantire il più possibile la puntualità delle consegne: di conseguenza adotta varie strategie per ridurre i rischi di ritardi dovuti per esempio alle condizioni del mare poco favorevoli o imprevisti burocratici. In molti casi sono i clienti stessi a chiedere garanzie ai trasportatori sul ricorso al “naviga veloce, poi aspetta” per la gestione delle loro merci. Il risultato è in media un maggior consumo di carburante per raggiungere le destinazioni in fretta e una maggiore quantità di emissioni di gas serra, la principale causa del riscaldamento globale.
    Per provare a cambiare le cose e a ridurre consumi ed emissioni del settore, un gruppo di aziende e di istituzioni partecipa a Blue Visby Solution, una iniziativa nata pochi anni fa e che di recente ha avviato le prime sperimentazioni di un nuovo sistema per far rallentare le navi e ridurre i tempi di attesa nei porti. Il sistema tiene traccia delle navi in partenza e in arrivo e utilizza algoritmi e modelli di previsione per stimare l’affollamento nei porti, in modo da fornire alle singole navi indicazioni sulla velocità da mantenere per arrivare al momento giusto in porto. I modelli tengono in considerazione non solo il traffico marittimo, ma anche le condizioni meteo e del mare.
    (Cover Images via ZUMA Press)
    Il sistema è stato sperimentato con simulazioni al computer utilizzando i dati reali sulle rotte e il tempo impiegato per percorrerle di migliaia di navi cargo, in modo da verificare come le modifiche alla loro velocità potessero ridurre i tempi di attesa, i consumi e di conseguenza le emissioni di gas serra. Terminata questa fase di test, tra marzo e aprile di quest’anno Blue Visby ha sperimentato il sistema in uno scenario reale, grazie alla collaborazione con un produttore di cereali australiano che ha accettato di rallentare il trasporto da parte di due navi cargo delle proprie merci in mare.
    Il viaggio delle due navi cargo è stato poi messo a confronto con simulazioni al computer degli stessi viaggi effettuati alla normale velocità. Secondo Blue Visby, i viaggi rallentati hanno prodotto tra l’8 e il 28 per cento in meno di emissioni: l’ampio intervallo è dovuto alle simulazioni effettuate in scenari più o meno ottimistici, soprattutto per le condizioni meteo e del mare. Il rallentamento delle navi ha permesso di ridurre emissioni e consumi, con una minore spesa per il carburante. Parte del risparmio è servita per compensare i maggiori costi operativi legati al periodo più lungo di navigazione, ha spiegato Blue Visby.
    I responsabili dell’iniziativa hanno detto a BBC Future che l’obiettivo non è fare istituire limiti alla velocità di navigazione per le navi cargo, ma offrire un servizio che ottimizzi i loro spostamenti e il tempo che dividono tra la navigazione e la permanenza nei porti o nelle loro vicinanze. Il progetto non vuole modificare la durata di un viaggio, ma intervenire su come sono distribuite le tempistiche al suo interno. Se per esempio in un porto si forma una coda per l’attracco con lunghi tempi di attesa, Blue Visby può comunicare a una nave in viaggio verso quella destinazione di ridurre la velocità ed evitare lunghi tempi di attesa in prossimità del porto.
    La proposta ha suscitato qualche perplessità sia perché per funzionare bene richiederebbe la collaborazione per lo meno delle aziende e dei porti più grandi, sia perché potrebbero sempre esserci navi che decidono di mettere in pratica il “naviga veloce, poi aspetta”, magari per provare ad avvantaggiarsi rispetto a qualche concorrente. I sostenitori di Blue Visby riconoscono questo rischio, ma ricordano anche che i nuovi regolamenti e le leggi per ridurre le emissioni da parte del settore dei trasporti marittimi potrebbero favorire l’adozione del nuovo sistema, che porta comunque a una minore produzione di gas serra.
    (AP Photo/POLFOTO, Rasmus Flindt Pedersen)
    Il nuovo approccio non funzionerebbe comunque per tutti allo stesso modo. È considerato applicabile soprattutto per le navi portarinfuse, cioè utilizzate per trasportare carichi non divisi in singole unità (per esempio cereali o carbone), visto che hanno quasi sempre un solo cliente di riferimento e sono maggiormente coinvolte nella consegna di materie prime. Il sistema è invece ritenuto meno adatto per le navi portacontainer, che di solito coprono quasi sempre le stesse rotte e con i medesimi tempi per ridurre il rischio di girare a vuoto o di rimanere a lungo nei porti.
    Rallentare alcune tipologie di navi cargo potrebbe ridurre le emissioni, ma non può comunque essere considerata una soluzione definitiva al problema delle emissioni prodotte dal trasporto marittimo delle merci. Da tempo si discute della necessità di convertire le navi a carburanti meno inquinanti e di sperimentare sistemi ibridi, che rendano possibili almeno in parte l’impiego di motori elettrici e la produzione di energia elettrica direttamente a bordo utilizzando pannelli solari e pale eoliche.
    Il settore, insieme a quello aereo, è considerato uno dei più difficili da convertire a soluzioni meno inquinanti, anche a causa dell’attuale mancanza di alternative. Oltre alle condizioni meteo e del mare, i trasporti attraverso gli oceani sono inoltre esposti ai rischi legati alla pirateria e agli attacchi terroristici, che portano gli armatori a rivedere le rotte in alcuni casi allungandole e rendendo di conseguenza necessaria una maggiore velocità di navigazione per rispettare i tempi delle consegne. LEGGI TUTTO