More stories

  • in

    Manca tantissimo per sfruttare la fusione nucleare

    Caricamento playerLa presidente del Consiglio Giorgia Meloni ha citato l’importanza della fusione nucleare per produrre energia elettrica nel corso del suo discorso alla 29esima conferenza delle Nazioni Unite per il contrasto al cambiamento climatico (COP29), prospettando un futuro che è però ancora molto lontano e secondo i più scettici addirittura impossibile da realizzare. Nel suo intervento Meloni ha detto che, oltre a mantenere i propri impegni nella riduzione delle emissioni di gas serra e nel sostenere i paesi in via di sviluppo, l’Italia è «in prima linea» nello sviluppo della fusione nucleare e che questa sarà essenziale per arricchire la varietà di risorse impiegate per produrre energia elettrica senza ricorrere ai combustibili fossili. In realtà, sarà ancora necessario tantissimo tempo per avere qualche risultato.
    Nonostante anni di lavoro, la ricerca nel settore è infatti ancora indietro e potrebbero essere necessari decenni prima di avere un impiego a livello commerciale delle tecnologie legate alla fusione. Per questo motivo molti esperti ritengono che indicare la fusione nucleare come la soluzione a buona parte dei problemi delle emissioni, che contribuiscono al riscaldamento globale, sia una distrazione e che ci si dovrebbe concentrare sulle tecnologie già disponibili per produrre quanta più energia elettrica possibile utilizzando fonti rinnovabili e – in una certa misura – le tecnologie nucleari di cui già disponiamo basate sulla fissione.
    Da più di mezzo secolo produciamo infatti energia elettrica dal nucleare attraverso la fissione, cioè una reazione in cui i nuclei di atomi pesanti (come gli isotopi plutonio 239 e uranio 235) vengono indotti a spezzarsi, con un processo che libera una grande quantità di energia termica. Questa viene sfruttata per trasformare acqua ad alta pressione in vapore, che fa poi girare turbine cui sono collegati alternatori per produrre energia elettrica. È un sistema che dopo gli importanti investimenti iniziali per costruire un reattore, dove la reazione di fissione viene tenuta sotto controllo, permette di produrre energia elettrica a costi contenuti e con un basso impatto ambientale rispetto alla produzione dai combustibili fossili.
    La fissione comporta però la produzione di residui altamente pericolosi, le “scorie radioattive”, che devono essere conservati con cura e isolati dall’ambiente circostante. Per questo da tempo si cercano alternative, provando a imitare la fonte più grande di energia nelle nostre vicinanze: il Sole.
    Mentre nella fissione i nuclei pesanti vengono spezzati in frammenti più piccoli, nella fusione si uniscono i nuclei leggeri (come quello dell’idrogeno) per ottenerne di più pesanti. Nel processo si formano nuovi nuclei la cui massa è minore rispetto alla somma delle masse di quelli di partenza: ciò che manca è emesso come energia, che può poi essere sfruttato. È un processo semplice da descrivere, ma estremamente difficile da riprodurre artificialmente sulla Terra in modo da ottenere più energia di quanta ne venga immessa nel sistema.
    I nuclei di deuterio e di trizio (due forme più pesanti di idrogeno) si uniscono formando un nucleo di elio; la reazione libera un neutrone ed energia (Zanichelli)
    I nuclei degli atomi tendono a respingersi a vicenda (repulsione elettrica) e sono quindi necessarie temperature nell’ordine di vari milioni di °C per farli unire. Negli anni si è ottenuto qualche risultato su piccola scala, ma nelle sperimentazioni si consuma quasi sempre più energia per gestire il processo rispetto a quella che si ottiene alla fine. Il bilancio energetico è quindi negativo e il sistema non è efficiente a sufficienza. I progressi annunciati negli ultimi anni spesso con grande enfasi sono quasi sempre legati al raggiungimento di una migliore efficienza, ma i risultati sono distanti da un sistema che possa essere impiegato su larga scala e con chiari vantaggi economici.
    L’ambito di ricerca è talmente vasto e articolato da avere portato negli anni all’avvio di alcune collaborazioni internazionali, con l’obiettivo di condividere le conoscenze e i risultati. Tra le più importanti c’è ITER, progetto che coinvolge più di 30 paesi per costruire un primo reattore sperimentale a Cadarache, nel sud della Francia. Al consorzio partecipano tra gli altri l’Unione Europea, gli Stati Uniti, l’India e il Giappone. ITER ha subìto numerosi ritardi, ha richiesto svariati miliardi di investimenti e si stima che una centrale dimostrativa basata sulle ricerche di ITER non sarà pronta prima del 2050, ammesso sia possibile realizzarne una.
    Il sito di ITER in fase di costruzione in Francia (Commissione europea)
    Negli ultimi anni la Cina ha investito grandi risorse nella ricerca sulla fusione. All’Istituto di fisica del plasma dell’Accademia delle scienze a Hefei gli esperimenti principali sono legati al “Tokamak superconduttore avanzato sperimentale” (EAST), una sorta di grande ciambella dove si provano a riprodurre le reazioni nucleari che avvengono nel Sole. In media vengono effettuati circa 100 test al giorno, contro i 20-30 realizzati quotidianamente nel principale centro di ricerca sulla fusione in Europa. I ritmi dei gruppi di ricerca cinesi sono serrati per recuperare il divario tecnologico e rendersi ancora più competitivi.
    I tokamak sono grandi macchine sperimentali a forma di ciambella (“toroidali”) nelle quali si producono il vuoto e un intenso campo magnetico necessari per isolare (o per meglio dire “confinare”) il plasma (un fluido estremamente caldo e carico elettricamente), in modo che non entri in contatto con le pareti della ciambella. Si ritiene che in questo modo si possano creare le condizioni per la fusione termonucleare in modo controllato, ma per farlo sono necessari un importante dispendio di energia e la regolazione della densità del plasma stesso, cioè della quantità di particelle presenti al suo interno.
    Il Tokamak di JET nell’Oxfordshire, nel Regno Unito (JET)
    Più il plasma è denso e più frequentemente le particelle possono scontrarsi e fondersi, liberando energia. Un plasma molto denso è però più difficile da confinare con il campo magnetico generato dal tokamak e si deve quindi trovare un equilibrio tra la densità e la qualità del confinamento. Solo in questo modo si ottiene una reazione di fusione attiva e sostenibile, producendo più energia di quella necessaria per mantenere il plasma confinato.
    Nella primavera di quest’anno, un gruppo di ricerca della National Fusion Facility di San Diego (California) ha annunciato di avere ottenuto per un paio di secondi un progresso significativo nella densità del plasma, pur mantenendo un buon confinamento grazie a una nuova configurazione del tokamak. Le conoscenze acquisite con l’esperimento potrebbero essere applicate al reattore di ITER, migliorando la sua capacità di produzione dell’energia elettrica, ma anche per questo saranno necessari anni di lavoro.
    Un approccio alternativo ai tokamak prevede invece l’impiego di potenti laser, che convogliano in contemporanea un impulso luminoso verso un minuscolo cilindro di metallo, che raggiunge in pochi istanti una temperatura intorno ai 3 milioni di °C. Il cilindro viene vaporizzato e si produce un’implosione che comprime una sfera di pochi millimetri di deuterio e trizio, due forme più pesanti di idrogeno. L’implosione fa sì che i due elementi fondano in elio, producendo la fusione vera e propria. Anche in questo caso, il problema rimane il bilancio energetico.
    Alla COP29 Meloni ha citato la fusione nucleare anche per ricordare il recente incontro del World Fusion Energy Group, un gruppo di lavoro organizzato dal ministero degli Esteri e dall’Agenzia internazionale per l’energia atomica (AIEA) che si è riunito per la prima volta a Roma lo scorso 6 novembre. Il gruppo ha lo scopo di promuovere la cooperazione internazionale tra governi, centri di ricerca e imprese per la condivisione di conoscenze sulla fusione e la definizione di standard condivisi. Il governo ha legato il suo avvio alle attività connesse alla transizione energetica, ma al momento appare improbabile che una tecnologia distante decenni da eventuali applicazioni commerciali possa avere un ruolo nel passaggio dal consumo dei combustibili fossili a fonti sostenibili per la produzione di energia elettrica.
    Fare previsioni sulla fusione nucleare è pressoché impossibile e secondo i più scettici non si riuscirà mai a ottenere sistemi efficienti per la produzione di energia elettrica. Al di là degli annunci politici, le aspettative rimangono comunque alte, con miliardi di euro investiti a livello mondiale per finanziare ricerca e sviluppo per una tecnologia che segnerebbe una trasformazione radicale nella produzione di energia elettrica, che diventerebbe enormemente più economica e accessibile. LEGGI TUTTO

  • in

    Cos’è esattamente la biodiversità

    Il 21 ottobre a Cali, in Colombia, è cominciata la 16esima conferenza delle Nazioni Unite sulla biodiversità, che come le edizioni precedenti ha l’obiettivo di preservare la ricchezza di specie viventi del pianeta, anche a beneficio dell’umanità. Le conferenze sulla biodiversità sono iniziative analoghe alle conferenze sul clima, e a loro volta sono chiamate “COP”, ma si tengono ogni due anni. Quella appena iniziata è considerata particolarmente importante: alla fine della precedente, con l’accordo di Kunming-Montreal del 2022, i paesi del mondo si erano impegnati a rendere aree protette il 30 per cento delle superfici terrestri e delle superfici marine del pianeta entro il 2030, e a questo giro devono dire come pensano di farlo concretamente, con appositi piani nazionali.Al di là della conferenza delle Nazioni Unite e del contesto scientifico, il concetto di biodiversità è menzionato comunemente sui giornali, compare ogni tanto nei discorsi dei politici e nei messaggi promozionali delle aziende e due anni fa è stato introdotto anche nella Costituzione italiana. Tuttavia di frequente viene usato a sproposito, ad esempio quando si parla di agricoltura, forse anche perché sebbene si possa dire cosa si intenda con “biodiversità” con poche parole, non è così immediato spiegare perché è importante e, tra le altre cose, utile per l’umanità.
    La parola “biodiversità” cominciò a essere usata nella sua versione inglese intorno alla metà degli anni Ottanta, dopo essere stata probabilmente introdotta dallo scienziato statunitense Walter G. Rosen. Deriva dalla crasi dell’espressione “diversità biologica”, che tiene insieme tre diverse forme di variabilità che riguardano gli ambienti naturali.
    La prima è la diversità genetica tra individui di una stessa specie, cioè la ricchezza di caratteristiche diverse nel patrimonio genetico di un’unica specie.
    La seconda forma di biodiversità è la diversità di specie in un dato ecosistema, che si può misurare contandole; per avere un quadro completo bisogna comunque considerare anche l’abbondanza relativa tra le specie che condividono uno stesso ecosistema, cioè se i rapporti numerici tra le popolazioni delle diverse specie permettono di mantenere un buon equilibrio nella loro coesistenza. E bisogna tenere conto non solo di animali e piante, ma anche di funghi, batteri e archei; dunque non solo di organismi che si vedono ma anche di quelli, generalmente molto numerosi, che risultano invisibili per le loro dimensioni ridotte o perché vivono nel suolo, o all’interno di altri organismi. Tutte le specie che vivono in un certo ambiente hanno rapporti di dipendenza l’una dall’altra (perché alcune si cibano di altre, ma non solo) e quindi devono essere considerate insieme.
    Infine c’è la diversità ecosistemica, ovvero il numero di diversi ecosistemi in un’unica regione.
    Le tre forme di biodiversità rendono la vita in un ambiente naturale più resiliente in caso di grossi cambiamenti, come quelli causati dalle attività umane, per quanto riguarda il clima e non solo. Ad esempio, maggiore è la biodiversità genetica, più una specie è adattabile, cioè ha probabilità di conservarsi: rappresenta infatti il suo potenziale evolutivo. Ma anche le altre forme di biodiversità rendono gli ambienti naturali più resistenti.
    Preservare la biodiversità comunque non è importante solo per il valore intrinseco degli ambienti naturali e delle specie che li abitano, ma anche per ragioni utilitaristiche che riguardano gli esseri umani. Per esempio gli insetti impollinatori hanno un ruolo importante nella riproduzione delle piante. Un gran numero di altri organismi viventi contribuisce a mantenere il suolo fertile, a decomporre i rifiuti, a pulire i corsi d’acqua e a fornire risorse alimentari e di sussistenza (la caccia e la raccolta di frutti spontanei sono ancora importanti per le comunità di persone in molte parti del mondo): si usa l’espressione “servizi ecosistemici” per comprendere tutti questi aspetti. Nei paesi meno ricchi, la perdita di biodiversità generalmente si lega a un aumento della povertà, magari non sul breve periodo, ma nel tempo.
    La biologia di altre specie inoltre può essere utile da studiare per consentire il progresso scientifico. Vale in ambito farmaceutico, per la ricerca di nuove molecole con effetti terapeutici che possono essere contenute in piante, funghi e via dicendo, ma anche per altri campi: le soluzioni “trovate” nel processo evolutivo per la risoluzione di un problema (per esempio, la struttura delle zampe dei gechi che permette loro di stare attaccati a pareti verticali e soffitti) possono darci delle idee su come realizzare nuove tecnologie. Infine, nella società contemporanea, la ricchezza degli ambienti naturali può essere una risorsa per le attività turistiche.
    Può sembrare che solo certe specie abbiano un’utilità per l’umanità, ma in realtà dato che gli ecosistemi sono basati su relazioni di interdipendenza, anche tutte le altre sono importanti.

    – Leggi anche: Dovremmo sterminare tutte le zanzare?

    Per garantire la conservazione della biodiversità tuttavia servono addirittura delle conferenze delle Nazioni Unite perché le attività umane causano in vari modi una sua riduzione. Le tre principali cause di perdita di biodiversità sono la riduzione degli habitat naturali, che avviene quando un territorio selvaggio viene sfruttato per qualche ragione dalle persone, il cambiamento climatico, e l’introduzione di specie aliene, che possono alterare gli equilibri di coesistenza preesistenti negli ecosistemi.
    Secondo il più recente rapporto sul Living Planet Index (letteralmente “indice della vitalità del pianeta”), realizzato dalla nota organizzazione ambientalista internazionale WWF e dall’organizzazione accademica Zoological Society of London, dal 1970 al 2020 le dimensioni medie delle popolazioni globali di animali vertebrati selvatici sono diminuite del 73 per cento. Complessivamente, nonostante i successi ottenuti da molte iniziative per la conservazione della natura, la biodiversità è diminuita notevolmente secondo il rapporto. È un problema noto da tempo, ed è per questo che dal 1992 i paesi delle Nazioni Unite si riuniscono per parlare di biodiversità.
    L’Italia è spesso descritta come un paese con una grande biodiversità, nonostante il suo territorio sia stato profondamente modificato dalle attività umane per più di due millenni. Evelina Isola, naturalista dell’Istituto Oikos, un’organizzazione non profit che lavora per la conservazione della biodiversità in Italia e in vari altri paesi del mondo, spiega: «L’Italia detiene un primato, è il paese con più biodiversità in Europa, e questo è dovuto alla sua storia geologica. Nel nostro paese infatti, sebbene sia relativamente piccolo, ci sono tre zone bio-geografiche diverse, quella mediterranea, quella alpina e quella continentale».
    La biodiversità italiana non è comparabile a quella delle foreste tropicali, note per ospitare un grandissimo numero di specie vegetali e animali diverse, ma nel paese ci sono «tantissime specie endemiche, ossia presenti solo all’interno del territorio italiano» e alcune di queste sono «specie endemiche ristrette, che cioè sono presenti solo in territori limitatissimi». È così per via della forma della penisola italiana, che crea molta varietà di ecosistemi vicini tra loro. C’è poi da considerare che fa parte della biodiversità italiana anche la biodiversità marina del Mediterraneo.
    Non si possono però considerare ambienti con una grande biodiversità le pianure italiane che sono prevalentemente sfruttate per l’agricoltura intensiva. Capita spesso di sentir parlare di biodiversità in riferimento alle varietà vegetali coltivate, ma è un equivoco. Per quanto la disponibilità di varietà agricole alternative possa essere una risorsa in caso di diffusione di malattie delle piante o di siccità, si tratta comunque di organismi viventi la cui presenza nell’ambiente dipende ed è regolata dall’attività umana: non dalle interazioni con altre specie. Un po’ diverso è il caso delle aree in cui si pratica una agricoltura di piccola scala: «C’è biodiversità nei contesti in cui ci sono le cosiddette zone ecotonali», spiega Isola, «che sono quelle zone di transizione da un habitat all’altro, da bosco ad arbusteto, a prato: dove ci sono i muretti a secco, le ceppaie, dove l’agricoltore lascia una parte del campo non coltivato o dove i pascoli non vengono falciati e dunque le specie selvatiche proliferano.
    Nell’ambito dell’agricoltura intensiva un’eccezione è costituita dalle risaie, note per attrarre e ospitare molte specie di uccelli.
    Si è poi osservato che anche gli ambienti urbani, quelli più profondamente modificati dall’umanità, hanno una propria biodiversità. Alcuni animali selvatici hanno trovato nelle città dei «surrogati di quelli che sarebbero stati i loro habitat naturali»: Isola fa l’esempio dei falchi pellegrini per cui i grattacieli, come il cosiddetto Pirellone di Milano, valgono come alte pareti rocciose e si prestano allo stesso modo alla nidificazione. «Diverso è il caso delle specie che si rifugiano nelle città anche per la pressione venatoria», aggiunge Isola, facendo riferimento ai cinghiali che negli ultimi anni si vedono sempre di più in contesti urbani di varie città italiane, come Roma.

    – Leggi anche: I falchi pellegrini si trovano bene nelle grandi città

    Il contributo in termini di servizi ecosistemici della biodiversità urbana è fortemente condizionato dal ruolo delle persone, ma comunque c’è: «Si considera tra i servizi ecosistemici anche il senso di benessere psicologico che dà la presenza di piante e animali selvatici», spiega Isola. Inoltre la presenza di aree cittadine in cui il suolo non è coperto da edifici o strade, e non è dunque impermeabilizzato, può essere utile in caso di fenomeni meteorologici estremi come le alluvioni e contribuire. E la disponibilità di aree verdi fornisce zone ombreggiate e più fresche d’estate.
    La COP16 sulla biodiversità, che riunisce i rappresentanti di 196 paesi, durerà fino al primo novembre. L’obiettivo di mettere sotto protezione ambientale il 30 per cento delle aree marine e il 30 per cento delle aree terrestri del pianeta, e dunque di ciascun paese, entro il 2030 è solo uno di 23 impegni presi con l’accordo di Kunming-Montreal. Tra le altre cose c’è l’impegno a ridurre i sussidi statali alle attività economiche che danneggiano gli ecosistemi e a introdurre un obbligo per le aziende di rendere conto del proprio impatto sull’ambiente.
    A ciascun paese firmatario della Convenzione sulla biodiversità era richiesto di presentare alla COP in corso le proprie “Strategie e Piani di attuazione nazionali per la biodiversità (NBSAPs)” per rispettare gli obiettivi fissati nel 2022. Per ora non tutti i paesi li hanno consegnati: il WWF sta tenendo traccia di quelli che sono stati presentati e condivide le proprie analisi generali di come sono fatti.
    Quello dell’Italia ad esempio è stato giudicato non del tutto soddisfacente per quanto riguarda il raggiungimento dei 23 obiettivi. Attualmente la superficie terrestre protetta in Italia è pari al 21,68 del territorio nazionale. In 5 anni lo stato dovrebbe «creare la metà delle aree protette terrestri che ha creato in oltre 100 anni da quando nacquero i primi due parchi nazionali italiani, Parco Nazionale del Gran Paradiso e Parco Nazionale d’Abruzzo», ha spiegato il WWF: «E per il mare va ancora peggio perché solo l’11,62% della superficie marina italiana è protetta».
    In generale, secondo il WWF non sembra che le premesse poste nel 2022 saranno rispettate.
    Tra i vari temi in discussione c’è il progetto di creare un sistema che regolamenti l’uso delle informazioni genetiche di piante, animali e microrganismi, che sempre più spesso vengono sfruttate nella ricerca farmaceutica e non solo per sviluppare nuovi prodotti. Il rischio è che alcuni paesi non ricevano proventi economici derivanti dallo sfruttamento commerciale del DNA degli organismi che ospitano; è un problema che riguarda i tanti paesi poveri o in via di sviluppo che hanno nel proprio territorio una grande biodiversità.
    Un’altra questione di cui si parlerà sono i contributi finanziari con cui i paesi più ricchi hanno promesso di aiutare quelli in via di sviluppo a raggiungere i propri obiettivi. Alla COP15 del 2022 si era deciso che tali contributi dovessero ammontare ad almeno 20 miliardi di dollari annui dal 2025.

    – Leggi anche: La statistica falsa sull’80% della biodiversità protetta dagli indigeni LEGGI TUTTO

  • in

    Produrre cibo dalla plastica, o almeno provarci

    Ogni anno vengono prodotti oltre 400 milioni di tonnellate di rifiuti derivanti dall’impiego dei vari tipi di plastica usati per gli imballaggi, i contenitori, gli abiti sintetici e molti altri prodotti. Una percentuale crescente di questi rifiuti viene riciclata, ma l’impatto della plastica è ancora oggi una delle principali preoccupazioni legate alla contaminazione degli ecosistemi e alla tutela della nostra salute. Mentre si fatica a concordare nuovi trattati internazionali per ridurre la produzione e gli sprechi di plastica c’è chi sta sperimentando una via alternativa un po’ più creativa: renderla commestibile.L’idea non è completamente nuova, ma negli ultimi anni ha avuto qualche maggiore attenzione in seguito a una iniziativa della Defense Advanced Research Projects Agency (DARPA), l’agenzia del dipartimento della Difesa degli Stati Uniti che si occupa dello sviluppo di nuove tecnologie da utilizzare in ambito militare. Nel 2019, la DARPA invitò i gruppi di ricerca interessati a proporre nuovi sistemi per ridurre la quantità di rifiuti prodotti dai soldati quando sono in guerra o lavorano per dare sostegno alla popolazione in seguito a emergenze e disastri naturali. L’agenzia era interessata a trovare sistemi per convertire gli imballaggi in nuovi prodotti, possibilmente sul posto, in modo da ridurre la produzione di rifiuti e rendere meno onerosa la loro gestione.
    La richiesta portò alla presentazione di progetti da vari centri di ricerca e al finanziamento da parte della DARPA di alcuni di quelli più promettenti. Uno di questi è gestito dalla Michigan Technological University (MTU) e consiste nell’impiegare sostanze e microorganismi per degradare la plastica e trasformarla in qualcos’altro. Il sistema per ora è dedicato a ricavare materiale organico che sia commestibile, mentre solo in un secondo momento si penserà ai modi in cui utilizzarlo.
    La plastica viene triturata e successivamente inserita in un reattore dove viene aggiunto l’idrossido di ammonio (il composto chimico che in soluzione acquosa chiamiamo ammoniaca) ad alta temperatura. Non tutta la plastica è uguale, la parola stessa è un termine ombrello che usiamo per riferirci a materiali molto diversi tra loro, di conseguenza non tutto ciò che viene sottoposto al trattamento reagisce allo stesso modo.

    Alcuni tipi di plastica come il polietilene tereftalato (PET), il materiale con cui sono solitamente fatte le bottiglie, si disgrega dopo questo primo passaggio, mentre altre plastiche hanno necessità di ulteriori trattamenti ad alte temperature e in assenza di ossigeno, che vengono effettuati in un reattore a parte. Le plastiche di questo tipo possono essere convertite in carburante oppure in sostanze lubrificanti, entrambe utili in un ipotetico scenario in cui il processo possa essere eseguito direttamente sul campo dai soldati come richiesto dalla DARPA.
    Ciò che si è ottenuto dal PET con il passaggio nel reattore viene invece dato in pasto a colonie di batteri, in grado di nutrirsi della plastica, che ha tra i propri componenti anche composti organici. Come ha raccontato al sito Undark, il gruppo di ricerca della MTU inizialmente riteneva che trovare i batteri più adatti per nutrirsi della plastica processata avrebbe richiesto molto tempo, ma le cose sono andate diversamente. In breve tempo, il gruppo di ricerca ha infatti notato che i batteri che normalmente degradano il compost (fatto per lo più di rifiuti e scarti alimentari) si adattano facilmente alla plastica trattata nel reattore. L’ipotesi è che la struttura a livello molecolare di alcuni composti delle piante abbia alcune caratteristiche in comune con ciò che viene processato con l’idrossido di ammonio, favorendo il banchetto dei batteri.
    Dopo che i batteri hanno consumato e trasformato la plastica, la poltiglia che si ottiene viene fatta essiccare fino a ottenere una polvere che contiene i principali macronutrienti: proteine, carboidrati e grassi. Il gruppo di ricerca ne ha elencato le caratteristiche in uno studio pubblicato lo scorso anno sulla rivista Trends in Biotechnology, ma il passaggio dal bidone della plastica alle razioni dei soldati o dei piatti in qualche ristorante non sarà così immediata.
    Da tempo si discute sull’opportunità di utilizzare particolari batteri e altri microrganismi come fonte di proteine e di altre sostanze nutrienti. La loro coltivazione richiede meno risorse e acqua rispetto a ciò che viene coltivato nei campi e per questo c’è chi sostiene che potrebbero affiancare la produzione di cibo più tradizionale riducendo l’impatto ambientale dell’intera catena alimentare. Le stime variano sensibilmente, ma si ritiene che circa un terzo di tutte le emissioni di gas serra sia prodotto dal settore alimentare.
    La polvere ottenuta dal processo messo a punto dalla MTU è stata testata senza trovare per ora sostanze note per essere tossiche. Il preparato è stato dato in pasto ad alcuni nematodi (vermi cilindrici) senza conseguenze e sono stati avviati test sui ratti, per effettuare osservazioni in periodi di tempo più lunghi rispetto alle settimane di vita dei nematodi. I risultati dai test sui ratti saranno essenziali per procedere con una prima richiesta alla Food and Drug Administration (FDA), l’agenzia governativa statunitense che tra le altre cose si occupa di sicurezza alimentare, per dichiarare il consumo della plastica trasformata in cibo sicuro per gli esseri umani.
    Non è comunque ancora detto che la sperimentazione porti a qualche risultato concreto, come del resto spesso avviene con i progetti finanziati dalla DARPA. L’agenzia è nota per promuovere iniziative di ricerca molto ambiziose se non impossibili da realizzare, confidando che almeno alcune delle sperimentazioni avviate portino da qualche parte. Il cibo dalla plastica potrebbe rivelarsi molto utile per migliorare la gestione della logistica, considerato che il trasferimento di cibo e rifornimenti è uno degli aspetti più onerosi per gli eserciti soprattutto se attivi in territori lontani dal loro paese, come avviene quasi sempre nel caso degli Stati Uniti.
    Se dovesse rivelarsi sicuro e affidabile, il sistema per convertire alcuni tipi di plastica in cibo potrebbe essere adottato in futuro per scopi civili, ma lo stesso gruppo di ricerca della MTU ha qualche dubbio in proposito. Stephen Techtmann, uno dei responsabili del progetto, ha detto sempre a Undark che potrebbe essere molto difficile convincere le persone a mangiare qualcosa che è stato ottenuto mettendo all’ingrasso dei batteri con la plastica, mentre ci potrebbero essere maggiori opportunità in particolari circostanze legate a strette necessità di sopravvivenza nelle emergenze: «Penso ci possa essere qualche preoccupazione in meno sul fattore disgusto nel caso in cui si tratti di un: “Questo mi terrà in vita per un altro paio di giorni”».
    I batteri sono comunque strettamente legati alla nostra alimentazione, come alcuni tipi di funghi e altri microrganismi. Li ingeriamo quando mangiamo un vasetto di yogurt, assaggiamo un formaggio o proviamo del kimchi e altri cibi fermentati. Oltre a rendere più semplici e sicuri da conservare alcuni elementi, contribuiscono alla salute del microbiota, cioè l’insieme dei microrganismi che vivono nel nostro intestino e che ci aiutano a digerire gli alimenti e a regolare numerose altre attività dell’organismo. Naturalmente non tutti i batteri sono commestibili (alcuni possono causare gravi danni) e per questo sono necessarie verifiche sulla sicurezza alimentare.
    I batteri impiegati da millenni per la produzione dello yogurt partono dal latte, quindi da una sostanza che sappiamo essere commestibile e l’idea di usarli fa sicuramente un effetto diverso rispetto alla trasformazione in alimenti della plastica, di cui sono noti gli effetti inquinanti e tossici. Ma in chimica una sostanza può sparire nel corso di una reazione, semplicemente perché si trasforma in qualcosa di diverso, che in questo caso secondo il gruppo di ricerca potrebbe aiutare almeno in parte a sfamare il mondo. LEGGI TUTTO

  • in

    Le navi cargo dovrebbero andare più lentamente

    Caricamento playerBuona parte degli oggetti che usiamo ogni giorno, dai cellulari agli abiti passando per le banane, ha attraversato almeno un oceano dal momento in cui è stata prodotta a quello in cui è stata venduta. Ogni giorno migliaia di navi trasportano merci di ogni tipo producendo annualmente tra il 2 e il 3 per cento di tutta l’anidride carbonica che viene immessa nell’atmosfera attraverso le attività umane. È un settore con una forte dipendenza dai combustibili fossili, ma che potrebbe diminuire sensibilmente le proprie emissioni ricorrendo a una soluzione all’apparenza semplice, quasi banale: ridurre la velocità.
    L’idea non è di per sé rivoluzionaria – si conoscono da tempo gli intervalli entro cui mantenersi per ottimizzare i consumi – ma applicarla su larga scala non è semplice soprattutto in un settore dove la velocità viene spesso vista come una priorità e un valore aggiunto. Se si cambia il modo in cui sono organizzati i trasporti marittimi ci sono conseguenze per molti altri settori, che dipendono dalle consegne delle materie prime o dei prodotti finiti. Un ritardo può avere effetti sulla capacità di un’azienda di produrre automobili o di consegnarle in tempo nei luoghi del mondo dove la domanda per le sue auto è più alta, per esempio.
    La necessità di ridurre il rischio di ritardi ha portato a una pratica piuttosto comune nel settore nota come “Sail fast, then wait”, letteralmente: “Naviga veloce, poi aspetta”. Spesso le navi cargo effettuano il più velocemente possibile il proprio viaggio in modo da arrivare quasi sempre in anticipo a destinazione rispetto al momento in cui avranno il loro posto in porto per scaricare le merci. L’attesa in alcuni casi può durare giorni, nei quali le navi restano ferme al largo prima di ricevere l’assegnazione di un posto.
    Il “naviga veloce, poi aspetta” è diventato la norma per molti trasportatori marittimi in seguito all’adozione da parte di molte aziende della strategia “just in time”, che prevede di ridurre il più possibile i tempi di risposta delle aziende alle variazioni della domanda. È un approccio che ha tra gli obiettivi la riduzione al minimo dei tempi di magazzino, rendendo idealmente possibile il passaggio diretto dall’impianto di produzione al cliente finale. Ciò consente di ridurre i costi di conservazione delle merci e i rischi di avere periodi con molti prodotti invenduti, ma comporta una gestione molto più precisa delle catene di rifornimento perché un ritardo di un singolo fornitore o di una consegna può fare inceppare l’intero meccanismo.
    Chi si occupa del trasporto delle merci deve quindi garantire il più possibile la puntualità delle consegne: di conseguenza adotta varie strategie per ridurre i rischi di ritardi dovuti per esempio alle condizioni del mare poco favorevoli o imprevisti burocratici. In molti casi sono i clienti stessi a chiedere garanzie ai trasportatori sul ricorso al “naviga veloce, poi aspetta” per la gestione delle loro merci. Il risultato è in media un maggior consumo di carburante per raggiungere le destinazioni in fretta e una maggiore quantità di emissioni di gas serra, la principale causa del riscaldamento globale.
    Per provare a cambiare le cose e a ridurre consumi ed emissioni del settore, un gruppo di aziende e di istituzioni partecipa a Blue Visby Solution, una iniziativa nata pochi anni fa e che di recente ha avviato le prime sperimentazioni di un nuovo sistema per far rallentare le navi e ridurre i tempi di attesa nei porti. Il sistema tiene traccia delle navi in partenza e in arrivo e utilizza algoritmi e modelli di previsione per stimare l’affollamento nei porti, in modo da fornire alle singole navi indicazioni sulla velocità da mantenere per arrivare al momento giusto in porto. I modelli tengono in considerazione non solo il traffico marittimo, ma anche le condizioni meteo e del mare.
    (Cover Images via ZUMA Press)
    Il sistema è stato sperimentato con simulazioni al computer utilizzando i dati reali sulle rotte e il tempo impiegato per percorrerle di migliaia di navi cargo, in modo da verificare come le modifiche alla loro velocità potessero ridurre i tempi di attesa, i consumi e di conseguenza le emissioni di gas serra. Terminata questa fase di test, tra marzo e aprile di quest’anno Blue Visby ha sperimentato il sistema in uno scenario reale, grazie alla collaborazione con un produttore di cereali australiano che ha accettato di rallentare il trasporto da parte di due navi cargo delle proprie merci in mare.
    Il viaggio delle due navi cargo è stato poi messo a confronto con simulazioni al computer degli stessi viaggi effettuati alla normale velocità. Secondo Blue Visby, i viaggi rallentati hanno prodotto tra l’8 e il 28 per cento in meno di emissioni: l’ampio intervallo è dovuto alle simulazioni effettuate in scenari più o meno ottimistici, soprattutto per le condizioni meteo e del mare. Il rallentamento delle navi ha permesso di ridurre emissioni e consumi, con una minore spesa per il carburante. Parte del risparmio è servita per compensare i maggiori costi operativi legati al periodo più lungo di navigazione, ha spiegato Blue Visby.
    I responsabili dell’iniziativa hanno detto a BBC Future che l’obiettivo non è fare istituire limiti alla velocità di navigazione per le navi cargo, ma offrire un servizio che ottimizzi i loro spostamenti e il tempo che dividono tra la navigazione e la permanenza nei porti o nelle loro vicinanze. Il progetto non vuole modificare la durata di un viaggio, ma intervenire su come sono distribuite le tempistiche al suo interno. Se per esempio in un porto si forma una coda per l’attracco con lunghi tempi di attesa, Blue Visby può comunicare a una nave in viaggio verso quella destinazione di ridurre la velocità ed evitare lunghi tempi di attesa in prossimità del porto.
    La proposta ha suscitato qualche perplessità sia perché per funzionare bene richiederebbe la collaborazione per lo meno delle aziende e dei porti più grandi, sia perché potrebbero sempre esserci navi che decidono di mettere in pratica il “naviga veloce, poi aspetta”, magari per provare ad avvantaggiarsi rispetto a qualche concorrente. I sostenitori di Blue Visby riconoscono questo rischio, ma ricordano anche che i nuovi regolamenti e le leggi per ridurre le emissioni da parte del settore dei trasporti marittimi potrebbero favorire l’adozione del nuovo sistema, che porta comunque a una minore produzione di gas serra.
    (AP Photo/POLFOTO, Rasmus Flindt Pedersen)
    Il nuovo approccio non funzionerebbe comunque per tutti allo stesso modo. È considerato applicabile soprattutto per le navi portarinfuse, cioè utilizzate per trasportare carichi non divisi in singole unità (per esempio cereali o carbone), visto che hanno quasi sempre un solo cliente di riferimento e sono maggiormente coinvolte nella consegna di materie prime. Il sistema è invece ritenuto meno adatto per le navi portacontainer, che di solito coprono quasi sempre le stesse rotte e con i medesimi tempi per ridurre il rischio di girare a vuoto o di rimanere a lungo nei porti.
    Rallentare alcune tipologie di navi cargo potrebbe ridurre le emissioni, ma non può comunque essere considerata una soluzione definitiva al problema delle emissioni prodotte dal trasporto marittimo delle merci. Da tempo si discute della necessità di convertire le navi a carburanti meno inquinanti e di sperimentare sistemi ibridi, che rendano possibili almeno in parte l’impiego di motori elettrici e la produzione di energia elettrica direttamente a bordo utilizzando pannelli solari e pale eoliche.
    Il settore, insieme a quello aereo, è considerato uno dei più difficili da convertire a soluzioni meno inquinanti, anche a causa dell’attuale mancanza di alternative. Oltre alle condizioni meteo e del mare, i trasporti attraverso gli oceani sono inoltre esposti ai rischi legati alla pirateria e agli attacchi terroristici, che portano gli armatori a rivedere le rotte in alcuni casi allungandole e rendendo di conseguenza necessaria una maggiore velocità di navigazione per rispettare i tempi delle consegne. LEGGI TUTTO

  • in

    Questa è una roccia?

    Caricamento playerLe Hawaii sono famose per i vulcani e i grandi resort visitati ogni anno da milioni di turisti, alla ricerca di spiagge incontaminate affacciate sull’oceano Pacifico. Kamilo Beach, nella parte sud-orientale dell’isola più estesa dell’arcipelago, non rientra propriamente nella categoria: è famosa per i frequenti accumuli di plastica portati dall’oceano e provenienti dalla “grande chiazza di immondizia del Pacifico”. Non è una spiaggia sempre ideale per prendere il sole e fare il bagno, in compenso è il luogo in cui è stata scoperta una particolare sostanza. Per alcuni è un nuovo tipo di roccia e la dimostrazione dell’impatto delle attività umane nella geologia terrestre, per altri è semplicemente il frutto dell’inquinamento e non ha nulla di paragonabile alle rocce.
    Charles Moore, un oceanografo statunitense, aveva osservato per la prima volta la strana sostanza nel 2006 mentre stava effettuando alcune analisi e rilevazioni proprio a Kamilo Beach. Moore aveva notato uno strano oggetto solido formato da alcuni frammenti organici, come conchiglie e legno, tenuti insieme da del materiale plastico. Ipotizzò che si fosse formato a causa dell’accensione di un falò sulla spiaggia, che aveva portato alcuni detriti di plastica provenienti dal mare a fondersi e a inglobare al loro interno sabbia, piccole rocce e altri detriti. Qualche tempo dopo lo spegnimento del falò, la plastica si era solidificata creando un nuovo strato di sedimenti diverso da ciò che c’era prima sulla spiaggia.
    Materiale plastico fuso in un falò (1) si deposita e infiltra (2) in frammenti di roccia portando alla formazione di nuovi strati sedimentari (3) rilevabili nelle stratificazioni (4) e un indizio, secondo alcuni geologici, dell’Antropocene (Wikimedia)
    Moore aveva raccolto alcuni campioni che erano stati analizzati negli anni seguenti insieme ad altri reperti in particolare da Patricia Corcoran, dell’Università dell’Ontario occidentale (Canada). In una ricerca realizzata nel 2013, Corcoran e il suo gruppo di ricerca avevano segnalato che la sostanza di Kamilo Beach era costituita da frammenti di reti da pesca e per circa metà da piccoli pezzi di plastica, che si erano probabilmente separati da pezzi più grandi nel processo di degradazione del materiale a causa del moto ondoso e degli effetti della luce solare. Lo studio confermava inoltre l’ipotesi di Moore sulla probabile origine derivante da un fuoco acceso sulla spiaggia, ritenendo meno probabile un’origine derivante da una colata lavica.
    Il lavoro di Corcoran si fece soprattutto notare per la sua scelta di chiamare “plastiglomerato” la sostanza osservata alle Hawaii, dal materiale plastico che la compone insieme agli altri detriti che formano un materiale incoerente, un agglomerato appunto. Da alcuni geologi il plastiglomerato viene considerato una roccia sedimentaria clastica, cioè una roccia formata dall’accumulo di frammenti di materiali rocciosi e di altro tipo trasportati dal mare, dal vento o da altri agenti esterni.
    La classificazione del plastiglomerato e lo stesso nome sono però ancora molto discussi. Nel corso del tempo ne sono state trovate versioni in almeno una decina di posti diversi dalle Hawaii, con alcune caratteristiche in comune tali da ipotizzare che possano durare molto a lungo nel tempo, come gli altri strati geologici.
    Tra i principali sostenitori di questa ipotesi c’è Jan Zalasiewicz, un geologo che lavora all’Università di Leicester (Regno Unito) e che negli ultimi anni ha fatto parte del Gruppo di lavoro sull’Antropocene, dedicato a chiedere il riconoscimento di una nuova era geologica fortemente influenzata dalle attività umane e per questo chiamata “Antropocene” (dalle parole greche ἄνθρωπος,“umano”, e καινός, “tempo”). A fine marzo l’Unione internazionale di scienze geologiche (IUGS) ha confermato che l’Antropocene non sarà aggiunto alla lista delle epoche geologiche in cui è suddivisa la storia della Terra. È una decisione che potrà essere rivista in futuro e per questo molti ricercatori – come Zalasiewicz – sono al lavoro sugli indizi che secondo loro indicano una profonda modificazione, anche a livello geologico, portata dalla nostra specie.
    Zalasiewicz ha detto di recente a Slate che l’idea che le rocce debbano risalire a moltissimo tempo fa per essere considerate tali è una «leggenda metropolitana». Alcune rocce si formano praticamente in tempo reale durante le eruzioni vulcaniche, spiega, quando le colate laviche si raffreddano e si solidificano.
    Diversi geologi la pensano come Zalasiewicz e ritengono che la plastica debba essere ormai considerata come un materiale sedimentario. Quella dispersa nell’ambiente si disgrega col tempo, soprattutto a causa dell’azione dei raggi solari che la rendono friabile e meno elastica. I frammenti si infiltrano nel suolo e diventano una delle materie prime per la formazione delle rocce, in processi molto lunghi, ma che ormai avvengono da quasi un secolo se si considerano i primi materiali plastici del Novecento. Questo strato distinguibile dagli altri sarebbe uno dei principali indizi dell’esistenza dell’Antropocene.
    “Plastica” è naturalmente una parola ombrello usata per indicare prodotti con caratteristiche chimiche molto diverse tra loro: esistono plastiche di ogni tipo e la loro durata anche a livello molecolare può variare molto. Ed è proprio sulla durata che si sta concentrando il confronto tra gli esperti.
    I più scettici ritengono che sia ancora troppo presto per determinare se alcuni tipi di plastica abbiano effettivamente una durata compatibile con i processi geologici, che si estendono per migliaia, milioni e miliardi di anni a seconda dei casi. Nei processi geologici che avvengono in profondità nella crosta terrestre, per esempio, alcune plastiche potrebbero cambiare caratteristiche, tanto da non diventare sostanze di lunga durata come avviene con altre sostanze fossili. Non è nemmeno escluso che, dopo un certo periodo di tempo, i frammenti di plastica nei sedimenti si trasformino in petrolio, la sostanza da cui erano stati prodotti.
    Al di là dei nomi e della classificazione, i plastiglomerati sono comunque un ulteriore indizio dell’enorme impatto che le attività umane hanno avuto e continuano ad avere sul nostro pianeta. L’inquinamento derivante dalla plastica è una delle più importanti emergenze ambientali del nostro tempo, ma concordare le strategie per affrontarlo globalmente non è semplice. A fine aprile a Ottawa, in Canada, si è tenuta una nuova serie di negoziati per formalizzare un trattato internazionale vincolante per ridurre l’inquinamento che deriva dalla plastica. L’iniziativa è coordinata da un comitato intergovernativo delle Nazioni Unite, che ha il difficile compito di mettere d’accordo oltre 175 paesi che negli scorsi anni si erano impegnati per trovare una soluzione comune. Tra ritardi e rinvii, non si prevede di avere un trattato definitivo prima del 2025. LEGGI TUTTO

  • in

    In Brasile e Colombia si è ridotta la distruzione delle foreste tropicali

    Caricamento playerNel 2023 sono stati abbattuti o bruciati circa 37mila chilometri quadrati di foreste tropicali, una superficie pari a quella di Toscana e Campania messe insieme, con una grave perdita per gli ecosistemi e in generale per il pianeta nel contrastare l’effetto serra. Secondo Global Forest Watch, l’iniziativa che ha diffuso i dati, il disboscamento continua a essere uno dei problemi ambientali più seri, ma ci sono stati comunque alcuni progressi, con una riduzione del 9 per cento del fenomeno tra il 2022 e il 2023, in particolare grazie ad alcune nuove politiche per la tutela delle foreste tropicali avviate in Sudamerica.
    Global Forest Watch offre una piattaforma online per tenere sotto controllo lo stato delle foreste del mondo e, insieme all’istituto di ricerca ambientale World Resources Institute, realizza periodicamente rapporti per confrontare negli anni la perdita di foresta pluviale primaria (cioè di foresta ancora incontaminata e non raggiunta dalle attività umane). Le analisi vengono fatte mettendo a confronto immagini satellitari di diversi periodi, in modo da verificare quali aree abbiano subìto attività di disboscamento anche in pochi mesi. Il sistema consente di verificare soprattutto le perdite dovute agli incendi, ma sono talvolta necessarie analisi successive per distinguere tra eventi naturali e fuochi appiccati intenzionalmente per guadagnare nuovo terreno per le coltivazioni.
    In Sudamerica si distruggono ogni anno grandi porzioni di foreste tropicali primarie per la costruzione di nuove strade e infrastrutture, oppure per rendere coltivabili i terreni. Il rapporto di Global Forest Watch segnala che nel 2023 sono stati distrutti circa 2mila chilometri quadrati di foreste tropicali in quella parte di mondo, un’area paragonabile a circa metà quella del Molise. La perdita è stata rilevante, ma inferiore del 24 per cento rispetto all’anno precedente, soprattutto grazie ai progressi raggiunti dai governi di Brasile e Colombia per limitare la distruzione delle foreste.
    Confronto tra 2022 e 2023 della perdita di foresta tropicale primaria nei dieci paesi del mondo in cui il fenomeno è più diffuso (Global Forest Watch)
    Il presidente brasiliano Luiz Inácio Lula da Silva, rieletto nel 2022, si è impegnato a fermare completamente la deforestazione entro il 2030, un obiettivo molto ambizioso che non potrà essere raggiunto solamente attraverso l’intensificazione dei controlli. Lula ha revocato buona parte delle leggi che aveva fatto approvare il suo predecessore, Jair Bolsonaro, che di fatto avevano reso più semplice la deforestazione a scopi di sviluppo e commerciali, e ha riorganizzato l’agenzia governativa per la protezione per l’ambiente. Il presidente brasiliano intende inoltre aumentare le aree definite territorio per le popolazioni native, in modo da renderle protette e quindi rendere più difficile il disboscamento. In circa un anno sono già stati aggiunti otto nuovi territori, arrivando quasi a 500: l’intenzione è di riconoscerne altri 200 nel corso dei prossimi anni.
    In Colombia il presidente Gustavo Petro, eletto nel 2023, ha annunciato una nuova serie di politiche per ridurre la deforestazione comprese alcune campagne con contributi economici per le popolazioni locali in modo da disincentivare l’abbattimento degli alberi.
    Altri progressi sembra siano stati raggiunti in seguito ad alcune iniziative di Estado Mayor Central (EMC), il più importante gruppo dissidente delle Forze armate rivoluzionarie colombiane (FARC). Il gruppo di guerriglieri controlla un’area importante dell’Amazzonia e dal 2022 impone multe dell’equivalente di svariate centinaia di euro a chi abbatte illegalmente gli alberi. Il gruppo sostiene di farlo per motivi ambientalisti, ma secondo gli osservatori l’iniziativa è uno dei modi per avere maggiori possibilità di contrattare con il governo colombiano la fine delle ostilità (nel 2016 l’EMC non aveva accettato gli accordi di pace tra governo e FARC). Stando ai dati forniti da Global Forest Watch, in Colombia nel 2023 la perdita di foresta tropicale è stata inferiore del 49 per cento rispetto al 2022.
    I progressi raggiunti in Colombia e Brasile si inseriscono comunque in un contesto ancora negativo legato alla deforestazione, se si considera che dal 2001 al 2023 in Sudamerica è andato distrutto quasi un terzo delle foreste tropicali. La perdita non implica solamente una riduzione nella capacità del pianeta di sottrarre anidride carbonica dall’atmosfera, uno dei principali gas serra. La riduzione delle foreste porta a una marcata riduzione della biodiversità, cioè della varietà di specie che popolano un certo ambiente, con un ulteriore impoverimento di alcuni dei territori altrimenti più floridi del pianeta sia dal punto di vista della flora sia della fauna. LEGGI TUTTO

  • in

    La Commissione Europea ha proposto di ridurre la protezione per i lupi

    La Commissione Europea ha presentato una proposta per cambiare la classificazione del lupo grigio da specie «rigorosamente protetta» a «protetta», una modifica alle norme europee che di fatto renderebbe più semplice la caccia ai lupi. Secondo la Commissione, ci sono buoni motivi per farlo perché la popolazione di questi animali è continuata a crescere in diversi paesi europei, ma la proposta è stata criticata da numerose associazioni ambientaliste che ritengono non ci siano basi scientifiche per ritenere di nuovo praticabile la caccia.La protezione molto rigida che determina il divieto di caccia per i lupi è contenuta nella Convenzione di Berna e nella Direttiva 92/43/CEE sulla conservazione degli habitat naturali. Le norme stabiliscono che, salvo alcune eccezioni per particolari territori, nell’Unione Europea non si possono cacciare né catturare i lupi, salvo che questi non costituiscano un immediato e diretto pericolo per la popolazione o per il bestiame. I provvedimenti erano stati assunti per favorire il ripopolamento del lupo grigio, che rischiava di scomparire in molte aree dell’Europa occidentale determinando una riduzione della biodiversità, cioè della varietà di specie viventi che popolano un determinato ambiente.
    Da tempo alcune associazioni del settore agricolo e dell’allevamento chiedevano alla Commissione di intervenire sulle regole, segnalando un aumento dei casi di danni causati dai lupi. La presidente della Commissione, Ursula von der Leyen, aveva mostrato negli ultimi mesi un particolare interesse alla questione, anche in vista delle elezioni europee del prossimo anno: allevamento e agricoltura costituiscono una parte importante dell’economia europea e hanno grandi capacità di influenza. Da qualche mese si dice che von der Leyen sia interessata al problema anche per un altro motivo: la presidente della Commissione è un’appassionata cavallerizza e l’anno scorso un lupo aveva ucciso la sua pony Dolly.
    Associazioni ambientaliste e per la protezione degli animali non sono però d’accordo con la proposta della Commissione, accusata di non essersi basata sulle prove scientifiche che mostrano come i lupi siano ancora in pericolo in parte dell’Europa occidentale. La modifica ai regolamenti, dicono, renderebbe molto più difficile se non impossibile il ripopolamento di alcune aree, vanificando i progressi raggiunti negli ultimi decenni.
    Nonostante i problemi che ci sono stati in alcuni contesti, i casi di lupi “confidenti”, cioè che mostrano di non aver paura degli umani e in più occasioni si sono avvicinati a meno di 30 metri dalle persone, sono rari. Nel 2022 l’ISPRA aveva conteggiato solo 23 casi di lupi confidenti in Italia nei dieci anni precedenti, sulla popolazione complessiva di 3.300.
    Per cambiare il livello di protezione dei lupi, la decisione dovrà essere approvata da tutti gli stati membri e dagli altri soggetti che fanno parte della Convenzione di Berna. LEGGI TUTTO

  • in

    I maglioni non durano più come una volta

    In un episodio della serie televisiva statunitense Seinfeld, il protagonista Jerry è a colazione con gli amici Elaine e George e indossa un vaporoso quanto improbabile maglione di lana, tanto da spingere George a chiedere all’amico dove l’abbia trovato. Jerry spiega che si tratta di uno di quei ritrovamenti che si fanno qualche volta al fondo dell’armadio e George gli risponde: «Penso proprio che i fondi degli armadi siano fatti per lasciarceli». Il maglione non sembra essere in effetti di grande qualità, niente di comparabile con altre maglie di lana diventate famose come il cardigan indossato da Drugo nel Grande Lebowski o il soffice maglione indossato da Harry in una delle scene di Harry ti presento Sally.In un modo o nell’altro, sembrano tutti la testimonianza di un tempo in cui i maglioni di lana erano fatti meglio e per durare più a lungo degli attuali. Non è questione di passatismo, ma di come si è evoluto il settore dell’abbigliamento negli ultimi decenni, con grandi implicazioni non solo per la possibilità di ripararsi dal freddo, ma anche per l’ambiente.Il dibattito intorno ai vestiti che durano molto meno rispetto a un tempo non è certo nuovo, ma di recente è tornato di attualità soprattutto negli Stati Uniti in seguito alla pubblicazione di un post su X (già Twitter) e di un conseguente articolo dell’Atlantic che ha approfondito la questione. L’autrice comica Ellory Smith ha ripreso due fotografie che mettevano a confronto l’iconico maglione di lana bianco indossato da Billy Crystal (che nel film del 1989 interpretava Harry) con uno simile indossato dall’attore Ben Schwartz, sostanzialmente nella stessa posa con jeans e sneaker bianche.Al di là del modo in cui sono fatti – quello di Crystal è più abbondante, mentre quello di Schwarz è più stretto – appare evidente una certa differenza nello spessore e di conseguenza nella qualità della lana. Partendo da quel confronto, Smith il 20 settembre scorso aveva scritto che: «La qualità dei maglioni è peggiorata così tanto negli ultimi venti anni da rendere decisamente necessaria una conversazione sul tema». Da allora, il post su X è stato visto più di 13 milioni di volte, con quasi 300mila “Mi piace” e oltre 27mila condivisioni, senza considerare le centinaia di risposte e commenti, segno di una certa attenzione per un problema che prima o poi notano tutti.The quality of sweaters has declined so greatly in the last twenty years that I think it genuinely necessitates a national conversation https://t.co/sbjNYp4KSy— ellory smith (@ellorysmith) September 20, 2023Il confronto è proseguito con la pubblicazione dell’articolo sull’Atlantic, nel quale si segnala che al netto di alcune differenze intenzionali tra i due maglioni, legate soprattutto a scelte di stile e di design, è comunque palese come quello indossato da Smith appaia di minore qualità e più economico nonostante sia un maglione di un certo rilievo per gli standard attuali. Secondo la rivista è infatti prodotto da Polo Ralph Lauren e venduto a un prezzo intorno ai 400 dollari, una spesa non per tutti, e che in ogni caso suggerisce a chi decide di farla la garanzia di poter utilizzare per lungo tempo il maglione, prima che inizi a deteriorarsi.Eppure, in generale chi acquista oggi un maglione prodotto dalle multinazionali dell’abbigliamento sa che non durerà molto a lungo: perderà la forma, alcune rifiniture cederanno in fretta e si formeranno pallini sul tessuto. A seconda dei casi, il maglione terrà troppo caldo o non sarà sufficiente per riparare dal freddo e non rimarrà morbido a lungo.– Ascolta anche: Non ci sono più i maglioni di una volta | Ci vuole una scienzaLa causa più evidente, almeno per chi acquista un maglione, è la materia prima con cui sono realizzati questi prodotti. In passato per produrli venivano utilizzate esclusivamente fibre “naturali” di lana, ottenute dalla tosatura di pecore, capre, alpaca e altri animali (una definizione univoca di che cosa sia naturale non c’è: in natura ci sono le pecore così come gli elementi per produrre la plastica). All’occorrenza venivano mescolate con altre fibre sempre naturali, ma di origine vegetale, come il cotone o il lino.Lo sviluppo e l’introduzione intorno a metà Novecento di fibre sintetiche cambiò le cose: erano meno costose di quelle impiegate fino ad allora e più facili da lavorare, specie nei processi industriali. Si diffusero soprattutto fibre in poliestere e acrilico, ancora oggi tra le più utilizzate nei capi di abbigliamento. Questi materiali potevano essere trattati per una produzione su scala industriale e promettevano, entro certi limiti, di semplificarci la vita: i capi potevano essere lavati quasi sempre in lavatrice, compresi i maglioni, perché le fibre resistevano meglio alle sollecitazioni meccaniche. Al tempo stesso però, si sarebbe scoperto che durano meno nel tempo e che non sempre convivono bene con le fibre naturali, contribuendo a farle deteriorare.Un misto di fibre naturali e sintetiche tende inoltre a essere meno isolante e a risultare quindi meno caldo quando lo si indossa. Le fibre della lana sono igroscopiche e idrofobiche, attirano cioè l’umidità verso l’interno e mantengono asciutta la superficie. È per questo motivo che un maglione in pura lana riesce ad assorbire molta umidità dall’aria in circolazione prima che la sua superficie diventi umida al tatto. È una caratteristica nota da moltissimo tempo e che ha fatto sì che i capi di lana diventassero molto diffusi alle latitudini in cui fa molto freddo e ci sono periodi dell’anno particolarmente umidi.Le fibre sintetiche cercano di imitare questa capacità della lana, ma hanno una struttura meno complessa e soprattutto meno durevole, di conseguenza tendono a essere meno efficienti non solo nel mantenere il calore, ma anche nella traspirazione. Negli ultimi decenni la situazione è migliorata, per esempio con l’introduzione di nuovi “tessuti tecnici” e particolari membrane molto utilizzate per l’escursionismo e l’alpinismo. I capi per queste attività sono quasi sempre fatti di fibre sintetiche e sono molto apprezzati dagli alpinisti perché sono poco ingombranti, leggeri, si puliscono e asciugano velocemente. Hanno però una durata limitata nel tempo e devono essere sostituiti con una certa frequenza.Capre da cui si ottiene il cachemire (Finnbarr Webster/Getty Images)Oltre ai motivi pratici, le fibre sintetiche si sono affermate moltissimo sul mercato dell’abbigliamento perché sono più economiche di quelle naturali, in particolare delle fibre di lana. Un chilogrammo di fibra acrilica costa meno di due dollari, mentre uno di lana grezza ne costa 4 e si può arrivare a 10-15 dollari al chilo per lane più pregiate come il cachemire. Le grandi multinazionali dell’abbigliamento ci hanno abituati ad avere capi a prezzi relativamente bassi, tali da non rendere sostenibile se non in casi particolari la produzione di maglioni interamente di lana e magari con una lavorazione semiartigianale.Il prezzo non è inoltre sempre un indicatore di qualità in un settore dove le materie prime sono solo una delle numerose variabili che concorrono a costruire il valore di un prodotto. Incidono infatti altri fattori come il marchio, le iniziative di marketing e la moda del momento. I più grandi marchi di moda hanno spesso nei propri cataloghi stagionali prodotti realizzati con fibre naturali e sintetiche, anche se segnalano soprattutto la presenza delle prime. L’articolo dell’Atlantic fa l’esempio di un «cardigan di lana» che Gucci vende a 3.200 dollari e che se si legge l’etichetta è fatto per il 50 per cento di poliammide, una fibra sintetica.Il successo dei marchi della cosiddetta “fast fashion”, cioè le aziende di abbigliamento che producono e vendono capi economici e alla moda proponendone di continuo di nuovi, ha acuito il fenomeno innescando un circolo vizioso. Per vendere a prezzi molto bassi queste aziende fanno ricorso a una manodopera economica e poco specializzata, che assembla materiali senza conoscerne le proprietà a differenza delle persone che lavoravano un tempo nelle sartorie. Il risparmio riguarda inoltre le materie prime, con un ricorso a una quota crescente di fibre sintetiche che non richiedono manodopera specializzata per essere lavorate. Il risultato è che si riducono moltissimo i costi di produzione, ma a scapito della durata dei capi e del modo in cui vengono realizzati.Il problema è particolarmente sentito per la lavorazione dei tessuti a maglia, dove è richiesta una manodopera altamente specializzata, in grado per esempio di realizzare i dettagli e le intricate decorazioni di un maglione, come quello di Harry ti presento Sally. Per ridurre i costi e accelerare i processi di produzione si fa a meno di questa manodopera e si semplificano le caratteristiche dei capi di abbigliamento, in modo da poterli realizzare più facilmente e velocemente a macchina. I maglioni diventano più noiosi, come quello di Smith, e al tempo stesso si perde la specializzazione acquisita dai lavoratori generazione dopo generazione.In questo contesto, un’azienda che volesse entrare nel mercato facendo le cose diversamente non faticherebbe soltanto perché dovrebbe offrire i propri prodotti a prezzi più alti, ma anche perché non troverebbe sufficiente manodopera specializzata per lavorare alle sue creazioni. Avrebbe inoltre difficoltà a reperire a prezzi sostenibili la lana da utilizzare e a garantirsi forniture prive di fibre sintetiche. I controlli alla fonte sono spesso difficili, così come lo è la sorveglianza della filiera produttiva che avviene spesso in più continenti con la produzione della maggior parte dei capi di abbigliamento in Asia.Prezzi bassi, grande ricambio dell’offerta e una certa pressione all’acquisto hanno portato a una crescita significativa dell’industria tessile negli ultimi decenni. Si stima che tra il 1995 e il 2018 la produzione di fibre tessili pro capite sia pressoché raddoppiata e che ogni anno siano acquistati circa 60 milioni di tonnellate di prodotti di abbigliamento. L’industria produce quasi il doppio dei capi rispetto al 2000, con la maggior produzione in Cina e in altri paesi a medio reddito come Turchia, Bangladesh e Vietnam. Tra persone direttamente dipendenti e indotto, il settore impiega circa 300 milioni di persone.I volumi sono enormi e probabilmente senza le fibre sintetiche non si riuscirebbe a produrre una quantità così grande di capi di abbigliamento a ciclo continuo. Al tempo stesso, l’impiego di fibre che durano più a lungo potrebbe contribuire a rendere più sostenibile il settore, a patto di una modifica ad alcune logiche di mercato e a una domanda ormai abituata da tempo alla “fast fashion”.Da tempo viene inoltre studiato l’impatto di queste dinamiche sull’ambiente, considerato che le fibre sintetiche si degradano durante i lavaggi e rilasciano microplastiche nell’acqua che finiscono nell’ambiente. Le ricerche sono ancora in corso, ma sono stati trovati indizi sul ruolo dei cicli di lavaggio lunghi e ad alte temperature in lavatrice, che comportano la produzione di grandi quantità di microfibre di plastica a partire dai materiali sintetici. Alcuni studi hanno inoltre rilevato come alcuni componenti dei detersivi in polvere tendano a indurre un maggiore consumo dei tessuti, così come i cestelli delle lavatrici a carica dall’alto, forse a causa del maggiore attrito dei vestiti quando entrano in contatto con la cerniera del cestello per la chiusura.Come in molti altri ambiti, negli ultimi anni si è comunque assistito a un aumento di attenzione e sensibilità da parte delle persone sulla sostenibilità dei loro acquisti e sulle conseguenze di certi stili di vita per l’ambiente. Alcune grandi aziende hanno fatto proprie queste preoccupazioni, cercando di migliorare le cose e di migliorare la propria immagine nella percezione dei loro clienti. Le iniziative riguardano un maggior riciclo dei materiali sintetici, più controlli sulla filiera produttiva delle fibre naturali e un impegno in generale nella riduzione della produzione di plastica. In parte della popolazione è inoltre aumentato un certo interesse verso i capi di abbigliamento usati e vintage, dove non a caso i capi di pura lana alla Harry ti presento Sally sono tra i più richiesti e spesso non mostrano più di tanto i segni del tempo. LEGGI TUTTO