More stories

  • in

    Cosa succederebbe ai cani se sparissero gli umani?

    Caricamento playerImmaginare cosa succederebbe al mondo se la specie umana scomparisse da un momento all’altro, del tutto o in grande parte, è un esperimento mentale che hanno fatto moltissimi scrittori e sceneggiatori e probabilmente anche tante altre persone: le fantasie sull’apocalisse esistono da millenni e sono sia una fonte di intrattenimento sia un modo per riflettere sull’esistenza. C’è però anche chi si è figurato possibili scenari di estinzione umana per fare ragionamenti scientifici: ad esempio su cosa succederebbe ai cani.I cani sono stati i primi animali a essere domesticati e quindi in una certa misura a essere “creati” dagli esseri umani: nel corso dei millenni, favorendo gli accoppiamenti tra animali con certe caratteristiche di comportamento e di aspetto fisico piuttosto che altre, gli umani hanno condotto progressive selezioni artificiali che hanno portato dal lupo (Canis lupus) al cane (Canis lupus familiaris), che ne è una sottospecie, e poi alle diverse e numerose razze che distinguiamo. Come per tutte le specie domestiche, la vita dei cani dipende da quella degli umani, sia nel caso dei cani che hanno qualcuno che li nutre regolarmente, sia nel caso dei randagi, che sopravvivono in gran parte grazie ai rifiuti prodotti dalle persone.Per questo la prima difficoltà che i cani dovrebbero affrontare in caso di sparizione di tutte le persone sarebbe la ricerca di fonti di cibo, ragionano la bioeticista Jessica Pierce e l’ecologo Marc Bekoff in I cani senza di noi, pubblicato in italiano da Haqihana, una casa editrice specializzata in saggi divulgativi sul comportamento canino.Secondo i due studiosi, autori di vari libri sui cani e sul nostro rapporto con loro, è «quasi certo» che i cani sopravviverebbero a una scomparsa improvvisa degli umani «ammesso che non avvenisse su un pianeta diventato completamente invivibile per la crisi climatica». Questa conclusione deriva dal fatto che i cani che attualmente vivono in libertà in diverse zone del mondo riescono a sopravvivere abbastanza bene (secondo una stima citata da Pierce e Bekoff i cani randagi sarebbero 800 milioni nel mondo, quelli con una famiglia 200 milioni) e dalla flessibilità alimentare dei cani, che si adattano a mangiare anche cose diverse dalla carne: potrebbero sostentarsi con piante, frutti e insetti, oltre che con piccoli mammiferi e uccelli.Nell’immediato è verosimile che molti cani morirebbero – alcuni, più piccoli e deboli, anche uccisi e mangiati da altri cani – ma è probabile che nel complesso riuscirebbero ad adattarsi a nuovi stili di vita, facendo affidamento sugli istinti che hanno in comune con i lupi e gli sciacalli. Ovviamente le cose andrebbero in modo diverso in diverse parti del mondo a seconda delle specifiche caratteristiche climatiche, delle risorse naturali di cibo e della competizione con altre specie di predatori: in alcune regioni i cani prospererebbero, in altre potrebbero scomparire a loro volta. In generale però la specie continuerebbe a scorrazzare per il pianeta.– Leggi anche: I cani di ChernobylPierce e Bekoff hanno poi provato a immaginare cosa ne sarebbe dei cani nel più lungo periodo successivo alla scomparsa degli umani, e più in particolare a come i cani sarebbero cambiati dalla selezione naturale, tolta di mezzo quella artificiale. Per i due studiosi tentare di rispondere a questa domanda, anche senza poter mai verificare la bontà delle proprie ipotesi, è utile per capire meglio che animali sono i cani e i rapporti che abbiamo con loro.Il punto di partenza del loro ragionamento è che i cani non tornerebbero a essere lupi.Sappiamo che quando un gruppo di animali domestici si trova a vivere in libertà e perde ogni contatto con gli umani avviene un processo di feralizzazione, cioè di adattamento a uno stato selvatico. Le caratteristiche proprie delle specie domesticate – una maggiore mansuetudine, in aggiunta a tanti aspetti fisici – non scompaiono, quindi non si può parlare di una “de-domesticazione”, ma di un avvicinamento dei singoli animali ai comportamenti delle specie selvatiche sì. Nel caso in cui il gruppo di animali feralizzati continui a vivere in libertà per diverse generazioni, e in cui quindi la selezione naturale inizi ad agire, gli scienziati parlano di inselvatichimento secondario.Non sappiamo quante generazioni di cani dovrebbero susseguirsi per arrivare ai «cani post-umani», ma secondo Pierce e Bekoff è probabile che sarebbero molto diversi dai cani di oggi e diversi tra loro in base al contesto geografico. I cani più piccoli potrebbero specializzarsi nella caccia di insetti, piccoli rettili e anfibi, mentre quelli più grandi dovrebbero trovare altre strategie di adattamento e nel tempo diverse popolazioni di cani potrebbero evolvere in specie canine diverse.Ma si può anche ipotizzare che il rimescolamento dei geni canini portato dalla nuova libertà di accoppiamento porti a cani post-umani tutti di “taglia media”, cioè con un peso intorno ai 15 chili – ci sono cani che pesano poco più di un chilo e altri che superano i 100.Le altre caratteristiche fisiche sarebbero a loro volta influenzate dall’ambiente: ad esempio, ipotizzano Pierce e Bekoff, nei climi più freddi potrebbero essere favorite e dunque prevalere le orecchie più piccole, che disperdono meno il calore; nei climi miti invece è possibile che le orecchie di dimensioni maggiori, più adatte a captare i rumori, si rivelerebbero più utili nella caccia.Di certo scomparirebbero quei tratti fisici dei cani che gli umani hanno selezionato per ragioni estetiche ma che sono legati a problemi di salute, come i musi schiacciati dei carlini che causano problemi respiratori e l’eccesso di pieghe della pelle degli shar pei. Sparirebbero anche le orecchie pendule dei cocker e le code arricciate dei chow chow, perché sia le code che le orecchie sono usate dai cani per comunicare tra loro, e sarebbero favorite quelle che permettono di farlo meglio. Potrebbero scomparire anche le pellicce a macchie e di colori diversi, che non hanno alcuna funzione biologica.– Leggi anche: Il governo olandese vuole vietare il possesso di cani e gatti di certe razzeNel campo della riproduzione ci sarebbero sicuramente dei cambiamenti, ed è possibile che le femmine andrebbero in calore solo una volta all’anno invece che due (una più frequente disponibilità all’accoppiamento rispetto alle specie selvatiche è una delle caratteristiche comuni a tutte le specie domesticate). Un’altra possibilità è che, come succede nei branchi di lupi, la collaborazione dei padri, zii e altri membri di un gruppo di cani diventerebbe un elemento importante per la crescita dei cuccioli. Ma può anche darsi che i cani – o certe specie evolute dai cani – svilupperebbero stili di vita solitari.È più difficile immaginare cosa succederebbe ai tratti comportamentali dei cani selezionati dalla domesticazione: l’ipersocialità sviluppata stando con gli umani verrebbe sfruttata con altri scopi dai cani post-umani o si perderebbe come tratto caratteriale di specie?Pierce e Bekoff hanno finito il loro ragionamento cercando di stabilire se in prospettiva per i cani un mondo senza umani sarebbe un mondo migliore: sono giunti alla conclusione che i vantaggi (come la scomparsa di patologie dovute agli incroci tra cani della stessa razza, un maggior spazio in cui muoversi e maggiori possibilità di socialità) supererebbero gli svantaggi (come la maggiore esposizione alle malattie, l’assenza di cure e di cibo disponibile in abbondanza).Per i due studiosi portare avanti l’esperimento mentale, riflettere su questi vantaggi e svantaggi ma anche dedicare maggiori studi ai cani randagi e feralizzati potrebbe aiutarci a comportarci meglio nei confronti dei cani: capendo meglio la loro natura, saremmo più in grado di garantirgli buone condizioni di vita. Ad esempio, evitando che nascano animali sofferenti a causa di certe caratteristiche fisiche comuni a certe razze create dagli umani, ma anche facendo passeggiare e correre i cani in spazi sufficientemente grandi, e facendo interagire i cani tra loro nel modo migliore per dargli una buona qualità della vita.– Leggi anche: Il più noto libro di “biologia speculativa” LEGGI TUTTO

  • in

    Il lander della società spaziale privata giapponese Ispace si è probabilmente schiantato sulla Luna

    La società spaziale privata giapponese Ispace ha detto che il tentativo di far atterrare sulla Luna il suo veicolo lunare Hakuto-R M1 è fallito: a pochi metri dalla superficie lunare le comunicazioni con il robot (lander) si sono interrotte, cosa che ha fatto presumere che sia precipitato e si sia quindi distrutto. Se la missione fosse stata completata, questo sarebbe stato il primo lander privato a raggiungere la superficie della Luna.Durante la trasmissione in diretta dell’evento il fondatore e amministratore delegato di Ispace, Takeshi Hakamada, aveva ipotizzato che la missione non fosse andata a buon fine. Dopo alcune ore, un comunicato diffuso dall’azienda ha confermato «un’elevata probabilità» che alla fine il lander si sia schiantato sulla superficie lunare.A oggi nessun veicolo di una società spaziale privata è riuscito ad allunare, mentre ci sono riuscite solo le agenzie spaziali di tre paesi: quella dell’ex Unione Sovietica, la NASA (Stati Uniti) e la CNSA (Cina). Nell’aprile del 2019 il lander israeliano Beresheet precipitò sulla superficie lunare durante una missione che aveva l’obiettivo di compiere alcune rilevazioni sulla Luna. Giovedì scorso invece è esploso poco dopo il lancio un prototipo di Starship, l’enorme astronave progettata dalla società spaziale privata statunitense SpaceX, che dovrà essere impiegata per il primo allunaggio con equipaggio del programma lunare Artemis (previsto non prima della fine del 2025).– Leggi anche: L’astronave Starship è esplosa poco dopo il lancio (AP Photo/ Eugene Hoshiko) LEGGI TUTTO

  • in

    Costruire nuove strade è un problema matematico non da poco

    A un gruppo di abitudinari automobilisti che si ritrova periodicamente bloccato in un ingorgo stradale verrebbe spontaneo pensare che le condizioni del traffico migliorerebbero se venisse aperta una nuova strada oltre a quella che stanno percorrendo. Nella pratica, però, per quanto possa sembrare controintuitivo, aprire una nuova strada potrebbe causare un peggioramento dell’ingorgo.È un effetto noto come paradosso di Braess, dal nome del matematico tedesco che lo teorizzò negli anni Sessanta: Dietrich Braess. Ed è utilizzato anche per spiegare il caso contrario: la possibilità, attestata da esempi concreti, che la chiusura di una strada possa ridurre il traffico.Il paradosso di Braess, di cui ha scritto recentemente il giornale online norvegese Forskning.no, è soltanto uno dei vari fenomeni tenuti in considerazione quando vengono pianificate nuove strade per migliorare la viabilità e ridurre il rischio di congestione del traffico, che dipende da numerose variabili difficili da calcolare. È però una teoria utile a comprendere un fatto fondamentale: le persone alla guida tendono a vedere soltanto i propri “costi” e non gli effetti negativi del loro comportamento sul sistema di cui fanno parte. La gestione di questo sistema – non soltanto la costruzione di nuove strade, ma anche l’utilizzo di pedaggi, dissuasori e altri strumenti possibili – ne tiene conto e fa in modo che le scelte individuali non finiscano per penalizzare tutti gli automobilisti.La prima descrizione sistematica del paradosso di Braess risale alla pubblicazione del suo studio del 1968 Über ein Paradoxon aus der Verkehrsplanung (“Su un paradosso della pianificazione del traffico”), pubblicato mentre lavorava all’università della Ruhr a Bochum allo sviluppo di un nuovo modello teorico di spiegazione del traffico. Braess osservò che all’interno di una rete stradale i tempi di percorrenza ottimali non sempre si ottengono se ogni conducente sceglie il percorso a lui più conveniente. E concluse che sulla base di questa premessa esistono casi in cui l’espansione della rete può portare a tempi di percorrenza complessivi più lunghi.Per comprendere il paradosso viene di solito proposto un esempio matematico in cui occorre spostarsi da un punto A a un punto B, ma non è possibile farlo direttamente: serve passare o per un punto c o per un punto d. Sia in un percorso che nell’altro sono presenti un tratto con un’ampia carreggiata il cui tempo di percorrenza è invariabilmente 20 minuti e un tratto più stretto il cui tempo di percorrenza dipende dal traffico. Questa variabile è espressa dal numero di veicoli (T) presenti su quel tratto diviso 10 (se i veicoli sono 100, per esempio, il tempo di percorrenza sarà 10 minuti, ma se sono 500 sarà 50 minuti).Immaginando che ci siano 200 automobilisti che devono spostarsi lungo la rete da A a B, alla lunga la situazione si stabilizzerà in una divisione del gruppo in cui 100 automobilisti seguono un percorso e 100 seguono l’altro. E il tempo di percorrenza complessivo per tutti sarà di 30 minuti (perché 100 diviso 10 fa 10 minuti). A questo punto ci si chiede cosa potrebbe succedere nel caso ipotetico in cui venisse aperta tra i due punti intermedi c e d una nuova strada, un collegamento “ideale” che non richieda alcun tempo di percorrenza (0 minuti).I 200 automobilisti avrebbero l’opportunità di utilizzare questo collegamento per percorrere due tratti T/10 anziché uno. La percorrenza del tratto T/10 è infatti inferiore o uguale a 20 minuti (perché il traffico complessivo è di 200 automobilisti), ma mai superiore, e quel tratto è quindi preferibile rispetto al tratto il cui tempo di percorrenza è invariabilmente 20 minuti. Tutti prenderanno allora il collegamento tra i due punti intermedi, ma in questo modo il tempo di percorrenza complessivo da A a B sarà 40 minuti (20 + 20): paradossalmente, più del tempo necessario prima che venisse aperto il collegamento.Se ogni automobilista prende la decisione ottimale egoistica su quale sia il percorso più veloce, scrisse Braess, «un’estensione della rete stradale può provocare una ridistribuzione del traffico che si traduce in tempi di percorrenza individuali più lunghi».La spiegazione del paradosso di Braess, un fenomeno noto e studiato anche in economia, richiama in particolare nozioni relative alla cosiddetta “teoria dei giochi”. È l’area della matematica che attraverso modelli semplificati della realtà si occupa dello studio e dell’analisi delle interazioni tra due o più soggetti interessati a ottenere il massimo vantaggio possibile da queste interazioni.Il caso della rete stradale in cui gli automobilisti cercano di raggiungere dal punto A il punto B nel minor tempo possibile è un esempio di gioco non cooperativo: ciascun automobilista non conosce le strategie degli altri e cerca di seguire quella che ritiene essere la più vantaggiosa per sé. Ma non è detto che sia la più vantaggiosa in assoluto, come dimostra il paradosso. La particolare condizione del gioco in cui ogni partecipante non ha alcun incentivo a cambiare strategia, perché ci perderebbe, è definita equilibrio di Nash, dal nome del matematico statunitense e premio Nobel per l’Economia John Nash (la cui storia fu peraltro resa nota nel film del 2001 A Beautiful Mind).La condizione iniziale nel paradosso di Braess, cioè i 200 automobilisti distribuiti equamente tra i due percorsi, è un equilibrio di Nash. Nessun automobilista infatti ha interesse a cambiare strada: se lo facesse, impiegherebbe più tempo per arrivare a B, dal momento che il tempo di percorrenza del tratto variabile (T/10) diventerebbe 101/10 (10,1 minuti invece che 10). L’apertura del collegamento tra i due punti intermedi determina un nuovo equilibrio di Nash in cui tutti prendono la stessa strada, perché ignorano le scelte degli altri e pensano che avrebbero più da perdere nel fare una strada diversa da quella.Aumentare le capacità della rete in una situazione in cui le entità in movimento scelgono egoisticamente quale sia il percorso migliore, secondo Braess, può quindi portare in alcuni casi a un peggioramento delle prestazioni complessive della rete, perché l’equilibrio di Nash di un sistema di questo tipo non è necessariamente quello ottimale.In altri casi l’aggiunta di corsie a una strada esistente può generare un traffico indotto, una specie di “induzione della domanda” applicata al campo dei trasporti. Tende a verificarsi quando nuove strade vengono progettate e costruite, più che per tentare di risolvere un problema di traffico esistente, in previsione di un aumento del traffico futuro determinato da variabili come la crescita economica o il maggior numero di macchine vendute.In casi del genere può succedere che la costruzione di una nuova strada non si limiti a soddisfare una domanda latente di viaggi in macchina, repressa a causa di limitazioni esistenti nell’infrastruttura, ma porti anche a un aumento del traffico indotto. Gli automobilisti, in altre parole, potrebbero scegliere di viaggiare in macchina in casi in cui non lo avrebbero fatto altrimenti.– Leggi anche: Perché si formano gli ingorghi sulle stradeSebbene il modello teorico su cui si basa sia una rappresentazione molto semplificata della realtà, il paradosso di Braess è stato utilizzato anche per spiegare empiricamente casi storici in cui le prestazioni di una rete stradale malfunzionante migliorarono a seguito della riduzione anziché dell’espansione della rete.A Seul, in Corea del Sud, la demolizione di un’autostrada a sei corsie negli anni Duemila, necessaria per la costruzione di un parco pubblico, ridusse i tempi di viaggio dentro e fuori la città (senza ridurre significativamente il volume complessivo del traffico, cioè la quantità di macchine in movimento). Nel 1990 la chiusura provvisoria della 42a strada a New York per la Giornata della Terra, il 22 aprile, determinò una riduzione degli ingorghi. E uno studio pubblicato nel 2008 sulla rivista Physical Review Letters individuò alcune strade a Boston, New York e Londra la cui chiusura avrebbe ridotto i tempi di viaggio previsti per alcuni percorsi.Nella pratica, però, come per altri fenomeni controintuitivi, occorre una combinazione di condizioni molto rare perché il paradosso di Braess si verifichi concretamente. E sono molto rare anche perché questo fenomeno è ampiamente noto e tenuto in considerazione da decenni in fase di gestione della viabilità e progettazione delle strade. «L’importante quando si pianifica un nuovo sviluppo della rete stradale è effettuare simulazioni e verificare se questo fenomeno si verifica», ha detto a Forskning.no Helge Holden, docente di matematica alla Norwegian University of Science and Technology (NTNU) a Trondheim.A Oslo, in Norvegia, un possibile caso di paradosso di Braess citato da Forskning.no fu evitato negli anni Novanta grazie a una consulenza fornita all’amministrazione della città dal Transportøkonomisk institutt (TØI), un istituto nazionale di ricerca multidisciplinare sui trasporti. L’idea di costruire una corsia in più dopo due lunghe gallerie (Granfosstunnelen) sulla tangenziale 150 fu messa da parte perché, secondo le simulazioni effettuate dall’istituto, avrebbe causato un aumento del traffico anziché una distribuzione su più strade.Le ricerche nell’ambito della gestione del traffico stradale suggeriscono che la costruzione o la chiusura delle strade possono condizionare in modi non facilmente prevedibili le numerose variabili alla base della formazione degli ingorghi. Alcune persone potrebbero per esempio cambiare non soltanto il percorso ma anche le abitudini e gli orari di viaggio. E per simulare i vari flussi di traffico nel caso di chiusura di una o più strade – per convertirle in piste ciclabili, per esempio – occorre molta potenza di calcolo, ha detto Stefan Flügel, ricercatore del TØI. LEGGI TUTTO

  • in

    L’aria della Pianura Padana è sempre la più inquinata dell’Europa occidentale

    Caricamento playerGli ultimi dati sulla qualità dell’aria diffusi dall’Agenzia europea dell’ambiente (EEA) confermano una cosa già risaputa ma sempre problematica: la Pianura Padana è la regione più inquinata dell’Europa occidentale. Secondo l’EEA, che è l’organismo dell’Unione Europea che monitora le condizioni ambientali, nonostante un generale miglioramento della qualità dell’aria rispetto al passato i livelli di sostanze inquinanti presenti nell’aria che respiriamo continuano a rappresentare un grande rischio per la salute.Nel 2021 il 97 per cento della popolazione urbana europea è stato esposto a concentrazioni di particolato fine (il cosiddetto PM2,5, l’inquinante più dannoso per la salute) maggiori dei limiti ideali fissati dalle più aggiornate linee guida dell’Organizzazione mondiale della sanità (OMS). Le linee guida europee sono meno stringenti, ma in alcune parti d’Europa sono comunque state disattese, in particolare per il particolato di dimensioni maggiori (PM10) e l’ozono, i cui limiti sono stati superati in Pianura Padana.Le ragioni delle specifiche condizioni di inquinamento del Nord Italia sono ben note. Innanzitutto la Pianura Padana è una regione piena di città e molto popolata nonché densamente industrializzata, con la conseguente emissione di grandi quantità di sostanze inquinanti nell’atmosfera. Ci sono altre zone d’Europa che hanno caratteristiche simili, ma a queste si aggiunge la conformazione geografica del bacino del Po e le condizioni meteorologiche ad essa legate: chiusa tra le Alpi e gli Appennini, la Pianura Padana è una regione in cui soffia poco vento e c’è un’alta stabilità atmosferica, ragione per cui le sostanze inquinanti presenti nell’aria ristagnano, non vengono disperse.Le sostanze inquinanti prese in considerazione in queste analisi dell’EEA sono quelle per cui l’esposizione a lungo termine è associata allo sviluppo di patologie di vario genere, principalmente cardiovascolari e respiratorie, e a una riduzione dell’aspettativa di vita. Le principali sono il particolato, cioè l’insieme delle sostanze solide e liquide sospese nell’aria in particelle di diametro fino a mezzo millimetro, che possono depositarsi nei bronchi e penetrare nel sistema circolatorio, l’ozono, tra le sostanze più rischiose per chi soffre d’asma, e il biossido di azoto, ritenuto cancerogeno. Il PM2,5 è l’inquinante che ha l’impatto maggiore sulla salute e in particolare è associato a infezioni respiratorie, cancro ai polmoni e infarti.In generale, l’inquinamento dell’aria è particolarmente dannoso per i bambini e gli adolescenti. Le stime dell’EEA dicono che ogni anno causa più di 1.200 morti premature tra le persone con meno di 18 anni nei 32 paesi di cui analizza le caratteristiche.Secondo una classifica delle città più inquinate del 2021, che tiene conto delle concentrazioni di PM2,5, in Italia i comuni più inquinati tra quelli con più di 50mila abitanti sono:1. Cremona2. Padova3. Vicenza4. Venezia5. Brescia6. Piacenza7. Bergamo8. Alessandria9. Asti10. VeronaMilano è dodicesima nella classifica italiana e Torino quattordicesima. Se si considera la classifica europea complessiva, solo due città polacche e una croata – tra quelle con più di 50mila abitanti – hanno valori di concentrazione di PM2,5 maggiori di Cremona.Il particolato causato dalle attività umane è dovuto principalmente alla combustione di legna e carbone, a molte attività industriali e ai mezzi di trasporto stradali alimentati con i combustibili fossili. Il biossido d’azoto è prodotto principalmente dai mezzi stradali e a sua volta causa la presenza di ozono, che si forma da reazioni chimiche favorite dalla presenza di vari composti volatili, tra cui il metano.– Leggi anche: L’inquinamento dell’aria spiegato bene LEGGI TUTTO

  • in

    I voli in aereo stanno diventando più turbolenti

    A causa del cambiamento climatico le turbolenze in volo potranno essere più frequenti e intense, secondo alcune analisi basate su come si stanno modificando i fenomeni atmosferici. La maggiore frequenza di eventi estremi, come repentini cambi di temperatura e di intensità dei venti, influirà sulle rotte degli aerei di linea e potrà portare qualche disagio in più per i passeggeri, specialmente lungo alcuni percorsi molto trafficati come quelli tra l’Europa e gli Stati Uniti.Negli ultimi 40 anni, per esempio, la variazione improvvisa dei venti sopra l’oceano Atlantico settentrionale è aumentata del 15 per cento. Le correnti più instabili possono rendere meno confortevole la traversata anche a causa della difficoltà di prevedere alcuni tipi di turbolenze. Le perturbazioni sulla rotta possono essere previste grazie ai bollettini meteo, ai radar e agli altri sistemi a bordo degli aeroplani che ne indicano la presenza. Con le turbolenze è più difficile, in particolare per quelle che si verificano a “ciel sereno” (clear-air turbulence, o CAT) che non possono essere sempre identificate per tempo e nelle quali un aereo si può trovare improvvisamente mentre viaggia a 800 chilometri orari. La loro frequenza sembra essere in aumento ed è una delle cause degli scossoni che talvolta si hanno in volo.A inizio marzo un aeroplano di Lufthansa partito dal Texas (Stati Uniti) e diretto verso la Germania ha dovuto invertire la rotta e tornare verso l’aeroporto di partenza, dopo avere incontrato turbolenze molto intense in cui erano rimaste ferite sette persone. A fine 2022 un aereo partito da Phoenix (Arizona) e diretto a Honolulu (Isole Hawaii) era a una quota di circa 11mila metri quando ha attraversato una turbolenza, nonostante pochi istanti prima le condizioni meteo fossero tranquille con cielo sereno. Circa 25 persone erano rimaste ferite e per alcune si era reso necessario un controllo in ospedale dopo l’atterraggio.“The plane was chaos”: Matthew McConaughey and his wife Camila Alves McConaughey were onboard a Lufthansa flight that diverted to a Washington-area airport on its way from Texas to Germany, after hitting turbulence that hospitalized some passengers. pic.twitter.com/2QMcqItXnE— CBS Mornings (@CBSMornings) March 3, 2023Secondo i dati raccolti dal National Trasportation Safety Board statunitense, che si occupa della sicurezza in volo per l’aviazione civile, tra il 2009 e il 2022 più di 160 persone hanno subìto un grave infortunio a causa delle turbolenze. Tra le persone più a rischio ci sono solitamente gli assistenti di volo, che trascorrono buona parte del tempo a bordo in piedi, spesso trasportando oggetti e spingendo i carrelli con le bevande e i pasti per i passeggeri. I dati sono comunque parziali perché le compagnie aeree devono fornire informazioni solamente sui casi più gravi, di conseguenza è immaginabile che ci siano molti altri infortuni più lievi che non vengono tracciati.La variazione improvvisa del vento, sia in termini di direzione sia di intensità, è un fenomeno noto da tempo nella meteorologia aeronautica e viene tenuta sotto controllo soprattutto in prossimità degli aeroporti, visto che potrebbe causare problemi di sicurezza nelle procedure di atterraggio. È invece più complicato da tenere sotto controllo in volo, considerato che in condizioni di cielo sereno è più difficile da rilevare. Un aereo può trovarsi per esempio tra venti che soffiano a diversa velocità a seconda della quota, con dinamiche che influiscono sulla sua portanza e sulla possibilità di mantenere l’assetto.Isabel Smith, meteorologa dell’Università di Reading (Regno Unito) e studiosa delle turbolenze nel Nord Atlantico, ha spiegato che i gas serra rendono più difficile lo scambio di calore negli strati più alti dell’atmosfera. Il calore rimane più a lungo nella troposfera, lo strato più vicino al suolo, e viene ceduto più lentamente alla stratosfera, che costituisce lo strato successivo. La differenza di temperatura tra i due strati fa sì che si intensifichino alcune correnti atmosferiche, che a loro volta causano una maggiore instabilità e fanno aumentare i casi di turbolenze a ciel sereno.(Wikimedia)Fare previsioni sull’evoluzione del fenomeno non è semplice, ma secondo i modelli più condivisi le turbolenze di questo tipo potrebbero raddoppiare entro il 2050, con una maggiore incidenza di quelle gravi. Il fenomeno interesserà soprattutto il Nord Atlantico, dove passano alcune delle correnti atmosferiche più intense e importanti del nostro emisfero.Le cose potrebbero peggiorare nei prossimi decenni se non ridurremo drasticamente le emissioni di anidride carbonica nell’atmosfera, la principale causa dell’effetto serra, e se non svilupperemo soluzioni sostenibili per rimuovere una grande quantità di gas serra già immessi. Gli aeroplani sono piuttosto inquinanti e sono responsabili del 2-3 per cento delle emissioni di anidride carbonica (le stime variano molto a seconda dei parametri presi in considerazione). I nuovi aerei di linea consumano meno rispetto a un tempo, ma per ora il settore non ha alternative credibili per abbandonare in tempi rapidi l’impiego dei combustibili fossili.Oltre al cambiamento nelle correnti, l’aumento della temperatura media globale ha conseguenze su molti altri eventi atmosferici, che stanno diventando via via più estremi. In alcune aree del pianeta sono aumentate la frequenza e l’intensità delle precipitazioni, mentre in altre sono di più i periodi di siccità e le ondate di calore. Uragani e tifoni molto potenti sono aumentati e con loro la necessità di rivedere le rotte, rinviare le partenze o cancellare i voli. La maggiore instabilità riguarda anche le aree periferiche delle grandi perturbazioni, dove si rilevano più turbolenze rispetto a un tempo.Nel complesso secondo gli esperti le condizioni di viaggio per gli aerei di linea stanno diventando più incerte. I disagi come ritardi, cancellazioni, voli più lunghi e meno confortevoli potranno aumentare su specifiche rotte, ma in compenso tutto questo non andrà a scapito della sicurezza. Gli aeroplani impiegati oggi sono costruiti per resistere a grandi sollecitazioni, molto maggiori rispetto a quelle che si vivono di solito a bordo e che comprensibilmente inquietano alcuni passeggeri.Ci sono però alcuni ambiti in cui si può fare meglio, come spiegano alcuni esperti. In molti casi i piloti non ricevono una particolare formazione sul meteo oltre a quella di base prevista nelle prime fasi di addestramento. È raro che un pilota sia formato per utilizzare al meglio un radar di bordo per l’analisi delle condizioni meteo intorno all’aereo e spesso ci si affida alla buona volontà dei piloti e alla loro curiosità. Le tecnologie dei radar meteo si sono evolute rapidamente negli ultimi anni, ma senza che ci fossero iniziative per aggiornare gli equipaggi. I bollettini sulle tempeste potenzialmente lungo la rotta inviati da terra continuano a essere la principale fonte nella cabina di pilotaggio.Su Fortune, il pilota e istruttore Doug Moss ha detto che: «I sistemi radar per il meteo attualmente prodotti sono molto diversi da quelli che erano disponibili dieci o venti anni fa, e non c’è praticamente formazione su come utilizzarli. I piloti sono gente motivata e si cercano da soli le informazioni per studiarsele, ma le compagnie aeree non offrono certamente quel tipo di formazione». La necessità di una maggiore attenzione sulla preparazione dei piloti in questo ambito è discussa da tempo, ma è comunque importante ricordare che ogni pilota è formato per conoscere e sapere utilizzare ciò che è in cabina di pilotaggio.Per ridurre il rischio di incidenti a bordo, le compagnie aeree consigliano di mantenere sempre la cintura di sicurezza allacciata quando ci si trova al proprio posto, anche al di fuori delle fasi di decollo e di atterraggio, dove il loro impiego è obbligatorio. Una turbolenza inattesa porta l’aereo a perdere in pochi secondi decine (talvolta centinaia) di metri di quota, a inclinarsi o a spostarsi orizzontalmente di svariati metri. Le sollecitazioni sono tali da poter sbalzare i passeggeri dai loro sedili, far cadere gli oggetti sui tavolini o sui carrelli degli assistenti di volo, in alcuni casi comportando anche l’improvvisa apertura delle cappelliere. In queste circostanze la cintura allacciata può fare la differenza ed evitare un infortunio. LEGGI TUTTO

  • in

    I polpi assaggiano con i tentacoli

    Caricamento playerI polpi e i calamari hanno un modo particolare di assaggiare le loro potenziali prede e scoprire se corrispondono ai loro gusti prima di mettersele in bocca. Le immobilizzano con i tentacoli e usano poi le loro ventose per sentirne il sapore e decidere se valga la pena mangiarle. È una caratteristica nota da tempo tra chi studia questi animali, ma due nuove ricerche da poco pubblicate sulla rivista scientifica Nature offrono nuovi dettagli e informazioni su come un tentacolo si comporti più o meno come la nostra lingua, facilitando le attività di caccia e scoperta del cibo di numerose specie di polpi e calamari.I cefalopodi sono molluschi particolari: alcuni sono semplici da studiare perché facilmente osservabili in mare, mentre altri sono più sfuggenti e schivi come i calamari giganti. In particolare i polpi suscitano grande interesse perché hanno una sorta di cervello diffuso in tutto il loro organismo: la quantità di neuroni nei loro tentacoli, per esempio, è superiore a quella del loro cervello vero e proprio. Questa caratteristica fa sì che ogni tentacolo sia indipendente dagli altri e dal cervello stesso, con grandi capacità di autonomia e di controllo sulle proprie strutture.Le più evidenti in molte specie sono le ventose, utilizzate sia per manipolare prede e oggetti, sia appunto per assaggiare ciò che viene in contatto con la loro superficie. Nel corso dell’evoluzione, i polpi e i calamari hanno affinato questa capacità, con specie che sono in grado di distinguere facilmente il sapore dell’acqua in un certo tratto di mare da quello delle prede vere e proprie. Non è una capacità da poco e supera quella olfattiva di altri animali che vivono fuori dall’acqua e che talvolta si fanno ingannare da un profumo molto forte nell’aria, che maschera il sapore di qualcosa.Come spiega nella sua ricerca da poco pubblicata, il biologo Nicholas Bellono dell’Università di Harvard (Stati Uniti) stava studiando con il proprio gruppo di ricerca il polpo a due punti della California (Octopus bimaculoides) quando ha notato la presenza di particolari strutture sospettando che si trattasse di recettori sulla superficie delle cellule che costituiscono i tentacoli. I recettori sono strutture proteiche che rispondono alla presenza di una certa sostanza, portando poi a una risposta della cellula cui sono legati e a un effetto biologico di qualche tipo (i recettori olfattivi, per esempio, sono le proteine che innescano i meccanismi che ci consentono di percepire gli odori).Bellono si era quindi messo in contatto con un neurobiologo, Ryan Hibbs, dell’Università della California San Diego (Stati Uniti) e che in passato aveva condotto studi su alcune strutture proteiche simili. Una analisi del genoma, cioè di tutto il materiale genetico contenuto nelle cellule di quella specie di polpi, aveva portato all’identificazione di 26 geni coinvolti nella produzione di quei recettori, che possono essere moltissimi e diversi tra loro a seconda della combinazione dei 26 geni di partenza contenenti le istruzioni per produrli. Ogni combinazione porta a una diversa capacità per i polpi di assaggiare con i tentacoli ciò che stanno manipolando.Lo studio spiega che i recettori sono tarati in modo da reagire soprattutto alle sostanze grasse e oleose, che non si sciolgono nell’acqua, rendendo quindi più semplici gli assaggi escludendo il sapore dell’acqua marina. Questa caratteristica sembra essere inoltre ideale per assaggiare la pelle dei pesci, di solito grassa, ma anche per distinguere altri animali e sostanze sul fondale dove i polpi passano la maggior parte della loro esistenza.Un’ipotesi affascinante del gruppo di ricerca è che i tentacoli dei polpi siano autonomi nelle loro degustazioni: assaggiano e scoprono che cosa c’è intorno alle loro ventose senza necessità di inviare un segnale al cervello. In pratica i dati raccolti vengono tradotti istantaneamente in informazione, dando al polpo uno strumento più veloce e flessibile per capire che cosa gli accade intorno e cosa sta tenendo tra i tentacoli.Bellono e Hibbs hanno poi provato a ricostruire l’evoluzione di queste caratteristiche nella grande classe dei cefalopodi. Hanno messo a confronto i recettori nei tentacoli dei polpi con quelli del calamaro dal pigiama a righe (Sepioloidea lineolata), notando come quelli di quest’ultimo siano soprattutto specializzati nel riconoscere sapori che per i nostri gusti sono piuttosto amari. Questa specie di calamari potrebbe quindi decidere se nutrirsi o meno di ciò che ha tra i tentacoli in base a questo sapore, forse con un meccanismo meno elaborato rispetto a quello osservato in alcuni polpi.L’ipotesi è che i recettori sui tentacoli abbiano seguito percorsi evolutivi differenti quando i lontani parenti dei polpi e dei calamari iniziarono a differenziarsi circa 300 milioni di anni fa, dando origine alle sottoclassi che possiamo osservare oggi. E proprio nel corso dell’evoluzione le cose sono cambiate, secondo il gruppo di ricerca riflettendo le diverse attività di caccia tra calamari e polpi.In generale, i calamari passano la loro esistenza nuotando a una certa distanza dal fondale e quando sono in prossimità di una preda estendono repentinamente i loro tentacoli per immobilizzarla. Ciò significa che scoprono che sapore ha ciò che hanno cacciato già nel momento in cui c’è quel rapido contatto. I polpi vivono per lo più sul fondale e sondano costantemente l’ambiente che hanno intorno con i tentacoli, quindi recettori più differenziati e raffinati possono essere utili per distinguere ciò che sfiorano con i loro arti. LEGGI TUTTO

  • in

    Il primo lancio nello Spazio di Starship

    Caricamento playerDopo le 14 di oggi (ora italiana), la società spaziale privata statunitense SpaceX, fondata nel 2002 da Elon Musk, tenterà per la prima volta di raggiungere lo Spazio con la sua enorme astronave Starship. Il test servirà a verificare la capacità del sistema di lancio, che comprende il razzo più potente mai realizzato nella storia delle esplorazioni spaziali. Sull’esito dell’esperimento ci sono molte incertezze: il lancio potrebbe essere rinviato per problemi tecnici o legati al meteo, oppure potrebbe concludersi prima del previsto con una grande esplosione. Il test è però considerato essenziale per dimostrare le capacità di Starship, che dovrà essere impiegata per il primo allunaggio del programma lunare Artemis e un giorno per trasportare i primi esseri umani su Marte, forse.Il lancio è in programma da Boca Chica, una piccola località in Texas a pochi chilometri di distanza dalla costa del Golfo del Messico. SpaceX ha costruito lì Starbase, cioè la propria base di sviluppo e lancio di Starship, costruendo nuovi edifici e hangar a partire dal 2014. Sempre nella zona, negli ultimi anni SpaceX aveva condotto test su alcune versioni di prova della propria astronave, tra grandi esplosioni e un solo tentativo riuscito di riportare al suolo l’intero veicolo spaziale.I test con i primi prototipi di Starship erano iniziati a marzo del 2019, con modelli via via più grandi e simili alla versione finale dell’astronave, che assomiglia a quella di Tintin nel racconto a fumetti Obiettivo Luna. Il veicolo spaziale è alto 50 metri, più o meno quanto un palazzo di 15 piani e ha un diametro di circa 9 metri, con una punta a cono che ricorda vagamente quella degli Space Shuttle. Utilizza sei motori che vengono alimentati con ossigeno liquido e metano liquido. Nelle intenzioni di SpaceX, all’interno di Starship potranno essere trasportati satelliti di grandi dimensioni, moduli per stazioni spaziali ed equipaggi in viaggio verso la Luna o Marte.Una delle versioni di Starship verso la rampa di lancio nel luglio del 2022 (SpaceX)Starship da sola pesa 100 tonnellate, che diventano 1.300 con l’aggiunta del propellente, di conseguenza ha bisogno di una forte spinta per superare l’atmosfera terrestre e raggiungere lo Spazio. Quella iniziale è fornita da Super Heavy, un razzo alto quasi 70 metri con 33 motori, sempre alimentati da ossigeno liquido e metano liquido. Il lanciatore spinge Starship oltre l’atmosfera, poi compie una manovra per tornare sulla Terra come fanno già i razzi Falcon 9 che SpaceX impiega ormai da tempo per trasportare i satelliti in orbita e gli equipaggi verso la Stazione Spaziale Internazionale.In una ventina di anni di esistenza, SpaceX ha perfezionato un sistema per rendere parzialmente riutilizzabili i propri Falcon 9, invece di doverne costruire di nuovi per ogni lancio come i concorrenti, riducendo sensibilmente i costi per i lanci spaziali e rendendoli molto più frequenti. Con Starship la società vuole raggiungere il passo successivo: avere un sistema di lancio completamente riutilizzabile. Anche Starship, come Super Heavy, avrà la capacità di tornare sulla Terra con un atterraggio controllato, di essere rifornita e di tornare nello Spazio un po’ come fanno gli aeroplani. È un obiettivo estremamente ambizioso e per questo il test di oggi è così importante.Tra sabato e domenica, SpaceX ha condotto le ultime verifiche e ha posizionato Starship e Super Heavy nella loro configurazione finale, con l’astronave sopra il lanciatore. Messi insieme, raggiungono un’altezza di quasi 120 metri e sono visibili a chilometri di distanza nell’area di Boca Chica. La rampa di lancio stessa è particolare: oltre a essere enorme ha due grandi bracci meccanici che in futuro saranno utilizzati per bloccare il sistema di lancio al suo rientro sulla Terra. Informalmente viene chiamata “Mechazilla”, che ricorda Mechagodzilla, il grande robot utilizzato per difendere il Giappone in varie opere di fantasia su Godzilla. I due bracci meccanici sono chiamati spesso “chopsticks”, bacchette in inglese, perché un giorno pinzeranno i razzi di ritorno un po’ come si fa con un involtino primavera.Super Heavy, il grande cilindro metallico in basso, collegato a Starship su Mechazilla con i suoi due bracci meccanici (SpaceX)Per il lancio di oggi Mechazilla sarà comunque impiegato solo per la partenza di Starship e Super Heavy, ma non per il recupero che non è previsto in questo primo test. SpaceX accenderà i 33 motori di Super Heavy poco dopo le 14 e il grande razzo spingerà Starship per tre minuti, bruciando le migliaia di tonnellate di propellente nei suoi serbatoi, prima di staccarsi dal resto dell’astronave e tornare sulla Terra, effettuando un atterraggio controllato che lo porterà nelle acque del Golfo del Messico e debita distanza da Boca Chica. Super Heavy si inabisserà e non sarà riutilizzato: le versioni future torneranno invece alla rampa di lancio per essere impiegate nuovamente.La separazione è necessaria perché una volta esaurito il propellente Super Heavy diventerebbe un’inutile zavorra per il resto di Starship. È per questo motivo che in generale i razzi perdono via via i pezzi (“stadi”) man mano che effettuano la loro ascesa verso l’ambiente spaziale.Dopo la separazione, Starship accenderà i propri motori e si spingerà oltre l’atmosfera terrestre raggiungendo una velocità di poco inferiore a quella che le consentirebbe di inserirsi in un’orbita per iniziare a girare intorno alla Terra. A poco meno di dieci minuti dal lancio, l’astronave spegnerà i propri motori spingendosi fino a un’altitudine di 230 chilometri. Il piano della missione non prevede che Starship effettui un’orbita completa: quando sarà in vista delle isole Hawaii, effettuerà una manovra per rientrare nell’atmosfera e tuffarsi nell’oceano Pacifico.Il rientro sarà una delle operazioni critiche del test, perché servirà per verificare la tenuta e l’efficacia delle piastrelle isolanti che costituiscono lo scudo termico di Starship. In sua assenza, l’astronave non potrebbe reggere le alte temperature che si sviluppano mentre si attraversa ad alta velocità l’atmosfera. Il rivestimento a piastrelle di materiale isolante ricorda quello impiegato dagli Space Shuttle, ma con alcuni nuovi accorgimenti per ridurre i rischi di incendi e malfunzionamenti che in passato avevano riguardato quei veicoli spaziali.Nel complesso, il test servirà per verificare il sistema di separazione di Super Heavy da Starship e la capacità dell’astronave di raggiungere l’ambiente spaziale, compiere un volo quasi orbitale e superare poi il rientro nell’atmosfera. Il lancio sarà inoltre importante per verificare i sistemi di Super Heavy, mai lanciato prima e probabilmente una delle più grandi incognite di tutto il test.Il grande razzo utilizza 33 motori controllati da migliaia di sensori, di conseguenza prima del lancio potrebbero emergere problemi e imprevisti su alcuni dei sistemi di bordo. Un test di accensione dei motori effettuato in precedenza non aveva comportato imprevisti, ma ciò non esclude che qualcosa possa andare storto nelle ultime verifiche a ridosso del lancio. Le condizioni meteorologiche, soprattutto legate ai venti in alta quota, potrebbero inoltre rendere necessario un rinvio del lancio. Elon Musk, il CEO di SpaceX, ha stimato che ci sia un 50 per cento circa di probabilità di successo, ma secondo diversi osservatori è probabile che abbia mantenuto più basse del solito le sue stime in genere ottimistiche per non creare troppe aspettative.In passato Musk aveva in più occasioni promesso un imminente primo volo orbitale di Starship, senza che questo poi avvenisse. Oltre agli imprevisti tecnici, lo scorso anno si erano aggiunti alcuni problemi burocratici per l’ottenimento delle autorizzazioni da parte del governo statunitense per effettuare i test sperimentali. La Federal Aviation Administration, agenzia governativa che si occupa dell’aviazione civile negli Stati Uniti, aveva indicato numerose attività da svolgere per ridurre l’impatto dei test, anche dal punto di vista ambientale. SpaceX aveva seguito le indicazioni ottenendo infine un’autorizzazione per cinque anni lo scorso 14 aprile.La rampa di lancio a Starbase a Boca Chica, Texas, Stati Uniti (SpaceX)La pressione nei confronti di SpaceX è piuttosto alta, soprattutto per le grandi aspettative che ripone la NASA nel nuovo sistema di lancio. L’agenzia spaziale statunitense ha dato un appalto da 2,9 miliardi di dollari a SpaceX per sviluppare Starship come veicolo da trasporto per compiere gli allunaggi, a cominciare dalla missione Artemis 3 in programma non prima della fine del 2025. Prima di allora, l’intero sistema di lancio dovrà dimostrare non solo di essere completamente riutilizzabile, ma sicuro e affidabile per il trasporto di esseri umani.SpaceX intende sperimentare tutti i sistemi più volte nei prossimi anni attraverso missioni per il trasporto di materiale in orbita, a cominciare dai propri satelliti Starlink, impiegati per fornire connessioni a Internet dallo Spazio per le aree della Terra non raggiunte dai cavi di fibra ottica o dai ripetitori dei telefoni cellulari. Nei programmi di SpaceX c’è inoltre l’impiego di Starship come astronave per compiere un giro intorno alla Luna, senza raggiungere il suolo lunare, nel quale saranno coinvolti comuni passeggeri e non astronauti di professione.Quando e se Starship avrà dimostrato di essere affidabile, SpaceX sperimenterà una variante del sistema che prevederà di fare rifornimento in orbita dell’astronave, in modo da avere propellente a sufficienza per raggiungere Marte. Musk sostiene da tempo che la specie umana debba diventare “multiplanetaria” e che debba quindi fondare una colonia su Marte. Nonostante abbia illustrato in più occasioni i suoi piani, il programma per raggiungere questo obiettivo è ancora piuttosto vago e da definire, ammesso sia praticabile. Anche quel piano dipenderà da come andranno le cose oggi. LEGGI TUTTO

  • in

    Un anno di “Ci vuole una scienza”

    Quando un anno fa uscì la prima puntata di Ci vuole una scienza presentammo il nuovo podcast come un esperimento – scientifico, appunto – per raccontare un mondo che ci appare distante e che è invece da sempre centrale nelle nostre esistenze. Dopo un anno, possiamo dire che quell’esperimento è riuscito. Ci vuole una scienza è tra i podcast scientifici più ascoltati in Italia, ha un pubblico molto vario e appassionato che ha ritrovato nel lavoro di Beatrice Mautino ed Emanuele Menietti gli stessi principi e valori che il Post segue da 13 anni: spiegare bene le cose, con accuratezza e chiarezza.Nelle cinquanta puntate di questo primo anno, Ci vuole una scienza si è occupato di argomenti molto sentiti e di grande attualità, dalla crisi energetica al complicato dibattito sul nucleare, dalle ricadute sulla scienza della guerra in Ucraina ai grandi temi legati al cambiamento climatico. Ma il podcast è servito anche per sfatare miti e convinzioni errate, talvolta sfruttate per orientare il dibattito pubblico.Senza prendersi troppo sul serio, ogni venerdì Mautino e Menietti raccontano cose molto serie su come funziona la ricerca scientifica e su come viene comunicata, cercando di mostrare come la scienza sia un processo in continua evoluzione, fatto dalle persone e per questo tutt’altro che infallibile.La puntata sull’energia nucleare è stata una delle più ascoltate in questo anno, nel tentativo di parlare di un tema complesso sul quale ci sono molti preconcetti e una certa polarizzazione tra contrari e favorevoli. Hanno avuto molto seguito anche le puntate sulle creme solari e sui rimedi contro le zanzare, perché in fin dei conti la scienza serve anche a questo. Un’altra delle puntate più ascoltate ha spiegato bene che cos’è la vitamina D e perché da qualche tempo è così di moda. Le puntate sugli insetti a tavola e sulla “carne sintetica” hanno mostrato più di altre come grandi interessi, politici e di organizzazioni di categoria, dirottino il confronto dai fatti su temi che ci riguardano tutti.Insomma, in un anno gli argomenti non sono mancati e non mancheranno nemmeno per le prossime puntate. Ci vuole una scienza è gratuito grazie alle persone che si abbonano al Post. Lo si può ascoltare sull’app del Post o sulle principali piattaforme, come Spotify, Apple Podcasts, Amazon Music e Google Podcasts.Ma soprattutto grazie, per come è andata fino a qui. LEGGI TUTTO