More stories

  • in

    La misteriosa origine del coronavirus, tre anni dopo

    Nel marzo del 2020 l’Organizzazione Mondiale della Sanità (OMS) dichiarò la pandemia da coronavirus, tra le critiche di chi riteneva che la dichiarazione dovesse essere effettuata prima considerati i numerosi casi di infezione riscontrati in molte aree del mondo. Nonostante siano passati tre anni e la situazione sia sensibilmente migliorata, non sappiamo ancora quali furono le origini del coronavirus e come iniziò a diffondersi tra gli esseri umani. Le teorie e le ipotesi non mancano, ma non ci sono prove chiare e secondo i più scettici non sapremo mai dove tutto sia cominciato. Scoprirlo potrebbe però essere molto utile per ridurre il rischio che si verifichino in futuro nuove pandemie causate da altri virus, con le pesanti conseguenze che abbiamo sperimentato in termini di morti e di cambiamenti di abitudini di vita in questi anni.Per provare a fare chiarezza, o per lo meno per rendere più trasparente il lavoro di ricerca intorno alle origini del SARS-CoV-2, lunedì il presidente degli Stati Uniti, Joe Biden, ha firmato una legge che richiede alle agenzie di intelligence statunitensi di rendere pubblico quanto più materiale possibile sulle indagini intorno alla pandemia. La documentazione riguarda in particolare le analisi sulle attività svolte presso l’Istituto di virologia di Wuhan, la città cinese da cui sarebbe poi iniziata la pandemia, e i sospetti circa un accidentale contagio tra le persone che ne frequentavano i laboratori, con una conseguente diffusione del coronavirus tra la popolazione.L’ipotesi di un errore di laboratorio è stata valutata da numerose agenzie di intelligence, non solo negli Stati Uniti, ma non ha portato a conclusioni certe. Alle difficoltà tecniche nella ricostruzione dei primi focolai si aggiungono le reticenze del governo della Cina, che non ha collaborato alle indagini e in alcuni casi le ha ostacolate non fornendo dati importanti su ciò che avvenne a Wuhan tra la fine del 2019 e i primi mesi del 2020.La scarsa collaborazione della Cina si è resa di nuovo evidente negli ultimi giorni, dopo la segnalazione da parte di un gruppo di ricerca di alcuni dati finora passati inosservati su un archivio online e in seguito rimossi dalle autorità cinesi. Secondo l’analisi dei ricercatori, anticipata all’OMS la scorsa settimana e pubblicata lunedì in una versione preliminare, i dati offrono nuovi elementi a sostegno dell’ipotesi su un primo focolaio di SARS-CoV-2 avvenuto in un mercato di Wuhan, dove si erano già concentrate le indagini all’inizio della pandemia.Florence Débarre del Centre nationale de la recherche scientifique (CNRS) in Francia, lo scorso 4 marzo aveva notato con alcuni colleghi la presenza di alcune informazioni genetiche, pubblicate da ricercatori cinesi su GISAID, uno dei principali archivi online per la virologia.I dati derivavano dalla raccolta di campioni effettuata presso il mercato del pesce Huanan, dove erano stati identificati i primi casi di COVID-19. Oltre alle vendita del pescato, alcune bancarelle vendevano varie specie di mammiferi, spesso vivi e tenuti a stretto contatto in gabbie facilmente accessibili dai clienti. Qualche giorno dopo la segnalazione della scoperta da parte di Débarre, i dati erano stati rimossi da GISAID su richiesta della fonte cinese che li aveva inizialmente pubblicati.Il mercato di Huanan durante un’ispezione del gruppo di indagine dell’OMS il 31 gennaio 2021, Wuhan, Cina (AP Photo/Ng Han Guan, File)Débarre e colleghi avevano comunque fatto in tempo a salvare una copia dei dati, potendoli quindi analizzare. La decisione di rimuoverli aveva però fatto sollevare qualche perplessità nei confronti dei ricercatori cinesi che li avevano pubblicati, a cominciare da George Gao, il responsabile del Centro cinese per la prevenzione e il controllo delle malattie. Interpellato dal sito della rivista scientifica Science, Gao ha risposto che quei dati non erano «nulla di nuovo» e che si sapeva già da tempo che ci fosse una vendita illecita di alcuni tipi di animali al mercato, circostanza che aveva poi portato alla sua chiusura.I dati pubblicati e poi rimossi risalgono ai primi giorni del 2020, quando Gao e colleghi avevano effettuato numerosi prelievi di campioni dalle superfici dei banchi del mercato. Secondo le loro analisi, alcuni campioni erano risultati positivi al SARS-CoV-2 e avevano materiale genetico riconducibile agli esseri umani, mentre non erano state trovate relazioni tra il DNA di alcuni animali e la presenza del coronavirus. In uno studio preliminare pubblicato a febbraio, il gruppo di ricerca cinese aveva concluso che i dati raccolti suggerissero «fortemente» l’ipotesi che il virus fosse stato portato al mercato da qualche persona già contagiata, e non viceversa.Le conclusioni avevano suscitato perplessità, soprattutto in Occidente, perché sembravano voler sollevare la Cina da ogni responsabilità sull’origine del coronavirus, che sarebbe potuto arrivare dall’estero come sostengono da tempo alcuni funzionari del governo cinese. Lo studio offriva inoltre nuovi elementi a sostegno delle ipotesi, altrettanto difficili da dimostrare, circa l’origine in laboratorio del coronavirus e non al mercato di Wuhan.La nuova ricerca condotta da Débarre, e anticipata al gruppo di lavoro dell’OMS che si occupa di indagare le origini di nuovi patogeni (virus o batteri, per esempio), segnala che alcuni campioni risultati poi positivi al SARS-CoV-2 sono compatibili con materiale genetico riconducibile a cani procione, zibetti e altri animali che ormai sappiamo essere particolarmente esposti al contagio da coronavirus.Un esemplare di cane procione appartenente alla specie Nyctereutes procyonoides (Wikimedia)Anche se si chiamano così, i cani procione non sono imparentati con i procioni. Sono semmai imparentati con volpi e cani, ma vengono definiti in quel modo per la loro apparenza che ricorda in effetti quella dei procioni. Mangiano di tutto e ne esistono diverse specie, originarie per esempio di alcune zone della Cina, delle Coree e del Giappone. Se ne trovano anche in Europa, dove hanno iniziato a invadere alcuni ecosistemi a danno delle specie che li popolano.I cani procione vengono da tempo allevati in Cina per sfruttare la loro pelliccia, ma sono talvolta venduti anche nei mercati di animali vivi per il consumo delle loro carni. Ci sono testimonianze e prove sul fatto che fossero venduti al mercato Huanan alla fine del 2019, quindi a ridosso del periodo in cui iniziarono a emergere i primi casi di infezioni da SARS-CoV-2.Al momento non è comunque chiaro se i cani procione possano avere diffuso il coronavirus. Dai test di laboratorio sappiamo che questi animali sono esposti alle infezioni e sono in grado di trasmetterle, ma non significa che costituiscano la riserva naturale per il coronavirus. Una possibilità è che alcuni cani procione al mercato fossero stati contagiati da un altro mammifero infetto, come i pipistrelli (noti per fare da riserva ai coronavirus), e che in seguito avessero infettato alcuni frequentatori del mercato vista la stretta vicinanza tra esseri umani e animali in quel contesto.Per lungo tempo le autorità cinesi avevano negato che al mercato fossero venduti animali vivi. Solo nell’estate del 2021 una ricerca aveva confermato che la pratica era alquanto diffusa e risaliva ad almeno un paio di anni prima dell’inizio della pandemia. Questa circostanza, unita ai nuovi dati analizzati da Débarre, porta elementi per rivalutare l’ipotesi del mercato rispetto a quella di un errore di laboratorio.Sulla base delle anticipazioni dello studio preliminare pubblicato ieri, la scorsa settimana il direttore generale dell’OMS, Tedros Adhanom Ghebreyesus, aveva criticato la scorsa collaborazione della Cina dicendo: «Quei dati potevano essere – e dovevano essere – condivisi tre anni fa», invitando inoltre le autorità cinesi a fornire i dati con la comunità internazionale «immediatamente». Il gruppo di ricerca spera che la pubblicazione dello studio preliminare induca la Cina a condividere più informazioni e le sequenze complete raccolte all’inizio del 2020, ma ci sono forti dubbi.È opinione sempre più diffusa che la possibilità di scoprire davvero come ebbe origine il coronavirus dipenda esclusivamente dal governo cinese, che dopo un’iniziale collaborazione nei primi mesi del 2020 ha via via limitato la circolazione di informazioni anche tra i gruppi di ricerca internazionali. Per scoprire l’origine della SARS, altra malattia causata da un coronavirus, furono necessari circa 14 anni con indagini che portarono infine a identificare una caverna nello Yunnan, sempre in Cina, dove vivevano alcuni pipistrelli infetti. Per altri virus, la vera origine non è stata mai ricostruita, come nel caso di Ebola, identificato per la prima volta negli esseri umani a metà degli anni Settanta.All’inizio del 2003, il governo della Cina aveva limitato fortemente la circolazione delle informazioni sui primi casi di SARS. Solo quando i contagi raggiunsero Hong Kong, all’epoca soggetto a un minore controllo da parte del governo centrale cinese, divenne sempre più difficile nascondere l’estensione del problema. Quella vicenda avrebbe portato la Cina a dotarsi di maggiori strumenti per tenere sotto controllo la diffusione di nuove malattie, ma non cambiò alcuni approcci, a cominciare da quelli per evitare circostanze che mettano in cattiva luce il governo cinese.Nel caso del SARS-CoV-2 la scarsa collaborazione da parte della Cina ha impedito di fare progressi significativi nei tre anni di pandemia, con il mancato accesso a dati importanti o la negazione di fatti, come l’effettivo commercio di animali vivi nel mercato Huanan. In mancanza di una maggiore apertura da parte del governo della Cina, o di informazioni riservate passate da qualche ricercatore in Cina con tutti i rischi cui sarebbe esposto, difficilmente si potranno avere nuovi elementi per ricostruire le circostanze che tre anni fa causarono la più grande e grave pandemia degli ultimi tempi. LEGGI TUTTO

  • in

    L’ultimo rapporto dell’ONU sul clima

    Caricamento playerLunedì è stato pubblicato il nuovo rapporto di sintesi dell’Intergovernmental Panel on Climate Change (IPCC) dell’ONU, il principale organismo scientifico internazionale per la valutazione dei cambiamenti climatici. Il documento non presenta novità rispetto alle analisi già diffuse, ma è molto importante perché riassume migliaia di pagine di ricerche in un formato più fruibile, fondamentale per i governi che devono concordare e adottare nuove politiche per mitigare gli effetti del riscaldamento globale.La nuova sintesi come per i precedenti rapporti è alquanto netta: senza iniziative rapide e molto costose, i danni causati al pianeta dalle attività umane saranno in gran parte irreversibili e avranno enormi conseguenze. Secondo gli autori del documento, agendo molto in fretta e con misure drastiche c’è ancora tempo per evitare gli esiti più catastrofici. «La finestra di opportunità per garantire un futuro vivibile e sostenibile per tutti si sta rapidamente chiudendo», ricorda comunque il rapporto. Il segretario generale dell’ONU, António Guterres, lo ha definito «una guida per disinnescare la bomba a orologeria del clima».Il rapporto di sintesi è il documento finale del Sesto rapporto di valutazione dell’IPCC pubblicato tra il 2021 e il 2022. Le prime tre sezioni avevano trattato estesamente le basi fisico-scientifiche dietro il riscaldamento globale, l’impatto e le difficoltà nell’affrontarlo e infine le soluzioni per mitigare le conseguenze del cambiamento climatico. Il rapporto di sintesi comprende altri documenti che erano già stati pubblicati negli ultimi quattro anni, dedicati soprattutto agli effetti del riscaldamento globale sui terreni, gli oceani e le masse di ghiaccio (criosfera).Il nuovo rapporto riassume e rende con termini più accessibili ai decisori politici gli anni di studi sulle cause e le conseguenze dell’aumento della temperatura media globale. Ricorda che con gli attuali andamenti non potrà essere raggiunto l’obiettivo più importante e ambizioso: evitare che entro la prima metà degli anni Trenta si verifichi un aumento medio di 1,5° C rispetto al periodo precedente all’epoca industriale. Da tempo, comunque, una quota crescente di esperti riteneva che il limite fosse ormai irrealistico e che fosse arrivato il momento di accettare il fallimento, senza rassegnarsi e pensando a cosa fare per evitare ulteriori peggioramenti. Si stima che fino a oggi le attività umane abbiano provocato un aumento medio di almeno 1,1° C.Nel nuovo rapporto sono indicati gli ambiti su cui agire con decisione per avere effetti immediati: uno di questi è la drastica riduzione dell’impiego di combustibili fossili – in particolare carbone, petrolio e metano – per limitare le emissioni di gas serra. In un comunicato Guterres ha chiesto che tutti i paesi sviluppati anticipino di 10 anni i propri obiettivi per raggiungere la neutralità carbonica, cioè che la ottengano nel 2040 invece che nel 2050, come era stato stabilito dall’accordo sul clima di Parigi del 2015.La stessa richiesta è stata fatta alle economie emergenti come la Cina e l’India, che hanno come obiettivo per la neutralità carbonica rispettivamente il 2060 e il 2070. Per neutralità carbonica si intende un bilancio pari a zero di anidride carbonica immessa in atmosfera.Secondo Guterres i paesi più ricchi hanno la responsabilità di agire più in fretta rispetto a quelli più poveri, che sono quelli che subiscono maggiormente gli effetti dei cambiamenti climatici proprio a causa delle attività dei paesi sviluppati nei decenni passati.Raggiungere la “neutralità carbonica” – o le “emissioni zero” spesso citate – non significa quindi smettere del tutto di produrre gas serra (e in particolare di anidride carbonica, o CO2), ma rimuoverne una quantità pari a quella che viene immessa nell’atmosfera. Da una parte quindi bisogna attuare misure per ridurre le emissioni (per esempio riducendo l’uso dei combustibili fossili), dall’altra bisogna aumentare i modi per rimuovere gas serra dall’atmosfera (per esempio piantando alberi o catturando direttamente CO2).– Leggi anche: Le “emissioni zero”, spiegate beneIl rapporto di sintesi fa anche un punto su alcuni danni concreti causati dai cambiamenti climatici: la diminuzione dei pesci nei mari, il calo della produttività delle aziende agricole (dovuto per esempio a periodi sempre più prolungati di siccità in alcune aree del mondo, mentre in altre piove troppo), la moltiplicazione di malattie infettive e una frequenza senza precedenti di eventi meteorologici estremi.Questi effetti sono risultati maggiori rispetto a ciò che gli scienziati si aspettavano nelle attuali condizioni del pianeta, cioè con un aumento medio della temperatura di 1,1° C rispetto al periodo pre-industriale: le infrastrutture costruite dagli esseri umani, i loro sistemi economici e i loro settori produttivi nell’attuale società, dice il rapporto, si sono mostrati molto più vulnerabili del previsto anche a piccoli cambiamenti climatici. LEGGI TUTTO

  • in

    Stasera è primavera, di già

    Caricamento playerL’equinozio di primavera, cioè l’evento astronomico che segna l’inizio della primavera, nel 2023 avviene lunedì 20 marzo alle 22:24 in Italia (le 21:24 del tempo coordinato universale). Anche se convenzionalmente si dice che le stagioni comincino sempre il giorno 21 di marzo, giugno, settembre e dicembre, le date esatte di equinozi e solstizi dipendono dalla rivoluzione della Terra: fino al 2102 l’equinozio di primavera non sarà il 21 marzo, ma il 20 o, qualche volta, il 19.L’equinozio è il momento preciso in cui il Sole si trova allo zenit dell’equatore della Terra, cioè esattamente sopra la testa di un ipotetico osservatore che si trovi in un punto specifico sulla linea dell’equatore. Il giorno dell’equinozio di primavera ha comunque una caratteristica particolare: è uno dei due soli giorni all’anno, l’altro è quello dell’equinozio d’autunno, in cui il dì ha la stessa durata della notte (anche se poi non è esattamente così, a causa di alcune interazioni della luce con l’atmosfera terrestre).Il significato del termine “equinozio” è chiaro per chi sa qualcosa di latino o è bravo a tirare a indovinare: la parola italiana deriva dal latino aequinoctium, composto da aequus, cioè “uguale” e nox, “notte”. Dopo l’equinozio di primavera il dì – cioè quella parte del giorno in cui c’è luce – continua ad allungarsi ogni giorno nell’emisfero boreale fino al solstizio d’estate: a quel punto le ore di luce cominciano a diminuire, tornando pari a quelle di buio nell’equinozio d’autunno, e ricominciando ad aumentare solo con il solstizio d’inverno. Estate e inverno iniziano nei giorni di solstizio, in cui le ore di luce sono rispettivamente al loro massimo o al loro minimo. Per quanto riguarda l’emisfero australe, cioè la parte della superficie della Terra a sud dell’Equatore, è tutto l’opposto.Oltre alle stagioni astronomiche, ci sono anche le stagioni meteorologiche: iniziano in anticipo di una ventina di giorni rispetto a solstizi ed equinozi, e durano sempre 3 mesi (marmotta Phil permettendo). Indicano i periodi in cui si verificano le variazioni climatiche annuali, specialmente alle medie latitudini con climi temperati.Spiegazioni più estese sulle stagioni, il calendario, e le relazioni con il movimento della Terra si possono trovare nel nuovo numero della rivista del Post Cose spiegate bene che si chiama “La Terra è rotonda”.La primavera nelle copertine del New Yorker.single-post-new article figure.split-gal-el .photo-container .arrow::after{content:’LE ALTRE FOTO’} LEGGI TUTTO

  • in

    Quelli che vedono i suoni

    Passeggiare di sera lungo il marciapiede di una strada trafficata è un’esperienza associata, con molta probabilità e per la maggior parte delle persone, alla percezione di stimoli comuni come il suono del clacson di una macchina o il colore della luce di un lampione. Ma per alcune persone la percezione è diversa, più dettagliata: osservano la luce blu del lampione, per esempio, e sentono un sapore di liquirizia in bocca. È un fenomeno psichico noto come “sinestesia”, che si verifica quando uno stimolo di un certo tipo – uditivo, visivo, olfattivo, tattile o gustativo – provoca un’esperienza percepita tramite un senso non correlato a quello stimolo.Le stime della prevalenza della sinestesia, a cui peraltro corrisponde l’omonima figura retorica che unisce parole riferite a sensi diversi (“verde tiepido”, per esempio), variano notevolmente. Secondo alcuni studi interessa una persona su 2.000, più le donne che gli uomini, e secondo altri è ancora più frequente: una persona su 200. Questa variabilità dipende in parte dalle differenze nei criteri di definizione del fenomeno e in parte dalla specificità di ciascuno studio: alcuni si concentrano su determinate sinestesie e non altre (ne esistono decine di varianti, a seconda della combinazione di sensi coinvolti).Ma un altro motivo per cui la sinestesia è un fenomeno difficile da definire con precisione è il fatto che i processi che lo inducono interessano, in una certa misura, qualsiasi persona. Gli studi degli ultimi decenni sul funzionamento delle percezioni sensoriali indicano che i diversi organi di senso, per quanto autonomi, producono un insieme di informazioni che si integrano, si combinano e si influenzano a vicenda in molti modi. La nostra percezione del sapore, per esempio, è il risultato di un processo che coinvolge i recettori olfattivi e le papille gustative, ma anche la vista, il tatto e l’udito: è la ragione per cui per molte persone il sapore di una certa pietanza può cambiare, per esempio, a seconda che sia servita su un piatto nero e squadrato o su un altro celeste e circolare.– Leggi anche: L’olfatto è un misteroSi parla di sinestesia in senso proprio, non come esperienza comune, quando uno stimolo induce sia una percezione associata al senso direttamente stimolato, sia un’altra che apparentemente c’entra poco o niente. È una condizione che può verificarsi a seguito di danni cerebrali, per esempio, o essere indotta tramite l’uso di sostanze o tramite ipnosi. Ma per alcune persone è un’esperienza del tutto abituale, non riconducibile ad altri eventi o azioni particolari.A chi sperimenta questa condizione può capitare, per esempio, di ascoltare un suono e – anche senza vederne la sorgente – percepire uno stimolo visivo chiaro e definito. Oppure – come in uno dei casi più conosciuti e studiati, la sinestesia grafema-colore – può capitare di percepire in un insieme di lettere o numeri sia il colore con cui sono effettivamente stampati, sia un altro diverso specificamente associato a ciascuna lettera o numero.L’associazione tra il lampione e la liquirizia è una delle molte sinestesie che capitano abitualmente alla storica statunitense ed esperta di storia dell’alimentazione Julia Skinner, che ne ha scritto sulla rivista Atlanta.Una delle prime attestazioni storiche di una condizione riconducibile alla sinestesia risale al Settecento. Nel suo Saggio sull’origine del linguaggio, del 1772, il filosofo tedesco Johann Gottfried Herder scrisse che alcune persone associavano «immediatamente» un certo fenomeno a una sensazione con cui non aveva alcuna relazione, o un certo colore a un certo suono. Descrisse con altre parole quella che oggi è generalmente definita “cromestesia”, l’associazione tra colori e percezioni sensoriali di vario tipo (uditivo, olfattivo, gustativo).Il fisiologo francese Alfred Vulpian fu poi uno dei primi a utilizzare la parola “sinestesia” in ambito medico, nel 1860, riferendosi a casi di tosse e starnuti provocati da stimoli sensoriali apparentemente non correlati, come la luce. Dopo una ventina d’anni due studiosi svizzeri, Eugen Bleuler e Karl Bernhard Lehmann, documentarono sei diversi tipi di sinestesia, tra cui «sensazioni di luce, colore e forma suscitate tramite l’udito», «sensazioni sonore tramite la vista» e «sensazioni cromatiche tramite percezioni gustative».– Leggi anche: Quelli che non visualizzano le coseUno degli studi recenti più citati sulla sinestesia fu condotto nel 2001 da due neuroscienziati dell’Università della California, Vilayanur S. Ramachandran ed Edward Hubbard, secondo i quali l’origine della sinestesia potrebbe essere in parte genetica. Secondo la loro ipotesi, l’inclinazione di alcune persone – più diffusa tra artisti e poeti – a percepire collegamenti tra sensazioni apparentemente non correlate sarebbe determinata da una «iperconnettività» tra diverse aree del cervello.Come disse allo Smithsonian il neurologo statunitense della George Washington University Richard Cytowic, che ci siano molteplici connessioni incrociate tra le varie parti del cervello è una condizione che riguarda qualsiasi cervello: «Semplicemente, in quello di chi ha sinestesie, ce ne sono di più». Le ricerche sulla sinestesia sono spesso citate anche in relazione al cosiddetto effetto bouba/kiki, un esperimento psicologico condotto da Ramachandran e Hubbard, tra gli altri, e originariamente attribuito allo psicologo tedesco Wolfgang Köhler, che studiò questo effetto negli anni Venti.L’esperimento prevede di mostrare due figure geometriche affiancate, una tondeggiante e l’altra spigolosa, e chiedere ai partecipanti a quale delle due figure abbinerebbero la parola “bouba” e a quale la parola “kiki”, due parole che non significano niente. La grandissima maggioranza delle persone associa “bouba” alla figura tondeggiante e “kiki” a quella più spigolosa, come confermato anche da Ramachandran e Hubbard, che utilizzarono questo esperimento per il loro studio del 2001. Lo condussero sia su un gruppo di studenti americani che su un gruppo di studenti indiani di lingua tamil, provando che la lingua parlata non era un fattore rilevante.Sia negli studi che se ne occupano che nei documenti storici in cui è citata o descritta, la sinestesia è generalmente intesa come una condizione rara, spesso difficile da definire, ma non un disturbo. Il fatto che sia una sorta di variante estrema di un processo normale di «elaborazione multisensoriale» delle informazioni, come disse al sito LiveScience il neuroscienziato e psicologo statunitense David Brang, lo rende inoltre un fenomeno utile da studiare per comprendere meglio il funzionamento del cervello in generale e quello delle persone più creative in particolare. LEGGI TUTTO

  • in

    Weekly Beasts di sabato 18 marzo 2023

    Nella medicina tradizionale cinese la bile degli orsi tibetani viene usata da migliaia di anni per i suoi presunti poteri curativi, in unguenti o altri preparati: è il motivo per cui, specialmente in Cina e Vietnam (dove è illegale dal 2005), gli orsi venivano tenuti in cattività in alcuni “allevamenti” dove la bile gli veniva estratta dalla cistifellea mentre erano ancora vivi. Nel parco nazionale di Tam Dao, in Vietnam, c’è un rifugio che ospita gli orsi sottratti a questa industria, come quello che vedete spaparanzato tra le foto di animali della settimana. Poi ci sono una scimmia cappuccina, uno scoiattolo volpe, due quokka e un takin..single-post-new article figure.split-gal-el .photo-container .arrow::after{content:’LE ALTRE FOTO’} LEGGI TUTTO

  • in

    Quelli che scoprono i paleotsunami

    Caricamento playerSi ritiene che alla fine dell’estate del 1420 un forte terremoto lungo la costa del Cile causò uno tsunami nell’oceano Pacifico che raggiunse le Hawaii e ancora più a ovest alcune aree del Giappone. Non esistono testimonianze scritte cilene su quell’evento, ma i sismologi stimano che la scossa ebbe una magnitudo compresa tra 8.8 e 9.4, quindi altamente energetica. Alcuni enormi massi smossi lungo la costa furono spinti nell’entroterra dalla forza dello tsunami, dove possono essere osservati ancora oggi.Se a distanza di sei secoli abbiamo informazioni su cosa accadde nella parte meridionale del deserto di Atacama in Cile è grazie al lavoro dei gruppi di ricerca che studiano i “paleotsunami”, le grandi ondate che anticamente si verificarono sul nostro pianeta e che in mancanza di testimonianze scritte richiedono approfondite ricerche geologiche per essere ricostruite. È un ambito di studio relativamente recente e sul quale c’è qualche dubbio, ma che potrebbe offrire nuove importanti prospettive per comprendere gli effetti di eventi catastrofici, come terremoti ed eruzioni vulcaniche, che nel corso delle ere geologiche hanno plasmato il nostro pianeta.La parola tsunami deriva dal giapponese, significa letteralmente “onda sul porto” e può essere considerata un sinonimo di maremoto, anche se in letteratura scientifica prevale quasi sempre l’impiego della sua versione giapponese debitamente traslitterata. Per motivi geografici e di rischio sismico, il Giappone è del resto uno dei paesi più esposti agli tsunami. Il paese ha inoltre una lunga storia ben documentata e di conseguenza registri e archivi che vanno molto indietro nel tempo, utili per ricostruire i grandi terremoti del passato. Alcune notazioni sull’evento sismico del 1420 sono state per esempio molto importanti per ipotizzare che cosa accadde all’epoca in Cile.Tendiamo a considerare uno tsunami come una versione su scala più grande e potente di una normale onda del mare, ma in realtà ci sono profonde differenze. Nel caso delle classiche onde, l’energia che le produce proviene per lo più dai venti e riguarda la parte più superficiale dell’acqua. Per questo motivo le onde hanno dimensioni e velocità relativamente limitate, se confrontate con quelle di un maremoto.Gli tsunami sono il prodotto di eventi altamente energetici che avvengono per lo più sott’acqua in prossimità del fondale marino: una potente eruzione vulcanica, una grande frana lungo un pendio su una dorsale oppure un forte terremoto. Lo strato d’acqua che si trova al di sopra si solleva rispetto al livello normale, poi torna ad abbassarsi per effetto della gravità, causando una dispersione dell’energia in orizzontale che produce l’onda vera e propria, che può raggiungere una velocità di svariate centinaia di chilometri orari.(TED-Ed)Lontano dalla costa uno tsunami può passare inosservato, perché si muove attraverso l’intera profondità dell’acqua, formando meno increspature rispetto a un normale moto ondoso. Quando però raggiunge acque meno profonde in prossimità della costa si verifica lo “shoaling”, il fenomeno che porta le onde ad aumentare in altezza relativamente al diminuire della loro velocità. In questa fase uno tsunami raggiunge il massimo della propria altezza, che in alcuni casi può superare i 30 metri. Spesso questa circostanza è anticipata dal ritirarsi temporaneo del mare lungo la costa, dovuto alla fase in cui si genera il grande sollevamento dell’acqua in prossimità del luogo in cui si è verificato il terremoto o la forte eruzione vulcanica.Dopo aver investito la costa l’onda inizia lentamente a ritirarsi, portandosi dietro ciò che ha travolto o seppellendolo sotto altri detriti. Alcune tracce del suo passaggio spariscono in breve tempo, altre possono permanere a lungo ed essere alquanto evidenti, come si suppone nel caso dei grandi massi in Cile. È proprio dallo studio di queste tracce che i gruppi di ricerca ricostruiscono i paleotsunami, riuscendo in alcuni casi a identificare eventi sismici di grande potenza avvenuti in luoghi dove non c’era nessuno per documentarli.Massi che si ritiene siano stati spinti dalla costa verso l’interno in seguito a uno tsunami (A. Scheffers – Tsunamiites)Il gruppo di esperti di paleotsunami è ristretto, ma comprende ricercatori che hanno dedicato buona parte della propria carriera al loro studio. Sanno che per scoprire maremoti avvenuti centinaia o migliaia di anni fa devono scavare tra rocce e sedimenti, alla ricerca delle tracce lasciate dal passaggio della grande onda. Ritirandosi, lo tsunami deposita sul suolo rocce, conchiglie e altri detriti che vengono poi coperti da altri sedimenti, preservando quelle tracce nel tempo al di sotto di altre stratificazioni.La presenza di uno strato con caratteristiche diverse da quelle che dovrebbe avere il terreno in una certa area è un buon indizio per andare alla ricerca di un paleotsunami. Il lavoro di indagine è più semplice nelle aree con suolo sabbioso e soffice, mentre è più complicato nelle zone rocciose dove le stratificazioni possono essere meno evidenti. Per questo oltre alle analisi del suolo i gruppi di ricerca cercano tracce di fossili o di minuscoli residui organici, come quelli delle diatomee (microalghe unicellulari), che possano offrire maggiori spunti per i loro studi.Nel caso del terremoto del 1420, un gruppo di ricerca cileno era partito da ciò che c’era sotto uno dei massi da 40 tonnellate, che per secoli aveva fatto da fermacarte lasciando inalterati i sedimenti sottostanti. Le analisi avevano permesso di datare alcuni ritrovamenti organici tra il quattordicesimo e il sedicesimo secolo. Confrontando le fonti, i ricercatori avevano notato la segnalazione di uno tsunami in Giappone nel 1420 con caratteristiche compatibili con la grande onda che aveva interessato la costa del Cile.La Valle de la Luna nel deserto di Atacama è considerata uno dei luoghi più secchi del mondo (John Moore/Getty Images)In altri casi le ricerche possono essere facilitate dalle tracce lasciate dalle nostre attività. Sempre in Cile, intorno a 3.800 anni fa antichi insediamenti lungo le coste furono abbandonati, con la costruzione di insediamenti di dimensioni paragonabili più nell’entroterra. Quelle osservazioni, insieme ad altri dati raccolti analizzando i sedimenti, risalgono a un periodo compatibile con un grande paleotsunami che si ipotizza interessò un’ampia area dell’oceano Pacifico meridionale. Non ci sono testimonianze nelle fonti scritte, ma si pensa che i maremoti interessarono oltre al Cile: le isole Cook, Tonga, Vanuatu e la Nuova Zelanda. Le ricerche sulle isole che si presume fossero state coinvolte devono essere ancora effettuate, quindi gli stessi gruppi di ricerca invitano a mantenere qualche cautela.Ricostruire eventi naturali avvenuti migliaia di anni fa non è semplice, ci sono molte variabili e non sempre sono disponibili archivi e cronache per confermare quanto sembrano suggerire i dati. Le ricerche sul campo richiedono talvolta spedizioni costose e non alla portata di molti centri di ricerca, specialmente nei paesi più poveri esposti a rischio tsunami. Dati parziali o frammentari possono portare a identificare correlazioni che non esistono, riconducendo erroneamente effetti simili a una stessa causa.Lo studio degli tsunami è comunque in espansione e negli ultimi 20 anni ha raccolto un crescente interesse, non solo da parte delle istituzioni scientifiche, ma anche dei governi. Una maggiore consapevolezza sui rischi che possono comportare i maremoti iniziò a maturare dopo lo tsunami nell’oceano Indiano a fine dicembre del 2004, che si stima causò la morte di circa 230mila persone. Un interesse che fu poi rinnovato nel 2011 dopo il terremoto di magnitudo 9.1 al largo della costa del Giappone, il cui tsunami causò quasi 20mila morti e un’emergenza nucleare.L’arrivo dello tsunami a Koh Raya, Thailandia, il 26 dicembre 2004 (JOHN RUSSELL/AFP/Getty Images)Prevedere uno tsunami con largo anticipo è impossibile con le attuali tecnologie e conoscenze. Le reti di rilevazione dei terremoti specialmente nell’oceano Pacifico consentono in alcuni casi di inviare un’allerta alla popolazione con decine di minuti di anticipo, talvolta ore. Sono avvertimenti basati su modelli e simulazioni, con livelli di accuratezza variabili e non sempre molto affidabili, ma che consentono comunque di attivare alcune procedure di evacuazione delle persone dalle coste. Il consiglio in questi casi è di raggiungere aree più rilevate all’interno, allontanandosi il più possibile dalla costa.Effetti dello tsunami in Giappone del 2011 (Kyodo via AP Images)Come per i terremoti, anche per gli tsunami si possono comunque ridurre eventuali effetti catastrofici con la prevenzione. Dopo il maremoto del 2011 in Giappone ci furono polemiche e molti si chiesero se non fosse stato sottovalutato il rischio, considerato che il paese è tradizionalmente esposto ai terremoti e agli tsunami. Parte dei piani di emergenza era basata su precedenti tsunami, che non avevano però avuto la portata di quello che aveva poi travolto le coste dodici anni fa. I sistemi per ridurre l’impatto dell’ondata, per esempio attraverso la costruzione di muri e ripari, non sono comunque sempre efficaci soprattutto nel caso di tsunami molto potenti.Non tutti i maremoti hanno comunque lasciato tracce per essere scoperti, a distanza di moltissimo tempo da quando si erano verificati. Chi si occupa dei più antichi ritiene che ce ne furono comunque di a dir poco devastanti. Si stima che 1,4 milioni di anni fa circa un terzo del vulcano Molokai orientale nelle Hawaii collassò nell’oceano Pacifico, producendo uno tsunami che superò i 600 metri di altezza, con grandi conseguenze sulle coste dalla California e del Messico. LEGGI TUTTO

  • in

    Weekly Beasts di sabato 11 marzo 2023

    Ogni anno a Birmingham, in Inghilterra, si tiene il Crufts, una delle più grandi e importanti mostre di cani al mondo, a cui partecipano migliaia di esemplari di razze diverse – compreso questo pastore del Bernese – che competono per il titolo del miglior cane dell’edizione. Molto più bizzarro è un concorso che si è tenuto a Bangkok, in Thailandia, che premia invece il gatto che somiglia più a una mucca usando come metro di paragone il pelo a macchie. Tra gli altri animali impegnati in occupazioni più naturali ci sono due cicogne bagnate dalla pioggia, un cavallo sotto la neve, un orango tra gli alberi e bisonti al pascolo..single-post-new article figure.split-gal-el .photo-container .arrow::after{content:’LE ALTRE FOTO’} LEGGI TUTTO

  • in

    Niente, un articolo sul vuoto

    Siete in un locale con un paio di amici che ordinano due birre, ma non avete molta voglia di bere e dite al cameriere che non prenderete niente. Ora dovete sapere che Werner H., il cameriere, lavora in quel bar da molto tempo ed è un tipo piuttosto zelante. Ne avete la conferma quando torna al tavolo e serve due boccali di birra ai vostri amici e lascia un bicchiere vuoto per voi. «Mi spiace, signore, ma non abbiamo esattamente niente, ho fatto comunque del mio meglio», vi dice con un lieve accento tedesco. Scrutate Werner H. e il vostro bicchiere che sembra effettivamente pieno di niente, ma è veramente vuoto?Non è un test per verificare quanto siate ottimisti o pessimisti, non è del resto una questione di bicchiere mezzo pieno o mezzo vuoto, ma di fare i conti con un concetto spesso sfuggente e al tempo stesso dalle grandi implicazioni fisiche e filosofiche: il niente. Si può togliere qualcosa da una parte per ottenere l’assenza di tutto? E se lo facciamo, rimaniamo davvero con niente?Prendiamo il bicchiere che vi ha portato lo zelante cameriere, che come ormai avrete intuito non è tecnicamente vuoto. Certo, non c’è della birra al suo interno, ma è comunque ricolmo di aria, senza contare le minuscole particelle di polvere che contiene, insieme a qualche acaro che è certamente scivolato dalla manica di chi ve lo ha servito.Se consideriamo solo l’aria nella sua definizione più vaga e approssimativa – cioè una miscela in cui sono presenti soprattutto molecole di ossigeno e azoto – possiamo dire che in un bicchiere da 200 ml sono presenti circa 5 • 1021 molecole, o detto in altri termini 5mila miliardi di miliardi di molecole. Il calcolo è approssimativo, molto dipende dalla temperatura del locale e soprattutto dell’altitudine a cui si trova, ma l’ordine di grandezza rende l’idea di quante cose ci siano in un bicchiere che di solito definiamo vuoto.Per rimuovere le molecole di aria dal bicchiere e avere niente come avevate chiesto al cameriere occorre che nel contenitore la pressione sia molto inferiore rispetto a quella atmosferica. Quest’ultima non è altro che la pressione che esercita l’enorme quantità di aria che abbiamo sopra le nostre teste, pari in condizioni normali a circa 10 tonnellate per metro quadrato. In sostanza viviamo sul fondale di un gigantesco oceano di aria, ma non ce ne accorgiamo più di tanto perché la pressione all’interno del nostro organismo è pressoché identica a quella dell’ambiente esterno (che varia comunque a seconda della temperatura e soprattutto dell’altitudine).Quando facciamo le pulizie in casa, l’aspirapolvere usa una ventola per creare una depressione al proprio interno ed è la differenza di pressione tra l’interno e l’esterno che fa sì che la polvere venga risucchiata nel contenitore. L’aspirapolvere ha quindi creato un vuoto parziale, che si riempie però di materia perché c’è un’estremità che consente all’aria e alla polvere di fluire nel contenitore. In laboratorio, si utilizzano sistemi molto più raffinati e potenti per estrarre quanta più materia possibile da un contenitore.Il vuoto che si ottiene è comunque parziale. I sistemi più affidabili consentono di rimanere con appena 10 miliardi di molecole per centimetro cubo (ovvero 2mila miliardi nel bicchiere che vi ha portato il cameriere). È ancora un sacco di materia, ma in termini relativi è comunque un bel passo avanti rispetto a una condizione standard in cui ci sono milioni di miliardi di miliardi di molecole.Sulla Terra i veri specialisti nel creare il vuoto parziale sono i gruppi di ricerca del CERN, vicino a Ginevra in Svizzera. Nel Large Hadron Collider (LHC), il gigantesco anello sotterraneo lungo 27 chilometri in cui fanno accelerare e scontrare le particelle, è fondamentale che ci sia il minor numero possibile di atomi per evitare collisioni incontrollate. L’acceleratore, in sostanza un lunghissimo tubo, è fatto di materiali particolari per ridurre il rischio che questi perdano alcune delle proprie molecole ed è rivestito con speciali sostanze per l’assorbimento di gas che non dovrebbero trovarsi nell’acceleratore. Ci sono poi sistemi per rimuovere l’umidità e una lunga serie di potenti estrattori che impiegano circa due settimane per produrre il vuoto parziale.Rappresentazione schematica del funzionamento degli acceleratori di particelle al CERNIl risultato finale è un vuoto migliore di quello che possiamo trovare nello Spazio interplanetario, cioè ciò che si trova tra un pianeta e un altro del nostro sistema solare. Come ricordano al CERN, il risultato è inoltre comparabile, se non migliore, rispetto al vuoto parziale che troviamo nello spazio tra una stella e l’altra: lo Spazio interstellare. Qui in media un centimetro cubo contiene un milione di molecole, poco, ma siamo ancora distanti dal vuoto ideale dove non c’è niente di niente. La scarsa densità ci ricorda comunque che dove la materia è più densa ci sono stelle, pianeti e in ultima istanza noi stessi con i nostri bicchieri al bar, e ci ricorda anche che dove non si è raccolta è molto più sparpagliata.Se lasciamo le singole stelle e ci spingiamo ancora oltre, raggiungiamo lo Spazio intergalattico, cioè lo spazio tra una galassia e l’altra. Non sappiamo moltissime cose sulle sue caratteristiche, ma calcoli e simulazioni al computer effettuate negli anni offrono comunque qualche spunto. In un solo centimetro cubo preso a caso difficilmente osserveremmo qualcosa, ma si stima che tra una galassia e un’altra ci siano fino a dieci particelle per metro cubo. È un ambiente in cui la densità della materia è bassissima per i nostri standard qui sulla Terra, ma se ne prendessimo un bicchiere potremmo trovarci dentro comunque qualcosa. Anche in un luogo così inaccessibile e remoto, non avremmo il vuoto propriamente detto.Ripercorriamo a ritroso le migliaia di anni luce che abbiamo percorso e torniamo sulla Terra. Immaginiamo che mentre eravamo via qualcuno abbia inventato il sistema per sbarazzarci anche degli ultimi rimasugli di materia ordinaria che troviamo nello Spazio intergalattico. Avremmo finalmente il bicchiere vuoto? Non proprio.Nel contenitore avverrebbero comunque fenomeni fisici dovuti all’affollarsi di particelle virtuali, che hanno origine e si annullano di continuo così velocemente da non darci il tempo di misurarle. È un effetto della teoria quantistica dei campi, ambito che mette insieme la meccanica quantistica, la relatività e la teoria dei campi classica. Semplificando enormemente, possiamo dire che i campi sono gli oggetti fondamentali dell’Universo: entità fisiche che assumono un valore in ogni punto nello spaziotempo. Questa teoria ci dice inoltre che le particelle sono il frutto di un passaggio a maggiore energia di un punto del campo.Werner Heisenberg nel 1947 (AP Photo/Gerhard Baatz)Il fisico tedesco Werner Heisenberg, considerato uno dei padri della teoria quantistica, espose quasi un secolo fa il proprio “principio di indeterminazione” che offrì importanti elementi per teorizzare che il vuoto non sia mai veramente vuoto. Heisenberg disse che i valori di alcune coppie di grandezze riferite a una particella, come la posizione e la velocità, non possono essere misurati contemporaneamente con un’infinita precisione. Se nel vuoto non ci fosse alcuna forma di energia, un’ipotetica particella avrebbe energia nulla per un tempo preciso: entrambe le grandezze sarebbero quindi misurabili con accuratezza infinita e in violazione del principio di indeterminazione. Nel vuoto devono quindi esserci fluttuazioni quantistiche, con particelle che si creano e si distruggono a vicenda (annichilazione) mantenendo una quantità minima di indeterminazione.In sostanza, e tagliando con l’accetta decenni di studi e teorie fisiche per spiegare come funziona praticamente tutto, possiamo dire che potremmo eliminare dal bicchiere la massa ordinaria, ma rimarremmo comunque con un brulicare di particelle virtuali. Sarebbe comunque il miglior vuoto ottenibile, almeno in questo universo.Simulazione al computer dell’attività delle particelle virtuali nel vuotoIpotizziamo che ci sia un universo in cui possiamo prenderci la libertà di escludere tutte le particelle e di rimuovere le leggi della fisica, quelle che governano il modo in cui le cose funzionano e la loro stessa esistenza. Rimarremmo con qualcosa che non possiamo nemmeno definire uno “spazio vuoto”, perché non esisterebbe nemmeno il concetto di spazio che a sua volta è strettamente legato al concetto di tempo (lo spaziotempo della relatività). Non ci sarebbe nemmeno l’energia, non ci sarebbe davvero nulla. Se potessimo applicare questa cosa al bicchiere, infine non avremmo davvero nulla al suo interno, ma avendo rinunciato a tutto non esisterebbe nemmeno il bicchiere.E qui la faccenda da fisica si farebbe alquanto filosofica. Del resto già i primi filosofi, come Leucippo e Democrito, vissuti verso la metà del V secolo a.C., si chiedevano se potesse esistere uno spazio completamente vuoto contrapposto a quello in cui si trovano gli atomi dell’Universo. Aristotele introdusse poi il concetto di horror vacui, concludendo che «la natura rifugge il vuoto» e che di conseguenza tende a riempirlo costantemente.Aristotele respingeva l’idea del vuoto assoluto e la sua teoria divenne dominante, al punto da essere mantenuta per i circa due millenni successivi da molti altri che affrontarono il problema, diventando anche uno degli assunti della Chiesa. Le cose cambiarono nel diciassettesimo secolo, grazie allo sviluppo di nuove tecnologie che consentirono di analizzare e comprendere i fenomeni legati alla pressione.L’italiano Galileo Galilei fu tra i primi a condurre esperimenti per misurare la forza necessaria per produrre il vuoto parziale in un cilindro. Nel 1644 Evangelista Torricelli introdusse il principio del barometro, grazie alla costruzione di un dispositivo – che oggi chiamiamo “tubo di Torricelli” – con il quale fece nuove dimostrazioni sul fatto che l’aria ha un peso, portando elementi scientifici nelle discussioni filosofiche che proseguivano da millenni sull’horror vacui.Evangelista Torricelli conduce uno dei suoi esperimenti sulla pressione (Wikimedia)Una delle tante unità di misura della pressione si chiama “torr” proprio in onore di Torricelli, ma è probabile che abbiate sentito parlare anche del pascal (Pa), l’unità di misura della pressione nel sistema internazionale. Si chiama così per ricordare Blaise Pascal, importante fisico e filosofo francese che più o meno nello stesso periodo di Torricelli con altri esperimenti portò nuove conferme alla teoria della pressione atmosferica.Nei tre secoli seguenti intorno alla pressione, al comportamento dei fluidi e al vuoto furono effettuate numerose altre scoperte, spesso grazie allo sviluppo di nuove tecnologie che rendevano possibili esperimenti più complessi ed elaborati. La produzione di pompe per produrre il vuoto parziale ebbe un ruolo importante per esempio nella scoperta dell’elettrone, così come dei raggi X. Nei primi decenni del Novecento fu grazie al vuoto che scienziati e scienziate iniziarono a comprendere alcune caratteristiche della materia, ponendo le basi per lo studio delle particelle.Il vuoto parziale ebbe un ruolo molto importante anche in una tecnologia che abbiamo avuto per lungo tempo specialmente sopra le nostre teste: la lampadina a incandescenza. Questa produceva luce rendendo incandescente, in seguito al passaggio dell’energia elettrica, un filamento resistente alle alte temperature, ma fino dai primi esperimenti era diventato evidente che il filamento bruciava troppo rapidamente limitando molto la vita della lampadina. Fu anche in questo caso un italiano, Alessandro Cruto, a sviluppare un filamento di grafite che durava molto a lungo, risolvendo uno dei problemi con cui si era scontrato il più famoso Thomas Edison, che pochi mesi prima aveva presentato la propria lampada a incandescenza.Una lampadina di Cruto conservata al Museo Nazionale Scienza e Tecnologia Leonardo da Vinci di Milano (Wikimedia)Per estendere ulteriormente la durata del filamento, nel bulbo delle lampadine a incandescenza veniva prodotto un vuoto parziale, in modo da ridurre la presenza di ossigeno che avrebbe favorito la combustione del filamento. In seguito le lampadine sarebbero state prodotte inserendo nel bulbo un gas nobile a bassa pressione, ottenendo un’ulteriore estensione della durata del filamento e riducendo l’effetto che portava il vetro della lampadina ad annerirsi.Forse anche per la storia delle lampadine molti associano il concetto di vuoto alla mancanza di ossigeno, ma come abbiamo visto nel nostro viaggio interstellare le cose sono più complicate di così. Da quella convinzione deriva comunque una domanda ricorrente: come fa il Sole a “bruciare” se non c’è ossigeno nello Spazio?Il Sole, come tutte le altre stelle, non brucia come farebbero dei ciocchi di legno in un caminetto. La sua luminosità è dovuta ai processi di fusione nucleare che avvengono nel suo nucleo, con una enorme produzione di energia che rende incandescente il resto del materiale della stella. A volte si dice che il Sole “brucia idrogeno”, ma è un modo di dire: tecnicamente con la fusione l’idrogeno fonde in elio, non trattandosi di un processo di combustione non è necessaria la presenza di ossigeno.I raggi solari impiegano circa otto minuti per attraversare i 150 milioni di chilometri che in media separano il Sole dalla Terra. Come abbiamo visto nello Spazio il vuoto è pressoché perfetto, di conseguenza la luce viaggia alla massima velocità possibile in quel mezzo, pari a circa 300mila chilometri al secondo (c). Per la teoria della relatività ristretta è un limite invalicabile: la velocità massima a cui può viaggiare qualsiasi informazione nell’Universo.Nell’aria, la luce va lievemente più piano a causa della rifrazione, che comporta una diminuzione della velocità di propagazione della radiazione elettromagnetica. A rallentarla è proprio ciò che non riusciamo a vedere, così impalpabile da farci pensare al vuoto, ma che rende possibile e condiziona la nostra esistenza da sempre. Un grande oceano di aria, che lascia sempre pieni i nostri bicchieri al bar. LEGGI TUTTO