More stories

  • in

    Come funzionano le cose che usiamo tutti i giorni

    Ogni giorno della nostra vita è accompagnato da piccoli gesti che facciamo di continuo, soprattutto in casa dove passiamo una parte importante del nostro tempo: da accendere la luce a impostare la temperatura del forno, passando per l’apertura di un rubinetto e lo sciacquone del WC. Diamo per scontato che a una certa azione corrisponda un effetto, ma a ben pensarci non sempre sappiamo che cosa rende veramente possibile l’accensione di una lampadina o il pop-corn al microonde. Tecnologie vecchie e nuove riempiono il nostro quotidiano e forse si meritano che sappiamo qualcosa di più su come funzionano, almeno un’infarinata in non più di due paragrafi ciascuno.RubinettoIl funzionamento di un rubinetto è all’apparenza abbastanza semplice – fai ruotare un elemento o alzi una leva e l’acqua scorre – eppure non sono in molti a sapere che cosa accade al suo interno. Il “rubinetto a vitone” è quello che hanno più o meno tutti in mente, e che si svita per far fluire l’acqua. Facendolo si fa infatti sollevare una vite che ha alla sua base una rondella cui è applicata una guarnizione. Quando il rubinetto è chiuso la guarnizione preme contro un foro e impedisce all’acqua di passare resistendo alla sua pressione. Svitando, la guarnizione si stacca dal foro e l’acqua inizia a fluire: più si svita, più la guarnizione si allontana e permette il passaggio di una maggiore quantità d’acqua.

    In casa il tipo di rubinetto più diffuso è ormai il “miscelatore monocomando” che si aziona con una leva collegata a una sfera cava che ha tre fori: due servono per far passare l’acqua calda e quella fredda, in modo che si mescolino all’interno della sfera, mentre il terzo per far passare l’acqua verso l’esterno. Quando il rubinetto è chiuso i fori non sono allineati con le aperture, mentre lo diventano quando si sposta la leva: più la si sposta verso l’alto più il foro centrale è allineato verso la bocca di erogazione (la parte dove esce l’acqua), mentre girando la leva a sinistra o a destra si regola l’allineamento dei fori rispetto ai due tubi che portano acqua calda e fredda, determinando la temperatura di uscita dal rubinetto.

    WCUna meraviglia della tecnica segna quasi sempre la fine delle cose più tangibili che produce il nostro organismo. Il water, o vaso sanitario, è l’elemento più evidente in un WC, solitamente realizzato in ceramica e dalla caratteristica forma che ricorda quella di una tazza. Salvo non si attivi lo sciacquone, l’acqua che ricopre il suo fondo non fluisce nello scarico grazie alla presenza di un sifone, una cavità a gomito che impedisce al vaso di vuotarsi completamente. Il bordo superiore del water è cavo e permette all’acqua che proviene dalla vaschetta di fluire al suo interno e di uscire da tanti fori orientati verso il basso, in modo da rimuovere quanto si è depositato nel vaso. La maggiore quantità d’acqua fa superare la parte terminale del sifone e fa sì che l’acqua venga risucchiata nello scarico insieme al frutto della propria fatica.

    La potenza del getto è ottenuta per gravità, grazie a una vaschetta di scarico posta più in alto rispetto al vaso e piena d’acqua. Quando si tira lo sciacquone, si apre il diaframma che in condizioni normali impedisce all’acqua di scorrere verso il basso e di incanalarsi nel vaso. Lo svuotamento della vaschetta fa cadere verso il basso un galleggiante (un oggetto con una densità minore rispetto a quella dell’acqua) di solito collegato a una staffa, a sua volta collegata a una valvola che regola l’ingresso di nuova acqua. In pratica è come aprire un rubinetto per riempire un recipiente. Man mano che il livello dell’acqua aumenta, il galleggiante sale fino a quando è a un’altezza tale da far chiudere la valvola, impedendo che entri più acqua della capacità della vaschetta (c’è un ulteriore meccanismo di “troppo pieno” che nel caso di un malfunzionamento del galleggiante fa fluire l’acqua in eccesso nel vaso). A vaschetta piena si può nuovamente azionare lo sciacquone e tutto ricomincia da capo.
    Interruttore della luceIn un’abitazione possono mancare molte cose, ma difficilmente mancano gli interruttori della luce nelle stanze. Ne esistono di vari tipi a seconda delle necessità e della tensione elettrica, ma di solito quelli per accendere le lampadine nelle case sono tra i più semplici e sono di tipo “unipolare”, aprono cioè il circuito ma una delle due parti è sempre sotto tensione.
    Di solito all’interno di un comune interruttore unipolare per la luce c’è una molla che rende possibile il passaggio da una posizione all’altra: se provate a lasciare l’interruttore a metà non ci riuscite proprio per questo. L’interruttore è collegato a due cavi (rispettivamente fase e neutro) e ha al suo interno due contatti: quando la lampadina è spenta il circuito è aperto e non c’è un collegamento tra i due contatti; quando si vuole accendere la luce, lo spostamento dell’interruttore fa scattare una lamella di metallo che chiude il circuito e rende possibile il passaggio della corrente elettrica tra i due contatti e verso la lampadina.
    MicroondeMolte persone diffidano del microonde per la sua capacità di scaldare e cuocere gli alimenti molto più velocemente di un forno tradizionale, cosa percepita come poco “naturale”. In realtà un microonde sfrutta la naturalissima capacità delle radiazioni elettromagnetiche a una certa lunghezza d’onda di intervenire sull’orientamento di alcune molecole, principalmente quelle dell’acqua, facendole oscillare. Il gran subbuglio porta le molecole a urtarsi, sfregando tra loro e producendo calore per attrito. Visto che gli alimenti hanno una certa componente d’acqua, si può sfruttare questo principio per scaldarli o per cuocerli.
    (Zanichelli)
    Le microonde necessarie sono prodotte da un magnetron, una sorta di generatore che tramite un forte magnete spinge gli elettroni a muoversi verso l’esterno. Una guida d’onda incanala le microonde verso un dispositivo che le sparpaglia all’interno della camera di cottura in modo che possano raggiungere il cibo. La distribuzione non è ordinata e il piatto rotante serve per fare in modo che il riscaldamento o la cottura risulti più omogenea. Un microonde agisce meccanicamente sulle molecole ma non le altera in alcun modo chimicamente: un piatto di zuppa scaldato con un microonde è indistinguibile a livello molecolare da uno scaldato utilizzando un forno o un fornello.
    SpecchioCon le giuste condizioni di luce, i primi esseri umani osservarono la loro immagine riflessa in una pozzanghera, uno stagno o un lago centinaia di migliaia di anni prima che fossero inventati gli specchi. In generale, pensiamo che solo uno specchio “rifletta” la luce, ma in realtà praticamente tutto ciò che abbiamo intorno riflette la luce, altrimenti non potremmo osservarlo. Quando siamo davanti a uno specchio la luce riflessa dal nostro corpo (e da tutto quello che abbiamo intorno) raggiunge la superficie riflettente, quasi sempre realizzata in argento o alluminio, protetta da uno strato di vetro o di plastica trasparente.
    I fotoni, i piccoli pacchetti di energia che costituiscono i raggi luminosi, colpiscono la superficie riflettente e vengono rimbalzati in modo più ordinato (riflessione speculare) rispetto a quanto facciano le superfici irregolari come quella del nostro corpo (riflessione diffusa). È grazie a questa riflessione in un’unica (o quasi) direzione che vediamo l’immagine riflessa. La luce in realtà non rimbalza sullo specchio come farebbe una pallina su un tavolo da ping pong: i fotoni sono assorbiti dagli atomi di argento rendendoli temporaneamente instabili, stato che li porta a emettere energia sotto forma di fotoni per tornare stabili. L’argento è tra i materiali più efficienti in questo processo di riflessione, mentre altri materiali si perdono qualche pezzo per strada e anche per questo sono meno riflettenti.
    FrigoriferoUn frigorifero sottrae calore dall’ambiente in cui conserviamo gli alimenti, che come sempre succede viene ceduto da una parte più calda a una più fredda. Per farlo utilizza un compressore collocato all’esterno nella parte bassa del frigorifero, che ha il compito di far aumentare la pressione e quindi la temperatura al fluido refrigerante. Il fluido viene poi incanalato nel condensatore, una sorta di lunga serpentina che favorisce il cedimento del calore all’ambiente circostante, facendo comunque sì che il fluido continui a essere ad alta pressione. Al termine del condensatore, il fluido passa attraverso la valvola di espansione (con una certa approssimazione potete pensarla come l’erogatore di una bomboletta spray): il rapido cambiamento di pressione riduce repentinamente la temperatura del fluido, che di solito passa dai 30 °C circa a -25 °C.
    (Zanichelli)
    Il fluido passa nell’evaporatore, un’altra serpentina che è però collocata in un’intercapedine del frigorifero, in modo da “prelevare” il calore all’interno del frigo e degli alimenti. Nel farlo la sua temperatura aumenta, torna per evaporazione allo stato di vapore e raggiunge nuovamente il compressore dove sarà portato ad alta pressione per tornare nel condensatore e il ciclo ricomincerà. Il rumore che sentite provenire ogni tanto dal frigorifero è il compressore, che si attiva quando un termostato segnala che la temperatura all’interno del frigorifero si è alzata.
    TV OLEDDa ormai diversi anni una quantità crescente di televisori, ma anche di altri dispositivi come smartphone e laptop, utilizza la tecnologia OLED che può essere considerata un’evoluzione degli LCD che hanno reso popolari ed economici gli schermi piatti. Potete immaginare uno schermo LCD come una lasagna: lo strato più basso è costituto da un pannello luminoso che proietta la luce sullo strato successivo, formato invece da una miriade di minuscoli quadratini (i pixel) a cristalli liquidi. A seconda di come viene fatta passare la corrente elettrica, i cristalli liquidi si orientano in modo da far passare o bloccare la luce proveniente dal pannello luminoso. La luce che passa attraverso ogni quadratino viene colorata di rosso, verde o blu ed è dalla combinazione di questi colori che si produce un’immagine, un po’ come in un mosaico. Gli strati finali della lasagna sono poi uno schermo protettivo e un rivestimento antiriflesso, per rendere visibile più facilmente l’immagine in varie condizioni di luce.
    A differenza degli LCD, gli OLED non hanno bisogno dello strato col pannello luminoso perché ogni pixel è in grado di illuminarsi da solo, grazie all’impiego di particolari composti organici che si illuminano quando viene applicata loro una corrente. Gli OLED possono essere quindi molto più sottili di un LCD e soprattutto offrono maggiori capacità di contrasto, perché possono spegnere le parti in cui deve essere mostrato il nero, a differenza degli LCD dove il pannello luminoso viene solo schermato e di conseguenza il nero appare meno intenso (ci sono comunque sistemi per ridurre il problema).
    AscensoreEsistono due tipi di ascensori: elettrici, che tirano la cabina dall’alto attraverso una fune; oleodinamici, che spingono la cabina dal basso tramite un pistone. Il primo tipo è il più diffuso e quello a cui pensano praticamente tutti quando si parla di un ascensore. Ai lati del vano in cui si muove la cabina ci sono delle guide per evitare che l’ascensore oscilli mentre si sposta in verticale tra i vari piani. Il motore elettrico sulla sommità del vano non avvolge le funi di trazione collegate alla cabina, ma come in una carrucola le fa muovere oltre la puleggia (un disco che gira intorno al suo asse) dove si trova invece il contrappeso. Questo ha una massa di solito pari a quella dell’ascensore a metà carico, in modo da bilanciare il sistema e ridurre lo sforzo che deve fare il motore per far salire o scendere la cabina.
    (Jared Owen via YouTube)
    Se una fune di trazione si spezza, ce ne sono altre per evitare che la cabina precipiti nel vano. Nella remota eventualità in cui si spezzino tutte le funi, un sistema frenante rileva meccanicamente l’improvviso aumento della velocità della cabina e fa scattare i freni, che premono contro le guide nel vano fermando in pochi istanti la cabina. Altri sistemi di sicurezza sono applicati alle porte ai piani, che si possono aprire solo in presenza della cabina: nei modelli con porta automatica sia interna sia esterna è il movimento della porta della cabina ad azionare anche la porta esterna al piano.
    FornoIl forno statico è presente nella maggior parte delle cucine e rappresenta la versione più semplice e tradizionale di questo elettrodomestico. Esposte o in un’intercapedine della camera di cottura ci sono delle resistenze (resistori) che, come suggerisce il nome, oppongono una certa resistenza al passaggio della corrente elettrica. Ciò determina il loro surriscaldamento e la produzione di calore può essere impiegata per scaldare un ambiente, nel caso di una stufetta, o la camera di cottura di un forno.
    Di solito quando si imposta la temperatura per la cottura non si interviene direttamente sulla temperatura delle resistenze, che a regime è sempre la stessa, ma su un termostato. Il compito di questo strumento è di rilevare la temperatura interna e di far disattivare le resistenze al raggiungimento di quella desiderata, facendole poi riattivare quando la temperatura scende. Un tempo la gestione della temperatura nella camera di cottura era alquanto approssimativa, mentre oggi ci sono sistemi più raffinati. Questo è uno dei motivi per cui ogni forno si comporta un po’ diversamente dagli altri e richiede qualche tempo per capire come modificare tempi e temperature di cottura rispetto alle ricette. Oltre al forno statico ci sono quelli ventilati (a convezione) che forzano con alcune ventole la circolazione dell’aria calda nel forno e quelli a vapore, che utilizzano anche il vapore acqueo per la cottura.
    Pentola a pressioneNonostante sia in circolazione da secoli, nei confronti della pentola a pressione c’è ancora diffidenza da parte di alcune persone. È una pentola solitamente di acciaio inossidabile con un coperchio che, a differenza delle altre casseruole, si chiude ermeticamente grazie a una guarnizione sul bordo del coperchio e a una leva che lo fa agganciare saldamente al resto della pentola. Gli alimenti vengono cotti aggiungendo sul fondo della pentola un po’ d’acqua, che a 100 °C si trasforma in vapore acqueo. A causa della chiusura ermetica, il vapore non può uscire dalla pentola e continua ad accumularsi portando a un aumento della pressione che fa aumentare la temperatura di ebollizione portandola a circa 120 °C, una condizione che non si può raggiungere con una pentola normale. La maggiore temperatura dell’acqua consente di cuocere gli alimenti più velocemente di quanto avverrebbe con una comune casseruola.
    Modello di pentola a pressione del XIX secolo (Wikimedia)
    La pressione raggiunta all’interno della pentola è solitamente il doppio di quella che si ha normalmente nell’atmosfera (in condizioni standard di temperatura e altitudine). Una valvola di controllo evita che si superi quel valore di pressione: è quel cilindro che di solito si sente sibilare quando la pentola è in pressione. C’è poi una valvola di sicurezza che interviene nel caso in cui non funzioni correttamente la valvola di controllo: è studiata per staccarsi dal coperchio in modo da ridurre rapidamente la pressione interna ed evitare cedimenti della pentola (che è comunque progettata per resistere ben al di sopra dei valori di pressione raggiunti durante la cottura).
    RompigettoIl rompigetto aeratore è quel piccolo cilindro applicato al termine dell’erogatore del rubinetto che rende il getto d’acqua bianco e opaco, invece che trasparente come dovrebbe essere di solito. L’effetto ottico è dovuto all’aggiunta di aria che contribuisce a ridurre la portata di acqua consumata, pur mantenendo una buona pressione del getto. Esistono aeratori formati da tante lamelle di plastica disposte a raggiera attraverso cui passa l’acqua incorporando dell’aria, ma ci sono anche modelli formati da reti con maglie minuscole sovrapposte tra loro, che favoriscono l’incorporazione dell’aria nel getto. L’aria passa attraverso la struttura centrale del rompigetto grazie ad alcune fessure.

    Oltre a rendere più omogeneo il getto dell’acqua che esce dal rubinetto, questi dispositivi permettono di ridurre del 30-60 per cento il consumo d’acqua a seconda dei modelli, senza avere una riduzione significativa della pressione. Soprattutto i modelli con le reti tendono ad accumulare calcare e altre impurità e devono essere di conseguenza puliti periodicamente, per evitare una riduzione della portata del rubinetto.
    Bomboletta sprayUna bomboletta spray, come quella del deodorante, contiene al proprio interno un gas (spesso propano e butano miscelati insieme) ad alta pressione in modo che sia allo stato liquido. Quando si preme la valvola di erogazione, la differenza di pressione tra l’interno e l’esterno della bomboletta fa sì che il contenuto tenda a fuoriuscire molto velocemente tornando allo stato gassoso. Il passaggio è rapido e repentino, al punto che il gas trascina con sé anche le altre sostanze presenti nella bomboletta come quelle che costituiscono il deodorante.
    L’erogatore e la valvola sono di solito collegati a una cannuccia che raggiunge il fondo della bomboletta, in modo da pescare più facilmente le sostanze più dense presenti nel contenitore, che tendono a depositarsi sul fondo. Per questo quando la bomboletta è ormai quasi scarica può essere utile inclinarla, facendo anche ruotare l’erogatore, in modo da raccogliere gli ultimi residui di deodorante.
    AspirapolvereAnche nel caso dell’aspirapolvere c’entra la pressione, ma a differenza della bomboletta all’interno di parte dell’elettrodomestico serve un ambiente a pressione inferiore rispetto a quella esterna. Per ottenere temporaneamente questa depressione si utilizza un motore elettrico collegato a una ventola che estrae l’aria da un recipiente disperdendola verso l’esterno. Il recipiente è collegato alla bocchetta di aspirazione ed è quello in cui si depositerà la polvere raccolta. Tra il recipiente, la ventola e la griglia che permette all’aria di uscire dall’aspirapolvere ci sono dei filtri che impediscono alla polvere di uscire con l’aria espulsa.
    A questo principio di base si sono aggiunti nel tempo sistemi per migliorare l’efficienza di aspirazione, evitando per esempio che questa si riduca in modo significativo man mano che il recipiente si riempie di polvere, rendendo più difficile il passaggio dell’aria. I modelli con tecnologia ciclonica fanno passare l’aria sporca in un contenitore conico in modo che questa percorra una stretta elica. Le particelle di polvere finiscono contro la parete del cono e cadono verso il basso, dove vengono raccolte nel recipiente per la polvere. Di solito si usano più cicloni per migliorare la resa di aspirazione anche quando il recipiente è quasi pieno.
    LavatriceLa lavatrice è stato uno dei primi elettrodomestici a diffondersi nelle abitazioni e ha rivoluzionato il modo di lavare i vestiti. Il cestello in cui si inseriscono i panni è messo in rotazione da un motore elettrico, collegato tramite una cinghia o applicato direttamente al cestello. Un sensore rileva quando l’oblò è chiuso e rende possibile l’accensione della lavatrice, dopo avere impostato il programma di lavaggio e la temperatura dell’acqua. Questa entra nel cestello attraverso un tubo collegato all’impianto di casa e a una valvola, che si chiude quando è stata caricata la quantità di acqua necessaria. Il detersivo proveniente dal cassetto viene miscelato all’acqua nelle prime fasi di caricamento, ma è sempre più frequente che sia inserito direttamente con i vestiti.
    Una lavatrice dei primi anni Cinquanta (Three Lions/Getty Images)
    Il cestello è traforato e si trova all’interno di un cilindro più grande, che non ha invece fori e contiene quindi l’acqua caricata per il lavaggio. Quando viene messo in rotazione dal motore, il cestello si muove all’interno del cilindro e fa sfregare tra loro i vestiti che si immergono un po’ per volta nell’acqua (è un sistema per utilizzare meno acqua e ridurre lo sforzo del motore). Una resistenza, collocata tra il cestello e il cilindro, scalda l’acqua per portarla alla temperatura desiderata. Durante un lavaggio ci sono più cicli di carico e scarico dell’acqua: quella sporca viene prelevata ed espulsa da una pompa. La “centrifuga” è il momento in cui il cestello gira molto velocemente: i vestiti vengono spinti verso le pareti e non possono andare oltre, mentre l’acqua può spingersi ancora più in là e lascia i tessuti infilandosi nei fori del cestello, viene raccolta nel cilindro ed espulsa tramite la pompa di scarico.
    TelecomandoPuntare il telecomando verso il televisore è un po’ come puntare una torcia, ma la luce emessa dal LED che si trova sulla parte anteriore del telecomando non è visibile: è nell’infrarosso (la parte della radiazione elettromagnetica che non riusciamo a vedere perché ha una frequenza inferiore a quella della luce visibile). Il televisore ha un sensore per captare i segnali nell’infrarosso inviati dal LED e tradurli in comandi per alzare o abbassare il volume, cambiare canale o accendere e spegnere il televisore stesso. Il segnale è inviato in codice binario, quindi a ogni comando è associata una combinazione di 1 e 0.
    Quando premiamo un tasto, il LED si accende (1) e spegne (0) velocemente un certo numero di volte, riproducendo il codice binario, il sensore sul televisore rileva la sequenza e attiva un comando di conseguenza. Prima dell’introduzione dei LED a infrarossi i telecomandi facevano lampeggiare una lampadina, quindi percepibile anche dalla nostra vista. I telecomandi dei televisori più recenti usano talvolta metodi di trasmissione alternativi, basati per esempio sulle onde radio del Bluetooth.
    TermosifoneIl classico termosifone contiene al suo interno dell’acqua calda proveniente da una caldaia che può essere presente nello stesso appartamento (riscaldamento autonomo) oppure condivisa tra più appartamenti (riscaldamento centralizzato) e di solito collocata nel piano più basso dell’edificio. L’acqua calda che esce dalla caldaia fluisce nei tubi e raggiunge attraverso una serie di diramazioni i termosifoni, che possono essere considerati a loro volta dei tubi, per quanto particolari. Sono progettati per accogliere diversi litri d’acqua e hanno una forma per esporre quanta più superficie possibile all’ambiente esterno.
    (Zanichelli)
    La questione della superficie è importante perché con i termosifoni la propagazione del calore avviene per convezione. L’aria sopra al calorifero si riscalda e, diventando meno densa, sale verso l’alto mentre quella fredda tende a scendere verso il basso dove viene scaldata dal termosifone in un ciclo continuo che contribuisce a far muovere l’aria nella stanza e a scaldarla. Con una forma diversa, il termosifone sarebbe meno efficiente nel cedere calore all’ambiente circostante. Una termovalvola (o testina termostatica) consente di regolare il flusso d’acqua nel termosifone in base a quanto si desidera scaldare un ambiente: raggiunta la temperatura, la valvola interrompe il flusso d’acqua in modo da ridurre i consumi. LEGGI TUTTO

  • in

    Siamo scarsi a comprendere le persone che non la pensano come noi

    La polarizzazione del dibattito pubblico, uno dei temi più raccontati e discussi degli ultimi anni, ha portato a una sovraesposizione mediatica di opinioni politiche contrapposte e spesso rappresentate senza sfumature. L’accresciuta familiarità delle persone con quelle rappresentazioni potrebbe anche indurle a credere di conoscere abbastanza bene il modo di pensare di chi ha un punto di vista opposto rispetto al loro. Ma quelle supposizioni sono il più delle volte sbagliate, contrariamente alle aspettative di chi le fa, come sostiene uno studio pubblicato ad agosto sulla rivista Scientific Reports.Lo studio è stato condotto da Bryony Payne e Caroline Catmur, ricercatrici in psicologia cognitiva al King’s College di Londra, e Geoff Bird, ricercatore e professore di neuroscienze cognitive all’Università di Oxford. Il loro obiettivo era studiare il tipo di processi cognitivi che inducono le persone a trarre conclusioni sbagliate sulle opinioni di altre persone. Per farlo hanno reclutato 256 statunitensi, equamente divisi tra persone con idee politiche di sinistra e persone con idee di destra, e hanno misurato quanto fossero capaci di prevedere le convinzioni politiche degli individui del loro stesso gruppo e quelle degli individui dell’altro gruppo.
    «Volevamo capire se le persone fossero meno portate a comprendere quelle con cui non erano d’accordo politicamente, e se ne fossero a conoscenza», ha detto al sito Nautilus Payne, che insieme alla sua collega Catmur lavora all’Institute of Psychiatry, Psychology & Neuroscience del King’s College, uno dei più importanti centri di ricerca d’Europa sulla salute mentale e sulle neuroscienze.
    Per suddividere i partecipanti in due gruppi, Payne, Catmur e Bird hanno sottoposto a ciascuno una serie di 24 affermazioni sui loro valori familiari, etici, religiosi e di altro tipo, e hanno chiesto di esprimere quanto le condividessero su una scala da 1 (molto in disaccordo) a 5 (molto d’accordo). Tra le altre c’erano affermazioni come “l’aborto dovrebbe essere proibito”, “il capitalismo avvantaggia tutte le classi sociali”, “le politiche di welfare hanno un effetto negativo sulla società”, “i poveri sono poveri a causa di cattivi comportamenti”, “sono contrario/a alla pena di morte”, “i matrimoni tra persone dello stesso sesso dovrebbero essere ammessi”.
    Per ogni affermazione, a ciascun individuo veniva subito presentata la risposta anonima data da un altro individuo. Se i due avevano un’opinione simile, venivano considerati parte dello stesso gruppo, altrimenti finivano in due gruppi diversi. A ogni partecipante veniva quindi chiesto di immaginare la risposta data dall’altra persona a una seconda affermazione, e di esprimere il livello di attendibilità che attribuiva alla propria ipotesi sulla risposta dell’altra persona, in una scala da «per niente» a «estremamente» sicuro/a.
    Per farsi un’idea migliore prima di confermare l’ipotesi iniziale, i partecipanti potevano anche scegliere di ricevere ulteriori risposte che quell’altra persona aveva dato ad altre affermazioni, fino a un massimo di cinque. Dopodiché potevano eventualmente aggiornare la loro previsione iniziale e riformulare anche il giudizio sull’attendibilità della previsione. Ciascun partecipante ha completato questo esercizio per 24 persone diverse.

    – Leggi anche: Quanto siamo prevedibili

    I risultati dello studio hanno mostrato che i partecipanti erano inclini a cercare più informazioni sulle persone con cui non erano d’accordo, come prevedibile, ma nonostante questo le loro previsioni erano comunque errate nella maggior parte dei casi. In media ci prendevano poco più del 50 per cento delle volte quando l’altra persona era del loro stesso gruppo. L’accuratezza scendeva al 39 per cento quando l’altra persona apparteneva all’altro gruppo, nonostante questo tipo di ipotesi fosse più “informata” rispetto a quelle formulate per le risposte di persone del proprio gruppo.
    In generale i partecipanti tendevano a dirsi abbastanza sicuri della loro capacità di indovinare correttamente le risposte altrui. In media si attribuivano un’attendibilità del 74 per cento, per le supposizioni che riguardavano persone del loro gruppo, e del 72 per cento, per quelle relative a persone dell’altro gruppo. «Le persone proprio non hanno consapevolezza di quanto siano scarse in questa cosa», ha detto Payne.
    Uno degli aspetti più preoccupanti emersi dallo studio, secondo le autrici e l’autore, è che i risultati confermano quelli di altre ricerche sull’influenza degli stereotipi nelle nostre valutazioni quotidiane. Quando immaginiamo le opinioni di persone che consideriamo appartenenti a gruppi diversi dal nostro, che sia per convinzioni politiche, per origine etnica o per provenienza geografica, tendiamo a pensare che le loro menti siano relativamente semplici, ha detto Payne. Utilizziamo quindi gli stereotipi come scorciatoie cognitive, per dedurre principi e valori condivisi da quelle persone.
    Lo studio mostra peraltro che questi pregiudizi influenzano la ricerca stessa di informazioni sulle persone di cui non condividiamo le opinioni, in questo caso disincentivandola. L’esperimento permetteva infatti di richiedere al massimo cinque risposte aggiuntive date dall’altra persona, per conoscerla meglio. Ma generalmente i partecipanti ne chiedevano meno di cinque, limitandosi alla quantità di informazioni che consideravano sufficiente per fare una valutazione più accurata. In altre parole, smettevano di chiedere informazioni aggiuntive prima di avere il quadro più completo possibile delle opinioni dell’altra persona.
    Secondo Catmur, Payne e Bird la conclusione più significativa che è possibile trarre dello studio è che gli errori nella valutazione delle opinioni altrui non derivano da una ridotta propensione a considerare le menti delle persone estranee al gruppo (i partecipanti chiedevano in effetti più informazioni su quelle persone che su quelle del loro gruppo), ma da una peggiore rappresentazione di quelle menti. «Più siamo sicuri di poterle capire, più è probabile che ci sbagliamo», ha detto Payne.
    La scarsa capacità di comprendere come la pensano le persone diverse da noi potrebbe essere in parte il risultato della polarizzazione stessa, che porta ad avere meno interazioni con i membri del gruppo opposto. Questo porta a sua volta ad avere meno esperienza nella rappresentazione delle loro menti e a una ridotta comprensione di come potrebbero variare. I risultati dello studio, ha aggiunto Catmur, suggeriscono che le persone sono tuttavia disposte a riconsiderare le loro valutazioni, una volta informate dei loro errori.
    Conversare con persone con convinzioni diverse dalle nostre potrebbe servire a mettere in discussione le nostre ipotesi reciprocamente sbagliate. «Sebbene non esistano soluzioni rapide in un contesto reale, se tutte le persone interagissero con un gruppo di persone più eterogeneo, parlassero direttamente con loro e imparassero a conoscerle, è probabile che ci capiremmo meglio», ha concluso Catmur.

    – Leggi anche: Dovremmo essere meno d’accordo con noi stessi LEGGI TUTTO

  • in

    Perché l’Everest continua a crescere?

    Caricamento playerL’erosione causata dall’acqua potrebbe essere uno dei fattori che contribuiscono alla lentissima crescita annuale dell’altezza dell’Everest, la montagna più alta della Terra. Una ricerca pubblicata lunedì su Nature Geoscience suggerisce che l’azione erosiva del fiume Arun, che scorre a nord e a est della montagna nel massiccio dell’Himalaya, al confine tra Nepal e Tibet, stia alleggerendo il pezzo di crosta terrestre su cui si trova l’Everest, permettendole di “galleggiare” un po’ più in alto sul mantello, lo strato di magma sottostante all’involucro roccioso della crosta terrestre.
    L’Everest è alto secondo le misurazioni ufficiali più recenti 8.848,86 metri e cresce di circa due millimetri ogni anno, quanto lo spessore di una monetina. Secondo i modelli geologici attuali però la variazione della sua altezza dovrebbe essere soltanto di circa un millimetro all’anno. La ricerca pubblicata lunedì ha valutato quale potrebbe essere il contributo alla sua crescita dell’alleggerimento della porzione di crosta terrestre su cui si trova la montagna. Un fenomeno simile era già stato ipotizzato in passato, ma questo è il primo studio approfondito sulla zona dell’Everest: qualche scienziato comunque ha sollevato dubbi.
    L’altezza di una montagna può variare per diversi fattori, ed è noto da tempo che fra questi ci sia anche l’erosione: solitamente però la si considera un fattore che riduce l’altezza delle montagne, dato che rimuove materiale dalla loro cima, non uno che le fa crescere, come suggerito invece dalla ricerca pubblicata lunedì. I principali fattori che influiscono sull’altezza delle montagne sono comunque i movimenti delle placche tettoniche, gli enormi blocchi che formano la crosta terrestre: l’Himalaya, la catena montuosa che include la maggior parte delle cime più alte del pianeta, fra cui l’Everest, si formò tra i 40 e i 50 milioni di anni fa dallo scontro della placca indiana con quella eurasiatica. Il loro continuo movimento continua a far crescere le cime della catena.
    La nuova ricerca però non parla dell’azione erosiva prodotta dalle intemperie sulla superficie della montagna, ma di quella causata dallo scorrimento di un fiume alla base, che avrebbe peraltro un effetto molto più veloce. Gli autori dello studio hanno simulato l’evoluzione del corso dei fiumi della zona, e hanno valutato che l’erosione del terreno attorno all’Everest sia diventata un fattore significativo per la sua crescita circa 89mila anni fa, quando il fiume Arun cambiò corso. Nella scala dei tempi dei cambiamenti geologici è dunque un evento recente.
    L’Everest, al centro, e le montagne circostanti (Paula Bronstein/Getty Images)
    Il fiume in effetti ha un corso insolito. Parte a nord della montagna, sul suo versante cinese, per il suo primo tratto scorre verso est, poi gira improvvisamente a sud ed entra in Nepal tagliando una catena di rilievi. Secondo la simulazione elaborata dai ricercatori la curva è dovuta al fatto che migliaia di anni fa il primo tratto, che scorre verso est, fu inglobato da un corso d’acqua che scorre verso sud. L’unione fra i due diede all’Arun il suo corso attuale: il fiume inoltre si è ingrandito, e la sua capacità di rimuovere il materiale dal suo percorso è aumentata.
    Secondo i ricercatori negli ultimi 89mila anni l’alleggerimento della crosta terrestre dovuto all’azione erosiva dell’Arun avrebbe prodotto un innalzamento della cima dell’Everest compreso fra i 15 e i 50 metri. L’effetto dovrebbe essere ancora più forte sul Makalu (8.485 metri), la quinta montagna più alta del mondo, dato che la sua cima si trova più vicina al corso dell’Arun rispetto all’Everest. Gli effetti dell’erosione su questa montagna però non sono analizzati approfonditamente dallo studio.

    – Leggi anche: Il confine tra Svizzera e Italia sarà spostato a causa della fusione dei ghiacciai alpini

    Un fenomeno analogo, noto come isostasia, è conosciuto e osservato da tempo in molte parti del mondo, soprattutto in zone come il Canada, la Scandinavia e le Alpi che circa 20mila anni fa, durante l’ultimo massimo glaciale (un prolungato periodo di abbassamento della temperatura media della Terra, comunemente noto come era glaciale), erano coperte da uno strato di ghiaccio alto migliaia di metri. L’alleggerimento della crosta terrestre causato dallo scioglimento della calotta glaciale che prima la schiacciava produce tuttora l’innalzamento graduale del terreno in quelle zone.
    Hugh Sinclair, professore all’Università di Edimburgo che non ha collaborato alla ricerca, ha detto a BBC News che il procedimento alla base dello studio è ragionevole, ma ha aggiunto che l’analisi dei tempi e dell’efficacia dell’erosione causata dal fiume ha grossi margini di incertezza, così come la valutazione degli effetti dell’alleggerimento della crosta su punti distanti alcune decine di chilometri dal letto del fiume. Il geologo dell’Università di Oxford Mike Searle, sentito dal Washington Post, è stato più critico, dicendo che lo studio si basa più su assunti che su osservazioni. Matthew Fox, geologo allo University College di Londra e fra i co-autori dello studio, ha specificato che nonostante i ricercatori non abbiano analizzato separatamente quale sia l’impatto di ogni singolo fattore che influenza l’altezza delle montagne, è sicuro che l’erosione sia fra questi.
    La misura dell’altezza dell’Everest può anche cambiare per motivi molto diversi, a partire dal metodo con cui viene calcolata. Per anni la sua entità fu dibattuta, dato che rilevamenti diversi effettuati con metodi diversi avevano prodotto risultati discordanti. Dopo aver considerato per anni due altezze diverse, nel 2020 Cina e Nepal (il cui confine passa dalla cima della montagna) decisero una volta per tutte di mettersi d’accordo su un numero.

    – Leggi anche: Cina e Nepal hanno deciso che l’Everest è un po’ più alto LEGGI TUTTO

  • in

    Il confine tra Svizzera e Italia sarà spostato a causa della fusione dei ghiacciai alpini

    Caricamento playerA causa della fusione dei ghiacci nelle Alpi, il confine tra Svizzera e Italia sarà spostato di alcuni metri nell’area del Plateau Rosa, uno dei più ampi pianori perennemente ghiacciati a sud-est del Cervino. Alla fine della scorsa settimana il Consiglio federale svizzero ha approvato la firma della nuova convenzione sui confini, che entrerà in vigore non appena il governo italiano farà altrettanto. Negli ultimi anni la fusione dei ghiacciai, dovuta in primo luogo al riscaldamento globale causato anche dalle attività umane, ha modificato sensibilmente la geografia dell’arco alpino rendendo sempre più necessari aggiustamenti ai confini che riguardano l’Italia.
    Per praticità e per ridurre i contenziosi, spesso i confini sono definiti dalla linea spartiacque delle montagne, cioè da come fluisce l’acqua da una parte o dall’altra di un versante creando bacini idrografici diversi e separati. Lo spartiacque alpino determina buona parte del confine tra Italia, Francia, Svizzera e Austria, con alcune eccezioni dovute a scelte politiche ed eventi storici. Uno spartiacque può essere relativamente stabile e corrispondere a un crinale di roccia esposta, oppure può essere più dinamico se corrispondente al crinale di un ghiacciaio, di un nevaio o ancora di nevi perenni.
    In questo secondo caso, la fusione e il ritiro dei ghiacci a causa del cambiamento climatico possono determinare uno spostamento dello spartiacque, che col passare del tempo può diventare di decine o centinaia di metri. Proprio per questo negli anni passati Svizzera e Italia avevano iniziato a discutere sull’opportunità di rivedere parte dei loro confini, in modo da farli corrispondere al nuovo spartiacque o trovando soluzioni tali da tutelare gli «interessi economici delle due parti».
    Lungo il confine, e soprattutto in quella zona, ci sono numerosi impianti sciistici e rifugi, che a seconda dei casi sono entro il confine italiano, quello svizzero o sostanzialmente a metà. È per esempio il caso del rifugio Guide del Cervino: una sua parte è italiana, nel comune di Valtournenche, in provincia di Aosta, e la parte rimanente è a Zermatt, in Svizzera. Queste strutture riescono comunque a lavorare senza troppi problemi, grazie alla collaborazione tra Italia e Svizzera, ma una definizione più chiara dei confini può rendere più pratica la gestione di alcune attività e soprattutto la gestione degli imprevisti, che ad alta quota spesso corrispondono a necessità di dare soccorso a sciatori e alpinisti.
    Il confronto tra governo italiano e svizzero negli anni passati aveva portato a qualche attrito, che si era comunque risolto tra il 9 e l’11 maggio del 2023 quando il Comitato per la manutenzione del confine nazionale tra Svizzera e Italia aveva discusso la ridefinizione del confine nell’area del Plateau Rosa in corrispondenza della Gobba di Rollin, che lo delimita a sud, e della Testa Grigia che lo delimita invece a ovest. Il confronto aveva anche riguardato l’area del rifugio Jean-Antoine Carrel, che si trova nel comune di Valtournenche in Valle d’Aosta. La convenzione ha richiesto diverso tempo per essere ratificata da parte della Svizzera e si è ora in attesa che il governo italiano faccia altrettanto.

    Non ci sono ancora molti dettagli, ma in diversi punti il confine sarà spostato verso l’Italia di alcune decine di metri, portando quindi la Svizzera ad avere un po’ più di territorio. Il cambiamento non dovrebbe comunque avere particolari conseguenze per le strutture costruite negli anni, come funivie e teleferiche, in uno dei comprensori sciistici più grandi e articolati delle Alpi occidentali.
    Nel 2023 i ghiacciai svizzeri hanno perso circa il 4 per cento del loro volume rispetto all’anno precedente, la seconda perdita più grande mai registrata dall’Accademia delle scienze della Svizzera (il precedente record del 6 per cento era del 2022). In alcune zone dell’arco alpino i ricercatori svizzeri hanno interrotto le misurazioni perché non ci sono più quantità di ghiaccio significative da misurare. Si prevede che a causa dell’aumento della temperatura media globale le Alpi perdano una parte rilevante dei loro ghiacciai nei prossimi decenni, cosa che porterà a nuovi cambiamenti della geografia e probabilmente a nuovi spostamenti dei confini. Oltre che con l’Italia, la Svizzera è impegnata da tempo con la Francia per ridefinire le loro aree confinanti su parte delle Alpi. LEGGI TUTTO

  • in

    Weekly Beasts

    Tra le foto di animali della settimana c’è l’incontro di una gazza con un drone, un rapace che guarda dritto in camera dopo aver predato un piccione, due orsi grizzly, un bovino in un campo allagato e altri al pascolo in Francia. Poi un piccolo pudu, mammifero della famiglia dei cervidi, nato da poco allo zoo di Varsavia: i pudu comuni misurano al massimo 85 cm di lunghezza e 38 cm d’altezza al garrese, per un peso di 10-15 chili, numeri che li rendono tra i più piccoli nella loro famiglia animale. Per finire con due tamandua meridionali (formichieri) e un cane che si sporge fuori dal finestrino dell’auto su cui viaggia. LEGGI TUTTO

  • in

    La storia sorprendente di come fu scoperta la vera causa dell’ulcera allo stomaco

    Caricamento playerUna delle scoperte più importanti per la salute di tutto il Novecento avvenne grazie all’ostinazione di due ricercatori, a una dimenticanza e alla Pasqua, circa quarant’anni fa. Gli australiani John Robin Warren e Barry Marshall identificarono la vera causa della maggior parte delle ulcere gastriche e delle gastriti, sovvertendo secoli di ipotesi e trattamenti per tenerle sotto controllo con risultati deludenti. A comportare quei problemi di salute non erano lo stress o l’alimentazione, come si credeva, ma un batterio che poteva essere eliminato semplicemente con un antibiotico. Vincere lo scetticismo iniziale non fu semplice, ma Marshall e Warren – che è morto lo scorso luglio a 87 anni – non si diedero per vinti, portando a un cambiamento epocale nella cura dell’ulcera per milioni di persone in tutto il mondo che valse loro un Premio Nobel.
    Dopo essersi laureato in medicina nel 1961, Warren non era riuscito a seguire la specializzazione in psichiatria come avrebbe voluto e aveva scelto patologia clinica, cioè lo studio delle malattie per lo più in laboratorio. Negli anni seguenti avrebbe lavorato su campioni di ogni tipo, dal midollo osseo al sangue passando per feci e urine. Nel 1968 ottenne un posto al Royal Perth Hospital che aveva un’affiliazione con l’Università dell’Australia Occidentale. Lavorava con pochi contatti col resto del personale e trascorreva buona parte del proprio tempo nei sotterranei dell’ospedale, dove sezionava ed esaminava cadaveri.
    Una decina di anni dopo, all’inizio degli anni Ottanta, Marshall aveva iniziato a lavorare nello stesso ospedale, ma nel reparto di gastroenterologia. Per il suo programma di formazione avanzata, Marshall era stato incoraggiato a svolgere un lavoro di ricerca e gli era stato suggerito di parlare con Warren, che qualche tempo prima aveva identificato con sua sorpresa un batterio nelle analisi (biopsie) di alcune mucose dello stomaco. In precedenza poche ricerche avevano segnalato la presenza di batteri nello stomaco e all’epoca si riteneva, come del resto da secoli, che per un batterio fosse impossibile sopravvivere alla forte acidità dei succhi gastrici e in particolare dell’acido cloridrico.
    Tutto ciò che ingeriamo passa attraverso lo stomaco e viene scomposto dall’acido cloridrico presente al suo interno, fondamentale per far sì che le sostanze nutrienti possano essere assimilate nel passaggio successivo dall’intestino. Per non digerire anche sé stesso, lo stomaco si protegge dall’acido cloridrico grazie a una sostanza composta da muco e bicarbonato prodotta dalle cellule gastriche, che neutralizza l’effetto dell’acido quando questo entra in contatto con le sue pareti. Se la quantità di acido aumenta o i tessuti dello stomaco sono infiammati, la barriera non è sufficiente e si possono produrre delle ulcere, cioè ferite simili a piaghe che provocano una sensazione di bruciore che si presenta in vari momenti della giornata in base alla pienezza dello stomaco.
    (Wikimedia)
    A seconda dei casi, un’ulcera può causare sintomi lievi e intermittenti, anche a distanza di giorni o settimane, oppure più gravi e che richiedono un rapido intervento nel caso in cui ci sia una perforazione dello stomaco. In questa circostanza il contenuto dello stomaco si riversa nella cavità addominale e può provocare una grave infiammazione dei peritoneo, il rivestimento interno dell’addome. Se il problema non viene trattato per tempo e adeguatamente si può avere una diffusione dell’infezione che può rivelarsi mortale.
    Per moltissimo tempo le cause delle gastriti e delle ulcere furono un mistero. Si riteneva che le principali cause fossero il consumo di alcolici, il fumo, lo stress, i cibi piccanti e altre abitudini alimentari, insieme a una certa predisposizione di alcune persone. Nel periodo in cui Warren e Marshall iniziarono a lavorare insieme, le terapie erano orientate a ridurre i sintomi, con la prescrizione di farmaci per tenere sotto controllo la produzione dei succhi gastrici e l’acidità dello stomaco. Non funzionavano sempre: quando il problema sembrava essere risolto, si ripresentava dopo qualche tempo e nei casi di ulcera più gravi si rendevano necessari interventi chirurgici invasivi e rischiosi.
    Warren aveva analizzato le biopsie di alcuni pazienti con mal di stomaco e le aveva mostrate a Marshall, dicendogli che in più di venti casi aveva rilevato la presenza di un’infezione batterica. Marshall aveva allora messo in relazione le biopsie con le cartelle cliniche di quei pazienti, notando che alcuni avevano ricevuto una diagnosi di ulcera allo stomaco, ulcera al duodeno (la parte iniziale dell’intestino tenue) o gastriti di varie entità. Sembrava esserci una relazione tra la presenza di quel batterio e le diagnosi, ma i dati erano carenti e soprattutto sembravano andare contro il dogma dello stomaco inospitale alla vita dei batteri.
    Grazie alla collaborazione dei medici del reparto di gastroenterologia e di microbiologia dell’ospedale, Warren e Marshall iniziarono a raccogliere altre biopsie e ad analizzarle trovando quasi sempre l’infezione batterica, ma senza riuscire a isolare e coltivare i batteri in laboratorio per avere colonie più grandi da analizzare e capire l’eventuale ruolo nelle ulcere. Alla fine del 1981 alcuni colleghi consigliarono ai due ricercatori di passare a un approccio più sistematico, organizzando uno studio clinico vero e proprio con tutti i criteri del caso per valutare andamenti e variabili.
    John Robin Warren e Barry Marshall nel 1984 (via ResearchGate)
    In pochi mesi, Warren e Marshall organizzarono uno studio che avrebbe coinvolto cento persone. L’obiettivo era di capire se il batterio fosse presente normalmente nello stomaco, se fosse possibile coltivarlo e se la sua presenza potesse essere messa in relazione con le gastriti e le ulcere. Parallelamente, sarebbero proseguiti i tentativi di coltivare il batterio in laboratorio, forse l’obiettivo più difficile dell’intera ricerca.
    Trattandosi di un batterio presente nell’apparato digerente, il gruppo di ricerca aveva pensato che potesse ricevere il medesimo trattamento dei campioni di feci o derivati dai tamponi orali. I campioni venivano di solito messi su una piastra di Petri (il classico recipiente di vetro da laboratorio simile a un piattino) e se dopo 48 ore non erano osservabili particolari microrganismi, segno dell’avvenuta formazione di una colonia, il test era negativo e si gettava via tutto. Seguendo un approccio simile, dai campioni ottenuti con le biopsie non si era mai riusciti a ottenere una colonia del batterio nello stomaco. Almeno fino a quando fu Pasqua del 1982.
    Nei giorni prima del fine settimana lungo pasquale i tecnici di laboratorio del Royal Perth Hospital avevano dovuto dedicare buona parte del loro tempo a una quantità crescente di infezioni da stafilococco nell’ospedale, trascurando altre attività di ricerca. Una piastra di Petri preparata per tentare l’ennesima coltura di batteri da una biopsia allo stomaco era finita nel dimenticatoio nel weekend lungo di Pasqua che comprendeva il lunedì dell’Angelo, cioè il giorno di Pasquetta. Al loro ritorno il martedì, i tecnici notarono che sulla piastra dimenticata si era formato un sottile strato trasparente: era la colonia di batteri che non erano mai riusciti a ottenere prima e che avrebbe offerto a Marshall e Warren nuovi elementi per la loro ricerca.
    Poche settimane dopo fu completato lo studio e i risultati apparvero da subito molto solidi. Tra i cento volontari sottoposti a endoscopia (cioè a un esame che con un tubo fatto passare per l’esofago permette di esplorare lo stomaco e raccoglierne piccoli pezzi da analizzare) 65 avevano ricevuto una diagnosi di gastrite e c’era una forte associazione tra la loro condizione e la presenza del batterio. Questo era stato trovato in tutti i pazienti con un’ulcera al duodeno e nell’80 per cento di chi aveva un’ulcera allo stomaco; il batterio non era invece quasi mai presente nei pazienti con ulcere causate dall’assunzione di un tipo di antinfiammatori (FANS), noti per essere aggressivi con la mucosa gastrica.
    Helicobacter pylori al microscopio elettronico (via Wikimedia)
    Nel frattempo la coltura del batterio aveva permesso di identificarne le caratteristiche e di classificarlo come Helicobacter pylori. La scoperta aveva il potenziale di cambiare radicalmente il modo in cui venivano trattate le ulcere, ma furono necessari quasi due anni prima che lo studio di Warren e Marshall venisse pubblicato nel 1984 su The Lancet, una delle più importanti e prestigiose riviste mediche al mondo. Lo studio era stato infatti accolto con grande cautela e qualche scetticismo perché di fatto metteva in dubbio le pratiche mediche seguite fino all’epoca. Un editoriale di commento scritto dai responsabili della rivista ad accompagnamento dello studio mostrava quanto non ci si volesse sbilanciare: «Se l’ipotesi degli autori sulle cause e sugli effetti dovesse dimostrarsi valida, questo lavoro si rivelerebbe sicuramente importante».
    Marshall aveva intanto proseguito alcune ricerche scoprendo che i sali di bismuto, una delle sostanze utilizzate fino ad allora nei farmaci per trattare ulcere e gastriti, erano in grado di uccidere H. pylori in vitro, cioè in esperimenti di laboratorio. Ciò spiegava probabilmente perché i pazienti traessero temporaneamente beneficio dall’assunzione di quei farmaci, anche se il trattamento non consentiva di eliminare tutte le colonie di batteri e di conseguenza dopo un po’ di tempo si ripresentava l’infiammazione allo stomaco. L’aggiunta alla terapia di metronidazolo, un antibiotico, eliminava invece il rischio di una recidiva a conferma del ruolo del batterio nelle gastriti e nelle ulcere.
    Gli esiti di quei test erano emersi mentre Warren e Marshall erano ancora in attesa della pubblicazione del loro studio. Marshall pensò che una dimostrazione più chiara avrebbe vinto gli scetticismi, ma non riuscendo a riprodurre efficacemente le circostanze in un modello animale fece una proposta a Warren: bere una soluzione contenente H. pylori per verificare in prima persona i suoi effetti sullo stomaco. Warren non ritenne fosse il caso, come raccontò in seguito: «Quell’idea non mi piacque per niente. Penso di avergli detto “no” e basta».
    Marshall non si scoraggiò e bevve la soluzione, dopo essersi sottoposto a un esame per sincerarsi di non avere già un’infezione da H. pylori. Per cinque giorni non ebbe sintomi, poi iniziò a sviluppare una gastrite, accompagnata da nausea, persistente alitosi e rigurgiti di succhi gastrici. A dieci giorni dall’assunzione, una nuova biopsia indicò una gastrite acuta e una forte infezione batterica allo stomaco. Dopo due settimane i sintomi iniziarono a diminuire, ma Adrienne, la moglie di Marshall esasperata dal pessimo alito del marito, lo esortò ad assumere immediatamente gli antibiotici minacciando di: «Sbatterlo fuori di casa e farlo dormire sotto a un ponte».
    L’esperimento dimostrò ancora una volta il ruolo di H. pylori, ma non fu un particolare acceleratore nel cambiamento delle terapie. Dalla pubblicazione dello studio su Lancet nel 1984 passarono poi circa dieci anni prima che i trattamenti per l’ulcera venissero modificati, con il ricorso agli antibiotici come per qualsiasi altra infezione batterica. Uno dei rappresentanti delle autorità di controllo sanitarie negli Stati Uniti, commentò i nuovi protocolli nel 1994: «Ora c’è la possibilità di curare questa condizione, una cosa impensata prima. Abbiamo trattato le ulcere con sostanze per ridurre le secrezioni di succhi gastrici per così tanti anni da diventare difficile accettare che un germe, un batterio, potesse causare una malattia di quel tipo».
    La prescrizione degli antibiotici fu affiancata a quella di altri farmaci per ridurre temporaneamente la produzione dei succhi gastrici, in modo da consentire alle mucose dello stomaco di guarire. Per la diagnosi da infezione da H. pylori fu poi sviluppato un “breath test”, un semplice esame che consiste nel soffiare in una provetta per verificare la presenza del batterio.
    John Robin Warren e Barry Marshall durante la cerimonia di consegna dei Premi Nobel a Stoccolma, in Svezia, nel 2005 (REUTERS/Pawel Kopczynski)
    Warren e Marshall avevano realizzato una delle più grandi scoperte nella scienza medica del Novecento, sempre restando fedeli al metodo scientifico e alla condivisione dei loro studi con altri esperti. Partirono dai dati e dalle prove raccolte con i metodi della ricerca per provare le loro ipotesi, e non il contrario, come fa spesso chi sostiene di avere una nuova cura miracolosa che non viene accettata dal “sistema” o “dai poteri forti”. I loro studi furono la base per molte altre ricerche che continuano ancora oggi, soprattutto per comprendere il ruolo che hanno alcune infiammazioni croniche all’apparato digerente nello sviluppo di alcuni tipi di tumori.
    Robin Warren è morto il 23 luglio 2024 a Perth, in Australia: aveva 87 anni. In una mattina d’autunno di diciannove anni prima aveva ricevuto una telefonata da Stoccolma con la quale gli veniva annunciata l’assegnazione del Premio Nobel per la Medicina insieme a Marshall: «Per la loro scoperta del batterio Helicobacter pylori e il suo ruolo nelle gastriti e nelle ulcere gastriche». LEGGI TUTTO

  • in

    In Europa centrale alluvioni come quelle di settembre sono diventate più probabili

    Caricamento playerLe piogge intense che tra il 12 e il 15 settembre hanno causato esondazioni dei fiumi e grossi danni tra la Polonia e la Repubblica Ceca, in Austria e in Romania sono state eccezionali perché hanno interessato una regione molto vasta dell’Europa centrale. Un’analisi preliminare delle statistiche meteorologiche continentali indica che la probabilità che si verifichino fenomeni del genere è raddoppiata a causa del cambiamento climatico in atto.
    Lo studio è stato fatto dal World Weather Attribution (WWA), un gruppo di ricerca che riunisce scienziati esperti di clima che lavorano per diversi autorevoli enti di ricerca del mondo e che collaborano – a titolo gratuito – affinché ogni volta che si verifica un evento meteorologico estremo particolarmente disastroso la comunità scientifica possa dare una risposta veloce alla domanda “c’entra il cambiamento climatico?”. Nel caso delle recenti alluvioni in Europa centrale, che hanno causato la morte di 26 persone, ci sono larghi margini di incertezza ma il gruppo di ricerca ha concluso che un ruolo del cambiamento climatico ci sia.
    Il WWA, creato nel 2015 da Friederike Otto e Geert Jan van Oldenborgh, pratica quella branca della climatologia relativamente nuova che è stata chiamata “scienza dell’attribuzione”: indaga i rapporti tra il cambiamento climatico ed eventi meteorologici specifici, una cosa più complicata di quello che si potrebbe pensare. Per poter dare risposte in tempi brevi, gli studi del WWA sono pubblicati prima di essere sottoposti al processo di revisione da parte di altri scienziati competenti (peer review) che nella comunità scientifica garantisce il valore di una ricerca, ma che richiederebbe mesi o anni di attesa. Tuttavia i metodi usati dal WWA sono stati certificati come scientificamente affidabili proprio da processi di peer review e i più di 50 studi di attribuzione che ha realizzato finora sono poi stati sottoposti alla stessa verifica e pubblicati su riviste scientifiche senza grosse modifiche.

    – Leggi anche: Come mai Vienna non è finita sott’acqua

    Le alluvioni di metà settembre in Europa centrale sono state causate dalla tempesta Boris che poi ha provocato esondazioni anche in alcune zone della Romagna e dell’Emilia orientale. Le misurazioni della quantità di acqua piovuta in un giorno nel corso del fenomeno hanno fatto registrare dei record in varie località. Per verificare se fosse possibile ricondurre il fenomeno al cambiamento climatico causato dalle attività umane gli scienziati del WWA hanno confrontato le misure delle precipitazioni dei giorni in cui complessivamente è piovuto di più, quelli tra il 12 e il 15 settembre, con le statistiche sulle precipitazioni massime annuali su archi di quattro giorni.
    Hanno anche utilizzato le simulazioni climatiche, cioè programmi simili a quelli usati per le previsioni del tempo che mostrano quali eventi meteorologici potrebbero verificarsi in diversi scenari climatici futuri.
    Le conclusioni dello studio dicono che il cambiamento climatico non ha reso più probabili tempeste con caratteristiche generali analoghe a quelle di Boris (che sono piuttosto rare e di cui questa è stata la più intensa mai registrata), ma che in generale quattro giorni consecutivi piovosi come quelli che ci sono stati sono diventati più probabili in Europa centrale rispetto all’epoca preindustriale. Hanno anche stimato che la quantità di pioggia di tali eventi sia aumentata del 10 per cento, da allora. Secondo i modelli climatici basati su un ulteriore aumento delle temperature medie globali, di 2 °C rispetto all’epoca preindustriale invece che degli attuali 1,3 °C, in futuro sia la probabilità che l’intensità di questi eventi aumenterà ancora.
    Lo studio ricorda che comunque i danni delle alluvioni recenti sono dovuti anche allo scarso adattamento delle infrastrutture fluviali a eventi meteorologici estremi rispetto alle statistiche storiche. Tuttavia è stato anche osservato che rispetto a grandi alluvioni passate la situazione di emergenza probabilmente è stata gestita meglio: nel 2002 morirono 232 persone quando vaste aree dell’Austria, della Germania, della Repubblica Ceca, della Romania, della Slovacchia e dell’Ungheria furono interessate da un’alluvione, e nel 1997 ci furono almeno 100 morti per un’alluvione più ridotta in Germania, Polonia e Repubblica Ceca. Ancora nel luglio del 2021, la grande alluvione in Germania e Belgio causò la morte di più di 200 persone.
    In generale, la climatologia ha mostrato che il riscaldamento globale ha reso e renderà più frequenti le alluvioni, ma questo non vale per tutte le parti del mondo. In altre zone si prevede invece un aumento della frequenza di altri fenomeni meteorologici estremi, come le siccità. In certe parti del mondo inoltre è prevista una più alta frequenza di alluvioni in una specifica stagione dell’anno e meno precipitazioni nelle altre: l’Italia ad esempio ha un territorio morfologicamente complesso e diverso nelle sue parti, per cui le conseguenze del riscaldamento globale potrebbero essere diverse da regione a regione.

    – Leggi anche: Gli abitanti di Borgo Durbecco devono rifare tutto, di nuovo LEGGI TUTTO

  • in

    Che cos’è una “mini luna”

    Caricamento playerA partire dal prossimo 29 settembre e fino al 25 novembre un piccolo asteroide in orbita intorno al Sole sarà temporaneamente catturato dalla gravità terrestre, un evento astronomico piuttosto raro, ma che non costituirà nessun pericolo per la Terra paragonabile a quelli del film Armageddon. L’asteroide è stato definito una “mini luna” visto che avrà per qualche tempo un comportamento simile alla nostra Luna, ma l’indicazione non ha convinto tutti ed è dibattuta tra gli esperti e i semplici appassionati di astronomia.
    Il nome con cui è stato catalogato l’asteroide è “2024 PT5“, con un riferimento all’anno in cui è stato osservato per la prima volta. Sappiamo infatti della sua esistenza da poco, considerato che la scoperta risale al 7 agosto scorso, quando ne fu rilevata la presenza dall’Asteroid Terrestrial-impact Last Alert System, uno dei principali programmi di ricerca di asteroidi per tenere sotto controllo quelli che potrebbero un giorno avvicinarsi troppo alla Terra.
    Stando ai dati raccolti finora, 2024 PT5 ha un diametro massimo di 11 metri e dovrebbe appartenere al gruppo degli asteroidi Arjuna, un sottogruppo degli asteroidi Apollo (la classificazione è ancora un po’ confusa), la cui caratteristica principale è di orbitare intorno al Sole con modalità simili a quelle della Terra. Date le sue dimensioni, 2024 PT5 non può essere osservato né a occhio nudo né con telescopi di piccole dimensioni, ma la sua osservazione con strumentazioni più potenti permetterà di comprendere qualcosa di più su questo tipo di asteroidi e soprattutto sulle interazioni gravitazionali con il nostro pianeta e il Sole.

    In generale, qualsiasi corpo celeste che orbita stabilmente e in modo identificabile intorno a un pianeta può essere considerato una luna. Le definizioni possono variare molto, ma c’è un certo consenso su alcuni corpi celesti che sono decisamente satelliti naturali, come la nostra Luna oppure ancora Ganimede, Io ed Europa, per citare alcune delle lune di Giove, il pianeta più grande del sistema solare. Sulle “mini lune” le cose sono più complicate, per la difficoltà di identificarle con certezza e di calcolare le loro orbite.
    Tra le definizioni più condivise c’è quella per cui un corpo celeste (come un asteroide o una cometa) che viene catturato temporaneamente dalla gravità di un pianeta può essere definito una mini luna, ma ci sono poi ulteriori distinzioni che aggiungono qualche complicazione. Nel caso della Terra, una mini luna può essere definita un satellite naturale temporaneo se effettua almeno un’orbita completa intorno al pianeta prima di tornare a girare intorno al Sole. Nel caso in cui non effettui un giro completo, molti preferiscono la definizione di “oggetto temporaneo che ha effettuato un passaggio ravvicinato al pianeta”.
    2024 PT5 rientra in questa seconda categoria perché nei prossimi due mesi effettuerà una sorta di passaggio a ferro di cavallo, senza realizzare un’orbita completa propriamente detta intorno alla Terra. Per questo motivo non tutti sono convinti che la definizione di mini luna sia calzante, anche se aiuta a rendere l’idea di cosa farà l’asteroide e soprattutto dell’assenza di pericoli per il nostro pianeta e noi che lo abitiamo.
    Nella maggior parte dei casi le mini lune sono troppo piccole per poter essere rilevate con gli attuali strumenti, ma alcune hanno le giuste dimensioni per farsi notare, talvolta casualmente considerata la vastità dello Spazio e la difficoltà nell’identificare corpi celesti con orbite sconosciute. Per questo 2024 PT5 è il quinto oggetto di questo tipo a essere mai stato identificato con un buon margine di affidabilità nel corso delle osservazioni.
    1991 VG osservata dal Very Large Telescope (Osservatorio europeo australe, ESO)
    1991 VG fu la prima mini luna a essere scoperta nel nostro vicinato cosmico: venne a farci visita tra la fine del 1991 e i primi mesi del 1992. Nel 2006 fu invece osservata la presenza di 2006 RH120: inizialmente considerato un oggetto artificiale come un detrito spaziale, fu invece confermato come una mini luna di meno di 7 metri di diametro che rimase nei paraggi della Terra per circa un anno tra l’estate del 2006 e quella dell’anno successivo. Nel 2020 fu invece scoperto un altro corpo celeste che rimase in orbita intorno al nostro pianeta per più di due anni, diventando la mini luna più longeva tra quelle osservate e confermate.
    La disponibilità di nuovi sistemi di osservazione ha negli anni permesso di effettuare rilevazioni più precise, ma ci sono stati comunque alcuni errori che nel tempo hanno spinto a maggiori cautele. Nel 2002 si pensò di avere identificato una nuova mini luna, ma analisi più approfondite indicarono che ciò che era stato osservato era con ogni probabilità un detrito spaziale. Si ritiene che quell’oggetto altro non fosse che il terzo stadio di un Saturn V, il grande razzo impiegato in più versioni tra la fine degli anni Sessanta e i primi Settanta per il programma lunare statunitense Apollo.
    Un Saturn V di prova durante il trasporto verso la rampa di lancio a Cape Canaveral, Florida, nel 1966 (NASA)
    I dati raccolti negli ultimi decenni hanno inoltre permesso di produrre modelli e simulazioni per stimare quanti possano essere i corpi celesti che finiscono in orbita intorno alla Terra, seppure temporaneamente. Alcune analisi hanno segnalato che c’è probabilmente sempre almeno un corpo celeste con diametro massimo inferiore al metro intorno al pianeta. Le loro dimensioni sono tali da rendere molto difficile un’osservazione diretta e per questo passano quasi sempre inosservati.
    L’osservazione di che cosa abbiamo intorno è comunque fondamentale per identificare per tempo asteroidi di grandi dimensioni che, per via della loro traiettoria, potrebbero costituire un pericolo per la Terra. Vengono definiti Near Earth Object (NEO) e sono tenuti sotto controllo nella possibilità molto remota che un giorno si scontrino con il nostro pianeta. A oggi sono stati catalogati circa 34mila NEO, ma nessuno tra quelli noti costituisce un pericolo diretto per la Terra. Questo non significa che ce ne possano essere altri che non abbiamo ancora scoperto e che un giorno potrebbero causare problemi.
    L’asteroide Vesta è tra i più massicci della fascia principale e ha un diametro massimo di circa 500 chilometri, non è un NEO (NASA)
    Gli asteroidi sono i resti del lungo processo che rese possibile la formazione del nostro sistema solare, iniziato 4,5 miliardi di anni fa. Grazie anche alla gravità esercitata dal Sole, le polveri e le rocce che erano presenti in una grande porzione di Spazio iniziarono ad aggregarsi e a unirsi formando dei protopianeti. Alcuni di questi continuarono ad accumulare materiale diventando sempre più grandi e infine i pianeti che conosciamo oggi, mentre altri rimasero piccoli e si frammentarono scontrandosi tra loro. I pezzi che risultarono da quei processi sono gli asteroidi per come li conosciamo oggi.
    La maggior parte di loro mantiene orbite stabili e relativamente regolari nella cosiddetta “fascia principale”, una grande porzione di Spazio tra Marte e Giove. A volte al suo interno avvengono collisioni che portano alcuni asteroidi ad abbandonare la fascia e a collocarsi in orbite intorno al Sole che potrebbero incrociare quella terrestre. Identificarli e soprattutto calcolarne con precisione l’orbita non è però semplice e per questo i NEO sono sorvegliati con attenzione. LEGGI TUTTO