More stories

  • in

    È iniziato il viaggio di Hera verso gli asteroidi

    Alle 16:52 di oggi (ora italiana) è partita da Cape Canaveral in Florida la missione Hera dell’Agenzia spaziale europea, per verificare le condizioni di Dimorphos, l’asteroide deviato dalla sonda DART della NASA nell’autunno del 2022. Il lancio è stato reso possibile da un razzo Falcon 9 dell’azienda spaziale privata SpaceX, partito nonostante le difficili condizioni meteorologiche a causa della stagione degli uragani. La sonda Hera viaggerà per circa due anni, raggiungendo il proprio obiettivo quando si troverà a circa 195 milioni di chilometri di distanza dalla Terra.La storia di Hera è strettamente legata a quella di DART (Double Asteroid Redirection Test), la missione organizzata negli scorsi anni dalla NASA per deviare un asteroide per noi del tutto innocuo e verificare la possibilità di evitare in futuro collisioni disastrose nel caso di corpi celesti sulla stessa traiettoria del nostro pianeta. Il test era stato effettuato facendo schiantare una sonda su Dimorphos, che ha una larghezza massima di 151 metri e orbita intorno a un asteroide più grande, Didymos, con un diametro massimo di 780 metri. L’impatto aveva effettivamente modificato il periodo orbitale di Dimorphos, cioè il tempo che il piccolo asteroide impiega per compiere un giro completo intorno a Didymos, a conferma dell’avvicinamento dei due asteroidi.
    La modifica era superiore alle aspettative ed era stata misurata da vari telescopi, ma per raccogliere maggiori informazioni sarebbe stata necessaria un’osservazione più da vicino, considerato quanto è remoto il sistema dei due asteroidi dalla Terra. Lo scopo di Hera è di compiere osservazioni e misurazioni nelle vicinanze dei due asteroidi, offrendo nuovi dettagli non solo sugli effetti dell’impatto di due anni fa, ma anche sulle caratteristiche di quei corpi celesti.
    (NASA)
    Raggiunti Dimorphos e Didymos nell’ottobre del 2026, Hera utilizzerà i propri strumenti per determinare forma, massa e il modo in cui si muovono mantenendosi a una distanza di circa 20-30 chilometri dalla loro superficie. In una seconda fase la distanza verrà ridotta a 8-10 chilometri in modo da poter misurare nel dettaglio le caratteristiche della superficie dei due asteroidi. Nella fase finale, la sonda sarà impiegata per passaggi ancora più ravvicinati per provare a rilevare il punto di impatto di DART e infine per tentare un atterraggio su Didymos. Quest’ultima parte della missione è sperimentale e potrebbe quindi mancare il proprio obiettivo: Didymos è del resto il più piccolo asteroide mai visitato da una sonda spaziale.
    Hera ha una massa di circa una tonnellata, ha una forma pressoché cubica (1,6 x 1,6 x 1,7 metri) ed è alimentata grazie ai suoi pannelli solari, che una volta aperti hanno un’area di 13 metri quadrati. Insieme alla sonda principale ci sono anche due “CubeSat”, piccoli satelliti grandi più o meno come una scatola da scarpe che effettueranno misurazioni aggiuntive e permetteranno di effettuare test su nuovi sistemi di comunicazione con la sonda.
    Hera e i CubeSat “Juventas” e “Milani” con gli asteroidi Dimorphos e Didymos, in un’elaborazione grafica (ESA)
    Il CubeSat “Juventas” è stato progettato per effettuare misurazioni sulle caratteristiche della gravità esercitata dagli asteroidi, mentre “Milani” è stato costruito per raccogliere dati sulla composizione superficiale degli asteroidi e per verificare la presenza di polveri nelle loro vicinanze, frutto dell’impatto di due anni fa con DART.
    Questo secondo CubeSat è stato sviluppato e realizzato in Italia, e in parte in Finlandia: si chiama Milani in ricordo di Andrea Milani Comparetti, astronomo e matematico che diede un fondamentale contributo nello studio delle comete e degli asteroidi, in particolare dei NEO, cioè dei corpi celesti a maggior rischio di avvicinarsi e scontrarsi con la Terra. Al termine della missione, Juventas e Milani tenteranno di posarsi su Dimorphos e di trasmettere i dati raccolti dai loro strumenti a Hera. Il sistema di comunicazione tra i due satelliti e la sonda sarà essenziale per svolgere queste attività.
    L’intera missione ha un costo intorno ai 350 milioni di euro e ha coinvolto i 18 stati membri dell’ESA e oltre 100 aziende europee, che hanno contribuito alla realizzazione dei componenti impiegati sulla sonda e sui due CubeSat. Per l’Italia tra le società coinvolte ci sono Avio, Leonardo, Tyvak International e TSD-Space.
    Intorno al Sole ci sono miliardi di asteroidi e loro frammenti. L’ipotesi più condivisa è che siano ciò che è rimasto del “disco protoplanetario”, l’esteso ammasso di polveri e gas in orbita intorno al Sole miliardi di anni fa dal quale si formarono i pianeti e i satelliti naturali del sistema solare che vediamo oggi. Quasi tutti gli asteroidi si trovano nella “fascia principale”, un grande anello di detriti che gira intorno al Sole, tra le orbite di Marte e di Giove a debita distanza da noi.
    L’asteroide Dimorphos visto dalla sonda DART 11 secondi prima dell’impatto (NASA/Johns Hopkins APL)
    Collisioni e altri eventi possono turbare le orbite di alcuni di questi asteroidi, portandoli ad avvicinarsi al nostro pianeta, e sono proprio questi a essere tenuti sotto controllo. I sistemi di rilevazione e tracciamento degli asteroidi più vicini hanno permesso nel tempo di catalogarne quasi diecimila con diametro di almeno 140 metri, che nel caso di un impatto potrebbero causare grandi devastazioni su scala regionale. Nessun asteroide conosciuto sembra costituire un pericolo diretto per la Terra per il prossimo secolo, ma è comunque importante non farsi trovare impreparati.
    Vari gruppi di ricerca hanno lavorato ad alcune soluzioni sperimentali per “deflettere” gli asteroidi, cioè per far cambiare loro orbita. La tecnica più esplorata e promettente, l’impattatore cinetico, consiste nell’urtare con una sonda l’asteroide quando è ancora molto lontano dalla Terra, in modo che il suo nuovo percorso non incroci più quello del nostro pianeta. DART ha dimostrato la fattibilità, per lo meno su piccola scala, di questa tecnica con un esperimento dal vero, più affidabile rispetto alle simulazioni al computer e Hera consentirà di comprendere meglio gli esiti di quell’impatto, avvenuto a milioni di chilometri da noi. LEGGI TUTTO

  • in

    Il Premio Nobel per la Medicina, in diretta

    Il Premio Nobel per la Medicina 2024 è stato assegnato a Victor Ambros e Gary Ruvkun «per la loro scoperta del microRNA e del suo ruolo nella maturazione dell’mRNA».Grazie alle loro ricerche su come si sviluppano tipi diversi di cellule, Ambros e Ruvkun hanno scoperto il microRNA, cioè piccole molecole di RNA che hanno un ruolo centrale nella regolazione dei geni. Queste molecole sono fondamentali per come si sviluppano e funzionano gli organismi multicellulari, compresi gli esseri umani. Per comprendere la portata della loro scoperta è però necessario un rapido ripasso delle cose che si studiano a scuola sul materiale genetico.
    Le informazioni per far sviluppare e funzionare il nostro organismo, come quello di moltissimi altri esseri viventi, sono contenute nei cromosomi, una specie di manuale di istruzioni per le cellule. I cromosomi sono contenuti nel nucleo di ogni cellula, quindi ciascuna di loro contiene la medesima serie di geni e di conseguenza di istruzioni. Eppure ogni cellula ha un ruolo specifico: utilizza alcune istruzioni e ne ignora altre. Riesce a farlo grazie alla regolazione genica, un processo in cui esprime un certo numero di geni (che contengono le istruzioni) e al contempo silenzia tutti gli altri.
    Capire come funzionasse la regolazione genica non fu semplice e richiese decenni di studi. L’informazione genetica viene trascritta dal DNA all’RNA messaggero (mRNA) e infine alle strutture della cellula che si occupano materialmente di usare quelle istruzioni per produrre le proteine. Grazie alla regolazione genica, le cellule dell’intestino, del cervello o dei muscoli producono solo le proteine necessarie per svolgere le loro funzioni, lasciando perdere tutte le altre. La regolazione genica è inoltre importante per consentire alle cellule di “tenersi aggiornate”, producendo per esempio alcuni tipi di proteine solo in condizioni di emergenza o quando cambia il contesto in cui sono attive.
    Rappresentazione schematica dei processi di trascrizione e di costruzione delle proteine (Nobel Prize)
    Negli anni Sessanta si capì che alcune specifiche proteine (“fattori di trascrizione”) hanno un ruolo nel controllo dell’informazione genetica, perché possono condizionare la produzione di specifici segmenti di mRNA. Le successive scoperte di migliaia di fattori di trascrizione fecero ipotizzare che fossero questi i principali responsabili della regolazione genica. Le cose sarebbero però cambiate tra la fine degli anni Ottanta e i primi Novanta, quando Ambros e Ruvkun fecero conoscenza con un particolare verme cilindrico (nematode).
    I due ricercatori avevano studiato alcune caratteristiche del nematode C. elegans, lungo appena un millimetro, ma dotato di cellule specializzate per molti compiti diversi: ideale da studiare per capire il funzionamento di organismi più complessi. Ambros e Ruvkun studiavano C. elegans per comprendere il ruolo di alcuni geni che controllano le fasi di attivazione di altri geni, in modo che le cellule nell’organismo si sviluppino al momento giusto per svolgere le loro funzioni. Si erano concentrati su lin-4, un gene che regola proprio i tempi di sviluppo delle larve di C. elegans, isolandolo e notando che invece di produrre un RNA messaggero (che porta le istruzioni alle strutture della cellula per costruire le proteine), questo portava alla produzione di minuscoli filamenti di RNA che non contenevano però istruzioni per la costruzione delle proteine.
    Il confronto con altri geni, permise a Ambros e Ruvkun di scoprire che quei minuscoli filamenti, poi chiamati microRNA, hanno un ruolo centrale nella regolazione genica. Hanno infatti la capacità di legarsi a specifiche sezioni dell’mRNA e di annullare parte delle sue istruzioni, in modo che non vengano seguite dalla cellula nella produzione di alcuni tipi di proteine. Erano i primi anni Novanta e Ambros e Ruvkun avevano scoperto un nuovo meccanismo nella regolazione genica grazie a un tipo di RNA non conosciuto fino ad allora: il microRNA.
    I risultati dei loro studi furono pubblicati in due articoli sulla rivista scientifica Cell nel 1993, ma furono necessari diversi anni prima che venisse accettata la loro ipotesi. Inizialmente si pensava infatti che quel meccanismo fosse tipico di C. elegans, ma non necessariamente di altri organismi. Nel 2000 il gruppo di ricerca di Ruvkun pubblicò un nuovo studio dove mostrava come lo stesso fenomeno si applicasse a un particolare gene, che ricorre in un’ampia varietà di specie animali. Negli anni seguenti furono scoperte migliaia di geni che regolano il microRNA, facendo arrivare alla conclusione che questo sia presente in tutti gli organismi pluricellulari. Si sarebbe poi scoperto che il microRNA ha diverse altre funzioni, sempre legate a coordinare e determinare l’attivazione di moltissimi geni.
    Il lavoro di Ambros e Ruvkun è stato fondamentale per comprendere un meccanismo che funziona da centinaia di milioni di anni, alla base dell’evoluzione di organismi sempre più complessi. I loro studi hanno anche permesso di scoprire che senza microRNA le cellule non si sviluppano normalmente e che in mancanza di un suo normale funzionamento si possono avere mutazioni, molte delle quali responsabili di alcune malattie compresi i tumori.
    Victor Ambros è nato nel 1953 ad Hanover nel New Hampshire, negli Stati Uniti, ed è docente di scienze naturali presso l’University of Massachusetts Medical School di Worcester.Gary Ruvkun è nato a Berkeley in California nel 1952 ed è docente di genetica presso l’Harvard Medical School. LEGGI TUTTO

  • in

    Che cos’è la progeria

    La morte di Sammy Basso avvenuta sabato ha suscitato nuovo interesse intorno alla progeria, la malattia genetica estremamente rara che causa un invecchiamento precoce riducendo le aspettative di vita di chi ne è affetto. Basso avrebbe compiuto 29 anni a dicembre ed è morto il 5 ottobre, dopo avere dedicato una parte importante della propria vita a far conoscere la sua malattia, e a divulgarne gli effetti e le ricerche per trattarla più efficacemente.La progeria, o più precisamente malattia di Hutchinson-Gilford (HGPS), interessa pochissime persone al mondo, al punto da essere difficile quantificare quanto di frequente si presenti nella popolazione. Si stima che ci sia un caso ogni 20 milioni di nascite e nel 2024 la Progeria Research Foundation, una delle principali organizzazioni che si occupano della malattia, ha rilevato 151 casi in 48 paesi. La malattia è nota da quasi un secolo e mezzo e da allora sono state segnalate centinaia di casi, anche se non sempre è possibile diagnosticarla con certezza e in tempo utile per avviare una terapia per alleviare i sintomi.
    L’invecchiamento precoce causato dalla progeria è dovuto alla mutazione di un gene (LMNA o Laminina A), che contiene al proprio interno le informazioni per mettere in condizione l’organismo di produrre la lamina A, una proteina che ha un ruolo molto importante per mantenere integro e stabile il nucleo delle cellule. La mutazione fa sì che venga prodotta una lamina A difettosa, chiamata progerina, che rende instabile il nucleo cellulare dove sono contenute le informazioni genetiche fondamentali per la moltiplicazione cellulare. Le cellule non riescono a dividersi o lo fanno in modo scorretto, con errori e mutazioni nel materiale genetico, portando a un processo di invecchiamento precoce che si riflette sulla salute.
    Non è ancora chiaro quali siano le cause della mutazione nel gene LMNA che porta alla progeria, ma si ritiene che sia un evento casuale che si verifica nelle prime fasi del concepimento. Per quanto il numero di casi sia molto limitato, a oggi non ci sono chiari indizi per ritenere che uno dei genitori sia portatore della mutazione genetica e che quindi questa sia ereditaria. La mutazione sembra infatti manifestarsi spontaneamente e non derivare direttamente dai genitori. È comunque un aspetto ancora dibattuto, anche perché in passato è stata segnalata per alcuni casi di progeria una ricorrenza tra fratelli.
    Un bambino con progeria solitamente non mostra alcun sintomo alla nascita, con i segni della sindrome che iniziano a diventare evidenti nel corso del primo anno di vita. I genitori o il personale medico se ne accorgono notando una scarsa crescita del bambino e una anomala perdita di capelli. Trattandosi di una malattia estremamente rara la diagnosi può richiedere diverso tempo e non sempre la malattia viene identificata da subito, proprio per la sua scarsa diffusione e le poche conoscenze intorno ad alcune sue caratteristiche.
    A oggi non esiste una terapia vera e propria contro la progeria e l’attività medica si concentra soprattutto nel ridurne gli effetti, che riguardano in primo luogo il sistema cardiovascolare. L’invecchiamento precoce comporta soprattutto una maggiore rigidità e un ispessimento dei vasi sanguigni, con la comparsa di malattie tipiche della terza età come l’aterosclerosi, ma in bambini e adolescenti. Il flusso di sangue verso gli organi vitali si riduce e questo favorisce ulteriormente i processi di invecchiamento e di deperimento.
    La maggior parte delle persone con progeria muore per complicazioni dovute all’aterosclerosi come l’insufficienza cardiaca, l’infarto e l’ictus cerebrale. Per questo a chi ha la malattia viene di solito prescritta l’assunzione di farmaci come l’aspirina a basso dosaggio per prevenire gli attacchi di cuore, oppure il ricorso ad anticoagulanti per ridurre il rischio che si formino coaguli di sangue o ancora statine, per abbassare i livelli di colesterolo.
    Stimare l’aspettativa di vita media per una persona affetta da progeria non è semplice, sia per lo scarso numero di casi diagnosticati ogni anno, sia per la grande variabilità degli esiti della condizione su ogni paziente. In generale l’aspettativa media è di circa 13 anni, ma ci possono essere diversi casi in cui una persona riesce a vivere più a lungo. Sammy Basso è morto a quasi 29 anni, diventando una delle persone più longeve tra i casi di progeria.
    La sindrome ha la caratteristica di non intaccare in modo significativo le capacità mentali, così come non causa altri disturbi tipicamente legati all’invecchiamento. Di rado la malattia causa artrite, problemi di vista o un aumentato rischio di cancro, anche se molto dipende dai singoli pazienti e dall’età che raggiungono.
    Benché sia una malattia estremamente rara, la progeria è studiata con attenzione perché potrebbe offrire nuovi elementi per comprendere i meccanismi dell’invecchiamento nella popolazione in generale. Le ricerche si sono concentrate soprattutto sul gene LMNA per provare a comprendere che cosa inneschi la mutazione che porta poi alla malattia. Sono stati avviati anche studi clinici sull’impiego di alcuni farmaci sviluppati per la cura di forme di tumore, che hanno mostrato qualche esito positivo nell’impiego con persone con progeria. Oltre a quella indotta dalla mutazione del gene, ci sono alcune malattie che si manifestano con disturbi simili alla HGPS, come la sindrome progeroide atipica e quella congenita, ancora oggetto di studio. LEGGI TUTTO

  • in

    Weekly Beasts

    Nel Dartmoor, un altopiano nella contea inglese del Devon, è stato liberato nei boschi un gruppo di martore euroasiatiche, mammiferi imparentati con donnole e lontre, che mancavano da quei territori da 150 anni. Sono state trasportate dalla Scozia, fatte ambientare per tre giorni in recinti in cui venivano nutrite dai volontari locali e infine sono state liberate nella natura: sono otto femmine e sette maschi, con radiocollari per tracciarne gli spostamenti, e dovrebbero riportare l’equilibro naturale della fauna selvatica nel sud-ovest dell’Inghilterra. Una di loro fa parte della nostra raccolta settimanale insieme a cavalli sull’isola di Pasqua (con le grosse statue riconoscibili per le loro caratteristiche faccione a fare da sfondo), pellicani che aspettano diligentemente in fila che venga loro lanciato del pesce e la femmina di ippopotamo Fiona che sembra sorridere mentre una persona mostra su uno smartphone la fotografia della ormai celebre Moo Deng. Per finire con un dromedario e una lumaca, fotografati da molto vicino. LEGGI TUTTO

  • in

    Che droga è la ketamina

    La ketamina, una sostanza con effetti anestetici e psicoattivi tradizionalmente usata come farmaco, è consumata come droga ricreativa da alcuni decenni, ma negli ultimi anni, e in particolare dopo la pandemia, si è diffusa velocemente e specialmente tra i più giovani, anche in Italia. Si presenta normalmente come una polvere bianca simile alla cocaina, ed è in circolazione specialmente alle serate techno, nei club e nei rave party, ma ormai anche in altri contesti più trasversali. Nell’ultimo anno se ne è parlato sui media anche per via delle notizie sulla morte di Matthew Perry, il celebre attore della serie tv Friends, e delle successive indagini.Nell’ultimo World Drug Report delle Nazioni Unite la ketamina è una delle sostanze a cui è data maggiore attenzione, sebbene non sia ancora usata quanto la cocaina, per esempio. È assunta anche tra gli adolescenti e ci sono casi di persone che ne abusano, rischiando di sviluppare danni significativi per la salute. Secondo il più recente studio del Consiglio nazionale delle ricerche (CNR) sul consumo di alcol, tabacco e droghe illegali tra gli adolescenti italiani, nel 2023 il 28 per cento degli studenti tra i 15 e i 19 anni disse di aver usato almeno una volta una sostanza illegale e l’1,3 per cento di aver assunto ketamina.
    Lo scorso anno il consumo dichiarato di questa sostanza è stato il più alto mai registrato tra i giovani italiani. E al contempo è stato notato un aumento della sostanza nelle acque reflue di Milano, dove da circa 10 anni la presenza di ketamina è rilevata insieme a quella di altre droghe illegali dall’Istituto di ricerche farmacologiche “Mario Negri”. Milano è insieme a Bristol, Barcellona, Zurigo, Anversa e Rotterdam una delle città europee nelle cui acque reflue sono state trovate le maggiori quantità di ketamina nel 2023, su 88 in cui sono state effettuate le analisi.
    Ad aver notato un aumento dell’uso di ketamina è anche chi lavora nei servizi di assistenza per le dipendenze e chi si occupa di “riduzione del danno”, cioè di tutte quelle attività per diminuire gli effetti negativi delle droghe tra le persone che non vogliono smettere di assumerle, o non riescono. È il caso di Neutravel, un progetto associato all’azienda sanitaria locale di Cirié, Chivasso e Ivrea (provincia di Torino) e attivo in tutto il Piemonte.
    «Se intorno al 2010 la ketamina era usata soprattutto nei free party [quelli comunemente chiamati rave, ndr]», spiega Elisa Fornero, assistente sociale responsabile del progetto, «in anni più recenti e soprattutto dopo la pandemia c’è stata una diffusione più trasversale». Riguarda tutta la fascia d’età compresa tra i 18 e i 30 anni, ma anche persone più vecchie. Tra le altre cose Neutravel offre un servizio gratuito di drug checking, ovvero di analisi chimica delle sostanze illegali per verificare che siano davvero quelle dichiarate da chi le vende, e così evitare effetti indesiderati e potenzialmente più rischiosi: si sono rivolte al progetto per testare dosi di ketamina anche persone di più di 30 anni che hanno dichiarato di essersi avvicinate a questa sostanza senza avere particolari esperienze pregresse con l’uso di droghe, fatta eccezione per l’alcol e per un consumo di marijuana non problematico.
    «In generale l’accessibilità delle sostanze illegali è aumentata con i lockdown», aggiunge Diletta Polleri, sempre di Neutravel, «perché il mercato illegale ha trovato nuovi modi per arrivare alle persone. Capita che anche le app di incontri siano sfruttate per lo smercio di sostanze». Per questo, sia per gli adolescenti che per le persone che fino a qualche tempo fa avrebbero avuto meno dimestichezza con l’acquisto di sostanze illegali, comprarle è diventato più facile.
    La ketamina è definita “anestetico dissociativo” perché ha effetti sedativi ma anche la capacità di indurre una sensazione di separazione della mente dal corpo. Riduce la percezione del dolore senza causare una riduzione della frequenza di respirazione, come invece fanno le sostanze oppioidi (come la morfina), per questo è considerata più sicura di molti altri anestetici. Inoltre agisce rapidamente. È molto usata in ambito veterinario, e specialmente in contesti di emergenza, per pazienti con traumi o in condizioni critiche, quando un sovradosaggio di anestetico potrebbe interrompere la respirazione. Inoltre produrla è economico e per questo il suo uso medico è particolarmente diffuso nei paesi meno ricchi. L’Organizzazione mondiale della sanità (OMS) la include nella propria “lista dei farmaci essenziali” che tutti gli ospedali dovrebbero avere.
    Nei contesti medici la ketamina si usa in forma liquida, da iniettare, e si presenta incolore e insapore, indistinguibile dall’acqua. Chi la assume a scopo ricreativo invece la sniffa sotto forma di polvere, in modo analogo a come si fa con la cocaina, anche se tra le persone che hanno sviluppato forme di abuso della sostanza si sta diffondendo anche l’uso delle siringhe per l’iniezione intramuscolo – una modalità di assunzione in generale poco praticata per lo stigma associato all’eroina, oltre che per il maggiore impegno richiesto.
    Per quanto riguarda il consumo cosiddetto ricreativo, la ketamina può essere assunta per ragioni diverse. Nel contesto dei free party, i cui frequentatori hanno generalmente una propria cultura sull’uso delle sostanze psicoattive associato all’ascolto di musica e al ballo, può essere ricercato proprio l’effetto dissociativo, che per certi versi è simile alle sensazioni che si provano con gli psichedelici, senza le allucinazioni visive. Ad alti dosaggi (100 milligrammi o più) la ketamina provoca una sensazione di depersonalizzazione e netto distacco della mente dal corpo, chiamata “k-hole”, che si potrebbe tradurre come “tunnel della ketamina”. È una condizione in cui ci si può “vedere da fuori” e che viene spesso associata alle esperienze di pre-morte (near death experience), quelle sensazioni di vario tipo riferite da alcune persone che sopravvivono a una condizione di morte clinica reversibile, tipicamente l’arresto cardiaco. Per qualcuno lo stato di k-hole è simile a quello del sogno, ma è un’esperienza molto intensa e potenzialmente traumatica per il malessere che può provocare.

    – Leggi anche: Cosa sono davvero i rave

    Per via di questo tipo di effetto in passato l’uso della ketamina era stigmatizzato in alcuni contesti di free party, specialmente in alcuni paesi come la Francia, dice Fornero, «perché era accusata di “uccidere” il party». Più di recente però alla ricerca dell’effetto dissociativo si è aggiunto anche un altro tipo di utilizzo, che invece si è molto più normalizzato diffondendosi anche in altri contesti, dalle serate in discoteca alle feste in casa. Infatti in dosi limitate (ad esempio 10-35 milligrammi, anche se la quantità dipende dalla tolleranza sviluppata nei confronti della sostanza) la ketamina provoca sensazioni di euforia, diverse sia da quelle causate dall’alcol che da quelle dovute alla cocaina, anche se spesso viene usata in combinazione con queste altre droghe.
    Nel contesto del clubbing, cioè della cultura attorno alla techno e alle serate di musica elettronica nei club, contestualmente all’affermazione della ketamina si è sviluppata anche una diffusa diffidenza, specialmente tra le persone meno giovani. Il motivo è che provoca effetti diversi dall’MDMA, l’altra sostanza da sempre legata alle discoteche e alle serate techno, che però oltre all’euforia provoca anche un aumento dell’empatia e della voglia di condivisione, incrementando anche la connessione e il trasporto per la musica. La ketamina invece induce di più all’isolamento e all’introspezione, cosa che secondo molti ha peggiorato molto l’atmosfera dei dancefloor dove se ne fa uso. In molti club, peraltro, è cambiata anche la musica che viene suonata, per assecondare le preferenze di chi fa uso di ketamina.
    Per il momento non si conoscono in modo approfondito le motivazioni di chi assume ketamina perché è una droga che si è diffusa di recente. Secondo Polleri ce ne sono sicuramente diverse, per qualcuno può essere sperimentata per ottenere un senso di disconnessione dalla realtà, ma per molte altre persone è una forma di divertimento che viene cercata senza grandi riflessioni pregresse, anche per sentirsi parte di un gruppo: «Il fatto che sia apprezzata e si sia diffusa in questo periodo però dovrebbe farci interrogare sulla fase storica ed economica che stiamo vivendo».
    Ha un’opinione simile anche Raimondo Maria Pavarin, epidemiologo sociale e professore dell’Università di Bologna che fa ricerca sul consumo delle sostanze illegali: «La ketamina è interessante anche perché non la usano persone svantaggiate dal punto di vista economico e sociale, ma persone integrate che controllano l’uso della sostanza in vari modi e prendono precauzioni».
    Molte delle persone che si sono avvicinate alla ketamina negli ultimi anni hanno avuto un «profilo di rischio abbastanza basso» perché l’assunzione in genere avviene nei momenti dedicati al divertimento, occasionalmente, ma Neutravel entra in contatto sempre più spesso con casi di uso problematico e abuso. Nell’ultima indagine del progetto sull’uso delle sostanze, relativa ai primi sei mesi del 2024, è emerso che ci sono persone che fanno un uso di ketamina quotidiano. Inoltre, sempre di recente, Neutravel è entrata in contatto con persone per cui la ketamina è la prima delle droghe utilizzate, mentre in passato di solito ne dichiaravano l’uso persone che principalmente usavano sostanze più comuni come la cocaina.

    – Leggi anche: Una sostanza simile alla ketamina è stata da poco approvata come antidepressivo

    I rischi legati alla ketamina, così come ad altre sostanze psicoattive, dipendono dal contesto e dalle modalità di assunzione.
    Quando era usata soprattutto per cercare la dissociazione nel contesto dei free party il problema principale era legato alle condizioni di k-hole, che per alcune persone possono essere molto spiacevoli, causare incapacità di muoversi e una condizione simile al coma etilico, per cui spesso è necessario il ricorso al pronto soccorso. Uno studio del 2019 basato sui dati dei servizi di pronto soccorso di Bologna a cui aveva lavorato Pavarin individuò come profilo tipico delle persone che sviluppavano questi sintomi per l’assunzione di ketamina un uomo di circa 25 anni, che usava la sostanza nelle ore notturne o di primo mattino nei weekend.
    I k-hole spiacevoli si vedono tuttora (e in genere non hanno gravi ripercussioni, a meno che una persona non si faccia male mentre non ha il controllo del proprio corpo), ma Neutravel osserva sempre di più altri problemi legati alla ketamina. Sono sviluppati da chi, attraverso l’uso ripetuto, sviluppa una tolleranza agli effetti della sostanza e quindi ne aumenta le dosi e la frequenza di assunzione, fino ad arrivare a una forma di dipendenza. Queste persone possono avere gravi problemi all’apparato urinario e in particolare alla vescica e ai reni, che inizialmente si manifestano con la presenza di sangue nella pipì e possono arrivare alla necessità di asportare la vescica.
    Ma la ketamina può anche danneggiare lo stomaco e causare gravi lesioni alle mucose del naso e del palato dato che viene sniffata, in modo simile alla cocaina. Questo perché una volta che si è diventati tolleranti si tende ad assumerla molto di frequente, dato che la durata degli effetti è di circa un’ora. «Possono essere danni per cui è necessario un intervento di chirurgia maxillofacciale», precisa Polleri, «che non tutti possono permettersi. E se qualcuno arriva ai servizi per le dipendenze con questi danni significa che c’è anche un profondo senso di vergogna nel chiedere aiuto, dovuto al fatto che l’uso di questa sostanza è percepito come normale: è più difficile riconoscere di avere un problema».

    – Approfondisci con: Il numero di Cose spiegate bene su Le droghe, in sostanza LEGGI TUTTO

  • in

    Come funzionano le cose che usiamo tutti i giorni

    Ogni giorno della nostra vita è accompagnato da piccoli gesti che facciamo di continuo, soprattutto in casa dove passiamo una parte importante del nostro tempo: da accendere la luce a impostare la temperatura del forno, passando per l’apertura di un rubinetto e lo sciacquone del WC. Diamo per scontato che a una certa azione corrisponda un effetto, ma a ben pensarci non sempre sappiamo che cosa rende veramente possibile l’accensione di una lampadina o il pop-corn al microonde. Tecnologie vecchie e nuove riempiono il nostro quotidiano e forse si meritano che sappiamo qualcosa di più su come funzionano, almeno un’infarinata in non più di due paragrafi ciascuno.RubinettoIl funzionamento di un rubinetto è all’apparenza abbastanza semplice – fai ruotare un elemento o alzi una leva e l’acqua scorre – eppure non sono in molti a sapere che cosa accade al suo interno. Il “rubinetto a vitone” è quello che hanno più o meno tutti in mente, e che si svita per far fluire l’acqua. Facendolo si fa infatti sollevare una vite che ha alla sua base una rondella cui è applicata una guarnizione. Quando il rubinetto è chiuso la guarnizione preme contro un foro e impedisce all’acqua di passare resistendo alla sua pressione. Svitando, la guarnizione si stacca dal foro e l’acqua inizia a fluire: più si svita, più la guarnizione si allontana e permette il passaggio di una maggiore quantità d’acqua.

    In casa il tipo di rubinetto più diffuso è ormai il “miscelatore monocomando” che si aziona con una leva collegata a una sfera cava che ha tre fori: due servono per far passare l’acqua calda e quella fredda, in modo che si mescolino all’interno della sfera, mentre il terzo per far passare l’acqua verso l’esterno. Quando il rubinetto è chiuso i fori non sono allineati con le aperture, mentre lo diventano quando si sposta la leva: più la si sposta verso l’alto più il foro centrale è allineato verso la bocca di erogazione (la parte dove esce l’acqua), mentre girando la leva a sinistra o a destra si regola l’allineamento dei fori rispetto ai due tubi che portano acqua calda e fredda, determinando la temperatura di uscita dal rubinetto.

    WCUna meraviglia della tecnica segna quasi sempre la fine delle cose più tangibili che produce il nostro organismo. Il water, o vaso sanitario, è l’elemento più evidente in un WC, solitamente realizzato in ceramica e dalla caratteristica forma che ricorda quella di una tazza. Salvo non si attivi lo sciacquone, l’acqua che ricopre il suo fondo non fluisce nello scarico grazie alla presenza di un sifone, una cavità a gomito che impedisce al vaso di vuotarsi completamente. Il bordo superiore del water è cavo e permette all’acqua che proviene dalla vaschetta di fluire al suo interno e di uscire da tanti fori orientati verso il basso, in modo da rimuovere quanto si è depositato nel vaso. La maggiore quantità d’acqua fa superare la parte terminale del sifone e fa sì che l’acqua venga risucchiata nello scarico insieme al frutto della propria fatica.

    La potenza del getto è ottenuta per gravità, grazie a una vaschetta di scarico posta più in alto rispetto al vaso e piena d’acqua. Quando si tira lo sciacquone, si apre il diaframma che in condizioni normali impedisce all’acqua di scorrere verso il basso e di incanalarsi nel vaso. Lo svuotamento della vaschetta fa cadere verso il basso un galleggiante (un oggetto con una densità minore rispetto a quella dell’acqua) di solito collegato a una staffa, a sua volta collegata a una valvola che regola l’ingresso di nuova acqua. In pratica è come aprire un rubinetto per riempire un recipiente. Man mano che il livello dell’acqua aumenta, il galleggiante sale fino a quando è a un’altezza tale da far chiudere la valvola, impedendo che entri più acqua della capacità della vaschetta (c’è un ulteriore meccanismo di “troppo pieno” che nel caso di un malfunzionamento del galleggiante fa fluire l’acqua in eccesso nel vaso). A vaschetta piena si può nuovamente azionare lo sciacquone e tutto ricomincia da capo.
    Interruttore della luceIn un’abitazione possono mancare molte cose, ma difficilmente mancano gli interruttori della luce nelle stanze. Ne esistono di vari tipi a seconda delle necessità e della tensione elettrica, ma di solito quelli per accendere le lampadine nelle case sono tra i più semplici e sono di tipo “unipolare”, aprono cioè il circuito ma una delle due parti è sempre sotto tensione.
    Di solito all’interno di un comune interruttore unipolare per la luce c’è una molla che rende possibile il passaggio da una posizione all’altra: se provate a lasciare l’interruttore a metà non ci riuscite proprio per questo. L’interruttore è collegato a due cavi (rispettivamente fase e neutro) e ha al suo interno due contatti: quando la lampadina è spenta il circuito è aperto e non c’è un collegamento tra i due contatti; quando si vuole accendere la luce, lo spostamento dell’interruttore fa scattare una lamella di metallo che chiude il circuito e rende possibile il passaggio della corrente elettrica tra i due contatti e verso la lampadina.
    MicroondeMolte persone diffidano del microonde per la sua capacità di scaldare e cuocere gli alimenti molto più velocemente di un forno tradizionale, cosa percepita come poco “naturale”. In realtà un microonde sfrutta la naturalissima capacità delle radiazioni elettromagnetiche a una certa lunghezza d’onda di intervenire sull’orientamento di alcune molecole, principalmente quelle dell’acqua, facendole oscillare. Il gran subbuglio porta le molecole a urtarsi, sfregando tra loro e producendo calore per attrito. Visto che gli alimenti hanno una certa componente d’acqua, si può sfruttare questo principio per scaldarli o per cuocerli.
    (Zanichelli)
    Le microonde necessarie sono prodotte da un magnetron, una sorta di generatore che tramite un forte magnete spinge gli elettroni a muoversi verso l’esterno. Una guida d’onda incanala le microonde verso un dispositivo che le sparpaglia all’interno della camera di cottura in modo che possano raggiungere il cibo. La distribuzione non è ordinata e il piatto rotante serve per fare in modo che il riscaldamento o la cottura risulti più omogenea. Un microonde agisce meccanicamente sulle molecole ma non le altera in alcun modo chimicamente: un piatto di zuppa scaldato con un microonde è indistinguibile a livello molecolare da uno scaldato utilizzando un forno o un fornello.
    SpecchioCon le giuste condizioni di luce, i primi esseri umani osservarono la loro immagine riflessa in una pozzanghera, uno stagno o un lago centinaia di migliaia di anni prima che fossero inventati gli specchi. In generale, pensiamo che solo uno specchio “rifletta” la luce, ma in realtà praticamente tutto ciò che abbiamo intorno riflette la luce, altrimenti non potremmo osservarlo. Quando siamo davanti a uno specchio la luce riflessa dal nostro corpo (e da tutto quello che abbiamo intorno) raggiunge la superficie riflettente, quasi sempre realizzata in argento o alluminio, protetta da uno strato di vetro o di plastica trasparente.
    I fotoni, i piccoli pacchetti di energia che costituiscono i raggi luminosi, colpiscono la superficie riflettente e vengono rimbalzati in modo più ordinato (riflessione speculare) rispetto a quanto facciano le superfici irregolari come quella del nostro corpo (riflessione diffusa). È grazie a questa riflessione in un’unica (o quasi) direzione che vediamo l’immagine riflessa. La luce in realtà non rimbalza sullo specchio come farebbe una pallina su un tavolo da ping pong: i fotoni sono assorbiti dagli atomi di argento rendendoli temporaneamente instabili, stato che li porta a emettere energia sotto forma di fotoni per tornare stabili. L’argento è tra i materiali più efficienti in questo processo di riflessione, mentre altri materiali si perdono qualche pezzo per strada e anche per questo sono meno riflettenti.
    FrigoriferoUn frigorifero sottrae calore dall’ambiente in cui conserviamo gli alimenti, che come sempre succede viene ceduto da una parte più calda a una più fredda. Per farlo utilizza un compressore collocato all’esterno nella parte bassa del frigorifero, che ha il compito di far aumentare la pressione e quindi la temperatura al fluido refrigerante. Il fluido viene poi incanalato nel condensatore, una sorta di lunga serpentina che favorisce il cedimento del calore all’ambiente circostante, facendo comunque sì che il fluido continui a essere ad alta pressione. Al termine del condensatore, il fluido passa attraverso la valvola di espansione (con una certa approssimazione potete pensarla come l’erogatore di una bomboletta spray): il rapido cambiamento di pressione riduce repentinamente la temperatura del fluido, che di solito passa dai 30 °C circa a -25 °C.
    (Zanichelli)
    Il fluido passa nell’evaporatore, un’altra serpentina che è però collocata in un’intercapedine del frigorifero, in modo da “prelevare” il calore all’interno del frigo e degli alimenti. Nel farlo la sua temperatura aumenta, torna per evaporazione allo stato di vapore e raggiunge nuovamente il compressore dove sarà portato ad alta pressione per tornare nel condensatore e il ciclo ricomincerà. Il rumore che sentite provenire ogni tanto dal frigorifero è il compressore, che si attiva quando un termostato segnala che la temperatura all’interno del frigorifero si è alzata.
    TV OLEDDa ormai diversi anni una quantità crescente di televisori, ma anche di altri dispositivi come smartphone e laptop, utilizza la tecnologia OLED che può essere considerata un’evoluzione degli LCD che hanno reso popolari ed economici gli schermi piatti. Potete immaginare uno schermo LCD come una lasagna: lo strato più basso è costituto da un pannello luminoso che proietta la luce sullo strato successivo, formato invece da una miriade di minuscoli quadratini (i pixel) a cristalli liquidi. A seconda di come viene fatta passare la corrente elettrica, i cristalli liquidi si orientano in modo da far passare o bloccare la luce proveniente dal pannello luminoso. La luce che passa attraverso ogni quadratino viene colorata di rosso, verde o blu ed è dalla combinazione di questi colori che si produce un’immagine, un po’ come in un mosaico. Gli strati finali della lasagna sono poi uno schermo protettivo e un rivestimento antiriflesso, per rendere visibile più facilmente l’immagine in varie condizioni di luce.
    A differenza degli LCD, gli OLED non hanno bisogno dello strato col pannello luminoso perché ogni pixel è in grado di illuminarsi da solo, grazie all’impiego di particolari composti organici che si illuminano quando viene applicata loro una corrente. Gli OLED possono essere quindi molto più sottili di un LCD e soprattutto offrono maggiori capacità di contrasto, perché possono spegnere le parti in cui deve essere mostrato il nero, a differenza degli LCD dove il pannello luminoso viene solo schermato e di conseguenza il nero appare meno intenso (ci sono comunque sistemi per ridurre il problema).
    AscensoreEsistono due tipi di ascensori: elettrici, che tirano la cabina dall’alto attraverso una fune; oleodinamici, che spingono la cabina dal basso tramite un pistone. Il primo tipo è il più diffuso e quello a cui pensano praticamente tutti quando si parla di un ascensore. Ai lati del vano in cui si muove la cabina ci sono delle guide per evitare che l’ascensore oscilli mentre si sposta in verticale tra i vari piani. Il motore elettrico sulla sommità del vano non avvolge le funi di trazione collegate alla cabina, ma come in una carrucola le fa muovere oltre la puleggia (un disco che gira intorno al suo asse) dove si trova invece il contrappeso. Questo ha una massa di solito pari a quella dell’ascensore a metà carico, in modo da bilanciare il sistema e ridurre lo sforzo che deve fare il motore per far salire o scendere la cabina.
    (Jared Owen via YouTube)
    Se una fune di trazione si spezza, ce ne sono altre per evitare che la cabina precipiti nel vano. Nella remota eventualità in cui si spezzino tutte le funi, un sistema frenante rileva meccanicamente l’improvviso aumento della velocità della cabina e fa scattare i freni, che premono contro le guide nel vano fermando in pochi istanti la cabina. Altri sistemi di sicurezza sono applicati alle porte ai piani, che si possono aprire solo in presenza della cabina: nei modelli con porta automatica sia interna sia esterna è il movimento della porta della cabina ad azionare anche la porta esterna al piano.
    FornoIl forno statico è presente nella maggior parte delle cucine e rappresenta la versione più semplice e tradizionale di questo elettrodomestico. Esposte o in un’intercapedine della camera di cottura ci sono delle resistenze (resistori) che, come suggerisce il nome, oppongono una certa resistenza al passaggio della corrente elettrica. Ciò determina il loro surriscaldamento e la produzione di calore può essere impiegata per scaldare un ambiente, nel caso di una stufetta, o la camera di cottura di un forno.
    Di solito quando si imposta la temperatura per la cottura non si interviene direttamente sulla temperatura delle resistenze, che a regime è sempre la stessa, ma su un termostato. Il compito di questo strumento è di rilevare la temperatura interna e di far disattivare le resistenze al raggiungimento di quella desiderata, facendole poi riattivare quando la temperatura scende. Un tempo la gestione della temperatura nella camera di cottura era alquanto approssimativa, mentre oggi ci sono sistemi più raffinati. Questo è uno dei motivi per cui ogni forno si comporta un po’ diversamente dagli altri e richiede qualche tempo per capire come modificare tempi e temperature di cottura rispetto alle ricette. Oltre al forno statico ci sono quelli ventilati (a convezione) che forzano con alcune ventole la circolazione dell’aria calda nel forno e quelli a vapore, che utilizzano anche il vapore acqueo per la cottura.
    Pentola a pressioneNonostante sia in circolazione da secoli, nei confronti della pentola a pressione c’è ancora diffidenza da parte di alcune persone. È una pentola solitamente di acciaio inossidabile con un coperchio che, a differenza delle altre casseruole, si chiude ermeticamente grazie a una guarnizione sul bordo del coperchio e a una leva che lo fa agganciare saldamente al resto della pentola. Gli alimenti vengono cotti aggiungendo sul fondo della pentola un po’ d’acqua, che a 100 °C si trasforma in vapore acqueo. A causa della chiusura ermetica, il vapore non può uscire dalla pentola e continua ad accumularsi portando a un aumento della pressione che fa aumentare la temperatura di ebollizione portandola a circa 120 °C, una condizione che non si può raggiungere con una pentola normale. La maggiore temperatura dell’acqua consente di cuocere gli alimenti più velocemente di quanto avverrebbe con una comune casseruola.
    Modello di pentola a pressione del XIX secolo (Wikimedia)
    La pressione raggiunta all’interno della pentola è solitamente il doppio di quella che si ha normalmente nell’atmosfera (in condizioni standard di temperatura e altitudine). Una valvola di controllo evita che si superi quel valore di pressione: è quel cilindro che di solito si sente sibilare quando la pentola è in pressione. C’è poi una valvola di sicurezza che interviene nel caso in cui non funzioni correttamente la valvola di controllo: è studiata per staccarsi dal coperchio in modo da ridurre rapidamente la pressione interna ed evitare cedimenti della pentola (che è comunque progettata per resistere ben al di sopra dei valori di pressione raggiunti durante la cottura).
    RompigettoIl rompigetto aeratore è quel piccolo cilindro applicato al termine dell’erogatore del rubinetto che rende il getto d’acqua bianco e opaco, invece che trasparente come dovrebbe essere di solito. L’effetto ottico è dovuto all’aggiunta di aria che contribuisce a ridurre la portata di acqua consumata, pur mantenendo una buona pressione del getto. Esistono aeratori formati da tante lamelle di plastica disposte a raggiera attraverso cui passa l’acqua incorporando dell’aria, ma ci sono anche modelli formati da reti con maglie minuscole sovrapposte tra loro, che favoriscono l’incorporazione dell’aria nel getto. L’aria passa attraverso la struttura centrale del rompigetto grazie ad alcune fessure.

    Oltre a rendere più omogeneo il getto dell’acqua che esce dal rubinetto, questi dispositivi permettono di ridurre del 30-60 per cento il consumo d’acqua a seconda dei modelli, senza avere una riduzione significativa della pressione. Soprattutto i modelli con le reti tendono ad accumulare calcare e altre impurità e devono essere di conseguenza puliti periodicamente, per evitare una riduzione della portata del rubinetto.
    Bomboletta sprayUna bomboletta spray, come quella del deodorante, contiene al proprio interno un gas (spesso propano e butano miscelati insieme) ad alta pressione in modo che sia allo stato liquido. Quando si preme la valvola di erogazione, la differenza di pressione tra l’interno e l’esterno della bomboletta fa sì che il contenuto tenda a fuoriuscire molto velocemente tornando allo stato gassoso. Il passaggio è rapido e repentino, al punto che il gas trascina con sé anche le altre sostanze presenti nella bomboletta come quelle che costituiscono il deodorante.
    L’erogatore e la valvola sono di solito collegati a una cannuccia che raggiunge il fondo della bomboletta, in modo da pescare più facilmente le sostanze più dense presenti nel contenitore, che tendono a depositarsi sul fondo. Per questo quando la bomboletta è ormai quasi scarica può essere utile inclinarla, facendo anche ruotare l’erogatore, in modo da raccogliere gli ultimi residui di deodorante.
    AspirapolvereAnche nel caso dell’aspirapolvere c’entra la pressione, ma a differenza della bomboletta all’interno di parte dell’elettrodomestico serve un ambiente a pressione inferiore rispetto a quella esterna. Per ottenere temporaneamente questa depressione si utilizza un motore elettrico collegato a una ventola che estrae l’aria da un recipiente disperdendola verso l’esterno. Il recipiente è collegato alla bocchetta di aspirazione ed è quello in cui si depositerà la polvere raccolta. Tra il recipiente, la ventola e la griglia che permette all’aria di uscire dall’aspirapolvere ci sono dei filtri che impediscono alla polvere di uscire con l’aria espulsa.
    A questo principio di base si sono aggiunti nel tempo sistemi per migliorare l’efficienza di aspirazione, evitando per esempio che questa si riduca in modo significativo man mano che il recipiente si riempie di polvere, rendendo più difficile il passaggio dell’aria. I modelli con tecnologia ciclonica fanno passare l’aria sporca in un contenitore conico in modo che questa percorra una stretta elica. Le particelle di polvere finiscono contro la parete del cono e cadono verso il basso, dove vengono raccolte nel recipiente per la polvere. Di solito si usano più cicloni per migliorare la resa di aspirazione anche quando il recipiente è quasi pieno.
    LavatriceLa lavatrice è stato uno dei primi elettrodomestici a diffondersi nelle abitazioni e ha rivoluzionato il modo di lavare i vestiti. Il cestello in cui si inseriscono i panni è messo in rotazione da un motore elettrico, collegato tramite una cinghia o applicato direttamente al cestello. Un sensore rileva quando l’oblò è chiuso e rende possibile l’accensione della lavatrice, dopo avere impostato il programma di lavaggio e la temperatura dell’acqua. Questa entra nel cestello attraverso un tubo collegato all’impianto di casa e a una valvola, che si chiude quando è stata caricata la quantità di acqua necessaria. Il detersivo proveniente dal cassetto viene miscelato all’acqua nelle prime fasi di caricamento, ma è sempre più frequente che sia inserito direttamente con i vestiti.
    Una lavatrice dei primi anni Cinquanta (Three Lions/Getty Images)
    Il cestello è traforato e si trova all’interno di un cilindro più grande, che non ha invece fori e contiene quindi l’acqua caricata per il lavaggio. Quando viene messo in rotazione dal motore, il cestello si muove all’interno del cilindro e fa sfregare tra loro i vestiti che si immergono un po’ per volta nell’acqua (è un sistema per utilizzare meno acqua e ridurre lo sforzo del motore). Una resistenza, collocata tra il cestello e il cilindro, scalda l’acqua per portarla alla temperatura desiderata. Durante un lavaggio ci sono più cicli di carico e scarico dell’acqua: quella sporca viene prelevata ed espulsa da una pompa. La “centrifuga” è il momento in cui il cestello gira molto velocemente: i vestiti vengono spinti verso le pareti e non possono andare oltre, mentre l’acqua può spingersi ancora più in là e lascia i tessuti infilandosi nei fori del cestello, viene raccolta nel cilindro ed espulsa tramite la pompa di scarico.
    TelecomandoPuntare il telecomando verso il televisore è un po’ come puntare una torcia, ma la luce emessa dal LED che si trova sulla parte anteriore del telecomando non è visibile: è nell’infrarosso (la parte della radiazione elettromagnetica che non riusciamo a vedere perché ha una frequenza inferiore a quella della luce visibile). Il televisore ha un sensore per captare i segnali nell’infrarosso inviati dal LED e tradurli in comandi per alzare o abbassare il volume, cambiare canale o accendere e spegnere il televisore stesso. Il segnale è inviato in codice binario, quindi a ogni comando è associata una combinazione di 1 e 0.
    Quando premiamo un tasto, il LED si accende (1) e spegne (0) velocemente un certo numero di volte, riproducendo il codice binario, il sensore sul televisore rileva la sequenza e attiva un comando di conseguenza. Prima dell’introduzione dei LED a infrarossi i telecomandi facevano lampeggiare una lampadina, quindi percepibile anche dalla nostra vista. I telecomandi dei televisori più recenti usano talvolta metodi di trasmissione alternativi, basati per esempio sulle onde radio del Bluetooth.
    TermosifoneIl classico termosifone contiene al suo interno dell’acqua calda proveniente da una caldaia che può essere presente nello stesso appartamento (riscaldamento autonomo) oppure condivisa tra più appartamenti (riscaldamento centralizzato) e di solito collocata nel piano più basso dell’edificio. L’acqua calda che esce dalla caldaia fluisce nei tubi e raggiunge attraverso una serie di diramazioni i termosifoni, che possono essere considerati a loro volta dei tubi, per quanto particolari. Sono progettati per accogliere diversi litri d’acqua e hanno una forma per esporre quanta più superficie possibile all’ambiente esterno.
    (Zanichelli)
    La questione della superficie è importante perché con i termosifoni la propagazione del calore avviene per convezione. L’aria sopra al calorifero si riscalda e, diventando meno densa, sale verso l’alto mentre quella fredda tende a scendere verso il basso dove viene scaldata dal termosifone in un ciclo continuo che contribuisce a far muovere l’aria nella stanza e a scaldarla. Con una forma diversa, il termosifone sarebbe meno efficiente nel cedere calore all’ambiente circostante. Una termovalvola (o testina termostatica) consente di regolare il flusso d’acqua nel termosifone in base a quanto si desidera scaldare un ambiente: raggiunta la temperatura, la valvola interrompe il flusso d’acqua in modo da ridurre i consumi. LEGGI TUTTO

  • in

    Siamo scarsi a comprendere le persone che non la pensano come noi

    La polarizzazione del dibattito pubblico, uno dei temi più raccontati e discussi degli ultimi anni, ha portato a una sovraesposizione mediatica di opinioni politiche contrapposte e spesso rappresentate senza sfumature. L’accresciuta familiarità delle persone con quelle rappresentazioni potrebbe anche indurle a credere di conoscere abbastanza bene il modo di pensare di chi ha un punto di vista opposto rispetto al loro. Ma quelle supposizioni sono il più delle volte sbagliate, contrariamente alle aspettative di chi le fa, come sostiene uno studio pubblicato ad agosto sulla rivista Scientific Reports.Lo studio è stato condotto da Bryony Payne e Caroline Catmur, ricercatrici in psicologia cognitiva al King’s College di Londra, e Geoff Bird, ricercatore e professore di neuroscienze cognitive all’Università di Oxford. Il loro obiettivo era studiare il tipo di processi cognitivi che inducono le persone a trarre conclusioni sbagliate sulle opinioni di altre persone. Per farlo hanno reclutato 256 statunitensi, equamente divisi tra persone con idee politiche di sinistra e persone con idee di destra, e hanno misurato quanto fossero capaci di prevedere le convinzioni politiche degli individui del loro stesso gruppo e quelle degli individui dell’altro gruppo.
    «Volevamo capire se le persone fossero meno portate a comprendere quelle con cui non erano d’accordo politicamente, e se ne fossero a conoscenza», ha detto al sito Nautilus Payne, che insieme alla sua collega Catmur lavora all’Institute of Psychiatry, Psychology & Neuroscience del King’s College, uno dei più importanti centri di ricerca d’Europa sulla salute mentale e sulle neuroscienze.
    Per suddividere i partecipanti in due gruppi, Payne, Catmur e Bird hanno sottoposto a ciascuno una serie di 24 affermazioni sui loro valori familiari, etici, religiosi e di altro tipo, e hanno chiesto di esprimere quanto le condividessero su una scala da 1 (molto in disaccordo) a 5 (molto d’accordo). Tra le altre c’erano affermazioni come “l’aborto dovrebbe essere proibito”, “il capitalismo avvantaggia tutte le classi sociali”, “le politiche di welfare hanno un effetto negativo sulla società”, “i poveri sono poveri a causa di cattivi comportamenti”, “sono contrario/a alla pena di morte”, “i matrimoni tra persone dello stesso sesso dovrebbero essere ammessi”.
    Per ogni affermazione, a ciascun individuo veniva subito presentata la risposta anonima data da un altro individuo. Se i due avevano un’opinione simile, venivano considerati parte dello stesso gruppo, altrimenti finivano in due gruppi diversi. A ogni partecipante veniva quindi chiesto di immaginare la risposta data dall’altra persona a una seconda affermazione, e di esprimere il livello di attendibilità che attribuiva alla propria ipotesi sulla risposta dell’altra persona, in una scala da «per niente» a «estremamente» sicuro/a.
    Per farsi un’idea migliore prima di confermare l’ipotesi iniziale, i partecipanti potevano anche scegliere di ricevere ulteriori risposte che quell’altra persona aveva dato ad altre affermazioni, fino a un massimo di cinque. Dopodiché potevano eventualmente aggiornare la loro previsione iniziale e riformulare anche il giudizio sull’attendibilità della previsione. Ciascun partecipante ha completato questo esercizio per 24 persone diverse.

    – Leggi anche: Quanto siamo prevedibili

    I risultati dello studio hanno mostrato che i partecipanti erano inclini a cercare più informazioni sulle persone con cui non erano d’accordo, come prevedibile, ma nonostante questo le loro previsioni erano comunque errate nella maggior parte dei casi. In media ci prendevano poco più del 50 per cento delle volte quando l’altra persona era del loro stesso gruppo. L’accuratezza scendeva al 39 per cento quando l’altra persona apparteneva all’altro gruppo, nonostante questo tipo di ipotesi fosse più “informata” rispetto a quelle formulate per le risposte di persone del proprio gruppo.
    In generale i partecipanti tendevano a dirsi abbastanza sicuri della loro capacità di indovinare correttamente le risposte altrui. In media si attribuivano un’attendibilità del 74 per cento, per le supposizioni che riguardavano persone del loro gruppo, e del 72 per cento, per quelle relative a persone dell’altro gruppo. «Le persone proprio non hanno consapevolezza di quanto siano scarse in questa cosa», ha detto Payne.
    Uno degli aspetti più preoccupanti emersi dallo studio, secondo le autrici e l’autore, è che i risultati confermano quelli di altre ricerche sull’influenza degli stereotipi nelle nostre valutazioni quotidiane. Quando immaginiamo le opinioni di persone che consideriamo appartenenti a gruppi diversi dal nostro, che sia per convinzioni politiche, per origine etnica o per provenienza geografica, tendiamo a pensare che le loro menti siano relativamente semplici, ha detto Payne. Utilizziamo quindi gli stereotipi come scorciatoie cognitive, per dedurre principi e valori condivisi da quelle persone.
    Lo studio mostra peraltro che questi pregiudizi influenzano la ricerca stessa di informazioni sulle persone di cui non condividiamo le opinioni, in questo caso disincentivandola. L’esperimento permetteva infatti di richiedere al massimo cinque risposte aggiuntive date dall’altra persona, per conoscerla meglio. Ma generalmente i partecipanti ne chiedevano meno di cinque, limitandosi alla quantità di informazioni che consideravano sufficiente per fare una valutazione più accurata. In altre parole, smettevano di chiedere informazioni aggiuntive prima di avere il quadro più completo possibile delle opinioni dell’altra persona.
    Secondo Catmur, Payne e Bird la conclusione più significativa che è possibile trarre dello studio è che gli errori nella valutazione delle opinioni altrui non derivano da una ridotta propensione a considerare le menti delle persone estranee al gruppo (i partecipanti chiedevano in effetti più informazioni su quelle persone che su quelle del loro gruppo), ma da una peggiore rappresentazione di quelle menti. «Più siamo sicuri di poterle capire, più è probabile che ci sbagliamo», ha detto Payne.
    La scarsa capacità di comprendere come la pensano le persone diverse da noi potrebbe essere in parte il risultato della polarizzazione stessa, che porta ad avere meno interazioni con i membri del gruppo opposto. Questo porta a sua volta ad avere meno esperienza nella rappresentazione delle loro menti e a una ridotta comprensione di come potrebbero variare. I risultati dello studio, ha aggiunto Catmur, suggeriscono che le persone sono tuttavia disposte a riconsiderare le loro valutazioni, una volta informate dei loro errori.
    Conversare con persone con convinzioni diverse dalle nostre potrebbe servire a mettere in discussione le nostre ipotesi reciprocamente sbagliate. «Sebbene non esistano soluzioni rapide in un contesto reale, se tutte le persone interagissero con un gruppo di persone più eterogeneo, parlassero direttamente con loro e imparassero a conoscerle, è probabile che ci capiremmo meglio», ha concluso Catmur.

    – Leggi anche: Dovremmo essere meno d’accordo con noi stessi LEGGI TUTTO

  • in

    Perché l’Everest continua a crescere?

    Caricamento playerL’erosione causata dall’acqua potrebbe essere uno dei fattori che contribuiscono alla lentissima crescita annuale dell’altezza dell’Everest, la montagna più alta della Terra. Una ricerca pubblicata lunedì su Nature Geoscience suggerisce che l’azione erosiva del fiume Arun, che scorre a nord e a est della montagna nel massiccio dell’Himalaya, al confine tra Nepal e Tibet, stia alleggerendo il pezzo di crosta terrestre su cui si trova l’Everest, permettendole di “galleggiare” un po’ più in alto sul mantello, lo strato di magma sottostante all’involucro roccioso della crosta terrestre.
    L’Everest è alto secondo le misurazioni ufficiali più recenti 8.848,86 metri e cresce di circa due millimetri ogni anno, quanto lo spessore di una monetina. Secondo i modelli geologici attuali però la variazione della sua altezza dovrebbe essere soltanto di circa un millimetro all’anno. La ricerca pubblicata lunedì ha valutato quale potrebbe essere il contributo alla sua crescita dell’alleggerimento della porzione di crosta terrestre su cui si trova la montagna. Un fenomeno simile era già stato ipotizzato in passato, ma questo è il primo studio approfondito sulla zona dell’Everest: qualche scienziato comunque ha sollevato dubbi.
    L’altezza di una montagna può variare per diversi fattori, ed è noto da tempo che fra questi ci sia anche l’erosione: solitamente però la si considera un fattore che riduce l’altezza delle montagne, dato che rimuove materiale dalla loro cima, non uno che le fa crescere, come suggerito invece dalla ricerca pubblicata lunedì. I principali fattori che influiscono sull’altezza delle montagne sono comunque i movimenti delle placche tettoniche, gli enormi blocchi che formano la crosta terrestre: l’Himalaya, la catena montuosa che include la maggior parte delle cime più alte del pianeta, fra cui l’Everest, si formò tra i 40 e i 50 milioni di anni fa dallo scontro della placca indiana con quella eurasiatica. Il loro continuo movimento continua a far crescere le cime della catena.
    La nuova ricerca però non parla dell’azione erosiva prodotta dalle intemperie sulla superficie della montagna, ma di quella causata dallo scorrimento di un fiume alla base, che avrebbe peraltro un effetto molto più veloce. Gli autori dello studio hanno simulato l’evoluzione del corso dei fiumi della zona, e hanno valutato che l’erosione del terreno attorno all’Everest sia diventata un fattore significativo per la sua crescita circa 89mila anni fa, quando il fiume Arun cambiò corso. Nella scala dei tempi dei cambiamenti geologici è dunque un evento recente.
    L’Everest, al centro, e le montagne circostanti (Paula Bronstein/Getty Images)
    Il fiume in effetti ha un corso insolito. Parte a nord della montagna, sul suo versante cinese, per il suo primo tratto scorre verso est, poi gira improvvisamente a sud ed entra in Nepal tagliando una catena di rilievi. Secondo la simulazione elaborata dai ricercatori la curva è dovuta al fatto che migliaia di anni fa il primo tratto, che scorre verso est, fu inglobato da un corso d’acqua che scorre verso sud. L’unione fra i due diede all’Arun il suo corso attuale: il fiume inoltre si è ingrandito, e la sua capacità di rimuovere il materiale dal suo percorso è aumentata.
    Secondo i ricercatori negli ultimi 89mila anni l’alleggerimento della crosta terrestre dovuto all’azione erosiva dell’Arun avrebbe prodotto un innalzamento della cima dell’Everest compreso fra i 15 e i 50 metri. L’effetto dovrebbe essere ancora più forte sul Makalu (8.485 metri), la quinta montagna più alta del mondo, dato che la sua cima si trova più vicina al corso dell’Arun rispetto all’Everest. Gli effetti dell’erosione su questa montagna però non sono analizzati approfonditamente dallo studio.

    – Leggi anche: Il confine tra Svizzera e Italia sarà spostato a causa della fusione dei ghiacciai alpini

    Un fenomeno analogo, noto come isostasia, è conosciuto e osservato da tempo in molte parti del mondo, soprattutto in zone come il Canada, la Scandinavia e le Alpi che circa 20mila anni fa, durante l’ultimo massimo glaciale (un prolungato periodo di abbassamento della temperatura media della Terra, comunemente noto come era glaciale), erano coperte da uno strato di ghiaccio alto migliaia di metri. L’alleggerimento della crosta terrestre causato dallo scioglimento della calotta glaciale che prima la schiacciava produce tuttora l’innalzamento graduale del terreno in quelle zone.
    Hugh Sinclair, professore all’Università di Edimburgo che non ha collaborato alla ricerca, ha detto a BBC News che il procedimento alla base dello studio è ragionevole, ma ha aggiunto che l’analisi dei tempi e dell’efficacia dell’erosione causata dal fiume ha grossi margini di incertezza, così come la valutazione degli effetti dell’alleggerimento della crosta su punti distanti alcune decine di chilometri dal letto del fiume. Il geologo dell’Università di Oxford Mike Searle, sentito dal Washington Post, è stato più critico, dicendo che lo studio si basa più su assunti che su osservazioni. Matthew Fox, geologo allo University College di Londra e fra i co-autori dello studio, ha specificato che nonostante i ricercatori non abbiano analizzato separatamente quale sia l’impatto di ogni singolo fattore che influenza l’altezza delle montagne, è sicuro che l’erosione sia fra questi.
    La misura dell’altezza dell’Everest può anche cambiare per motivi molto diversi, a partire dal metodo con cui viene calcolata. Per anni la sua entità fu dibattuta, dato che rilevamenti diversi effettuati con metodi diversi avevano prodotto risultati discordanti. Dopo aver considerato per anni due altezze diverse, nel 2020 Cina e Nepal (il cui confine passa dalla cima della montagna) decisero una volta per tutte di mettersi d’accordo su un numero.

    – Leggi anche: Cina e Nepal hanno deciso che l’Everest è un po’ più alto LEGGI TUTTO