More stories

  • in

    Un malfunzionamento ai freezer ha distrutto decenni di ricerca di un’importante università svedese

    Il Karolinska Institutet, una delle più importanti università di medicina al mondo con sede a Stoccolma, in Svezia, ha reso noto questa settimana che un malfunzionamento ad alcuni dei suoi freezer durante le vacanze di Natale ha distrutto moltissimi campioni raccolti in decenni di ricerca. Il Karolinska Institutet – che è anche l’ente che ogni anno assegna il premio Nobel per la medicina – è uno dei più importanti centri di ricerca al mondo per le discipline biomediche.Non è ancora del tutto chiaro il motivo del malfunzionamento. I campioni erano conservati in vasche raffreddate con azoto liquido, a una temperatura di -190°C, quando fra il 22 e il 23 dicembre si è verificata un’interruzione nella fornitura di azoto liquido a 16 serbatoi. Questi contenitori possono resistere per quattro giorni senza azoto liquido aggiuntivo, ma anche a causa delle vacanze di Natale ne sono rimasti sforniti per cinque. L’innalzamento della temperatura al loro interno ha causato la distruzione dei campioni.
    I campioni distrutti provenivano da diverse istituzioni di ricerca, che spesso inviano il loro materiale a enti con macchinari più sofisticati per condurre alcuni test, ed erano principalmente quelli utilizzati per la ricerca sulla leucemia. La raccolta di alcuni gruppi di campioni durava da 30 anni, con l’obiettivo anche di studiare l’evoluzione della malattia e la risposta del corpo umano ai trattamenti.
    Alcuni giornali svedesi hanno scritto che il valore stimato dei campioni distrutti era di circa 500 milioni di corone (circa 44 milioni di euro). La polizia, che sta indagando sull’accaduto, ha detto che la perdita è sicuramente nell’ordine dei milioni, ma non è ancora stata fatta una stima ufficiale.
    Matti Sällberg, che è stato a capo del laboratorio di medicina del Karolinska Institutet per undici anni ed è tuttora un professore all’università, ha detto al Guardian che la denuncia alla polizia è stata fatta per poter prendere in considerazione qualsiasi ipotesi, ma che «al momento non ci sono indicazioni che l’incidente sia dovuto a un intervento esterno». Si sta tuttavia cercando di capire come sia stato possibile che nessuno si sia accorto del malfunzionamento per così tanti giorni. Sällberg ha aggiunto che i campioni distrutti erano tutti relativi al dipartimento di ricerca e che quindi la loro perdita non influirà sulle cure dei pazienti che sono al momento ricoverati nell’ospedale legato all’istituto. Tuttavia, la perdita in termini di materiale di studio è grandissima. LEGGI TUTTO

  • in

    Avremo farmaci sviluppati dalle intelligenze artificiali?

    Sviluppare un nuovo farmaco è un po’ come fare una scommessa: si investono tempo e moltissimo denaro nella ricerca e nella sperimentazione di qualcosa che non si sa se davvero funzionerà e che potrebbe rivelarsi un costosissimo fallimento. Una nuova molecola molto promettente in laboratorio può mostrarsi inefficace nella sperimentazione animale o nei test clinici sugli esseri umani e prevederlo prima è spesso impossibile. Per ridurre uno dei rischi di impresa più grandi che esistano, negli ultimi tempi le aziende farmaceutiche hanno iniziato a esplorare le nuove possibilità offerte dai sistemi di intelligenza artificiale (AI), i cui progressi sono diventati evidenti anche ai meno esperti nell’ultimo anno soprattutto grazie al successo di ChatGPT di OpenAI.Alcune aziende hanno iniziato a utilizzare le AI per provare a prevedere efficacia e sicurezza di nuovi principi attivi, altre per rendere più semplice e rapido il complicato processo di selezione dei volontari che partecipano ai test clinici. Lo hanno fatto sia sviluppando al proprio interno nuove divisioni dedicate ai sistemi di intelligenza artificiale, sia appoggiandosi alle società e startup nate di recente proprio per applicare le AI al settore dei farmaci.
    A inizio gennaio le due aziende farmaceutiche Eli Lilly e Novartis hanno stretto un accordo con Isomorphic Labs, una società controllata da Alphabet (la holding di Google) e nata da una divisione di DeepMind, una delle più innovative aziende nel settore delle AI. Trattandosi di accordi per un valore complessivo di 3 miliardi di dollari se ne è parlato molto e non solo tra gli addetti ai lavori, ma le condizioni prevedono investimenti piuttosto misurati nel tempo. Eli Lilly anticiperà 45 milioni di dollari, ma i restanti 1,7 miliardi di dollari dell’accordo saranno pagati solo al raggiungimento di alcuni risultati ambiziosi, come l’avvio dei test clinici o l’approvazione dei nuovi principi attivi. Qualcosa di analogo riguarda anche Novartis che anticiperà 37,5 milioni di dollari e investirà altri 1,2 miliardi di dollari nel tempo, sulla base di un sistema basato su incentivi e risultati.
    DeepMind è tra le società che più hanno sperimentato l’impiego delle AI in ambito scientifico e in particolare nell’analisi e nella previsione delle caratteristiche delle proteine. La forma di una proteina determina infatti anche la sua funzione, di conseguenza lo studio e la previsione della sua struttura sono fondamentali nello sviluppo di molti farmaci. Isomorphic Labs parte da quelle conoscenze e ha l’obiettivo di accelerare in modo significativo la fase di scoperta di nuove molecole per i farmaci che attualmente dura diversi anni e richiede molte risorse, portandola dalla media di cinque anni a due.
    Sfruttando diversi modelli di apprendimento automatico, Isomorphic Labs ha sviluppato una piattaforma per prevedere le caratteristiche delle molecole e il modo in cui potranno interagire con l’organismo. Avere la possibilità di fare queste valutazioni in maniera più accurata consente di orientare la ricerca, riducendo il rischio di un fallimento nelle fasi successive quando dalla sperimentazione in laboratorio si passa ai test clinici con le persone. Il sistema naturalmente non garantisce sempre la produzione di molecole efficaci e sicure, ma secondo i responsabili dell’azienda può limitare sensibilmente gli insuccessi e soprattutto potrebbe accelerare le fasi di sviluppo.
    In un certo senso i sistemi di Isomorphic Labs hanno qualcosa in comune con i modelli generativi come ChatGPT, che tra le altre cose riescono a comporre testi come in una normale conversazione utilizzando la statistica per prevedere qualche parola da inserire dopo quella che hanno appena prodotto. Le AI per lo sviluppo dei farmaci fanno qualcosa di simile, ma per progettare le strutture molecolari rispettando alcune regole e limitazioni che vengono scelte dagli operatori. In poco tempo, il sistema è in grado di produrre numerose varianti della stessa molecola, affinando man mano il risultato in base agli effetti previsti sull’organismo.
    Sanofi, un’altra grande azienda farmaceutica, ha avviato una collaborazione con la società Exscientia che nella sua documentazione si presenta con frasi alquanto audaci come: “In futuro tutti i farmaci saranno progettati con le AI. Il futuro è ora con Exscientia”. Anche questa azienda ha l’obiettivo di scoprire nuovi principi attivi e di prevederne le caratteristiche e le interazioni con l’organismo, ancora prima di avviarne lo sviluppo e la sperimentazione.
    L’azienda farmaceutica italiana Menarini ha invece avviato una collaborazione con Insilico Medicine, società fondata tra Hong Kong e New York che sostiene di avere già sviluppato 17 potenziali nuovi farmaci sui quali effettuare i test clinici. L’accordo ha un valore stimato intorno ai 500 milioni di dollari e coinvolge Stemline Therapeutics, una delle controllate di Menarini, che avrà l’esclusiva per lo sviluppo, la sperimentazione e l’eventuale vendita di un nuovo principio attivo per il trattamento di alcune forme di tumore. Le possibilità di successo, però, sono ancora tutte da dimostrare.
    Per questo motivo ha suscitato una certa attenzione nel settore l’avvio dei test clinici su un nuovo farmaco sperimentale di Genentech per trattare la colite ulcerosa, una malattia cronica che comporta una forte infiammazione del colon, tale da far aumentare nel tempo il rischio di tumore rispetto a chi non ha questa condizione. Il principio attivo era stato sviluppato per trattare altri problemi di salute, ma da alcune simulazioni con sistemi di intelligenza artificiale è emerso che avrebbe potuto dare qualche risultato contro la colite ulcerosa.
    Talvolta può accadere che un farmaco sperimentale si riveli inefficace nel trattare la condizione per cui era stato sviluppato, mentre mostra di essere promettente contro un’altra malattia. Scoprirlo però non è semplice e richiede spesso anni di lavoro o qualche coincidenza favorevole. I gruppi di ricerca di Genentech sono riusciti a ottenere questo risultato in nove mesi utilizzando anche le AI per confrontare milioni di ipotesi, fino a trovare conferme sulla probabile utilità del loro farmaco nel trattare le cellule del colon coinvolte nella malattia.
    Già nel 2022 erano emersi indizi sul possibile uso del farmaco contro la colite ulcerosa, ma ora saranno necessari i test clinici per confermare la sua efficacia su pazienti veri. Le sperimentazioni di questo tipo fuori dai laboratori sono richieste dalle autorità di controllo per assicurarsi non solo che un farmaco sia efficace, ma anche sicuro per chi lo utilizza.
    I tempi dei test clinici sono molto lunghi e spesso hanno una fase iniziale molto costosa, sia in termini di tempo sia di denaro, per la selezione dei volontari che dovranno far parte della sperimentazione. Per alcuni test clinici è infatti necessario avere persone con diagnosi chiare della malattia che si vuole trattare, distribuiti in particolari fasce della popolazione per genere, età, condizione economica e provenienza geografica. In molti studi più il campione selezionato è di qualità, più ci si possono attendere dati affidabili.
    Partendo da questi presupposti, alcune aziende farmaceutiche hanno iniziato a sfruttare sistemi di intelligenza artificiale per organizzare la selezione dei volontari nei test clinici. Le AI possono accedere a enormi elenchi, come quelli degli ospedali o quelli tenuti dalle istituzioni sanitarie, effettuando rapidamente una preselezione in base ai criteri richiesti dall’azienda farmaceutica. In questo modo si riducono i tempi successivi della selezione e, almeno in linea teorica, si possono ottenere gruppi di volontari più adatti alla sperimentazione da svolgere.
    La multinazionale farmaceutica Amgen ha sviluppato uno strumento di intelligenza artificiale che si chiama ATOMIC, specializzato nella ricerca e nella classificazione dei dati clinici provenienti da medici, ospedali e altre istituzioni sanitarie. Amgen dice che con il nuovo sistema è in grado di selezionare in meno di nove mesi i volontari per uno studio clinico, rispetto all’anno e mezzo di lavoro richiesto in precedenza. La società ha già usato lo strumento per l’avvio di alcuni test clinici legati alle malattie cardiovascolari e al trattamento dei tumori con buoni risultati, di conseguenza utilizzerà ATOMIC per buona parte delle nuove selezioni in programma per quest’anno.
    La selezione dei volontari è naturalmente un ambito molto diverso rispetto a quello dello sviluppo di nuovi principi attivi, ma è comunque importante perché una sua migliore gestione potrebbe consentire alle aziende farmaceutiche di risparmiare tempo e denaro. È inoltre un settore in cui secondo gli esperti ci sono maggiori margini di successo in breve tempo e minori rischi, considerata la diversa complessità dell’iniziativa.
    Soluzioni di questo tipo sono inoltre viste come una naturale evoluzione degli strumenti basati sulle AI che avevano iniziato a farsi spazio nelle aziende farmaceutiche. Per esempio l’azienda svizzera Roche ha sviluppato un sistema che ha chiamato RocheGPT con dati e informazioni legati all’azienda, alle sue attività e agli ambiti di ricerca. RocheGPT è visto come una sorta di ChatGPT, ma altamente specializzato sulle caratteristiche di Roche e in grado di fornire risposte di vario tipo e in vari ambiti, non necessariamente legati alla sola ricerca, ma anche alla gestione delle attività aziendali.
    Altre aziende farmaceutiche hanno iniziato a sperimentare le AI per accelerare altri processi che di solito richiedono molto tempo legati alla compilazione della documentazione da presentare agli organismi regolatori, come la Food and Drug Administration (FDA) negli Stati Uniti e l’Agenzia europea per i medicinali (EMA) in Europa. In alcuni casi si tratta di documenti accessori e meno importanti, in altri dell’organizzazione dei dati dei test clinici sui quali è comunque necessario un controllo umano finale. Al momento FDA ed EMA non hanno regole esplicite sull’impiego dei sistemi di intelligenza artificiale, ma iniziano a essere sollevati dubbi e preoccupazioni per la loro mancanza, come del resto sta avvenendo in diversi altri settori in cui hanno iniziato a diffondersi le AI di ultima generazione.
    A essere molto interessate al settore farmaceutico non ci sono solamente le società che sviluppano sistemi di intelligenza artificiale, ma anche le aziende che producono microprocessori. Nvidia, uno dei principali produttori al mondo di chip e molto attivo nel settore dei sistemi per le AI, ha contratti con almeno una ventina di aziende farmaceutiche per fornire i propri processori o i centri dati che vengono impiegati per la grande quantità di calcoli richiesti da alcuni modelli di intelligenza artificiale. La domanda è alta e secondo alcuni analisti in breve tempo alcune delle aziende farmaceutiche più grandi competeranno per i dati e la capacità di elaborarli.
    L’interesse intorno ai sistemi di intelligenza artificiale nell’ultimo anno è stato senza precedenti e di sicuro ha portato ad aspettative che in alcuni ambiti sono molto più alte rispetto alle effettive capacità di alcune AI. Gli investimenti, comunque, non mancano in numerosi settori e si prevede che si manterranno alti anche nel corso di quest’anno. In ambito farmaceutico si stima che nell’ultimo decennio ci siano stati investimenti per circa 18 miliardi di dollari in società di biotecnologie che hanno al centro i sistemi di intelligenza artificiale. Se agli inizi riguardavano per lo più società di dimensioni relativamente piccole o medie, ora interessano alcuni dei marchi più famosi e potenti al mondo. LEGGI TUTTO

  • in

    Olbia, ritrovati i due ragazzi scomparsi: fuggivano dopo un tentativo di rapina

    I due giovani – entrambi minorenni di 15 e 17 anni – erano spariti improvvisamente giovedì 25 gennaio. Oggi il ritrovamento nelle campagne di Olbia. Auto della Polizia – Nanopress.itI ragazzi stanno bene, ma gli inquirenti li hanno messi in uno stato di fermo perché secondo alcuni accertamenti, i due sarebbero scappati dopo una tentata rapina a mano armata all’interno di un negozio. Il ritrovamento dei due ragazzi di OlbiaDopo circa 11 giorni i due ragazzini di 15 e 17 anni – scomparsi durante la giornata di giovedì 25 gennaio – sono stati ritrovati.Fin da subito, le forze dell’ordine hanno cercato di attivare al meglio le proprie risorse per completare l’operazione e ritrovare i ragazzi. Questo è avvenuto, infatti, attraverso il setaccio di più zone possibili, anche quelle più difficili da praticare. Carabinieri e polizia hanno riscontrato diverse problematiche anche a causa di “un atteggiamento troppo restio alla collaborazione”. Vettura dei carabinieri – Nanopress.itIn ogni caso, i due sarebbero stati poi ritrovati all’interno di una chiesa sconsacrata immersa nelle campagne di Olbia. Il ritrovamento sarebbe avvenuto poco dopo l’ultimo appello lanciato dal padre di uno dei ragazzi, questa mattina.Entrambi sono stati messi in stato di fermo, perché il motivo della scomparsa probabilmente è stata una fuga dopo aver tentano una rapina a mano armata all’interno di un negozio di Olbia. Il percorso dei due giovaniSecondo la ricostruzione degli inquirenti i due ragazzi, la sera della scomparsa, avrebbero spento il cellulare e preso un taxi, raggiungendo così un paese vicino. In un secondo momento si sarebbero poi spostati all’interno della chiesa sconsacrata di Santa Lucia, dove sarebbero poi stati ritrovati.La madre di uno dei due giovani, dopo il ritrovamento, ha voluto ringraziare pubblicamente le forze dell’ordine per l’ineccepibile lavoro svolto.Attualmente ciò che conta, soprattutto per i genitori dei ragazzi, è che stiano bene e che nessuna tragedia si sia consumata come molti possono aver pensato. LEGGI TUTTO

  • in

    Dopo 878 giorni, Oleg Kononenko ha stabilito il nuovo record di permanenza nello Spazio in più missioni

    L’Agenzia spaziale russa (Roscosmos) ha reso noto che il cinquantanovenne cosmonauta russo Oleg Kononenko ha stabilito domenica il nuovo record di permanenza di un essere umano nello Spazio nel corso di più missioni, trascorrendo in orbita più di 878 giorni; il record precedente apparteneva al cosmonauta russo Gennady Padalka.Kononenko, da settembre scorso in missione sulla Stazione Spaziale Internazionale (ISS), dovrebbe raggiungere un totale di mille giorni nello spazio il 5 giugno. Ed entro la fine di settembre potrebbe averne accumulati in totale 1.110. «Sono orgoglioso di tutti i miei successi, ma sono ancora più orgoglioso del fatto che il record per la durata totale della permanenza umana nello Spazio resti di un cosmonauta russo», ha detto Kononenko all’agenzia di stampa russa TASS.
    Anche il record mondiale di permanenza ininterrotta di un essere umano nello Spazio appartiene a un cosmonauta russo: lo stabilì nel 1995 Valeri Polyakov, che rimase nello Spazio per 437 giorni a bordo della stazione spaziale russa Mir. LEGGI TUTTO

  • in

    Weekly Beasts

    C’è tutta una varietà di nomi interessanti, tra gli animali fotografati nei giorni scorsi: un guanaco, due basilischi piumati, un nyala e alcuni tsessebe (o sassaby comune, se vi aiuta). E poi c’è la solita folcloristica storia della marmotta Phil e delle sue previsioni per il Giorno della Marmotta, insieme a delfini in fuga da un’orca, una gallina in strada durante una protesta degli agricoltori in Francia e un geco tigre. LEGGI TUTTO

  • in

    E se fossimo lo “zoo” di una specie aliena?

    Nel 1973, in un articolo intitolato L’ipotesi dello zoo, pubblicato sulla rivista di scienze planetarie Icarus, l’astrofisico della Harvard University John Allen Ball teorizzò che l’assenza di interazioni con forme di vita intelligente extraterrestre, ammesso che esistano, fosse spiegabile ipotizzando una loro volontà di rimanere nascoste. In pratica civiltà extraterrestri più evolute e antiche della nostra eviterebbero deliberatamente qualsiasi interazione, rendendo la parte dell’Universo in cui viviamo una sorta di area protetta. «L’ipotesi dello zoo prevede che non li troveremo mai perché non vogliono essere trovati, e hanno la capacità tecnologica di assicurarsene», scrisse Ball.L’ipotesi di Ball, che in seguito lavorò all’osservatorio Haystack del Massachusetts Institute of Technology fino alla pensione, nel 2006, è la stessa alla base di diverse storie di fantascienza, raccontate anche molto prima che lui la formulasse nel 1973. Ma per quanto bizzarra possa apparire, è una delle molte ipotesi di spiegazione del cosiddetto paradosso di Fermi: un dibattito in corso da oltre settant’anni sulla discrepanza tra le alte aspettative di vita intelligente extraterrestre e l’assenza di qualsiasi prova a sostegno. L’ipotesi dello zoo è stata recentemente ripresa in un articolo pubblicato sul numero di gennaio della rivista Nature Astronomy.
    Scritto dall’astrobiologo inglese Ian Andrew Crawford e dall’astrofisico tedesco Dirk Schulze-Makuch, l’articolo esamina alcuni dei più noti tentativi di spiegazione del paradosso di Fermi proposti nel corso degli anni. Suggerisce che le civiltà tecnologiche extraterrestri siano estremamente rare (o assenti) nella galassia, o esistano ma si nascondano da noi. E conclude che, considerando il nostro impegno nella continua esplorazione dello Spazio, potremmo essere in grado di escludere una delle due possibilità in un futuro non troppo lontano: qualche decennio.
    Crawford è un professore di scienze planetarie e astrobiologia alla Birkbeck University of London: si è occupato a lungo di esplorazioni lunari, ha lavorato con l’Agenzia Spaziale Europea (ESA) e nel 2023 ha ricevuto dalla NASA il premio “Michael J. Wargo”, assegnato a scienziati che si siano distinti per la ricerca nel campo dell’esplorazione spaziale. Schulze-Makuch è un professore del centro di astronomia e astrofisica dell’Università Tecnica di Berlino e professore a contratto del dipartimento di scienze della Terra e dell’ambiente della Washington State University ed è noto soprattutto per le sue pubblicazioni sulla vita extraterrestre, tra cui il libro del 2017 The cosmic zoo: complex life on many worlds.
    Il paradosso di Fermi prende il nome da un aneddoto secondo cui nel 1950 il famoso scienziato italiano Enrico Fermi, premio Nobel per la fisica nel 1938, a un certo punto disse «Dove sono tutti quanti?» in una conversazione sulla mancanza di prove di vita extraterrestre. Lo chiese mentre era a pranzo con altri scienziati durante una visita a Los Alamos (la città del New Mexico sede del centro di ricerca che aveva sviluppato la prima bomba atomica statunitense).

    – Leggi anche: Robert Oppenheimer, il “padre dell’atomica”

    La domanda attribuita a Fermi, scrivono Crawford e Schulze-Makuch, può essere considerata un paradosso soltanto se si presuppone che esistano forme di vita extraterrestre tecnologicamente evolute: se non esistono, non c’è alcun paradosso. La possibilità che non esistano tende tuttavia a essere difficile da ammettere per moltissime persone: probabilmente, secondo Crawford e Schulze-Makuch, perché è vista come una violazione del principio copernicano secondo cui né la Terra né l’umanità sono in una posizione di privilegio nell’Universo. La recente scoperta di esopianeti potenzialmente abitabili in sistemi solari diversi dal nostro ha ulteriormente rafforzato una certa diffusa convinzione che possano esistere forme di vita su altri mondi.
    L’esopianeta Ross 128 b, in orbita attorno alla stella Ross 128 a circa 11 anni luce dal Sole, in una rappresentazione dell’Osservatorio europeo australe (M. Kornmesser/ESO via AP)
    Tra gli anni Settanta e Ottanta il dibattito sul paradosso di Fermi fu approfondito in particolare negli Stati Uniti dall’astrofisico Michael Hart e dal fisico e matematico Frank J. Tipler. La maggior parte dei tentativi di spiegare il paradosso, secondo Hart, rientra in tre grandi categorie: spiegazioni fisiche, temporali e sociologiche.
    Le spiegazioni fisiche suggeriscono che i viaggi interstellari siano impossibili, a causa delle distanze siderali e delle enormi quantità di energia eventualmente richiesta per raggiungere una velocità vicina a quella della luce (quasi 300mila km al secondo). Ma per quanto difficile sul piano ingegneristico, scrisse Hart, compiere viaggi spaziali di questo tipo per una civiltà tecnologicamente molto evoluta non sarebbe fisicamente impossibile. Come ipotizzato in seguito da Tipler, che su questo era d’accordo con Hart, non è nemmeno possibile escludere che alcune civiltà dispongano di speciali mezzi spaziali auto-replicanti, in grado di viaggiare nello Spazio e nel frattempo creare copie di sé stessi, spostandosi di pianeta in pianeta.
    Le spiegazioni temporali fanno invece riferimento all’età della Via Lattea, la galassia in cui si trova il nostro sistema solare: circa 13 miliardi di anni. Secondo i sostenitori di questa spiegazione, è un tempo così lungo da rendere molto basse le probabilità di una coesistenza di più forme di vita intelligenti nello stesso momento, a meno che non siano estremamente longeve o estremamente diffuse nell’Universo. Ma nemmeno questa è una spiegazione plausibile, secondo Hart: perché almeno una civiltà, tra quelle con sufficienti possibilità tecnologiche e con l’intenzione di farlo, avrebbe potuto visitare e potenzialmente colonizzare pianeti abitabili della Galassia in un lasso di tempo più breve rispetto all’età complessiva della Galassia.
    Pur non potendo sapere con certezza se forme di vita extraterrestre abbiano visitato oppure no la Terra milioni o miliardi di anni fa, scrisse Hart, il filo ininterrotto dell’evoluzione biologica sulla Terra permette di escludere che sia stata «colonizzata»: vedremmo altrimenti tracce di questo condizionamento nella nostra stessa evoluzione. E il fatto che non ci siano prove di un’interferenza di questo tipo in circa 4 miliardi di storia della Terra lascia supporre che eventuali interazioni con il nostro pianeta, ammesso che ci siano state, siano in ogni caso un evento rarissimo.
    Restano le spiegazioni sociologiche, cioè quelle molto speculative che fanno riferimento a ipotetici comportamenti delle forme di vita extraterrestre tecnologicamente evolute, soltanto immaginabili. Spiegazioni del genere comprendono l’ipotesi che le civiltà esauriscano le loro risorse energetiche prima di potersi fare vive nell’Universo, per esempio, o che non abbiano alcun desiderio di estendere la loro influenza oltre l’area in cui si sono sviluppate. Il problema fondamentale di queste spiegazioni è che possono risolvere il paradosso solo ammettendo che un determinato comportamento sia comune a tutte le forme di vita extraterrestre tecnologicamente evolute nella storia della Galassia. Che è però una condizione la cui plausibilità, per ragioni di distribuzione di probabilità, diminuisce al crescere del numero di forme di vita di cui siamo disposti a ipotizzare l’esistenza.
    Le spiegazioni sociologiche del paradosso, in sostanza, funzionano soltanto se immaginiamo che le forme di vita extraterrestre tecnologicamente evolute siano rare. Ma in quel caso non ci sarebbe alcun paradosso da spiegare, perché i «tutti quanti» della domanda attribuita a Fermi sarebbero, in definitiva, molto pochi.

    – Leggi anche: Se esistono, perché non si fanno vivi?

    L’idea condivisa da Hart e Tripler sulla base delle loro considerazioni, anche nota come congettura di Hart-Tripler, è che l’assenza di prove di un’interazione di qualsiasi tipo con una civiltà extraterrestre sia più facilmente spiegabile, rispetto a qualsiasi altra spiegazione, attraverso l’ipotesi che non esistano civiltà extraterrestri abbastanza evolute nella nostra galassia. In un celebre articolo pubblicato nel 1983 e intitolato The Solipsist Approach to Extraterrestrial Intelligence l’astronomo e divulgatore scientifico Carl Sagan e il fisico William Newman suggerirono tuttavia un approccio più prudente e paziente alla questione del paradosso di Fermi, affermando che «l’assenza di prove non è prova dell’assenza».
    Esiste del resto un certo ottimismo crescente riguardo alla possibilità che altri mondi diversi dal nostro possano ospitare qualche forma di vita: mondi troppo distanti per pensare di poterli raggiungere, ma che possono comunque essere studiati per cercare eventuali “firme biologiche”, cioè sostanze o fenomeni che possono rivelare la presenza della vita. Diverso è il discorso per le “firme tecnologiche”, che per loro natura dovrebbero essere più facilmente rilevabili e meno ambigue di quelle biologiche, ma rispetto alle quali percepiamo nell’Universo solo un «grande silenzio», come lo definì nel 1983 l’astronomo statunitense e scrittore di fantascienza Glen Brin.
    Secondo Crawford e Schulze-Makuch, autori del recente articolo su Nature Astronomy, il grande silenzio può significare prima di tutto che l’ipotesi di Hart e Tipler sull’inesistenza di civiltà extraterrestri tecnologicamente evolute fosse corretta. O tuttalpiù che quelle civiltà siano molto rare nell’Universo – e assenti, dal nostro punto di vista – a causa di limiti di qualche tipo che ne ostacolano lo sviluppo o la manifestazione. È una possibilità nota anche come teoria del “grande filtro”, definita negli anni Novanta dall’economista e ricercatore statunitense della University of Oxford Robin Hanson, ma in parte ammessa anche da Hart già nel 1975.
    Se nessuna di queste due ipotesi fosse corretta, secondo Crawford e Schulze-Makuch, l’assenza di prove dell’esistenza di civiltà extraterrestri tecnologicamente evolute potrebbe a quel punto avere un’altra sola spiegazione, del tipo sociologico: l’ipotesi dello zoo. Eventuali civiltà si terrebbero cioè a distanza di proposito, per evitare di essere rilevate, sebbene non sia chiaro con quali motivazioni.

    – Leggi anche: Come reagirebbe la religione agli alieni?

    Già prima che Ball ne scrivesse su Icarus nel 1973, l’idea alla base dell’ipotesi dello zoo era stata citata dallo scrittore inglese Olaf Stapledon nel romanzo del 1937 Il costruttore di stelle. Era inoltre stata resa familiare fin dalla seconda metà degli anni Sessanta dalla serie televisiva Star Trek, nel cui universo immaginario la Prima direttiva vieta ai pianeti della Federazione di interferire nello sviluppo naturale di civiltà aliene, per evitare a quelle ancora impreparate i pericoli di un’eventuale introduzione esterna della tecnologia dei viaggi interstellari. In tempi più recenti una specie di ipotesi dello zoo è stata ripresa anche dallo scrittore cinese di fantascienza Liu Cixin, il cui romanzo La materia del cosmo immagina l’Universo come una «foresta oscura» abitata da feroci predatori che si nascondono per ragioni di sopravvivenza.
    Un modellino della USS Enterprise, un’astronave immaginaria dell’universo di Star Trek, a una mostra alla casa d’aste Christie’s a Londra, il 2 agosto 2006 (Bruno Vincent/Getty Images)
    Come ha recentemente detto Crawford al sito Universe Today, «esistono due sole possibilità: o le intelligenze extraterrestri esistono, o no». Entrambe le risposte sarebbero sorprendenti, ma soltanto una delle due può essere vera. Al momento l’unica certezza che abbiamo, ha detto, è l’assenza di prove di quel tipo di forme di vita, nonostante la quantità incalcolabile di pianeti e nonostante l’età dell’Universo: una discrepanza che è alla base del paradosso di Fermi, appunto.
    Per rafforzare il paradosso, Crawford e Schulze-Makuch hanno citato alcuni recenti modelli dei possibili processi di evoluzione della vita secondo cui l’abitabilità nella Galassia sarebbe sostanzialmente aumentata soltanto negli ultimi miliardi di anni. Anche in un caso del genere, secondo loro, i tempi necessari per l’evoluzione di una civiltà e quelli plausibilmente necessari per una colonizzazione interstellare sarebbero molto più brevi rispetto all’evoluzione della Galassia: così tanto più brevi che dovremmo comunque aspettarci che più civiltà tecnologiche siano sorte prima della nostra.
    «Ci sono voluti circa due miliardi di anni prima che la Terra sviluppasse un’atmosfera ricca di ossigeno che consentisse agli animali complessi di evolversi. Se ciò fosse successo solo l’1 per cento più velocemente su qualche altro pianeta, cosa possibile a causa di una moltitudine di processi biologici e geologici, un’intelligenza tecnologica sarebbe presumibilmente apparsa 20 milioni di anni prima di noi», hanno scritto Crawford e Schulze-Makuch. Se accettiamo quindi che esistano intelligenze extraterrestri e accettiamo che siano tecnologicamente in grado di raggiungere sistemi stellari diversi da quelli in cui si sono sviluppate, la totale mancanza di prove della loro esistenza si spiegherebbe secondo Crawford e Schulze-Makuch soltanto con una loro volontà di rimanere nascoste.
    Una delle critiche all’ipotesi dello zoo riguarda il principale limite di tutte le spiegazioni sociologiche: la scarsa probabilità che uno stesso comportamento sia condiviso per centinaia di milioni di anni da tutte le eventuali forme di vita extraterrestre tecnologicamente evolute. Come osservato dall’astrofisico scozzese Duncan Forgan, membro fondatore del programma SETI (Search for Extra-Terrestrial Intelligence) nel Regno Unito, basterebbe un singolo gruppo di dissidenti in un’eventuale civiltà aliena, oppure l’esistenza di «cricche galattiche» indipendenti anziché un singolo gruppo conforme, per ottenere un comportamento divergente rispetto al presupposto dell’ipotesi dello zoo: che ogni civiltà tecnologicamente evoluta si stiano nascondendo.
    Altri scienziati affermano in generale che l’ipotesi dello zoo, benché potenzialmente corretta, sia inutile in un senso scientifico pratico e più vicina a un modo di pensare teologico. Per questo motivo sostengono che nel campo delle spiegazioni sociologiche del paradosso di Fermi siano più meritevoli di attenzione altre ipotesi, come quella dell’esaurimento delle risorse o quella dell’autodistruzione.

    – Leggi anche: La giusta atmosfera per cercare vita aliena

    Rispetto a queste obiezioni note Crawford e Schulze-Makuch sostengono che le ridotte probabilità che uno stesso comportamento sia unanimemente condiviso da più intelligenze extraterrestri non nega di per sé l’ipotesi dello zoo. Riduce piuttosto la probabilità che quelle intelligenze in grado di manifestarsi ma non intenzionate a farlo siano molte. Quanto alla critica riguardo all’approccio teologico, l’opinione di Crawford e Schulze-Makuch è che l’ipotesi dello zoo sia molto diversa da altre teorie puramente speculative, come l’ipotesi del planetario dello scrittore e matematico inglese Stephen Baxter, secondo cui le nostre osservazioni sarebbero un’illusione generata da una civiltà in grado di manipolare la materia e l’energia su scala galattica.
    La differenza fondamentale, ha spiegato Schulze-Makuch a Universe Today, è che «se viviamo in una sorta di simulazione, potremmo non scoprirlo mai», mentre possiamo invece scoprire se l’ipotesi dello zoo sia corretta oppure no. Man mano che le nostre capacità tecnologiche aumentano, potrebbero infatti raggiungere o superare quelle di eventuali altre civiltà che sarebbero a quel punto non più in grado di nascondere ogni loro traccia.
    Sebbene Schulze-Makuch sia un po’ più possibilista rispetto a Crawford, in generale l’ipotesi dello zoo è un argomento utilizzato da entrambi per sostenere soprattutto l’altra possibilità: che non esistano intelligenze extraterrestri tecnologicamente evolute, oppure che siano molto rare. Nell’articolo scrivono che «se non riusciamo a identificare soluzioni plausibili al paradosso di Fermi, con la possibile eccezione dell’ipotesi dello zoo, ne consegue che o la vita stessa è rara e/o esistono colli di bottiglia tra l’origine della vita e l’avvento della tecnologia». Dal momento che l’esistenza di pianeti potenzialmente abitabili sembra più probabile rispetto a qualche decennio fa, per spiegare «dove sono tutti quanti» dovremmo prendere in considerazione l’esistenza di una serie di “grandi filtri” evolutivi che complicano o ostacolano la transizione dall’origine della vita (abiogenesi) alla civiltà tecnologica.
    Ulteriori approfondimenti riguardo all’eventuale esistenza di intelligenze extraterrestri, concludono Crawford e Schulze-Makuch, potranno derivare soltanto da un’esplorazione sistematica dell’Universo. La ricerca di firme biologiche in esopianeti a noi vicini potrebbe entro i prossimi decenni limitare le probabilità sia della complessità biologica che delle intelligenze: perché se dovessimo scoprire che le biosfere extraterrestri sono rare, allora le intelligenze lo saranno presumibilmente ancora di più. E questo indebolirebbe progressivamente il paradosso di Fermi: non avremmo prove perché non esistono.
    Se invece dovessimo scoprire che le biosfere complesse sono comuni in almeno una parte dell’Universo da noi osservata, allora la vita tecnologica potrebbe comunque essere rara a causa di filtri evolutivi difficili da superare. In assenza di filtri, l’ipotesi dello zoo resterebbe l’ultima plausibile: ma a un certo punto anche questa potrebbe essere verificata. «Se si nascondono attivamente da noi, potrebbero trovare difficoltà sempre maggiori di fronte alle nostre stesse capacità in rapido aumento», osservano Crawford e Schulze-Makuch. E se anche quelle civiltà riuscissero a nascondere le prove della loro tecnologia, alla lunga sarebbe per noi difficile non osservare il gran numero di pianeti abitati, implicito in uno scenario del genere.
    Altre ragioni che indeboliscono l’ipotesi che civiltà tecnologiche possano a lungo rimanere nascoste è che quelle dotate di grandi riserve energetiche avrebbero comunque difficoltà a nascondere tutti i segni degli effetti termodinamici della produzione di calore di scarto: segni che sono infatti alla base di alcune attuali ricerche di firme tecnologiche. È inoltre molto probabile che civiltà in grado di viaggiare nello Spazio generino grandi quantità di detriti spaziali, e maggiore è il numero di civiltà di questo tipo esistite nella storia della Galassia, maggiori saranno la quantità di detriti che finiranno nel Sistema Solare e le probabilità di scoprirne le prove.
    La conclusione di Crawford e Schulze-Makuch è che «più a lungo non rileviamo alcun segno di vita intelligente avanzata intorno a noi, meno probabile diventa la spiegazione dell’ipotesi dello zoo, costringendoci a concludere che la vita intelligente tecnologica è rara nell’Universo». LEGGI TUTTO

  • in

    Quanto caffè è troppo caffè?

    Ogni giorno miliardi di persone in tutto il mondo iniziano la loro giornata bevendo una o più tazze di caffè. Per molte di loro è un’abitudine, per altre una necessità per sentirsi più attive e scrollarsi di dosso la sonnolenza rimasta dopo il risveglio. C’è poi chi ripete il rito in diversi altri momenti della giornata, per semplice piacere e golosità oppure per allontanare una certa sensazione di torpore e continuare a sentirsi attivo. Il caffè è del resto una delle bevande più popolari e di conseguenza la caffeina – il suo stimolante principale – è la sostanza psicoattiva più diffusa e consumata al mondo.Proprio per queste sue caratteristiche in molti si chiedono se ci sia un limite oltre il quale è meglio non andare con il consumo di caffè. Come spesso accade con le sostanze che danno una certa dipendenza, è una domanda che ci si fa quando ci si ferma a pensare al numero di tazzine già bevute in una giornata, ma trovare una risposta soddisfacente non è semplice.
    Il nome chimico della caffeina è un po’ meno abbordabile rispetto a quello che usiamo comunemente: 1,3,7-trimetilxantina. Questa sostanza è alla lontana imparentata con la morfina e fa parte degli alcaloidi, un grande gruppo di sostanze naturali che comprende per esempio la cocaina e la nicotina. La tossicità di queste due sostanze è relativamente alta se confrontata con quella della caffeina, che ha un effetto tossico e potenzialmente letale per una persona adulta solo nel caso di un consumo enorme di caffè.

    – Leggi anche: Che mangino croissant, o cornetti, o brioche

    La caffeina è presente naturalmente in molte parti di piante come i chicchi del caffè e del cacao, le bacche di guaranà e nelle foglie di tè. La sua presenza fu identificata separatamente nel caffè e nel tè nella prima metà dell’Ottocento, di conseguenza per un po’ di tempo si pensò che la caffeina fosse tipica del caffè mentre la teina del tè. In seguito si scoprì che si trattava della stessa molecola e che quella distinzione non aveva quindi senso. La scoperta contribuì inoltre a chiarire che la caffeina non ha un ruolo specifico nel gusto del caffè: questo deriva in buona parte dal metodo utilizzato per tostare i chicchi, che porta a sapori più o meno intensi. È spesso la miscela di caffè di varietà diverse tostati in modo diverso a rendere il gusto di un espresso diverso da un altro.
    La molecola della caffeina ha una struttura simile a quella dell’adenosina, una sostanza importante per il sistema nervoso e che tra le altre cose causa sonnolenza se si lega a un recettore di una cellula nervosa. Quando beviamo un caffè, il nostro organismo assorbe rapidamente e completamente la caffeina che finisce in circolazione e inganna le cellule nervose, che credono di avere a che fare con l’adenosina. Il risultato è un aumento dei livelli di adrenalina e di altre sostanze che fanno da stimolanti per il sistema nervoso, con effetti come un aumento del battito cardiaco e un maggiore afflusso di sangue ai muscoli.
    Di solito questo effetto stimolante si produce tra i 15 e i 30 minuti dopo avere bevuto il caffè, quindi quella sensazione di sentirsi “da subito” più attive che riferiscono molte persone è quasi sempre un effetto indotto dalle aspettative positive (effetto placebo) su ciò che la caffeina potrà fare per farle sentire più sveglie e presenti a loro stesse. Una volta che si è verificato, l’effetto stimolante dura per qualche ora, prima di iniziare a svanire gradualmente.
    Si stima che in una persona adulta l’emivita, cioè il tempo che l’organismo impiega per eliminare il 50 per cento di una sostanza, della caffeina sia in media di circa quattro ore. Ci sono però molte variabili da tenere in considerazione come l’età, il peso corporeo, l’assunzione in concomitanza di farmaci e le condizioni generali di salute che possono influire sull’emivita, che comunque raramente supera le otto ore.
    Calcolare il consumo di caffeina nella popolazione non è semplice, sia per la difficoltà di raccolta dei dati, sia perché le abitudini variano molto da paese a paese. Alcuni anni fa l’Autorità europea per la sicurezza alimentare (EFSA) aveva condotto una propria valutazione del rischio sulla caffeina e aveva pubblicato i dati sulle assunzioni quotidiane medie negli stati membri dell’Unione Europea. Dall’analisi era emerso che le persone adulte (18-65 anni) consumano mediamente tra i 37 e i 319 milligrammi di questa sostanza, con valori massimi lievemente più alti negli anziani e maggiori nelle persone molto anziane.
    (EFSA)
    La fonte principale di caffeina era il caffè, che rappresentava tra il 40 e il 94 per cento dell’assunzione totale; facevano eccezione Irlanda e Regno Unito (all’epoca dell’indagine ancora nell’UE) dove la fonte principale risultava essere il tè. Le differenze più marcate tra i vari paesi erano state rilevate nella fascia degli adolescenti (10-18 anni) a causa delle numerose fonti alternative di caffeina, come alcuni tipi di cioccolato e bevande a base di cacao, oppure bevande a base di cola o di tè. Tra gli adolescenti era inoltre diffuso il consumo delle cosiddette “bevande energetiche”, che spesso oltre a contenere grandi quantità di zucchero hanno una concentrazione importante di caffeina.
    Per quanto riguarda il caffè inteso come bevanda, le differenze rilevate dall’EFSA tra i vari stati membri erano per lo più legate al modo in cui viene preparato e alle miscele utilizzate. In alcuni paesi come il nostro è molto diffuso l’espresso, mentre in altri sono consumati soprattutto caffè “lunghi” realizzati con percolatori e altri sistemi. Nella preparazione di un espresso l’acqua passa rapidamente attraverso il caffè, di conseguenza la quantità di caffeina che finisce nella tazzina è inferiore rispetto ad altri sistemi, naturalmente a parità di quantità di caffè. Quello preparato con la moka, per esempio, ha di solito una maggiore concentrazione di caffeina.
    In una tazzina di espresso (60 ml in media, spesso in Italia la quantità è ancora più ridotta) ci sono circa 80 milligrammi di caffeina, contro i circa 90 milligrammi in una tazza di caffè americano percolato (200 ml). In una tazza di tè (220 ml) ci sono poco meno di 50 milligrammi di caffeina, mentre in una lattina di Coca-Cola (330 ml) i milligrammi sono circa 40. I dati sono inevitabilmente approssimativi, perché molto dipende dal modo in cui viene preparato il caffè o il tè e dalla tipologia di materia prima utilizzata.
    (EFSA)
    L’EFSA nella sua valutazione del rischio indica il consumo di singole dosi di caffeina fino a 200 milligrammi come non preoccupante «in termini di sicurezza per la popolazione adulta e sana in generale». Nelle analisi ha comunque rilevato come una dose più bassa, intorno ai 100 milligrammi, possa avere qualche effetto sulla durata e la qualità del sonno in alcune persone, specialmente se il consumo avviene poco prima di dormire. La reazione è però altamente soggettiva e varia molto da individuo a individuo, quindi stabilire una soglia in generale non è molto semplice.
    Se si valuta l’assunzione totale di caffeina nel corso di una giornata, l’EFSA dice che le persone adulte e sane non corrono particolari rischi fino a 400 milligrammi. Questa quantità equivale in media a circa 5 tazzine di caffè espresso e a poco più di quattro tazze di caffè americano. Per le donne in gravidanza la valutazione del rischio è diversa e si assesta su un consumo giornaliero fino a 200 milligrammi.
    Le quantità indicate dall’EFSA sono riferite a un consumo responsabile e per ridurre i rischi di avere complicazioni, temporanee o nel lungo periodo, legate agli effetti tossici della caffeina. Le dosi stimate alle quali questa sostanza diventa letale sono comunque molto più alte, anche se non c’è grande consenso nella letteratura scientifica. Indicativamente, si ritiene che il consumo di 10 grammi (cioè 10mila milligrammi) di caffeina in un’unica soluzione possa rivelarsi letale. A seconda delle modalità di preparazione, si dovrebbero quindi assumere tra le 100 e le 150 tazzine di caffè espresso in un giorno. LEGGI TUTTO

  • in

    Vivere tra microbi e sporcizia da bambini rende più resistenti alle malattie?

    I primi anni di vita per i bambini sono una costante scoperta, non solo di suoni, forme, sapori e colori, ma anche di microbi che entrano di continuo in contatto con il loro organismo. I bambini infatti toccano qualsiasi cosa, camminano tenendo le mani a terra, che poi si portano alla bocca quando provano ad assaggiare gli oggetti più disparati. Alcuni genitori cercano di ridurre il più possibile questi incontri ravvicinati con superfici e oggetti sporchi, altri se ne preoccupano meno e seguono un modo di dire che si sente spesso: “Niente di male, sono tutti anticorpi in più”.È una convinzione che deriva da un’ipotesi dibattuta da tempo in ambito medico, secondo cui l’esposizione a particolari microrganismi nei primi anni di vita è essenziale per sviluppare meglio il sistema immunitario ed evitare alcuni disturbi in età adulta come allergie e asma, che derivano da un sua reazione anomala. Capire se sia davvero così non è però semplice.
    Tra i primi a esporre quella che sarebbe poi diventata nota come “ipotesi dell’igiene” ci fu l’epidemiologo britannico David P. Strachan, che nel 1989 scrisse un articolo sul British Medical Journal nel quale esplorava il rapporto tra le condizioni igieniche in cui crescevano i bambini e la loro salute in età adulta. Lo studio di Strachan si inseriva in un dibattito più ampio sulla cosiddetta “rivoluzione dell’igiene” iniziata circa due secoli fa specialmente in Europa e nel Nord America.
    L’introduzione degli impianti fognari, la periodica pulizia degli ambienti urbani, maggiori attenzioni nella preparazione dei cibi evitando contaminazioni e una crescente promozione dell’igiene personale avevano portato a un netto miglioramento delle condizioni di vita, anche grazie alla scoperta delle cause di malattie ancora molto comuni e letali nell’Ottocento come il colera e il tifo. Le nuove conoscenze permisero soprattutto nella prima metà del Novecento di ridurre sensibilmente i casi di numerose malattie infettive, ma secondo l’ipotesi dell’igiene privarono il nostro organismo di incontri con alcuni microorganismi importanti per il sistema immunitario.
    Rifacendosi ad analisi precedenti, Strachan aveva segnalato come nella prima metà del secolo scorso fosse emersa una quantità crescente di allergie e malattie infiammatore croniche, che erano meno presenti nel periodo prima della rivoluzione dell’igiene. Nel suo articolo, prese in considerazione soprattutto la rinite allergica (quella che viene chiamata a volte “raffreddore da fieno”) e alcune forme di eczema di natura allergica. Strachan osservò che queste malattie erano meno frequenti nelle famiglie con molti figli rispetto a quelle con figli unici, ipotizzando che fosse la prolungata convivenza tra bambini a rendere più probabili contaminazioni e contagi, con esiti positivi per le difese immunitarie.
    Come abbiamo ampiamente sperimentato negli ultimi anni di pandemia, le capacità del sistema immunitario cambiano di continuo a seconda dei patogeni (come virus e batteri) che entrano nel nostro organismo, causando disturbi e malattie. In presenza di un patogeno nuovo, la prima risposta immunitaria è generica e talvolta eccessiva, mentre col tempo il sistema immunitario si specializza e sviluppa capacità di difese più specifiche, che può impiegare con maggiore efficacia nel caso avvenga una nuova infezione con lo stesso patogeno, o con un qualcosa che gli somiglia molto come una variante. I vaccini, come quelli che si fanno contro le malattie infantili o l’influenza, servono a innescare questo meccanismo di specializzazione, evitando di farlo ammalandosi con tutti i rischi che potrebbero derivarne.
    In altri casi il sistema immunitario non funziona invece come previsto e attacca tessuti dell’organismo, causando varie tipologie di malattie definite “autoimmuni” o “immunomediate” a seconda delle circostanze. Molte allergie derivano da una reazione anomala a una sostanza normalmente innocua, che viene invece ritenuta pericolosa.
    Nei primi anni di vita, il sistema immunitario è relativamente più reattivo e versatile, di conseguenza riesce ad adattarsi più velocemente e a sviluppare le difese contro i patogeni. Per questo Strachan riteneva che alcune malattie allergiche potessero svilupparsi più facilmente tra i bambini che facevano esercitare meno il loro sistema immunitario, semplicemente perché vivevano poco con altri bambini e in condizioni che favorissero il contatto con patogeni, come i virus del raffreddore e altri microrganismi.
    Dopo la pubblicazione del proprio studio alla fine degli anni Ottanta, l’ipotesi di Strachan ottenne un certo successo, ma come spesso avviene in questi casi fu in parte travisata applicandola a molte altre malattie e spinta da alcuni verso eccessi rischiosi. Le persone contrarie alle vaccinazioni, per esempio, sfruttarono a modo loro l’ipotesi dell’igiene per giustificare la pratica di mettere insieme bambini sani e malati, in modo da rendere più probabile il contagio di malattie infantili come morbillo, parotite (gli “orecchioni”), rosolia e varicella. È una cosa che alcuni fanno ancora oggi, ma è rischiosa considerato che quelle malattie possono portare a gravi complicazioni, talvolta letali, che non si verificano invece attraverso la vaccinazione.
    Una ventina di anni fa l’ipotesi dell’igiene fu aggiornata, o per meglio dire integrata, con quella che fu poi definita “ipotesi dei vecchi amici”: dice che nei primi anni di vita i benefici per il sistema immunitario non derivano tanto dall’esposizione ai virus delle malattie più conosciute e diffuse, nella maggior parte dei casi risalenti a circa diecimila anni fa, quanto dal contatto con microrganismi che esistevano già ai tempi dei cacciatori-raccoglitori. Cacciare e raccogliere ciò che si trovava fu per lunghissimo tempo l’unica forma di sussistenza per le specie umane, compresi gli Homo sapiens comparsi circa 200mila anni fa. In quella lunga fase il sistema immunitario era in piena evoluzione e sviluppò una forte interdipendenza con alcuni microrganismi, senza i quali non può funzionare adeguatamente.
    Tra i principali sostenitori di questa ipotesi c’è l’immunologo britannico Graham Rook, che ha dedicato molti studi e ricerche per ricostruire il modo in cui si è evoluto e si sviluppa il sistema immunitario in ogni persona. Nei suoi lavori, Rook ha segnalato che probabilmente i microrganismi che hanno un ruolo importante per sviluppare le difese immunitarie sono quelli che vivono sulla pelle, nell’apparato respiratorio e nell’intestino, oltre a quelli che si trovano naturalmente negli ambienti popolati dagli esseri umani e ad alcuni virus. Alcuni di questi causano infezioni croniche verso le quali c’è stato un adattamento da parte del sistema immunitario nel corso dell’evoluzione, rendendo possibile lo sviluppo di alcune nuove importanti capacità di difesa.
    L’ipotesi dei vecchi amici ha ricevuto una decina di anni fa un’ulteriore integrazione con la cosiddetta “ipotesi della diversità microbica”, secondo cui è la varietà di batteri, funghi e virus che popolano il nostro intestino e altre parti dell’organismo (il cosiddetto “microbiota”) a essere un fattore chiave nello stimolare il sistema immunitario. I numerosi incontri con i microbi nei primi anni di vita aiuterebbero le nostre difese immunitarie a diventare più abili nell’identificare le minacce, sviluppando una memoria immunitaria e la capacità di affrontarle in modo più specifico ed efficiente nel caso di nuove infezioni.
    È comunque difficile ricostruire come si sia evoluto il nostro sistema immunitario nel corso di centinaia di migliaia di anni, considerato anche che ancora oggi non conosciamo perfettamente tutti i meccanismi che lo fanno funzionare. Ci sono indizi sul fatto che possa comunque esserci un legame tra l’esposizione ai microbi e l’avere o meno allergie e altri problemi di salute. Ci sono però moltissime variabili da tenere in considerazione ed è complicato trovare indizi e fare misurazioni.
    Pur consapevoli di queste limitazioni, nel tempo alcuni gruppi di ricerca si sono dedicati all’analisi di indicatori come le condizioni economiche e gli stili di vita. È per esempio emerso che allergie e malattie autoimmuni tendono a essere meno presenti nei paesi in via di sviluppo, dove le condizioni igieniche sono spesso diverse da quelle dei paesi più ricchi nei quali di solito le famiglie sono anche meno numerose. Alcuni studi hanno segnalato che le persone che migrano dai paesi meno ricchi a quelli più sviluppati tendono a sviluppare malattie legate a uno scorretto funzionamento del sistema immunitario, che aumentano all’aumentare del tempo trascorso lontano dal paese di origine. Si ipotizza che questo aumento sia dovuto al cambiamento della dieta e a una modifica del microbiota, ma ci sono ancora molti aspetti da chiarire, anche perché i dati sono spesso carenti e potrebbero semplicemente esserci meno diagnosi di allergie.
    Per diverso tempo si è inoltre ipotizzato che un uso eccessivo degli antibiotici favorisse una riduzione nella versatilità del sistema immunitario ad affrontare le minacce. Gli antibiotici hanno spesso un effetto ad ampio spettro, di conseguenza distruggono parte dei batteri che vivono nel nostro intestino e che hanno un ruolo fondamentale nei processi di digestione e di assimilazione dei nutrienti. Alcuni studi notarono che tra chi aveva utilizzato antibiotici in giovane età c’era una maggiore quantità di casi di asma, ma l’effetto osservato potrebbe essere stato falsato dal fatto che gli antibiotici sono talvolta usati con maggiore frequenza tra i bambini asmatici, che avevano quindi già questo problema di salute.
    Trovare conferme o smentite all’ipotesi dell’igiene non è semplice, nemmeno se si prova a ridurre la quantità di variabili, per esempio studiando il fenomeno su modelli diversi dagli esseri umani, ma che potrebbero offrire qualche nuovo elemento. Un gruppo di ricerca svedese ci ha provato con i topi, come ha raccontato lo scorso anno sulla rivista scientifica Science Immunology.
    Per lo studio erano stati selezionati due gruppi di topi. Il primo era costituito unicamente da topi di laboratorio, che vivevano quindi in un ambiente pulito ed erano nutriti con cibo controllato e privo di contaminazioni. Il secondo gruppo era invece costituito da topi nati da impianti embrionali di topi di laboratorio in madri prelevate da contesti selvatici. Il gruppo di ricerca voleva ridurre il più possibile le variabili e non lo avrebbe potuto fare se avesse raccolto direttamente i topi dall’ambiente esterno, visto che avrebbero avuto tutti precedenti diversi. Si era quindi pensato di mitigare il problema ricorrendo a madri surrogate, in modo da riprodurre comunque la trasmissione di microrganismi importanti che avviene dalla madre ai figli con il parto.
    I topi del secondo gruppo erano stati allevati in un contesto meno asettico rispetto ai topi del primo gruppo, con gabbie contenenti paglia, compost e altri materiali dove abbondano i microrganismi. I topi allevati in questo modo avevano inoltre varie occasioni di incontro tra loro, per aumentare ulteriormente la probabilità di scambi di microbi e germi.
    Raggiunta l’età adulta, i topi del secondo gruppo avevano un microbiota molto più simile a quello che si osserva tipicamente nei loro simili in contesto selvatico, rispetto ai topi del primo gruppo tenuti in ambienti più asettici del laboratorio. Eppure, nonostante questa marcata diversità, il gruppo di ricerca non aveva riscontrato una minore ricorrenza delle allergie tra i due gruppi. I topi del secondo gruppo avevano inoltre mostrato di sviluppare una risposta immunitaria molto più forte alle sostanze per le quali erano allergici, con una maggiore produzione di infiammazione delle loro vie aeree e una più alta produzione di muco.
    L’esperimento è stato accolto con interesse, ma va comunque inserito nel contesto più ampio degli studi sull’ipotesi dell’igiene e del dibattito che si porta dietro. I topi sono un valido modello per condurre test di questo tipo, ma non sono esseri umani e hanno ovviamente caratteristiche diverse che riguardano anche i meccanismi del loro sistema immunitario.
    Venticinque anni dopo avere pubblicato la propria ipotesi sull’igiene, Strachan scrisse un commento sul British Medical Journal per ricordare che alcune delle idee che aveva espresso nel suo studio erano state travisate e che l’uso stesso della formulazione “ipotesi dell’igiene” era improprio. Segnalò che nonostante fossero passati molti anni non erano ancora emersi elementi a sufficienza per approfondire le conoscenze su allergie e condizioni ambientali nei primi anni di vita, in modo da trovare eventuali legami tra i due fenomeni.
    A distanza di molti anni, luoghi comuni e informazioni scorrette su cosa sia davvero l’ipotesi dell’igiene hanno in alcuni casi portato a sottovalutare l’importanza dell’igiene in molti contesti. Alcuni esperti hanno sollevato il problema di un minore controllo delle condizioni igieniche negli ambienti domestici dove crescono i bambini, per esempio, mettendo a rischio pratiche che negli ultimi due secoli hanno contribuito in modo significativo a ridurre alcuni tipi di infezioni.
    A oggi non ci sono infatti elementi per ritenere che le buone pratiche per mantenere puliti gli ambienti possano avere un certo effetto nel ridurre allergie e altri problemi di salute cronici legati al sistema immunitario. Ci sono invece elementi per ritenere che minori attenzioni all’igiene, iniziando con un lavaggio non adeguato delle mani e uno scarso ricambio d’aria negli ambienti chiusi, facciano aumentare il rischio di trasmissione di malattie infettive, anche molto pericolose. LEGGI TUTTO