More stories

  • in

    Le tute spaziali della NASA disegnate da Prada

    Caricamento playerMercoledì l’azienda aerospaziale statunitense Axiom Space ha presentato a Milano le tute spaziali per l’equipaggio della missione Artemis 3, la prima missione della NASA a prevedere l’allunaggio dopo l’Apollo 17, nel 1972. Le tute sono state disegnate e realizzate da Prada, uno dei marchi di moda di lusso italiani più famosi al mondo.
    La collaborazione tra Prada e Axiom Space è nata nel 2020 da un’iniziativa di Lorenzo Bertelli, responsabile del marketing di Prada e figlio dei direttori esecutivi Miuccia Prada e Patrizio Bertelli. Russell Ralston, vicepresidente esecutivo di Axiom Space, ha detto che lavorare con Prada è stato utile non solo per l’esperienza nelle tecniche di lavorazione e per la conoscenza dei materiali ma anche per la capacità di disegnare una bella tuta: «è un simbolo, un’icona della nostra società».
    (Ansa ZumaPress)
    Prada non è l’unica azienda di lusso che ultimamente si è interessata al mondo aerospaziale, anche in vista della crescita del cosiddetto “turismo spaziale”, con aziende come Blue Origin, fondata dall’ex CEO di Amazon Jeff Bezos, e Virgin Galactic del miliardario inglese Richard Branson, che offrono voli suborbitali, i cui veicoli superano gli strati più alti dell’atmosfera e poi tornano indietro senza fare un giro completo intorno alla Terra.
    La scorsa settimana il marchio di lusso francese Pierre Cardin ha presentato una tuta da allenamento per gli astronauti del centro dell’Agenzia spaziale europea a Colonia, in Germania; anche il gruppo alberghiero Hilton sta lavorando alla realizzazione delle tute per l’equipaggio dei voli commerciali della stazione spaziale Starlab.
    Le tute disegnate da Prada (Ansa ZumaPress)
    Rivolgersi al mondo della moda è un modo per le aziende di far interessare più persone ai voli aerospaziali. Di recente Axiom ha incaricato a Esther Marquis, costumista della serie tv a tema spazio For All Mankind, di disegnare la fodera delle tute spaziali xEMU indossate dagli astronauti per le loro attività extraveicolari (quelle che chiamiamo a volte “passeggiate spaziali”); Branson ha chiesto al marchio statunitense Under Armour di disegnare le uniformi di Virgin Galactic ed Elon Musk si è rivolto a Jose Fernandez, autore dei costumi dei film Batman vs Superman e della serie Avengers, per le uniformi della sua agenzia privata spaziale SpaceX.
    Uno dei look dell’ultima sfilata di Prada che richiamava il mondo dello spazio, come questa specie di casco, Milano, 19 settembre 2024 (Dall’account Instagram di Prada)
    Esteticamente, le tute disegnate da Prada non sono molto diverse dalle precedenti: sono bianche e voluminose e non avranno alcun logo dell’azienda. Sugli avambracci, in corrispondenza della vita e sugli zaini portatili ci saranno, però, delle linee rosse che ricordano il simbolo di Linea Rossa, il marchio sportivo di Prada. Le tute saranno uguali per uomini e donne, di taglia unica e personalizzate attorno al corpo di chi le indosserà per renderle più comode ed efficienti.
    Consentiranno agli astronauti di passeggiare ogni giorno otto ore sulla Luna e garantiranno una temperatura costante al loro interno anche quando fuori ci sono -150 °C o 120 °C.  Permetteranno di muoversi più facilmente rispetto alle tute precedenti, non hanno cerniere e le cuciture proteggeranno il più possibile dalle polveri lunari che, come raccontarono già Neil Armstrong e Buzz Aldrin, le prime persone a camminare sulla Luna nel 1969, tendevano a infilarsi nelle giunture e in altre parti delle tute.
    Artemis 3 non partirà prima del settembre 2026, durerà circa 30 giorni e coinvolgerà quattro astronauti: non sono stati ancora scelti ma saranno selezionati in modo da mandare anche la prima donna e la prima persona non bianca sulla Luna. LEGGI TUTTO

  • in

    Volete vedere una cometa?

    Caricamento playerDa qualche giorno è visibile anche in Italia una delle comete più luminose degli ultimi anni e attualmente in allontanamento dal Sole: C/2023 A3 Tsuchinshan-ATLAS (C/2023 A3). Non sarà facilissimo però, perché appare bassa all’orizzonte, quindi sono necessari un luogo adatto per osservarla a occhio nudo e un po’ di pazienza, e in generale perché le comete sono corpi celesti imprevedibili quindi la luminosità potrebbe variare sensibilmente.
    Come indica il “2023” contenuto nel suo nome, la scoperta della cometa è molto recente. Era stata rilevata una prima volta dall’Osservatorio della Montagna Purpurea in Cina all’inizio di gennaio, ma in mancanza di successive osservazioni era stata rimossa dagli elenchi dei nuovi corpi celesti da approfondire, perché si riteneva non fosse più osservabile. A febbraio il programma di ricerca astronomica ATLAS, che si occupa della rilevazione di asteroidi che potrebbero diventare pericolosi per la Terra, segnalò la scoperta di una nuova cometa che si scoprì poi essere la stessa che era stata osservata un mese prima in Cina.
    Le comete hanno di solito dimensioni relativamente piccole e sono formate quasi completamente da ghiaccio. La maggior parte degli astronomi ipotizza che siano residui rimasti dopo la condensazione della grande nebulosa da cui ha avuto origine il nostro sistema solare. Una nebulosa è un grande ammasso di polvere, idrogeno e plasma le cui dinamiche possono portare alla formazione di stelle e pianeti. Le zone periferiche della “nostra” nebulosa erano fredde a tal punto da permettere all’acqua di trovarsi allo stato solido, quindi ghiaccio, cosa che portò alla formazione delle comete.
    Ogni cometa segue una propria orbita intorno al Sole che la porta quindi ad avvicinarsi periodicamente alla stella: il grande calore fa sublimare gli strati più esterni di ghiaccio (la sublimazione è il passaggio dallo stato solido a quello gassoso senza passare per quello liquido). È in questa fase che intorno al nucleo delle comete si forma una “chioma” di vapori. Il vento solare e la pressione della radiazione del Sole spingono parte del vapore portando alla formazione della “coda”, che punta quindi in direzione opposta rispetto a quella in cui si trova il Sole. In molti casi il fenomeno rende visibile la cometa anche dalla Terra, talvolta a occhio nudo, con la luce solare che illumina la chioma. Una cometa appare come uno sbuffo luminoso in cielo e ha un moto apparente lento nella volta celeste, paragonabile a quello della Luna e di altri corpi celesti (non appare e scompare in pochi istanti come avviene con le meteore, per intenderci).
    (NASA)
    C/2023 A3 è al suo primo passaggio nel nostro sistema solare e per diverso tempo è stata soprattutto visibile dall’emisfero australe, quello opposto al nostro. Nelle ultime settimane ha iniziato a essere visibile nell’emisfero boreale, seppure con qualche difficoltà a causa della sua posizione bassa all’orizzonte e delle variazioni nella sua luminosità. Nei prossimi giorni la cometa apparirà via via più alta in cielo, ma al tempo stesso potrebbe ridursi la sua luminosità apparente perché si sta allontanando dal Sole e perché potrebbe ridursi la sua chioma.
    La posizione a ovest fa sì che la cometa si trovi nella porzione di cielo proprio nelle fasi del tramonto, cosa che può influire sulla sua visibilità. Il fatto che C/2023 A3 diventi osservabile più in alto nel cielo dovrebbe comunque ridurre il problema, perché rimarrà per più tempo visibile mentre il Sole sarà ormai tramontato. Le ore migliori per osservarla saranno quindi subito dopo il tramonto. Vista la direzione di osservazione è importante attendere che il Sole sia tramontato non solo per poter vedere meglio la cometa, ma anche per evitare di osservare direttamente e a lungo il disco solare con tutti i rischi che ne conseguono per la vista.
    Per osservare al meglio la cometa C/2023 A3 è importante scegliere un luogo buio, possibilmente lontano dall’inquinamento luminoso prodotto dalle città; se se ne ha la possibilità, è meglio raggiungere una collina o un luogo in alta quota, per avere una maggiore visione d’insieme della linea dell’orizzonte verso ovest. In queste condizioni la cometa dovrebbe essere visibile a occhio nudo, ma l’utilizzo di un binocolo o di un telescopio amatoriale potrebbe consentire di osservare meglio e più nel dettaglio la chioma e la coda della cometa.
    (Albino Carbognani / Sky Chart 4)
    Per localizzare il punto verso cui osservare può essere sufficiente una bussola o un’applicazione che ne simula la funzione (di solito ci sono funzionalità per queste cose già nei sistemi operativi degli smartphone Android e sugli iPhone), orientando verso i 255°, come indicato nella mappa celeste qui sopra che mostra il percorso della cometa nel cielo. Oltre alla bussola si possono utilizzare alcune applicazioni per cercare un oggetto celeste e ottenere informazioni su dove orientare lo sguardo per poterlo osservare. C/2023 A3 sarà osservabile fino alla fine di ottobre. LEGGI TUTTO

  • in

    C’è vita su Europa?

    Caricamento playerSotto uno spesso strato di ghiaccio, che avvolge un mondo lontano 786 milioni di chilometri da noi, c’è un oceano di acqua salata che potrebbe aiutarci a rispondere a uno dei più grandi misteri dell’Universo: c’è vita oltre la Terra? L’oceano si trova su Europa, una delle lune del pianeta Giove, considerata tra i migliori candidati per provare a dare una risposta che cambierebbe radicalmente il nostro modo di pensare alla vita e probabilmente a noi stessi.
    Raccogliere indizi su un corpo celeste così lontano non è però semplice e per questo la NASA ha costruito Europa Clipper, una sonda che ha iniziato oggi alle 18:06 (ora italiana) il proprio viaggio dalla base di lancio di Cape Canaveral, in Florida, a bordo di un razzo Falcon Heavy di SpaceX. Sfruttando la gravità della Terra e di Marte come “fionda gravitazionale”, la sonda viaggerà per quasi 3 miliardi di chilometri e raggiungerà Giove tra cinque anni e mezzo. Effettuerà poi decine di passaggi ravvicinati a Europa per raccogliere dati sulle caratteristiche della sua superficie gelata e dell’oceano che si nasconde al di sotto, utili per capire se effettivamente Europa possa ospitare la vita, almeno per come la conosciamo.
    È improbabile che gli strumenti di Clipper trovino prove dirette, la missione non ha del resto questo scopo e la sonda effettuerà solamente dei sorvoli, ma secondo i gruppi di ricerca Europa è la candidata ideale per cercare la vita nel nostro vicinato cosmico. I pianeti che abbiamo scoperto in orbita intorno a stelle diverse dal Sole sono troppo distanti per essere raggiunti con le attuali tecnologie, di conseguenza i corpi celesti nel nostro Sistema solare sono al momento la principale risorsa che abbiamo. L’astrobiologia si occupa di questo, perché studiandoli possiamo capire quali condizioni sono compatibili con la vita, applicando poi queste conoscenze per lo studio di pianeti molto più lontani e inaccessibili.
    Europa fu osservata e scoperta per la prima volta dall’astronomo italiano Galileo Galilei all’inizio del 1610, quando con il suo telescopio notò alcune lune in orbita intorno a Giove, il pianeta più grande del Sistema solare. Le osservazioni lo avevano portato a scoprire altre tre lune – poi chiamate Io, Ganimede e Callisto – che insieme a Europa sono note come “satelliti galileiani” o “medicei”. Europa non è molto grande, ha dimensioni comparabili con la nostra Luna, ma Galileo era riuscito a osservarla soprattutto grazie alla sua luminosità apparente, dovuta all’alta riflessività della sua superficie ghiacciata.
    In seguito le osservazioni dalla Terra di Europa affascinarono diversi astronomi, ma dai tempi di Galileo sarebbero stati necessari quasi 400 anni prima di poter vedere quella lontanissima luna da vicino. Nei primi anni Settanta le sonde Pioneer 10 e 11 si avventurarono nello Spazio profondo raggiungendo Giove, ma le prime immagini definite a sufficienza di Europa furono scattate nel 1979 da altre due sonde dell’agenzia statunitense: le Voyager 1 e 2. Grazie ai loro passaggi ravvicinati per la prima volta fu possibile osservare la superficie di Europa, che si presentava come una gigantesca palla di neve con un diametro di 3.122 chilometri circa.
    Europa ripresa dalla sonda Voyager 1 (NASA)
    Per quanto non molto definite, le immagini delle Voyager avevano permesso di osservare un’intricata serie di linee scure che attraversavano la superficie di Europa, tali da far pensare che fossero enormi crepe nella superficie ghiacciata dovute a un’attività di qualche tipo. Le loro caratteristiche suggerivano che la superficie fosse libera di muoversi in maniera indipendente dagli strati più profondi di Europa, come se si trattasse di un enorme involucro ghiacciato che racchiudeva qualcosa di diverso al suo interno.
    Molte delle ipotesi formulate all’epoca furono confermate nel 1995, quando la sonda Galileo della NASA entrò in orbita intorno a Giove. Parte della sua missione comprendeva l’osservazione e la raccolta di dati dei satelliti galileiani nel corso di più passaggi ravvicinati. E proprio grazie a queste attività fu possibile notare una particolare interazione del forte campo magnetico generato da Giove con Europa, compatibile con la presenza di un’enorme quantità di acqua salata al di sotto dell’involucro di ghiaccio, spesso tra i 10 e i 30 chilometri.
    La superficie di Europa ripresa dalla sonda Galileo (NASA)
    L’ipotesi è che l’oceano contenga circa il doppio dell’acqua di tutti gli oceani terrestri, che sia salato e che costituisca uno strato intermedio tra l’involucro ghiacciato e un interno roccioso. Ancora più in profondità ci sarebbe un nucleo ferroso, con una temperatura maggiore rispetto alla parte più esterna della luna. Dai dati raccolti finora sembra che il calore proveniente dal nucleo passi lentamente attraverso lo strato roccioso in contatto con l’oceano, contribuendo a mantenerne una buona parte allo stato liquido. Ed è proprio grazie a questi fenomeni che potrebbero esserci opportunità di vita, per quanto lontano dalla primaria fonte di energia nel Sistema solare: il Sole, la nostra unica stella.
    Elaborazione grafica dei possibili strati che formano Europa, dall’alto: la superficie ghiacciata, chilometri di involucro di ghiaccio, un oceano, il fondale con camini idrotermali (NASA)
    Almeno qui sulla Terra la vita ha bisogno di alcuni elementi chimici come il carbonio, l’ossigeno, l’azoto, il fosforo, l’idrogeno e lo zolfo. A seconda del modo in cui si combinano formano molecole e sostanze che costituiscono la quasi totalità della materia organica sul nostro pianeta, ma singolarmente o in combinazioni più semplici possono essere trovati praticamente ovunque nell’Universo. Le ricerche suggeriscono che questi elementi fossero tra gli ingredienti nei processi di formazione dei pianeti e che probabilmente siano presenti anche su Europa.
    Trovare molecole legate a quegli elementi fuori dalla Terra non implica comunque che siano il frutto di qualche forma di vita, anche perché in alcune circostanze si possono formare anche in assenza di esseri viventi. Al tempo stesso, trovarli può essere il punto di partenza per ipotizzare la presenza di fenomeni più complessi e che potrebbero essere legati alla presenza di qualche organismo elementare.
    Dettaglio della superficie ghiacciata di Europa (NASA)
    Questi indizi potrebbero essere presenti non solo all’interno, ma anche negli strati più esterni di Europa, dove sembrano esserci scambi tra ghiaccio superficiale e materiale relativamente più caldo proveniente dalle profondità. È comunque improbabile che possano esserci organismi sulla superficie della luna, a causa delle radiazioni molto intense provenienti da Giove. Questo flusso altamente energetico potrebbe però giocare a favore di chi cerca la vita da quelle parti. Le radiazioni scompongono le molecole d’acqua nei loro due costituenti, l’idrogeno e l’ossigeno. Il primo si disperde molto velocemente nell’ambiente spaziale, mentre il secondo è molto reattivo e nel caso in cui raggiungesse l’oceano potrebbe reagire con altri elementi, diventando fonte di energia per alcuni microrganismi.
    È difficile immaginare che a grande profondità dove non arriva mai la luce del Sole possa sopravvivere qualcosa. Eppure, ormai da tempo sappiamo che anche qui sulla Terra batteri e alcuni microrganismi non solo riescono a sopravvivere, ma a proliferare in condizioni estreme. Vivono per esempio a grandissima profondità negli oceani nelle vicinanze dei camini idrotermali, dai quali escono gas ad alta temperatura dovuti all’attività interna del nostro pianeta. Questi microrganismi “estremofili” si sono adattati per vivere in condizioni di alta pressione e temperatura, oppure ancora in condizioni di acidità estrema o con sostanze nutrienti pressoché assenti.
    Esseri viventi di questo tipo potrebbero vivere indisturbati da tempo su Europa, ma trovarne le tracce non è semplice, proprio per la scarsa accessibilità di un oceano protetto da un guscio di ghiaccio spesso chilometri. Clipper non si poserà sul ghiaccio nè proverà a perforarlo, ma utilizzerà i suoi strumenti per analizzare eventuali gas che fuoriescono dalle crepe del guscio. In passato sono stati osservati sbuffi di vapore acqueo con alcuni telescopi, un altro indizio dell’eventuale attività geologica della luna, ma anche un’occasione per provare ad analizzare i gas e le altre sostanze che accompagnano quelle emissioni nello Spazio circostante. La sonda esaminerà l’atmosfera estremamente rarefatta di Europa, mentre non è scontato che riesca a intercettare un getto vero e proprio.
    Fasi di preparazione della sonda Europa Clipper (NASA)
    Clipper utilizzerà inoltre i propri strumenti per effettuare rilevazioni che confermino la presenza del grande oceano, ma anche le caratteristiche della gravità di Europa in modo da confermare o meno la presenza di un nucleo ferroso e dello strato roccioso che lo racchiude. Le rilevazioni saranno inoltre importanti per calcolare con maggiore accuratezza lo spessore dell’involucro di ghiaccio e per capire se sia effettivamente la forte influenza gravitazionale di Giove a far comparire le numerose crepe sulla sua superficie.

    La sonda ha una massa di 3,2 tonnellate, cui se ne aggiungono circa altrettante di propellente che sarà impiegato per effettuare 49 passaggi ravvicinati di Europa, raggiungendo una distanza minima dalla superficie di circa 25 chilometri. La sonda si avvicinerà e allontanerà di continuo da Europa e da Giove per ridurre l’esposizione delle proprie strumentazioni alle radiazioni prodotte dal pianeta e rendere possibile la trasmissione dei dati verso la Terra. Il corpo centrale di Clipper è alto quasi cinque metri per quattro metri di larghezza, ma la sonda raggiunge una larghezza massima di 30 metri per via dei suoi grandi pannelli solari, che saranno utilizzati per alimentare le strumentazioni di bordo.
    La missione è estremamente ambiziosa e ha richiesto anni di progettazione, con qualche rischio di essere cancellata in varie fasi di rivalutazione da parte della NASA. È la sonda più grande per lo Spazio profondo mai realizzata, diretta verso un mondo lontano, che potrebbe insegnarci qualcosa sul nostro. LEGGI TUTTO

  • in

    Weekly Beasts

    I country club sono caratterizzati da ampi spazi, necessari a una delle attività ricreative che più li caratterizza: il golf. Proprio per questo motivo ospitano spesso molti animali che finiscono in questa raccolta, fotografati nei boschi circostanti o più o meno vicino alle buche: la settimana scorsa c’era un alligatore durante un torneo di golf al country club di Jackson, in Mississippi, e questa settimana un altro alligatore è stato fotografato sempre lì, ma con un grosso pesce tra le fauci. Poi c’è un piccolo tordo a cui viene misurata una zampa; una scimmia che viene benedetta da un frate francescano, una volpe artica in una città islandese dal nome difficilmente pronunciabile e un gatto delle nevi. Ma anche un giovane individuo di grande scimmia leonina, un canguro arboricolo e un vombato. LEGGI TUTTO

  • in

    Il Premio Nobel per la Chimica a David Baker, Demis Hassabis e John M. Jumper

    Il Premio Nobel per la Chimica 2024 è stato assegnato a David Baker «per la progettazione computazionale delle proteine» e a Demis Hassabis e John M. Jumper «per i sistemi di predizione delle proteine».Baker è riuscito in un’impresa che fino a qualche anno fa sembrava pressoché impossibile: creare nuovi tipi di proteine da zero. Hassabis e Jumper hanno sviluppato un modello di intelligenza artificiale che ha risolto un problema che durava da 50 anni: prevedere le strutture complesse delle proteine. I progressi raggiunti grazie ai loro studi offrono grandi opportunità per lo sviluppo di nuove molecole, specialmente in ambito farmaceutico.
    Le proteine sono centrali nella nostra esistenza e in quella degli altri esseri viventi: regolano il metabolismo, la risposta agli stimoli e sono essenziali per il trasporto delle molecole, solo per fare qualche esempio. I vari tipi di proteine hanno proprie caratteristiche determinate dalle catene di amminoacidi che le costituiscono e dalla forma che assumono, ripiegandosi su loro stesse. La forma è essenziale nel determinare la funzione, e per questo in biologia molecolare si dice spesso che “la struttura è la funzione” di una proteina.
    La maggior parte delle proteine ha dimensioni comprese tra 1 e 100 nanometri (un nanometro equivale a un miliardesimo di metro) ed è quindi molto difficile studiarne la struttura. Negli ultimi decenni, buona parte degli esperimenti di biologia molecolare ha riguardato proprio le tecniche e i metodi da impiegare per provare a comprendere come specifiche proteine si ripieghino su loro stesse.
    Grazie a una tecnica che sfrutta i raggi X (cristallografia a raggi X), a partire dagli anni Cinquanta divenne possibile determinare la struttura di alcune proteine. Le tecniche si sarebbero poi affinate ulteriormente nell’ultimo decennio grazie alla microscopia crioelettronica, che prevede l’osservazione dei campioni a temperature estremamente basse, offrendo migliori risultati e riducendo il rischio di modificare le molecole nella fase di preparazione del materiale da osservare.
    Comprendere l’effettiva forma tridimensionale della proteina dalle osservazioni al microscopio nell’infinitamente piccolo, dove i campioni appaiono come se fossero bidimensionali, non era semplice e richiedeva spesso anni di lavoro, senza garanzie di arrivare a qualcosa di concreto. Per questo motivo, già a partire dagli anni Ottanta, alcuni ricercatori si chiesero se non fosse possibile seguire un approccio diverso: partire dalle catene di amminoacidi e scoprire come queste determinino la struttura tridimensionale delle proteine di cui fanno parte. Non era una cosa da poco e i ricercatori pensarono di sfruttare una risorsa che 40 anni fa iniziava a dimostrare di avere crescenti capacità di calcolo: i computer.
    I primi modelli informatici si rivelarono però poco affidabili, soprattutto dal punto di vista della riproducibilità dei risultati, uno dei pilastri del metodo scientifico. Un modello che si era rivelato adeguato nel determinare la struttura di una proteina, falliva miseramente se applicato da altri ricercatori per i loro studi su proteine di altro tipo. Per questo a metà degli anni Novanta fu fondato il Critical Assessment of Protein Structure Prediction (CASP), un’iniziativa per mettere in competizione ogni due anni i centri di ricerca stimolandoli a produrre nuove soluzioni al computer per la previsione delle proteine.
    Nonostante le buone intenzioni, per molti anni i risultati non furono comunque soddisfacenti. Le cose cambiarono solo verso la fine degli anni Dieci, quando il settore fu rivoluzionato dai lavori di Demis Hassabis. Appassionato del gioco degli scacchi fino dall’infanzia, Hassabis aveva cofondanto nel 2010 la società DeepMind con l’obiettivo di realizzare sistemi di intelligenza artificiale da applicare ad alcuni dei più diffusi giochi da tavolo. In pochi anni la start-up ottenne risultati notevoli tanto da essere acquisita da Google nel 2014 desiderosa di estendere e potenziare la propria presenza nel settore delle AI.
    DeepMind divenne molto famosa quando uno dei propri sistemi riuscì a battere il campione mondiale di GO, un gioco da tavola con un numero enorme di possibili combinazioni, ma Hassabis aveva ambizioni ancora più grandi e l’obiettivo di partecipare al CASP. Nel 2018 il suo sistema per determinare la struttura delle proteine chiamato AlphaFold vinse la competizione raggiungendo un’accuratezza del 60 per cento, ben oltre il 40 per cento raggiunto nelle competizioni precedenti. Era un risultato sorprendente, ma ancora distante dalla completa capacità di previsione, ultimo obiettivo del CASP.
    Previsione della struttura di una proteina effettuata da AlphaFold (DeepMind)
    Nel gruppo di lavoro di AlphaFold c’era John Jumper, un ricercatore che aveva studiato fisica e matematica e che si era appassionato alle simulazioni al computer intorno alle proteine. Jumper aveva sviluppato sistemi per rendere più efficienti i programmi che effettuavano i calcoli nel periodo in cui lavorava al proprio dottorato in fisica teoretica, perché i computer dell’università in cui studiava non erano molto potenti. Quando si unì al gruppo di lavoro di AlphaFold propose di utilizzare alcuni di quei sistemi e lavorò insieme a Hassabis a una nuova versione del sistema di AI, chiamato AlphaFold2. Il sistema poteva inoltre contare sugli ultimi sviluppi nelle reti neurali artificiali, soluzioni che imitano il funzionamento del nostro cervello.
    Nel 2020 AlphaFold2 era pronto per competere al CASP e portò a risultati eccezionali, mai visti prima e con una accuratezza comparabile ai più lunghi lavori di studio e osservazione ottenuti con la cristallografia. Il settore dell’analisi delle proteine era cambiato grazie a un nuovo strumento per comprendere le loro caratteristiche e funzionalità in base alla loro struttura.
    AlphaFold2 permise in poco tempo di calcolare la struttura di tutti i tipi di proteine che costituiscono il nostro organismo. La grande potenza di calcolo permise in seguito di spingersi ancora oltre e di creare una sorta di catalogo in cui è prevista la struttura di praticamente tutti i 200 milioni di proteine finora scoperte nello studio degli organismi viventi della Terra. DeepMind ha inoltre reso libero e accessibile il codice di AlphaFold2 e il modello è stato impiegato per una grandissima varietà di ricerche in praticamente ogni paese del mondo. Se un tempo occorrevano spesso anni per ottenere la struttura di una proteina, ora quel lavoro può essere svolto in pochi minuti con un grado molto alto di accuratezza, che può essere valutato e corretto.
    Quando il biochimico David Baker venne a conoscenza dei risultati di AlphaFold2 pensò di trarre ispirazione per migliorare un programma che aveva realizzato quasi 30 anni prima: Rosetta. Baker insieme al suo gruppo di ricerca aveva inizialmente pensato a un software per fare previsioni sulle strutture delle proteine, ma in seguito si era chiesto se non potesse essere utilizzato al contrario per progettare nuovi tipi di proteine mai osservate prima e con specifiche funzioni.
    (Nobel Prize)
    Alla fine degli anni Novanta, Baker iniziava a essere un’autorità nel campo della progettazione delle proteine e divenne molto famoso nel 2003, quando pubblicò uno studio che illustrava i risultati raggiunti nella creazione di Top7, una proteina che non esisteva in natura. Negli anni seguenti, Baker progettò e realizzò diverse altre proteine che potrebbero essere impiegate in numerosi ambiti, dalla produzione di vaccini di nuova generazione a sistemi per rilevare la presenza di particolari sostanze in un ambiente, o ancora per produrre sensori o motori per il trasporto di molecole nell’organismo.
    I risultati ottenuti dai tre premiati di quest’anno con il Nobel per la Chimica stanno già avendo e avranno un forte impatto nella ricerca e nello sviluppo di nuovi materiali, farmaci e altre applicazioni. Hanno inoltre permesso di comprendere meglio come funziona la vita e come si sviluppano alcune malattie, offrendo nuove possibilità di ricerca per curarle. Quei sistemi di analisi, previsione e progettazione si sono aggiunti ad altri metodi utilizzati già da tempo nel settore, con risultati alterni, e che non sempre hanno avuto la stessa visibilità di DeepMind, che ha potuto contare sulle enormi risorse economiche e di comunicazione di Google.
    David Baker è nato nel 1962 a Seattle, negli Stati Uniti, ed è docente presso l’Università di Washington.Demis Hassabis è nato nel 1976 a Londra, nel Regno Unito, ed è CEO di Google DeepMind.John M. Jumper è nato nel 1985 a Little Rock, negli Stati Uniti, ed è ricercatore scientifico di Google DeepMind. LEGGI TUTTO

  • in

    Cosa succederebbe a un essere umano in un viaggio verso Marte?

    In diversi film di fantascienza ambientati su Marte, da Atto di forza del 1990 a The Martian del 2015, arriva sempre un momento in cui la tuta spaziale indossata da uno dei personaggi sul suolo marziano si rompe. In tutti i casi, indipendentemente dal livello di realismo degli effetti speciali, si capisce che non sarebbe un incidente di poco conto. Sebbene sia considerato per diversi aspetti il pianeta del sistema solare più simile alla Terra, Marte è infatti un ambiente estremamente ostile per gli esseri umani. E se è il più studiato in assoluto è perché negli anni è stato oggetto di diverse missioni robotiche: inviare un equipaggio umano sarebbe molto più complicato e costoso.I successi nei lanci sperimentali di Starship, l’astronave della società spaziale privata statunitense SpaceX, e le audaci affermazioni del suo capo Elon Musk hanno contribuito ad alimentare in anni recenti le aspettative e le fantasie di molte persone riguardo alla possibile colonizzazione futura di Marte. Ma senza arrivare a tanto, immaginare anche solo di spedire un equipaggio umano a decine di milioni di chilometri dalla Terra pone una quantità e un tipo di difficoltà che nessun’altra missione umana potrebbe porre.
    La distanza tra la Terra e Marte cambia molto durante le rispettive orbite dei due pianeti intorno al Sole: in media è 225 milioni di chilometri, ma quella minima è intorno a 56 milioni. Anche ragionando per assurdo, ammettendo cioè di trovare il modo di rendere il viaggio fattibile sul piano ingegneristico e aerospaziale, qualsiasi ipotesi realistica di viaggio da un pianeta all’altro e ritorno implicherebbe comunque una prolungata permanenza delle persone nello Spazio: oltre due anni, probabilmente. E i nostri corpi non sono fatti per lo Spazio, come dimostrano diversi studi sugli effetti della permanenza in ambienti a gravità quasi assente, come la Stazione Spaziale Internazionale (ISS), sulla salute degli equipaggi.
    Nel 2024 oltre cento istituti e gruppi di ricerca di diversi paesi del mondo hanno lavorato insieme alla pubblicazione dello Space Omics and Medical Atlas (SOMA), una raccolta di studi, dati e altri documenti di medicina e biologia sugli effetti del volo spaziale sugli equipaggi umani. I più conosciuti tra quelli determinati dalle diverse condizioni di gravità sono la perdita di massa muscolare e la riduzione della densità delle ossa (in media dall’1 all’1,5 per cento al mese).
    Sono problemi risolvibili in parte facendo esercizi fisici e assumendo integratori come i bifosfonati, utilizzati per contrastare l’osteoporosi.
    L’astronauta giapponese Koichi Wakata, ingegnere di volo della spedizione 38, si allena a bordo della Stazione Spaziale Internazionale, il 2 febbraio 2014 (NASA)
    Ma le condizioni poste dall’ambiente spaziale portano anche problemi alla vista, al sistema nervoso e a quello circolatorio, aumentando il rischio di trombosi. E sebbene non siano ancora stati oggetto di studi approfonditi, alcuni di questi problemi potrebbero persistere anche per anni dopo il ritorno sulla Terra.

    – Leggi anche: La palestra per andare sulla Luna

    Altri effetti studiati da tempo riguardano un fattore, se possibile, ancora più rilevante: l’impatto delle radiazioni spaziali. Sono radiazioni ad alta energia provenienti da fonti esterne al sistema solare, in genere esplosioni stellari come le supernove e altri fenomeni nello Spazio profondo. Sulla Terra il campo magnetico protegge la popolazione e in parte anche l’equipaggio dell’ISS impedendo alla maggior parte delle particelle che compongono le radiazioni spaziali, come anche delle particelle solari, di penetrare l’atmosfera. Ma nel caso di viaggi interplanetari la protezione per gli equipaggi deriverebbe soltanto dalla necessaria schermatura delle astronavi.
    Un equipaggio in viaggio verso Marte sarebbe verosimilmente esposto in modo continuo a una quantità di radiazioni paragonabile a quella di centinaia se non migliaia di radiografie del torace. I risultati di alcuni test di laboratorio suggeriscono che un’esposizione del genere potrebbe provocare diversi problemi al cervello, a cuore e arterie, alla vista, all’apparato digerente e ad altre parti del corpo. Per di più in un ipotetico viaggio verso Marte l’equipaggio avrebbe risorse mediche, diagnostiche e farmacologiche limitate, e nessuna possibilità di rifornimenti, a differenza degli equipaggi dell’ISS.

    – Leggi anche: Nello Spazio ti può girare il sangue al contrario

    Uno studio sui topi pubblicato a settembre sulla rivista Journal of Neurochemistry ha concluso che le radiazioni potrebbero influenzare anche le capacità cognitive a lungo termine. In un esperimento condotto nel Brookhaven National Laboratory a Upton, nello stato di New York, gli autori e le autrici dello studio hanno scoperto che l’esposizione a un fascio di radiazioni che simulava quelle spaziali comprometteva varie funzioni del sistema nervoso centrale dei topi. Rispetto al gruppo di controllo, i topi esposti al fascio mostravano problemi di memoria, di attenzione e di controllo motorio, che però diminuivano somministrando sostanze antiossidanti e antinfiammatorie.
    In un precedente studio sui topi, pubblicato a giugno sulla rivista Nature Communications, l’esposizione a una dose di radiazioni paragonabile a quella assorbita durante un eventuale viaggio di andata e ritorno verso Marte aveva provocato gravi danni ai reni. Le disfunzioni erano tali, in caso di assenza di protezione dalle radiazioni, da rendere realistica l’ipotesi di necessari trattamenti di dialisi per l’equipaggio durante il viaggio di ritorno.
    Da tempo la NASA sta sviluppando tecnologie, in collaborazione con altre aziende, che in un viaggio verso Marte fornirebbero agli astronauti e alle astronaute una parziale protezione dalle radiazioni spaziali. Tra ciò che viene utilizzato per costruire parti di veicoli e tute spaziali ci sono materiali sintetici come il kevlar e il polietilene, in grado di deflettere i fasci di particelle cariche fornendo una schermatura dalle radiazioni. Anche in questo caso, come per l’atrofia muscolare e per la riduzione ossea, alcuni effetti potrebbero inoltre essere mitigati assumendo particolari integratori, utilizzati anche sulla Terra sui pazienti oncologici durante la radioterapia.

    – Leggi anche: Portare sulla Terra dei pezzetti di Marte è più costoso del previsto

    Un altro possibile problema per un eventuale equipaggio in viaggio verso Marte, che condividerebbe per lungo tempo uno spazio presumibilmente limitato, sarebbe il rischio di problemi psicologici: disturbi dell’umore e del sonno, irritabilità, incapacità di pensare lucidamente. A rendere ancora più angosciante la percezione dell’isolamento potrebbe peraltro contribuire il ritardo delle comunicazioni con la Terra: fino a 20 minuti, a seconda della distanza. Il che significa anche che l’equipaggio potrebbe verosimilmente dover risolvere eventuali problemi urgenti in completa autonomia, senza l’aiuto del controllo missione.
    La NASA segnala infine i rischi di alterazioni del sistema immunitario delle astronaute e degli astronauti, e quindi di malattie, in un ambiente chiuso in cui dopo un certo tempo microbi e microrganismi potrebbero cambiare caratteristiche in modo imprevedibile. Ricapitolando, per differenziare i tipi di rischi per il corpo umano associati ai lunghi viaggi spaziali, la NASA utilizza l’acronimo “RIDGE”: Radiazioni spaziali, Isolamento e cattività, Distanza dalla Terra, Gravità e hostile/closed Environments, cioè “ambienti chiusi/ostili”.
    Poi ci sarebbe tutta la parte di problemi da risolvere una volta sul suolo marziano. Per sopravvivere servirebbe prima di tutto ossigeno, uno dei diversi gas presenti nell’atmosfera terrestre. Il 21 per cento circa dell’aria che respiriamo ogni giorno è infatti composta da ossigeno, mentre il resto è quasi tutto azoto (il rapporto, più o meno costante, è di circa 15 atomi di azoto per quattro atomi di ossigeno). Su Marte l’ossigeno è presente solo con una concentrazione dello 0,13 per cento.
    L’atmosfera marziana è molto più rarefatta: circa cento volte più di quella terrestre, cosa che rende il pianeta peraltro più vulnerabile agli impatti con oggetti come meteoriti e asteroidi. Alla base delle varie differenze c’è quella fondamentale della grandezza tra i due pianeti: Marte è più o meno la metà della Terra. Non ha quindi una gravità tale da trattenere tutti i gas atmosferici, e l’equipaggio di un’eventuale missione dovrebbe gestire tutte le numerose conseguenze di questa condizione.
    Un’immagine che mette a confronto la Terra e Marte, ottenuta unendo immagini acquisite dalle sonde Galileo e Mars Global Surveyor della NASA (NASA)
    Sfortunatamente il gas più abbondante nell’atmosfera estremamente rarefatta di Marte è un gas per noi mortale oltre una certa concentrazione: l’anidride carbonica, di cui è composto lo 0,04 per cento dell’aria sulla Terra e circa il 96 per cento dell’atmosfera marziana. In pratica, considerando che sulla Terra un’esposizione di circa 15 minuti a una concentrazione di anidride carbonica dell’1,5 per cento sarebbe già mortale, provare a respirare su Marte senza un rifornimento di ossigeno provocherebbe la morte per asfissia in brevissimo tempo.
    L’alta concentrazione di anidride carbonica non sarebbe nemmeno il primo dei problemi su Marte. Le pressioni al suolo marziano sono simili a quelle che sulla Terra troveremmo intorno a 30 chilometri di quota, come ricorda l’astrofisico Amedeo Balbi nel recente libro Il cosmo in brevi lezioni. In pratica, senza adeguate attrezzature, un essere umano morirebbe in pochi secondi per insufficiente pressione esterna, che provocherebbe un’espansione istantanea e letale di tessuti, gas e liquidi presenti nel corpo.
    Sorvolando sulla mancanza di ossigeno e di pressione sufficiente, ostacoli non insormontabili e già gestiti nello Spazio in altri ambienti diversi da Marte, ci sarebbe comunque da gestire il problema delle temperature: quella media su Marte si aggira intorno ai -60 °C, ma la minima può arrivare a -150 °C. L’acqua, che sarebbe necessaria per creare ossigeno, coltivare cibo, produrre carburante e altre materie prime, c’è ma si trova in luoghi del pianeta e in condizioni che la rendono non facilmente accessibile.

    Resterebbe infine lo stesso problema di tutto il viaggio: le radiazioni, dal momento che Marte non ha un campo magnetico abbastanza intenso da deviare le particelle atomiche e subatomiche provenienti dal Sole, da supernove lontane e da altre fonti. Un particolare spettrometro della grandezza di un tostapane, il Radiation Assessment Detector, fu il primo strumento a essere acceso dal rover Curiosity durante la sua missione su Marte nel 2012, e da allora fornisce informazioni sul livello di radiazioni presenti sul pianeta.
    Sul lungo periodo un campo base come quello in cui sopravvive il protagonista del film The Martian probabilmente non offrirebbe una protezione sufficiente contro le radiazioni, né contro le violente tempeste solari e di polvere. Un’alternativa teoricamente più sicura, secondo l’ex biomedico della NASA Jim Logan, potrebbe essere vivere in rifugi sotterranei o in strutture con pareti di circa 2,5 metri edificate utilizzando materie presenti in superficie.
    Le caverne sotterranee sono soltanto una delle varie ipotesi, più o meno fantascientifiche, formulate nel corso degli ultimi anni per provare a immaginare una soluzione all’incompatibilità dell’ambiente marziano con la vita umana. Ma, come scrive Balbi, «è importante che la percezione pubblica di questi temi sia basata sulla realtà, e non sulle illusioni». Una cosa è stabilire un avamposto, un’altra è fondare una colonia. E del resto «non abbiamo mai costruito civiltà fiorenti in Antartide, sul fondo dei mari o in cima all’Everest», tutti luoghi ostili ma infinitamente più accoglienti in confronto a Marte.
    Indipendentemente dall’obiettivo di raggiungere Marte, ragionare sul modo in cui sarebbe possibile sostenere a lungo la salute e la fisiologia umana nello Spazio ha comunque numerosi benefici per la vita sulla Terra, scrisse nel 2023 sul sito The Conversation Rachael Seidler, insegnante di fisiologia applicata alla University of Florida. Le sostanze che proteggono gli equipaggi dalle radiazioni spaziali e contrastano i loro effetti nocivi sul corpo umano, per esempio, possono anche servire per la cura dei pazienti oncologici sottoposti a radioterapia. Capire come contrastare gli effetti della microgravità su ossa e muscoli può inoltre migliorare anche le terapie e le cure mediche per varie condizioni di fragilità associate all’invecchiamento.

    – Leggi anche: Non siamo fatti per lo Spazio LEGGI TUTTO

  • in

    Non possiamo vivere più a lungo di così?

    Il marcato aumento dell’aspettativa di vita nel corso del Novecento ha portato a ipotizzare un futuro in cui un numero crescente di persone vivrà più di 100 anni, specialmente tra i nati alla fine del secolo scorso e nei primi vent’anni di quello attuale. È un’ipotesi diffusa e discussa soprattutto in ambito accademico, dove si confrontano esperti di vari ambiti, da quelli sanitari a quelli della statistica e della demografia. Un recente studio si è da poco aggiunto al dibattito, segnalando un rallentamento dell’aumento dell’aspettativa di vita nei paesi più ricchi, che è stato interpretato come un indizio sui limiti di età raggiungibili dalla nostra specie.Lo studio è stato pubblicato sulla rivista scientifica Nature Aging e ha tenuto in considerazione le morti registrate in alcuni dei paesi del mondo noti per essere luoghi in cui si diventa mediamente molto vecchi, come il Giappone, la Corea del Sud, la Spagna, la Svezia e l’Italia. L’analisi ha tenuto in considerazione il periodo tra il 1990 e il 2019, in modo da evitare gli anni successivi alla pandemia da coronavirus, che avrebbero probabilmente distorto le stime.
    Dalla ricerca è emerso che il tasso di miglioramento nell’aspettativa di vita nel periodo 2010-2019 si è ridotto rispetto a quello osservato tra il 1990 e il 2000. Secondo il gruppo di ricerca i bambini nati a partire dal 2010 hanno una probabilità relativamente bassa di diventare centenari: dell’1,8 per cento per i maschi e del 5,1 per cento per le donne. La probabilità più alta è a Hong Kong dove per le donne si arriva al 12,8 per cento.
    Variazione media annuale dell’aspettativa di vita alla nascita (Nature Aging)
    S. Jay Olshansky, un epidemiologo dell’University of Illinois Chicago che ha lavorato alla nuova ricerca, ha detto al sito di Nature che: «Ci sono dei limiti oltre i quali non possiamo spingere la sopravvivenza umana». Olshansky è da tempo uno dei principali sostenitori della finitezza dell’aspettativa di vita per gli esseri umani. Nel 1990 pubblicò un primo studio condividendo questa ipotesi e da allora ha raccolto circa 30 anni di dati per trovare conferme alla propria teoria.
    Nel Novecento i miglioramenti legati alla salute pubblica e allo sviluppo di nuove cure e terapie hanno permesso di fare aumentare in modo significativo l’aspettativa di vita, per lo meno nei paesi più ricchi. In media si sono aggiunti tre anni di vita ogni decennio, facendo ipotizzare che quell’andamento potesse proseguire ancora portando a una popolazione di centenari tra i nati nel nuovo millennio. Per quanto affascinante, questa ipotesi è però difficile da confermare, visto che gli eventuali centenari saranno tali alla fine di questo secolo o nei primi decenni del prossimo.
    Olshansky e colleghi ritengono che non sia comunque questo il caso e che il rallentamento osservato nell’aumento dell’aspettativa di vita sia un indizio sui limiti fisiologici che impediscono al nostro organismo di invecchiare più di tanto. Gli studi sui processi di invecchiamento hanno segnalato l’esistenza di alcuni di questi limiti, ma da tempo si discutono e si indagano le possibilità di intervenire sui meccanismi che portano le cellule a morire e a non rinnovare i tessuti.
    Alcuni dei paesi analizzati nello studio hanno mostrato una riduzione più marcata dell’aspettativa di vita rispetto ad altri. Negli Stati Uniti, per esempio, la diminuzione è diventata evidente a partire dal 2010 ed è paragonabile agli andamenti riscontrati in particolari momenti della storia del Novecento, come i periodi di guerra. La riduzione sembra essere collegata a un maggior numero di morti precoci a causa di problemi di salute come diabete e malattie cardiache nella fascia di età compresa tra i 40 e i 60 anni. Gli Stati Uniti sono uno dei paesi dove si è riscontrato un maggiore aumento delle persone fortemente sovrappeso e obese negli ultimi decenni.
    La ricerca di Olshansky e colleghi ha portato nuovi elementi al lungo dibattito sull’invecchiamento e la possibilità per molti di superare i cento anni di vita nei prossimi decenni. Lo studio è stato accompagnato da un commento, pubblicato sempre su Nature Aging, che prova a mettere le conclusioni in un contesto più ampio interrogandosi sull’effettiva possibilità di fare ancora aumentare l’aspettativa di vita.
    Secondo il commento, la ricerca è troppo pessimistica sui potenziali progressi che potrebbero essere raggiunti nei prossimi anni in ambito medico, ricordando che solo un secolo fa in pochi ritenevano che si potesse perfino ridurre la mortalità infantile. I vaccini e pratiche di salute pubblica migliori fecero invece la differenza portando il tasso di mortalità infantile dal 20 per cento degli anni Cinquanta al 4 per cento dei giorni nostri. Maggiori politiche di prevenzione, nuove cure e terapie per rallentare l’invecchiamento potrebbero avere un sensibile impatto sull’aspettativa di vita difficile da prevedere oggi. LEGGI TUTTO

  • in

    Il Nobel per la Fisica a John J. Hopfield e Geoffrey E. Hinton

    Il Premio Nobel per la Fisica del 2024 è stato assegnato a John J. Hopfield e Geoffrey E. Hinton «per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali».Hopfield e Hinton hanno preso in prestito sistemi e strumenti dalla fisica per sviluppare i sistemi di apprendimento automatico (“machine learning”) che oggi fanno funzionare alcuni dei più famosi sistemi di intelligenza artificiale. I loro studi hanno permesso di sviluppare soluzioni per trovare andamenti e modelli nei dati, derivando da questi le informazioni. Il lavoro di Hopfield e Hinton è stato quindi fondamentale per sviluppare le tecnologie che fanno funzionare le reti neurali, cioè i sistemi che provano a imitare le nostre capacità di apprendimento e della memoria.
    Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina che state leggendo in questo momento. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato.
    Ci sono molti ambiti in cui i dati e i “se questo allora quello” da considerare sono tantissimi, una quantità tale da non poter essere gestita con istruzioni scritte a mano: più dati e più variabili portano a più eccezioni da prevedere e indicare al software per dire come comportarsi, ma se le eccezioni sono miliardi il compito non può essere assolto da dieci, cento o mille programmatori.
    Questa difficoltà è stata superata con il machine learning (ML), cioè l’attività di apprendimento dei computer tramite i dati. Mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovando andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.
    Messa in altri termini: per fare una torta il software tradizionale segue una ricetta con l’elenco degli ingredienti e le istruzioni passo passo, mentre un software basato sul ML impara attraverso degli esempi osservando una grande quantità di torte, sbagliando e riprovando fino a quando non ottiene un risultato in linea con la richiesta iniziale. Per farlo ha bisogno di una rete neurale artificiale, un modello di elaborazione dei dati che si ispira al funzionamento delle reti neurali biologiche, come quelle nel nostro cervello.
    Le reti neurali artificiali hanno richiesto decenni per essere sviluppate e perfezionate, con grandi difficoltà legate soprattutto alle ridotte capacità di elaborazione dei computer per buona parte del Novecento. Le cose iniziarono a cambiare nei primi anni Ottanta quando il fisico John Hopfield fissò in un modello matematico i principi per realizzare una rete neurale che simula la nostra capacità di ricordare e di ricostruire le immagini nella nostra mente. Hopfield aveva sviluppato il modello attingendo dalle proprie conoscenze in fisica e in particolare dalle proprietà magnetiche di alcuni materiali che condizionano il comportamento dei loro atomi.
    Una rete di Hopfield funziona memorizzando dei modelli, come immagini e schemi, e poi richiamandoli quando riceve un input parziale oppure distorto come un’immagine incompleta o poco definita. Il sistema prova a minimizzare l’energia complessiva, cioè cerca di raggiungere uno stato stabile riducendo il disordine che rende instabile lo stato di partenza della rete. In pratica, quando la rete riceve un’immagine incompleta o rumorosa, “esplora” varie possibili configurazioni per ridurre l’energia complessiva, finché non trova una configurazione che corrisponde a un modello memorizzato, cioè a un’immagine “stabile” e riconoscibile. In questo modo può dire che una certa immagine mai analizzata prima assomiglia a una delle immagini che ha già in memoria.

    Negli anni seguenti alla pubblicazione del modello di Hopfield, Geoffrey Hinton lavorò a un sistema che aggiungeva alcuni principi di fisica statistica, cioè quella parte della fisica che utilizza metodi statistici per risolvere problemi. Elaborò la “macchina di Boltzmann”, basata sulla distribuzione che porta il nome del fisico austriaco Ludwig Boltzmann.
    La macchina di Boltzmann è un tipo di rete neurale usato per riconoscere particolari schemi nei dati. Per farlo utilizza due tipi di nodi: i nodi visibili, che ricevono l’informazione, e i nodi nascosti, che aiutano a elaborare queste informazioni senza essere visibili direttamente. Questi nodi interagiscono tra loro e influenzano l’energia complessiva della rete.
    La rete funziona aggiornando uno alla volta i valori dei nodi, fino a raggiungere uno stato stabile, in cui il comportamento complessivo della rete non cambia più. Ogni possibile configurazione della rete ha una probabilità, determinata dall’energia della rete stessa. In questo modo, la macchina può generare nuovi modelli partendo da ciò che ha imparato. La macchina impara dagli esempi durante il suo allenamento: i valori delle connessioni tra i nodi vengono aggiornati in modo che i modelli presentati abbiano la probabilità più alta di essere ricreati, quindi più un modello viene ripetuto, più aumenta la probabilità che la rete lo ricordi.

    Con i loro lavori ispirati alla fisica, Hopfield e Hinton hanno dato un contributo fondamentale allo sviluppo del machine learning, soprattutto negli ultimi 15 anni grazie all’aumentata capacità di calcolo dei processori. A distanza di anni, i grandi progressi partiti dalla fisica potrebbero avere importanti ricadute per la fisica stessa con l’elaborazione di nuovi modelli per effettuare misurazioni più accurate, per esempio escludendo il rumore di fondo nello studio delle onde gravitazionali. Le possibilità di impiego dei sistemi di intelligenza artificiale sono comunque sterminate e toccano praticamente qualsiasi ambito della ricerca.
    John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è docente alla Princeton University.Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è docente presso l’Università di Toronto in Canada. È stato ricercatore e dirigente di Google, incarico che ha lasciato lo scorso anno sollevando alcune perplessità e preoccupazioni sulla rapida evoluzione di alcuni sistemi di intelligenza artificiale. LEGGI TUTTO