More stories

  • in

    Il Nobel per la Fisica a John J. Hopfield e Geoffrey E. Hinton

    Il Premio Nobel per la Fisica del 2024 è stato assegnato a John J. Hopfield e Geoffrey E. Hinton «per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali».Hopfield e Hinton hanno preso in prestito sistemi e strumenti dalla fisica per sviluppare i sistemi di apprendimento automatico (“machine learning”) che oggi fanno funzionare alcuni dei più famosi sistemi di intelligenza artificiale. I loro studi hanno permesso di sviluppare soluzioni per trovare andamenti e modelli nei dati, derivando da questi le informazioni. Il lavoro di Hopfield e Hinton è stato quindi fondamentale per sviluppare le tecnologie che fanno funzionare le reti neurali, cioè i sistemi che provano a imitare le nostre capacità di apprendimento e della memoria.
    Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina che state leggendo in questo momento. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato.
    Ci sono molti ambiti in cui i dati e i “se questo allora quello” da considerare sono tantissimi, una quantità tale da non poter essere gestita con istruzioni scritte a mano: più dati e più variabili portano a più eccezioni da prevedere e indicare al software per dire come comportarsi, ma se le eccezioni sono miliardi il compito non può essere assolto da dieci, cento o mille programmatori.
    Questa difficoltà è stata superata con il machine learning (ML), cioè l’attività di apprendimento dei computer tramite i dati. Mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovando andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.
    Messa in altri termini: per fare una torta il software tradizionale segue una ricetta con l’elenco degli ingredienti e le istruzioni passo passo, mentre un software basato sul ML impara attraverso degli esempi osservando una grande quantità di torte, sbagliando e riprovando fino a quando non ottiene un risultato in linea con la richiesta iniziale. Per farlo ha bisogno di una rete neurale artificiale, un modello di elaborazione dei dati che si ispira al funzionamento delle reti neurali biologiche, come quelle nel nostro cervello.
    Le reti neurali artificiali hanno richiesto decenni per essere sviluppate e perfezionate, con grandi difficoltà legate soprattutto alle ridotte capacità di elaborazione dei computer per buona parte del Novecento. Le cose iniziarono a cambiare nei primi anni Ottanta quando il fisico John Hopfield fissò in un modello matematico i principi per realizzare una rete neurale che simula la nostra capacità di ricordare e di ricostruire le immagini nella nostra mente. Hopfield aveva sviluppato il modello attingendo dalle proprie conoscenze in fisica e in particolare dalle proprietà magnetiche di alcuni materiali che condizionano il comportamento dei loro atomi.
    Una rete di Hopfield funziona memorizzando dei modelli, come immagini e schemi, e poi richiamandoli quando riceve un input parziale oppure distorto come un’immagine incompleta o poco definita. Il sistema prova a minimizzare l’energia complessiva, cioè cerca di raggiungere uno stato stabile riducendo il disordine che rende instabile lo stato di partenza della rete. In pratica, quando la rete riceve un’immagine incompleta o rumorosa, “esplora” varie possibili configurazioni per ridurre l’energia complessiva, finché non trova una configurazione che corrisponde a un modello memorizzato, cioè a un’immagine “stabile” e riconoscibile. In questo modo può dire che una certa immagine mai analizzata prima assomiglia a una delle immagini che ha già in memoria.

    Negli anni seguenti alla pubblicazione del modello di Hopfield, Geoffrey Hinton lavorò a un sistema che aggiungeva alcuni principi di fisica statistica, cioè quella parte della fisica che utilizza metodi statistici per risolvere problemi. Elaborò la “macchina di Boltzmann”, basata sulla distribuzione che porta il nome del fisico austriaco Ludwig Boltzmann.
    La macchina di Boltzmann è un tipo di rete neurale usato per riconoscere particolari schemi nei dati. Per farlo utilizza due tipi di nodi: i nodi visibili, che ricevono l’informazione, e i nodi nascosti, che aiutano a elaborare queste informazioni senza essere visibili direttamente. Questi nodi interagiscono tra loro e influenzano l’energia complessiva della rete.
    La rete funziona aggiornando uno alla volta i valori dei nodi, fino a raggiungere uno stato stabile, in cui il comportamento complessivo della rete non cambia più. Ogni possibile configurazione della rete ha una probabilità, determinata dall’energia della rete stessa. In questo modo, la macchina può generare nuovi modelli partendo da ciò che ha imparato. La macchina impara dagli esempi durante il suo allenamento: i valori delle connessioni tra i nodi vengono aggiornati in modo che i modelli presentati abbiano la probabilità più alta di essere ricreati, quindi più un modello viene ripetuto, più aumenta la probabilità che la rete lo ricordi.

    Con i loro lavori ispirati alla fisica, Hopfield e Hinton hanno dato un contributo fondamentale allo sviluppo del machine learning, soprattutto negli ultimi 15 anni grazie all’aumentata capacità di calcolo dei processori. A distanza di anni, i grandi progressi partiti dalla fisica potrebbero avere importanti ricadute per la fisica stessa con l’elaborazione di nuovi modelli per effettuare misurazioni più accurate, per esempio escludendo il rumore di fondo nello studio delle onde gravitazionali. Le possibilità di impiego dei sistemi di intelligenza artificiale sono comunque sterminate e toccano praticamente qualsiasi ambito della ricerca.
    John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è docente alla Princeton University.Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è docente presso l’Università di Toronto in Canada. È stato ricercatore e dirigente di Google, incarico che ha lasciato lo scorso anno sollevando alcune perplessità e preoccupazioni sulla rapida evoluzione di alcuni sistemi di intelligenza artificiale. LEGGI TUTTO

  • in

    Il Premio Nobel per la Medicina, in diretta

    Il Premio Nobel per la Medicina 2024 è stato assegnato a Victor Ambros e Gary Ruvkun «per la loro scoperta del microRNA e del suo ruolo nella maturazione dell’mRNA».Grazie alle loro ricerche su come si sviluppano tipi diversi di cellule, Ambros e Ruvkun hanno scoperto il microRNA, cioè piccole molecole di RNA che hanno un ruolo centrale nella regolazione dei geni. Queste molecole sono fondamentali per come si sviluppano e funzionano gli organismi multicellulari, compresi gli esseri umani. Per comprendere la portata della loro scoperta è però necessario un rapido ripasso delle cose che si studiano a scuola sul materiale genetico.
    Le informazioni per far sviluppare e funzionare il nostro organismo, come quello di moltissimi altri esseri viventi, sono contenute nei cromosomi, una specie di manuale di istruzioni per le cellule. I cromosomi sono contenuti nel nucleo di ogni cellula, quindi ciascuna di loro contiene la medesima serie di geni e di conseguenza di istruzioni. Eppure ogni cellula ha un ruolo specifico: utilizza alcune istruzioni e ne ignora altre. Riesce a farlo grazie alla regolazione genica, un processo in cui esprime un certo numero di geni (che contengono le istruzioni) e al contempo silenzia tutti gli altri.
    Capire come funzionasse la regolazione genica non fu semplice e richiese decenni di studi. L’informazione genetica viene trascritta dal DNA all’RNA messaggero (mRNA) e infine alle strutture della cellula che si occupano materialmente di usare quelle istruzioni per produrre le proteine. Grazie alla regolazione genica, le cellule dell’intestino, del cervello o dei muscoli producono solo le proteine necessarie per svolgere le loro funzioni, lasciando perdere tutte le altre. La regolazione genica è inoltre importante per consentire alle cellule di “tenersi aggiornate”, producendo per esempio alcuni tipi di proteine solo in condizioni di emergenza o quando cambia il contesto in cui sono attive.
    Rappresentazione schematica dei processi di trascrizione e di costruzione delle proteine (Nobel Prize)
    Negli anni Sessanta si capì che alcune specifiche proteine (“fattori di trascrizione”) hanno un ruolo nel controllo dell’informazione genetica, perché possono condizionare la produzione di specifici segmenti di mRNA. Le successive scoperte di migliaia di fattori di trascrizione fecero ipotizzare che fossero questi i principali responsabili della regolazione genica. Le cose sarebbero però cambiate tra la fine degli anni Ottanta e i primi Novanta, quando Ambros e Ruvkun fecero conoscenza con un particolare verme cilindrico (nematode).
    I due ricercatori avevano studiato alcune caratteristiche del nematode C. elegans, lungo appena un millimetro, ma dotato di cellule specializzate per molti compiti diversi: ideale da studiare per capire il funzionamento di organismi più complessi. Ambros e Ruvkun studiavano C. elegans per comprendere il ruolo di alcuni geni che controllano le fasi di attivazione di altri geni, in modo che le cellule nell’organismo si sviluppino al momento giusto per svolgere le loro funzioni. Si erano concentrati su lin-4, un gene che regola proprio i tempi di sviluppo delle larve di C. elegans, isolandolo e notando che invece di produrre un RNA messaggero (che porta le istruzioni alle strutture della cellula per costruire le proteine), questo portava alla produzione di minuscoli filamenti di RNA che non contenevano però istruzioni per la costruzione delle proteine.
    Il confronto con altri geni, permise a Ambros e Ruvkun di scoprire che quei minuscoli filamenti, poi chiamati microRNA, hanno un ruolo centrale nella regolazione genica. Hanno infatti la capacità di legarsi a specifiche sezioni dell’mRNA e di annullare parte delle sue istruzioni, in modo che non vengano seguite dalla cellula nella produzione di alcuni tipi di proteine. Erano i primi anni Novanta e Ambros e Ruvkun avevano scoperto un nuovo meccanismo nella regolazione genica grazie a un tipo di RNA non conosciuto fino ad allora: il microRNA.
    I risultati dei loro studi furono pubblicati in due articoli sulla rivista scientifica Cell nel 1993, ma furono necessari diversi anni prima che venisse accettata la loro ipotesi. Inizialmente si pensava infatti che quel meccanismo fosse tipico di C. elegans, ma non necessariamente di altri organismi. Nel 2000 il gruppo di ricerca di Ruvkun pubblicò un nuovo studio dove mostrava come lo stesso fenomeno si applicasse a un particolare gene, che ricorre in un’ampia varietà di specie animali. Negli anni seguenti furono scoperte migliaia di geni che regolano il microRNA, facendo arrivare alla conclusione che questo sia presente in tutti gli organismi pluricellulari. Si sarebbe poi scoperto che il microRNA ha diverse altre funzioni, sempre legate a coordinare e determinare l’attivazione di moltissimi geni.
    Il lavoro di Ambros e Ruvkun è stato fondamentale per comprendere un meccanismo che funziona da centinaia di milioni di anni, alla base dell’evoluzione di organismi sempre più complessi. I loro studi hanno anche permesso di scoprire che senza microRNA le cellule non si sviluppano normalmente e che in mancanza di un suo normale funzionamento si possono avere mutazioni, molte delle quali responsabili di alcune malattie compresi i tumori.
    Victor Ambros è nato nel 1953 ad Hanover nel New Hampshire, negli Stati Uniti, ed è docente di scienze naturali presso l’University of Massachusetts Medical School di Worcester.Gary Ruvkun è nato a Berkeley in California nel 1952 ed è docente di genetica presso l’Harvard Medical School. LEGGI TUTTO