More stories

  • in

    Il Nobel per la Fisica a John J. Hopfield e Geoffrey E. Hinton

    Il Premio Nobel per la Fisica del 2024 è stato assegnato a John J. Hopfield e Geoffrey E. Hinton «per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali».Hopfield e Hinton hanno preso in prestito sistemi e strumenti dalla fisica per sviluppare i sistemi di apprendimento automatico (“machine learning”) che oggi fanno funzionare alcuni dei più famosi sistemi di intelligenza artificiale. I loro studi hanno permesso di sviluppare soluzioni per trovare andamenti e modelli nei dati, derivando da questi le informazioni. Il lavoro di Hopfield e Hinton è stato quindi fondamentale per sviluppare le tecnologie che fanno funzionare le reti neurali, cioè i sistemi che provano a imitare le nostre capacità di apprendimento e della memoria.
    Nei primi tempi dell’informatica, gli algoritmi erano scritti dalle persone e la loro principale utilità era di indicare al sistema che cosa fare nel caso di una determinata circostanza, una indicazione piuttosto semplice riassumibile in: “Se si verifica questo allora fai quello”. Algoritmi, codice e altre variabili determinano il funzionamento di un software, cioè di un programma informatico, come il browser sul quale si è caricata la pagina che state leggendo in questo momento. Un algoritmo può essere definito come una sequenza finita di istruzioni per risolvere un determinato insieme di richieste o per calcolare un risultato.
    Ci sono molti ambiti in cui i dati e i “se questo allora quello” da considerare sono tantissimi, una quantità tale da non poter essere gestita con istruzioni scritte a mano: più dati e più variabili portano a più eccezioni da prevedere e indicare al software per dire come comportarsi, ma se le eccezioni sono miliardi il compito non può essere assolto da dieci, cento o mille programmatori.
    Questa difficoltà è stata superata con il machine learning (ML), cioè l’attività di apprendimento dei computer tramite i dati. Mette insieme l’informatica con la statistica, con algoritmi che man mano che analizzano i dati trovando andamenti e ripetizioni, sulla base dei quali possono fare previsioni. L’apprendimento può essere supervisionato, cioè basato su una serie di esempi ideali, oppure non supervisionato, in cui è il sistema a trovare i modi in cui organizzare i dati, senza avere specifici obiettivi.
    Messa in altri termini: per fare una torta il software tradizionale segue una ricetta con l’elenco degli ingredienti e le istruzioni passo passo, mentre un software basato sul ML impara attraverso degli esempi osservando una grande quantità di torte, sbagliando e riprovando fino a quando non ottiene un risultato in linea con la richiesta iniziale. Per farlo ha bisogno di una rete neurale artificiale, un modello di elaborazione dei dati che si ispira al funzionamento delle reti neurali biologiche, come quelle nel nostro cervello.
    Le reti neurali artificiali hanno richiesto decenni per essere sviluppate e perfezionate, con grandi difficoltà legate soprattutto alle ridotte capacità di elaborazione dei computer per buona parte del Novecento. Le cose iniziarono a cambiare nei primi anni Ottanta quando il fisico John Hopfield fissò in un modello matematico i principi per realizzare una rete neurale che simula la nostra capacità di ricordare e di ricostruire le immagini nella nostra mente. Hopfield aveva sviluppato il modello attingendo dalle proprie conoscenze in fisica e in particolare dalle proprietà magnetiche di alcuni materiali che condizionano il comportamento dei loro atomi.
    Una rete di Hopfield funziona memorizzando dei modelli, come immagini e schemi, e poi richiamandoli quando riceve un input parziale oppure distorto come un’immagine incompleta o poco definita. Il sistema prova a minimizzare l’energia complessiva, cioè cerca di raggiungere uno stato stabile riducendo il disordine che rende instabile lo stato di partenza della rete. In pratica, quando la rete riceve un’immagine incompleta o rumorosa, “esplora” varie possibili configurazioni per ridurre l’energia complessiva, finché non trova una configurazione che corrisponde a un modello memorizzato, cioè a un’immagine “stabile” e riconoscibile. In questo modo può dire che una certa immagine mai analizzata prima assomiglia a una delle immagini che ha già in memoria.

    Negli anni seguenti alla pubblicazione del modello di Hopfield, Geoffrey Hinton lavorò a un sistema che aggiungeva alcuni principi di fisica statistica, cioè quella parte della fisica che utilizza metodi statistici per risolvere problemi. Elaborò la “macchina di Boltzmann”, basata sulla distribuzione che porta il nome del fisico austriaco Ludwig Boltzmann.
    La macchina di Boltzmann è un tipo di rete neurale usato per riconoscere particolari schemi nei dati. Per farlo utilizza due tipi di nodi: i nodi visibili, che ricevono l’informazione, e i nodi nascosti, che aiutano a elaborare queste informazioni senza essere visibili direttamente. Questi nodi interagiscono tra loro e influenzano l’energia complessiva della rete.
    La rete funziona aggiornando uno alla volta i valori dei nodi, fino a raggiungere uno stato stabile, in cui il comportamento complessivo della rete non cambia più. Ogni possibile configurazione della rete ha una probabilità, determinata dall’energia della rete stessa. In questo modo, la macchina può generare nuovi modelli partendo da ciò che ha imparato. La macchina impara dagli esempi durante il suo allenamento: i valori delle connessioni tra i nodi vengono aggiornati in modo che i modelli presentati abbiano la probabilità più alta di essere ricreati, quindi più un modello viene ripetuto, più aumenta la probabilità che la rete lo ricordi.

    Con i loro lavori ispirati alla fisica, Hopfield e Hinton hanno dato un contributo fondamentale allo sviluppo del machine learning, soprattutto negli ultimi 15 anni grazie all’aumentata capacità di calcolo dei processori. A distanza di anni, i grandi progressi partiti dalla fisica potrebbero avere importanti ricadute per la fisica stessa con l’elaborazione di nuovi modelli per effettuare misurazioni più accurate, per esempio escludendo il rumore di fondo nello studio delle onde gravitazionali. Le possibilità di impiego dei sistemi di intelligenza artificiale sono comunque sterminate e toccano praticamente qualsiasi ambito della ricerca.
    John J. Hopfield è nato nel 1933 a Chicago, negli Stati Uniti, ed è docente alla Princeton University.Geoffrey E. Hinton è nato nel 1947 a Londra, nel Regno Unito, ed è docente presso l’Università di Toronto in Canada. È stato ricercatore e dirigente di Google, incarico che ha lasciato lo scorso anno sollevando alcune perplessità e preoccupazioni sulla rapida evoluzione di alcuni sistemi di intelligenza artificiale. LEGGI TUTTO

  • in

    Il Premio Nobel per la Medicina, in diretta

    Il Premio Nobel per la Medicina 2024 è stato assegnato a Victor Ambros e Gary Ruvkun «per la loro scoperta del microRNA e del suo ruolo nella maturazione dell’mRNA».Grazie alle loro ricerche su come si sviluppano tipi diversi di cellule, Ambros e Ruvkun hanno scoperto il microRNA, cioè piccole molecole di RNA che hanno un ruolo centrale nella regolazione dei geni. Queste molecole sono fondamentali per come si sviluppano e funzionano gli organismi multicellulari, compresi gli esseri umani. Per comprendere la portata della loro scoperta è però necessario un rapido ripasso delle cose che si studiano a scuola sul materiale genetico.
    Le informazioni per far sviluppare e funzionare il nostro organismo, come quello di moltissimi altri esseri viventi, sono contenute nei cromosomi, una specie di manuale di istruzioni per le cellule. I cromosomi sono contenuti nel nucleo di ogni cellula, quindi ciascuna di loro contiene la medesima serie di geni e di conseguenza di istruzioni. Eppure ogni cellula ha un ruolo specifico: utilizza alcune istruzioni e ne ignora altre. Riesce a farlo grazie alla regolazione genica, un processo in cui esprime un certo numero di geni (che contengono le istruzioni) e al contempo silenzia tutti gli altri.
    Capire come funzionasse la regolazione genica non fu semplice e richiese decenni di studi. L’informazione genetica viene trascritta dal DNA all’RNA messaggero (mRNA) e infine alle strutture della cellula che si occupano materialmente di usare quelle istruzioni per produrre le proteine. Grazie alla regolazione genica, le cellule dell’intestino, del cervello o dei muscoli producono solo le proteine necessarie per svolgere le loro funzioni, lasciando perdere tutte le altre. La regolazione genica è inoltre importante per consentire alle cellule di “tenersi aggiornate”, producendo per esempio alcuni tipi di proteine solo in condizioni di emergenza o quando cambia il contesto in cui sono attive.
    Rappresentazione schematica dei processi di trascrizione e di costruzione delle proteine (Nobel Prize)
    Negli anni Sessanta si capì che alcune specifiche proteine (“fattori di trascrizione”) hanno un ruolo nel controllo dell’informazione genetica, perché possono condizionare la produzione di specifici segmenti di mRNA. Le successive scoperte di migliaia di fattori di trascrizione fecero ipotizzare che fossero questi i principali responsabili della regolazione genica. Le cose sarebbero però cambiate tra la fine degli anni Ottanta e i primi Novanta, quando Ambros e Ruvkun fecero conoscenza con un particolare verme cilindrico (nematode).
    I due ricercatori avevano studiato alcune caratteristiche del nematode C. elegans, lungo appena un millimetro, ma dotato di cellule specializzate per molti compiti diversi: ideale da studiare per capire il funzionamento di organismi più complessi. Ambros e Ruvkun studiavano C. elegans per comprendere il ruolo di alcuni geni che controllano le fasi di attivazione di altri geni, in modo che le cellule nell’organismo si sviluppino al momento giusto per svolgere le loro funzioni. Si erano concentrati su lin-4, un gene che regola proprio i tempi di sviluppo delle larve di C. elegans, isolandolo e notando che invece di produrre un RNA messaggero (che porta le istruzioni alle strutture della cellula per costruire le proteine), questo portava alla produzione di minuscoli filamenti di RNA che non contenevano però istruzioni per la costruzione delle proteine.
    Il confronto con altri geni, permise a Ambros e Ruvkun di scoprire che quei minuscoli filamenti, poi chiamati microRNA, hanno un ruolo centrale nella regolazione genica. Hanno infatti la capacità di legarsi a specifiche sezioni dell’mRNA e di annullare parte delle sue istruzioni, in modo che non vengano seguite dalla cellula nella produzione di alcuni tipi di proteine. Erano i primi anni Novanta e Ambros e Ruvkun avevano scoperto un nuovo meccanismo nella regolazione genica grazie a un tipo di RNA non conosciuto fino ad allora: il microRNA.
    I risultati dei loro studi furono pubblicati in due articoli sulla rivista scientifica Cell nel 1993, ma furono necessari diversi anni prima che venisse accettata la loro ipotesi. Inizialmente si pensava infatti che quel meccanismo fosse tipico di C. elegans, ma non necessariamente di altri organismi. Nel 2000 il gruppo di ricerca di Ruvkun pubblicò un nuovo studio dove mostrava come lo stesso fenomeno si applicasse a un particolare gene, che ricorre in un’ampia varietà di specie animali. Negli anni seguenti furono scoperte migliaia di geni che regolano il microRNA, facendo arrivare alla conclusione che questo sia presente in tutti gli organismi pluricellulari. Si sarebbe poi scoperto che il microRNA ha diverse altre funzioni, sempre legate a coordinare e determinare l’attivazione di moltissimi geni.
    Il lavoro di Ambros e Ruvkun è stato fondamentale per comprendere un meccanismo che funziona da centinaia di milioni di anni, alla base dell’evoluzione di organismi sempre più complessi. I loro studi hanno anche permesso di scoprire che senza microRNA le cellule non si sviluppano normalmente e che in mancanza di un suo normale funzionamento si possono avere mutazioni, molte delle quali responsabili di alcune malattie compresi i tumori.
    Victor Ambros è nato nel 1953 ad Hanover nel New Hampshire, negli Stati Uniti, ed è docente di scienze naturali presso l’University of Massachusetts Medical School di Worcester.Gary Ruvkun è nato a Berkeley in California nel 1952 ed è docente di genetica presso l’Harvard Medical School. LEGGI TUTTO

  • in

    Il Nobel per la Medicina a Katalin Karikó e Drew Weissman

    Caricamento playerIl Premio Nobel per la Medicina è stato assegnato a Katalin Karikó e Drew Weissman «per le loro scoperte sulle modifiche alle basi azotate dei nucleosidi che hanno reso possibile lo sviluppo di vaccini a mRNA efficaci contro COVID-19». Il Premio viene assegnato annualmente ed è uno dei più importanti riconoscimenti in campo scientifico.Il lavoro di Karikó e Weissman è stato essenziale per lo sviluppo dei vaccini contro il coronavirus, che hanno permesso di salvare la vita di milioni di persone riducendo i rischi di soffrire di forme gravi di COVID-19. In particolare, i due premiati hanno permesso di comprendere meglio il modo in cui l’RNA messaggero (mRNA) interagisce con il sistema immunitario, applicando metodi innovativi per vaccini di nuova generazione versatili e relativamente semplici da aggiornare.I miliardi di cellule di ciascuno di noi esistono grazie al materiale genetico, che viene trascritto in continuazione per consentire alle cellule di replicarsi e di produrre le proteine che provvedono a buona parte del loro funzionamento. In questo processo l’mRNA ha un ruolo centrale e a partire dagli anno Novanta Karikó iniziò a chiedersi se la molecola potesse essere utilizzata per contrastare alcune malattie. Era un’idea molto difficile da realizzare e che stava costando alla ricercatrice numerosi rifiuti di finanziamento da parte di università, fondi pubblici e privati negli Stati Uniti.– Leggi anche: La grande scommessaL’idea di base di Karikó non era in realtà così impossibile: visto che le cellule ricevono istruzioni dall’mRNA per produrre le proteine che ci mantengono vivi e in salute, perché non realizzare dell’mRNA sintetico per indurre le cellule a creare particolari proteine a proprio piacere? Potrebbero essere enzimi per ridurre gli effetti di una malattia, fattori di crescita per ripristinare attività nel sistema nervoso, o ancora anticorpi per renderci immuni da specifiche malattie.Nel 1990 un gruppo di ricerca dell’Università del Wisconsin era riuscito a ottenere un risultato simile su alcune cavie di laboratorio, ma c’era un problema di fondo: il nostro organismo ha diversi sistemi di controllo e di difesa per evitare che istruzioni che ritiene scorrette nell’mRNA, come quelle modificate artificialmente, possano raggiungere le cellule facendo potenzialmente danni. La difesa comporta la distruzione delle informazioni, ma può anche portare a una risposta immunitaria.Dopo sei anni trascorsi presso l’Università della Pennsylvania, nel 1995 Karikó perse diverse possibilità di carriera proprio perché non aveva le risorse per portare avanti le proprie ricerche. Negli anni seguenti le cose iniziarono a cambiare: Karikó incontrò Drew Weissman, un immunologo dell’Università di Boston, e insieme elaborarono nuovi sistemi per eludere quelle attività di controllo del nostro organismo.I due ricercatori puntarono all’origine dell’mRNA: i nucleosidi, cioè i quattro mattoncini che lo compongono a livello molecolare e a che a seconda di come sono combinati forniscono le istruzioni alle cellule. Si resero conto che nelle versioni sintetiche – quindi realizzate in laboratorio – dell’mRNA uno dei mattoncini finiva per attivare le difese da parte dell’organismo, impedendo la trasmissione delle istruzioni alle cellule per produrre le proteine desiderate. Dopo numerosi esperimenti, Karikó e Weissman trovarono il modo di modificare lievemente il mattoncino che faceva da spia, in modo che l’mRNA sintetico riuscisse a passare inosservato e a essere trasportato nelle cellule.A partire dal 2005, i due iniziarono a pubblicare le proprie scoperte su diverse riviste scientifiche, ricevendo attenzione per lo più da altri ricercatori che avevano iniziato a lavorare all’mRNA. Il sistema funzionava, ma non era ancora molto raffinato e in pochi riuscivano a comprenderne a fondo le potenzialità. Tra questi c’erano ricercatori che avrebbero avuto un ruolo fondamentale nella nascita di Moderna e BioNTech (con Pfizer), e che ora sono famosi in tutto il mondo per i loro vaccini contro il coronavirus.I primi tentativi di sviluppare vaccini a mRNA, per esempio contro il virus Zika e quello che causa la MERS, non portarono a risultati particolarmente incoraggianti. Le ricerche si intensificarono però a partire dal 2020 con l’emergere del SARS-CoV-2, il coronavirus responsabile dei casi di COVID-19. In poco meno di un anno dall’emergere del nuovo virus, fu possibile sviluppare vaccini altamente efficaci, che non impediscono l’infezione virale, ma riducono di molto i rischi di sviluppare forme gravi della malattia, che possono anche causare la morte.Secondo gli esperti, nei prossimi anni le piattaforme sulle quali sono stati costruiti i vaccini a mRNA renderanno possibile lo sviluppo di vaccini di nuova generazione per molte altre malattie, semplificando le attività di prevenzione e riducendo la letalità di alcuni virus.Katalin Karikó è nata nel 1955 a Szolnok in Ungheria, ha conseguito un dottorato nel 1982 e ha poi lavorato per alcuni anni all’Accademia delle scienze ungherese di Szeged. Si è poi trasferita negli Stati Uniti dove ha lavorato in diversi centri di ricerca universitari ed è ora tra i principali dirigenti di BioNTech.Drew Weissman è nato nel 1959 a Lexington nel Massachusetts (Stati Uniti) e ha conseguito un dottorato in medicina all’Università di Boston nel 1987. Ha lavorato in diversi centri di ricerca ed è responsabile della divisione che si occupa di innovazione legata all’RNA presso il Penn Institute. LEGGI TUTTO