More stories

  • in

    Come funzionano le cose che usiamo tutti i giorni

    Ogni giorno della nostra vita è accompagnato da piccoli gesti che facciamo di continuo, soprattutto in casa dove passiamo una parte importante del nostro tempo: da accendere la luce a impostare la temperatura del forno, passando per l’apertura di un rubinetto e lo sciacquone del WC. Diamo per scontato che a una certa azione corrisponda un effetto, ma a ben pensarci non sempre sappiamo che cosa rende veramente possibile l’accensione di una lampadina o il pop-corn al microonde. Tecnologie vecchie e nuove riempiono il nostro quotidiano e forse si meritano che sappiamo qualcosa di più su come funzionano, almeno un’infarinata in non più di due paragrafi ciascuno.RubinettoIl funzionamento di un rubinetto è all’apparenza abbastanza semplice – fai ruotare un elemento o alzi una leva e l’acqua scorre – eppure non sono in molti a sapere che cosa accade al suo interno. Il “rubinetto a vitone” è quello che hanno più o meno tutti in mente, e che si svita per far fluire l’acqua. Facendolo si fa infatti sollevare una vite che ha alla sua base una rondella cui è applicata una guarnizione. Quando il rubinetto è chiuso la guarnizione preme contro un foro e impedisce all’acqua di passare resistendo alla sua pressione. Svitando, la guarnizione si stacca dal foro e l’acqua inizia a fluire: più si svita, più la guarnizione si allontana e permette il passaggio di una maggiore quantità d’acqua.

    In casa il tipo di rubinetto più diffuso è ormai il “miscelatore monocomando” che si aziona con una leva collegata a una sfera cava che ha tre fori: due servono per far passare l’acqua calda e quella fredda, in modo che si mescolino all’interno della sfera, mentre il terzo per far passare l’acqua verso l’esterno. Quando il rubinetto è chiuso i fori non sono allineati con le aperture, mentre lo diventano quando si sposta la leva: più la si sposta verso l’alto più il foro centrale è allineato verso la bocca di erogazione (la parte dove esce l’acqua), mentre girando la leva a sinistra o a destra si regola l’allineamento dei fori rispetto ai due tubi che portano acqua calda e fredda, determinando la temperatura di uscita dal rubinetto.

    WCUna meraviglia della tecnica segna quasi sempre la fine delle cose più tangibili che produce il nostro organismo. Il water, o vaso sanitario, è l’elemento più evidente in un WC, solitamente realizzato in ceramica e dalla caratteristica forma che ricorda quella di una tazza. Salvo non si attivi lo sciacquone, l’acqua che ricopre il suo fondo non fluisce nello scarico grazie alla presenza di un sifone, una cavità a gomito che impedisce al vaso di vuotarsi completamente. Il bordo superiore del water è cavo e permette all’acqua che proviene dalla vaschetta di fluire al suo interno e di uscire da tanti fori orientati verso il basso, in modo da rimuovere quanto si è depositato nel vaso. La maggiore quantità d’acqua fa superare la parte terminale del sifone e fa sì che l’acqua venga risucchiata nello scarico insieme al frutto della propria fatica.

    La potenza del getto è ottenuta per gravità, grazie a una vaschetta di scarico posta più in alto rispetto al vaso e piena d’acqua. Quando si tira lo sciacquone, si apre il diaframma che in condizioni normali impedisce all’acqua di scorrere verso il basso e di incanalarsi nel vaso. Lo svuotamento della vaschetta fa cadere verso il basso un galleggiante (un oggetto con una densità minore rispetto a quella dell’acqua) di solito collegato a una staffa, a sua volta collegata a una valvola che regola l’ingresso di nuova acqua. In pratica è come aprire un rubinetto per riempire un recipiente. Man mano che il livello dell’acqua aumenta, il galleggiante sale fino a quando è a un’altezza tale da far chiudere la valvola, impedendo che entri più acqua della capacità della vaschetta (c’è un ulteriore meccanismo di “troppo pieno” che nel caso di un malfunzionamento del galleggiante fa fluire l’acqua in eccesso nel vaso). A vaschetta piena si può nuovamente azionare lo sciacquone e tutto ricomincia da capo.
    Interruttore della luceIn un’abitazione possono mancare molte cose, ma difficilmente mancano gli interruttori della luce nelle stanze. Ne esistono di vari tipi a seconda delle necessità e della tensione elettrica, ma di solito quelli per accendere le lampadine nelle case sono tra i più semplici e sono di tipo “unipolare”, aprono cioè il circuito ma una delle due parti è sempre sotto tensione.
    Di solito all’interno di un comune interruttore unipolare per la luce c’è una molla che rende possibile il passaggio da una posizione all’altra: se provate a lasciare l’interruttore a metà non ci riuscite proprio per questo. L’interruttore è collegato a due cavi (rispettivamente fase e neutro) e ha al suo interno due contatti: quando la lampadina è spenta il circuito è aperto e non c’è un collegamento tra i due contatti; quando si vuole accendere la luce, lo spostamento dell’interruttore fa scattare una lamella di metallo che chiude il circuito e rende possibile il passaggio della corrente elettrica tra i due contatti e verso la lampadina.
    MicroondeMolte persone diffidano del microonde per la sua capacità di scaldare e cuocere gli alimenti molto più velocemente di un forno tradizionale, cosa percepita come poco “naturale”. In realtà un microonde sfrutta la naturalissima capacità delle radiazioni elettromagnetiche a una certa lunghezza d’onda di intervenire sull’orientamento di alcune molecole, principalmente quelle dell’acqua, facendole oscillare. Il gran subbuglio porta le molecole a urtarsi, sfregando tra loro e producendo calore per attrito. Visto che gli alimenti hanno una certa componente d’acqua, si può sfruttare questo principio per scaldarli o per cuocerli.
    (Zanichelli)
    Le microonde necessarie sono prodotte da un magnetron, una sorta di generatore che tramite un forte magnete spinge gli elettroni a muoversi verso l’esterno. Una guida d’onda incanala le microonde verso un dispositivo che le sparpaglia all’interno della camera di cottura in modo che possano raggiungere il cibo. La distribuzione non è ordinata e il piatto rotante serve per fare in modo che il riscaldamento o la cottura risulti più omogenea. Un microonde agisce meccanicamente sulle molecole ma non le altera in alcun modo chimicamente: un piatto di zuppa scaldato con un microonde è indistinguibile a livello molecolare da uno scaldato utilizzando un forno o un fornello.
    SpecchioCon le giuste condizioni di luce, i primi esseri umani osservarono la loro immagine riflessa in una pozzanghera, uno stagno o un lago centinaia di migliaia di anni prima che fossero inventati gli specchi. In generale, pensiamo che solo uno specchio “rifletta” la luce, ma in realtà praticamente tutto ciò che abbiamo intorno riflette la luce, altrimenti non potremmo osservarlo. Quando siamo davanti a uno specchio la luce riflessa dal nostro corpo (e da tutto quello che abbiamo intorno) raggiunge la superficie riflettente, quasi sempre realizzata in argento o alluminio, protetta da uno strato di vetro o di plastica trasparente.
    I fotoni, i piccoli pacchetti di energia che costituiscono i raggi luminosi, colpiscono la superficie riflettente e vengono rimbalzati in modo più ordinato (riflessione speculare) rispetto a quanto facciano le superfici irregolari come quella del nostro corpo (riflessione diffusa). È grazie a questa riflessione in un’unica (o quasi) direzione che vediamo l’immagine riflessa. La luce in realtà non rimbalza sullo specchio come farebbe una pallina su un tavolo da ping pong: i fotoni sono assorbiti dagli atomi di argento rendendoli temporaneamente instabili, stato che li porta a emettere energia sotto forma di fotoni per tornare stabili. L’argento è tra i materiali più efficienti in questo processo di riflessione, mentre altri materiali si perdono qualche pezzo per strada e anche per questo sono meno riflettenti.
    FrigoriferoUn frigorifero sottrae calore dall’ambiente in cui conserviamo gli alimenti, che come sempre succede viene ceduto da una parte più calda a una più fredda. Per farlo utilizza un compressore collocato all’esterno nella parte bassa del frigorifero, che ha il compito di far aumentare la pressione e quindi la temperatura al fluido refrigerante. Il fluido viene poi incanalato nel condensatore, una sorta di lunga serpentina che favorisce il cedimento del calore all’ambiente circostante, facendo comunque sì che il fluido continui a essere ad alta pressione. Al termine del condensatore, il fluido passa attraverso la valvola di espansione (con una certa approssimazione potete pensarla come l’erogatore di una bomboletta spray): il rapido cambiamento di pressione riduce repentinamente la temperatura del fluido, che di solito passa dai 30 °C circa a -25 °C.
    (Zanichelli)
    Il fluido passa nell’evaporatore, un’altra serpentina che è però collocata in un’intercapedine del frigorifero, in modo da “prelevare” il calore all’interno del frigo e degli alimenti. Nel farlo la sua temperatura aumenta, torna per evaporazione allo stato di vapore e raggiunge nuovamente il compressore dove sarà portato ad alta pressione per tornare nel condensatore e il ciclo ricomincerà. Il rumore che sentite provenire ogni tanto dal frigorifero è il compressore, che si attiva quando un termostato segnala che la temperatura all’interno del frigorifero si è alzata.
    TV OLEDDa ormai diversi anni una quantità crescente di televisori, ma anche di altri dispositivi come smartphone e laptop, utilizza la tecnologia OLED che può essere considerata un’evoluzione degli LCD che hanno reso popolari ed economici gli schermi piatti. Potete immaginare uno schermo LCD come una lasagna: lo strato più basso è costituto da un pannello luminoso che proietta la luce sullo strato successivo, formato invece da una miriade di minuscoli quadratini (i pixel) a cristalli liquidi. A seconda di come viene fatta passare la corrente elettrica, i cristalli liquidi si orientano in modo da far passare o bloccare la luce proveniente dal pannello luminoso. La luce che passa attraverso ogni quadratino viene colorata di rosso, verde o blu ed è dalla combinazione di questi colori che si produce un’immagine, un po’ come in un mosaico. Gli strati finali della lasagna sono poi uno schermo protettivo e un rivestimento antiriflesso, per rendere visibile più facilmente l’immagine in varie condizioni di luce.
    A differenza degli LCD, gli OLED non hanno bisogno dello strato col pannello luminoso perché ogni pixel è in grado di illuminarsi da solo, grazie all’impiego di particolari composti organici che si illuminano quando viene applicata loro una corrente. Gli OLED possono essere quindi molto più sottili di un LCD e soprattutto offrono maggiori capacità di contrasto, perché possono spegnere le parti in cui deve essere mostrato il nero, a differenza degli LCD dove il pannello luminoso viene solo schermato e di conseguenza il nero appare meno intenso (ci sono comunque sistemi per ridurre il problema).
    AscensoreEsistono due tipi di ascensori: elettrici, che tirano la cabina dall’alto attraverso una fune; oleodinamici, che spingono la cabina dal basso tramite un pistone. Il primo tipo è il più diffuso e quello a cui pensano praticamente tutti quando si parla di un ascensore. Ai lati del vano in cui si muove la cabina ci sono delle guide per evitare che l’ascensore oscilli mentre si sposta in verticale tra i vari piani. Il motore elettrico sulla sommità del vano non avvolge le funi di trazione collegate alla cabina, ma come in una carrucola le fa muovere oltre la puleggia (un disco che gira intorno al suo asse) dove si trova invece il contrappeso. Questo ha una massa di solito pari a quella dell’ascensore a metà carico, in modo da bilanciare il sistema e ridurre lo sforzo che deve fare il motore per far salire o scendere la cabina.
    (Jared Owen via YouTube)
    Se una fune di trazione si spezza, ce ne sono altre per evitare che la cabina precipiti nel vano. Nella remota eventualità in cui si spezzino tutte le funi, un sistema frenante rileva meccanicamente l’improvviso aumento della velocità della cabina e fa scattare i freni, che premono contro le guide nel vano fermando in pochi istanti la cabina. Altri sistemi di sicurezza sono applicati alle porte ai piani, che si possono aprire solo in presenza della cabina: nei modelli con porta automatica sia interna sia esterna è il movimento della porta della cabina ad azionare anche la porta esterna al piano.
    FornoIl forno statico è presente nella maggior parte delle cucine e rappresenta la versione più semplice e tradizionale di questo elettrodomestico. Esposte o in un’intercapedine della camera di cottura ci sono delle resistenze (resistori) che, come suggerisce il nome, oppongono una certa resistenza al passaggio della corrente elettrica. Ciò determina il loro surriscaldamento e la produzione di calore può essere impiegata per scaldare un ambiente, nel caso di una stufetta, o la camera di cottura di un forno.
    Di solito quando si imposta la temperatura per la cottura non si interviene direttamente sulla temperatura delle resistenze, che a regime è sempre la stessa, ma su un termostato. Il compito di questo strumento è di rilevare la temperatura interna e di far disattivare le resistenze al raggiungimento di quella desiderata, facendole poi riattivare quando la temperatura scende. Un tempo la gestione della temperatura nella camera di cottura era alquanto approssimativa, mentre oggi ci sono sistemi più raffinati. Questo è uno dei motivi per cui ogni forno si comporta un po’ diversamente dagli altri e richiede qualche tempo per capire come modificare tempi e temperature di cottura rispetto alle ricette. Oltre al forno statico ci sono quelli ventilati (a convezione) che forzano con alcune ventole la circolazione dell’aria calda nel forno e quelli a vapore, che utilizzano anche il vapore acqueo per la cottura.
    Pentola a pressioneNonostante sia in circolazione da secoli, nei confronti della pentola a pressione c’è ancora diffidenza da parte di alcune persone. È una pentola solitamente di acciaio inossidabile con un coperchio che, a differenza delle altre casseruole, si chiude ermeticamente grazie a una guarnizione sul bordo del coperchio e a una leva che lo fa agganciare saldamente al resto della pentola. Gli alimenti vengono cotti aggiungendo sul fondo della pentola un po’ d’acqua, che a 100 °C si trasforma in vapore acqueo. A causa della chiusura ermetica, il vapore non può uscire dalla pentola e continua ad accumularsi portando a un aumento della pressione che fa aumentare la temperatura di ebollizione portandola a circa 120 °C, una condizione che non si può raggiungere con una pentola normale. La maggiore temperatura dell’acqua consente di cuocere gli alimenti più velocemente di quanto avverrebbe con una comune casseruola.
    Modello di pentola a pressione del XIX secolo (Wikimedia)
    La pressione raggiunta all’interno della pentola è solitamente il doppio di quella che si ha normalmente nell’atmosfera (in condizioni standard di temperatura e altitudine). Una valvola di controllo evita che si superi quel valore di pressione: è quel cilindro che di solito si sente sibilare quando la pentola è in pressione. C’è poi una valvola di sicurezza che interviene nel caso in cui non funzioni correttamente la valvola di controllo: è studiata per staccarsi dal coperchio in modo da ridurre rapidamente la pressione interna ed evitare cedimenti della pentola (che è comunque progettata per resistere ben al di sopra dei valori di pressione raggiunti durante la cottura).
    RompigettoIl rompigetto aeratore è quel piccolo cilindro applicato al termine dell’erogatore del rubinetto che rende il getto d’acqua bianco e opaco, invece che trasparente come dovrebbe essere di solito. L’effetto ottico è dovuto all’aggiunta di aria che contribuisce a ridurre la portata di acqua consumata, pur mantenendo una buona pressione del getto. Esistono aeratori formati da tante lamelle di plastica disposte a raggiera attraverso cui passa l’acqua incorporando dell’aria, ma ci sono anche modelli formati da reti con maglie minuscole sovrapposte tra loro, che favoriscono l’incorporazione dell’aria nel getto. L’aria passa attraverso la struttura centrale del rompigetto grazie ad alcune fessure.

    Oltre a rendere più omogeneo il getto dell’acqua che esce dal rubinetto, questi dispositivi permettono di ridurre del 30-60 per cento il consumo d’acqua a seconda dei modelli, senza avere una riduzione significativa della pressione. Soprattutto i modelli con le reti tendono ad accumulare calcare e altre impurità e devono essere di conseguenza puliti periodicamente, per evitare una riduzione della portata del rubinetto.
    Bomboletta sprayUna bomboletta spray, come quella del deodorante, contiene al proprio interno un gas (spesso propano e butano miscelati insieme) ad alta pressione in modo che sia allo stato liquido. Quando si preme la valvola di erogazione, la differenza di pressione tra l’interno e l’esterno della bomboletta fa sì che il contenuto tenda a fuoriuscire molto velocemente tornando allo stato gassoso. Il passaggio è rapido e repentino, al punto che il gas trascina con sé anche le altre sostanze presenti nella bomboletta come quelle che costituiscono il deodorante.
    L’erogatore e la valvola sono di solito collegati a una cannuccia che raggiunge il fondo della bomboletta, in modo da pescare più facilmente le sostanze più dense presenti nel contenitore, che tendono a depositarsi sul fondo. Per questo quando la bomboletta è ormai quasi scarica può essere utile inclinarla, facendo anche ruotare l’erogatore, in modo da raccogliere gli ultimi residui di deodorante.
    AspirapolvereAnche nel caso dell’aspirapolvere c’entra la pressione, ma a differenza della bomboletta all’interno di parte dell’elettrodomestico serve un ambiente a pressione inferiore rispetto a quella esterna. Per ottenere temporaneamente questa depressione si utilizza un motore elettrico collegato a una ventola che estrae l’aria da un recipiente disperdendola verso l’esterno. Il recipiente è collegato alla bocchetta di aspirazione ed è quello in cui si depositerà la polvere raccolta. Tra il recipiente, la ventola e la griglia che permette all’aria di uscire dall’aspirapolvere ci sono dei filtri che impediscono alla polvere di uscire con l’aria espulsa.
    A questo principio di base si sono aggiunti nel tempo sistemi per migliorare l’efficienza di aspirazione, evitando per esempio che questa si riduca in modo significativo man mano che il recipiente si riempie di polvere, rendendo più difficile il passaggio dell’aria. I modelli con tecnologia ciclonica fanno passare l’aria sporca in un contenitore conico in modo che questa percorra una stretta elica. Le particelle di polvere finiscono contro la parete del cono e cadono verso il basso, dove vengono raccolte nel recipiente per la polvere. Di solito si usano più cicloni per migliorare la resa di aspirazione anche quando il recipiente è quasi pieno.
    LavatriceLa lavatrice è stato uno dei primi elettrodomestici a diffondersi nelle abitazioni e ha rivoluzionato il modo di lavare i vestiti. Il cestello in cui si inseriscono i panni è messo in rotazione da un motore elettrico, collegato tramite una cinghia o applicato direttamente al cestello. Un sensore rileva quando l’oblò è chiuso e rende possibile l’accensione della lavatrice, dopo avere impostato il programma di lavaggio e la temperatura dell’acqua. Questa entra nel cestello attraverso un tubo collegato all’impianto di casa e a una valvola, che si chiude quando è stata caricata la quantità di acqua necessaria. Il detersivo proveniente dal cassetto viene miscelato all’acqua nelle prime fasi di caricamento, ma è sempre più frequente che sia inserito direttamente con i vestiti.
    Una lavatrice dei primi anni Cinquanta (Three Lions/Getty Images)
    Il cestello è traforato e si trova all’interno di un cilindro più grande, che non ha invece fori e contiene quindi l’acqua caricata per il lavaggio. Quando viene messo in rotazione dal motore, il cestello si muove all’interno del cilindro e fa sfregare tra loro i vestiti che si immergono un po’ per volta nell’acqua (è un sistema per utilizzare meno acqua e ridurre lo sforzo del motore). Una resistenza, collocata tra il cestello e il cilindro, scalda l’acqua per portarla alla temperatura desiderata. Durante un lavaggio ci sono più cicli di carico e scarico dell’acqua: quella sporca viene prelevata ed espulsa da una pompa. La “centrifuga” è il momento in cui il cestello gira molto velocemente: i vestiti vengono spinti verso le pareti e non possono andare oltre, mentre l’acqua può spingersi ancora più in là e lascia i tessuti infilandosi nei fori del cestello, viene raccolta nel cilindro ed espulsa tramite la pompa di scarico.
    TelecomandoPuntare il telecomando verso il televisore è un po’ come puntare una torcia, ma la luce emessa dal LED che si trova sulla parte anteriore del telecomando non è visibile: è nell’infrarosso (la parte della radiazione elettromagnetica che non riusciamo a vedere perché ha una frequenza inferiore a quella della luce visibile). Il televisore ha un sensore per captare i segnali nell’infrarosso inviati dal LED e tradurli in comandi per alzare o abbassare il volume, cambiare canale o accendere e spegnere il televisore stesso. Il segnale è inviato in codice binario, quindi a ogni comando è associata una combinazione di 1 e 0.
    Quando premiamo un tasto, il LED si accende (1) e spegne (0) velocemente un certo numero di volte, riproducendo il codice binario, il sensore sul televisore rileva la sequenza e attiva un comando di conseguenza. Prima dell’introduzione dei LED a infrarossi i telecomandi facevano lampeggiare una lampadina, quindi percepibile anche dalla nostra vista. I telecomandi dei televisori più recenti usano talvolta metodi di trasmissione alternativi, basati per esempio sulle onde radio del Bluetooth.
    TermosifoneIl classico termosifone contiene al suo interno dell’acqua calda proveniente da una caldaia che può essere presente nello stesso appartamento (riscaldamento autonomo) oppure condivisa tra più appartamenti (riscaldamento centralizzato) e di solito collocata nel piano più basso dell’edificio. L’acqua calda che esce dalla caldaia fluisce nei tubi e raggiunge attraverso una serie di diramazioni i termosifoni, che possono essere considerati a loro volta dei tubi, per quanto particolari. Sono progettati per accogliere diversi litri d’acqua e hanno una forma per esporre quanta più superficie possibile all’ambiente esterno.
    (Zanichelli)
    La questione della superficie è importante perché con i termosifoni la propagazione del calore avviene per convezione. L’aria sopra al calorifero si riscalda e, diventando meno densa, sale verso l’alto mentre quella fredda tende a scendere verso il basso dove viene scaldata dal termosifone in un ciclo continuo che contribuisce a far muovere l’aria nella stanza e a scaldarla. Con una forma diversa, il termosifone sarebbe meno efficiente nel cedere calore all’ambiente circostante. Una termovalvola (o testina termostatica) consente di regolare il flusso d’acqua nel termosifone in base a quanto si desidera scaldare un ambiente: raggiunta la temperatura, la valvola interrompe il flusso d’acqua in modo da ridurre i consumi. LEGGI TUTTO

  • in

    Ci servirebbe una macchina che annusa

    Gli odori hanno un ruolo centrale nella nostra percezione del mondo, eppure buona parte del funzionamento dell’olfatto rimane un mistero. Sappiamo che microscopiche strutture (i recettori) nel naso rilevano le sostanze in sospensione nell’aria che respiriamo e inviano un segnale al cervello, che elabora quell’informazione dandoci la consapevolezza di avere appena percepito un odore, ma non comprendiamo ancora perfettamente come. Osmo, una società statunitense con grandi finanziatori come Google, dice di avere fatto importanti progressi per risolvere il mistero insegnando alle macchine a riconoscere gli odori, naturalmente usando sistemi di intelligenza artificiale.Il capo di Osmo è Alex Wiltschko, un neurobiologo originario del Texas che ha fatto fortuna in California lavorando diversi anni a Google, prima che da una delle divisioni di ricerca della società nascesse la sua start-up. Fin da ragazzino Wiltschko era ossessionato dai profumi, al punto da averne una piccola collezione ed essere incuriosito dal modo in cui ciascuno di noi li percepisce, con una certa componente di soggettività. Fu quella curiosità a spingerlo a studiare neurobiologia e a conseguire un dottorato, che però non riuscì a mettere a frutto in ambito accademico, dove non sembrava esserci molto interesse per la biologia dell’olfatto.
    Wiltschko lasciò l’università, lavorò in varie società e infine trovò impiego a Google Research, dedicata alla ricerca di prodotti innovativi, dove divenne il responsabile di un gruppo di lavoro che si occupava di “olfatto digitale”. La sua idea, che avrebbe poi continuato a sviluppare con Osmo, era di creare un sistema per mappare gli odori, sviluppando sensori e sistemi informatici per la loro identificazione e in prospettiva per lo sviluppo di nuove molecole. Le applicazioni potrebbero essere molteplici, dalla produzione di profumi alla ricerca di deterrenti più efficaci contro gli insetti, passando per sensori in grado di diagnosticare malattie in base all’odore prodotto dai pazienti.
    Per lungo tempo l’olfatto ha ricevuto meno attenzioni rispetto ad altri sensi come la vista e l’udito, forse anche a causa della sua enorme e talvolta sfuggente complessità. I nostri occhi vedono una certa porzione della luce, definibile e misurabile, così come le nostre orecchie percepiscono i suoni con una frequenza compresa in un certo intervallo, anche in questo caso misurabile e analizzabile. Per l’olfatto è tutto più complicato: le sostanze che stimolano la nostra percezione sono potenzialmente miliardi e ciò che rende possibile identificarle, i recettori, sono strutture minuscole con una grande varietà di forme e funzioni. Si stima che siano almeno 400, contro i due tipi di recettori che rendono possibile la visione.
    Secondo Wiltschko, l’unico modo per padroneggiare una tale complessità è costruire una mappa, come del resto abbiamo fatto per definire la varietà di colori che possono vedere i nostri occhi o i suoni che possiamo percepire con le orecchie. Le mappe sono una delle invenzioni più efficaci per ridurre la complessità, o per lo meno per costruirne più livelli via via più articolati e dettagliati. La semplificazione che offre una cartina di un quartiere cittadino è ideale per essere gestita con le nostre conoscenze e capacità mentali, ma più una mappa diventa articolata più è difficile navigarla e per questo Osmo lavora con sistemi di intelligenza artificiale in grado di produrre la mappa stessa e di orientarsi al suo interno.
    (James Glossop/WPA Pool/Getty Images)
    I cartografi degli odori sono partiti da alcuni cataloghi di profumi realizzati negli anni, che descrivono sia la struttura delle molecole che producono determinati odori sia le loro caratteristiche quando vengono inalati: fruttato, legnoso, affumicato e così via. I cataloghi più grandi comprendono migliaia di molecole, ma non è sempre semplice trovare relazioni tra loro in modo da poterli organizzare in una mappa, che per esempio comprenda un’isola di odori che evocano la sensazione del fresco e un’altra dello stantio. Due composti chimici estremamente simili tra loro possono produrre due odori completamente diversi, mentre due molecole con strutture molto diverse tra loro possono produrre odori simili.
    Osmo ha quindi fatto allenare un sistema di intelligenza artificiale in modo che da quei cataloghi organizzasse gli odori in una mappa con circa 5mila punti, collegati tra loro su più livelli e da utilizzare per provare a prevedere le caratteristiche di altri odori non compresi nei cataloghi stessi partendo unicamente dalle caratteristiche della loro molecola. Una volta realizzato, il modello è stato messo alla prova confrontando le sue previsioni con le valutazioni di un gruppo di volontari.
    A 15 persone sono state proposte alcune centinaia di aromi, con la richiesta di odorarli e di descriverli scegliendo da un elenco di cinquanta parole come “tropicale” e “affumicato”. La percezione degli odori è soggettiva, ma nel complesso nelle valutazioni c’era la prevalenza di determinate parole. Il gruppo di ricerca ha poi confrontato le descrizioni fornite dai volontari con quelle prodotte dal sistema di intelligenza artificiale, che si basavano esclusivamente sull’interpretazione della struttura delle molecole di quegli aromi. Lo studio scientifico in cui è raccontato l’esperimento ha segnalato che l’AI riesce a fare un lavoro di identificazione e mappatura migliore di quello che riesce a fare una persona addestrata per catalogare gli odori.
    Il modello sviluppato da Osmo ha ricevuto grandi attenzioni, ma la società è distante da un uso commerciale. Nella percezione degli odori sono coinvolti molti altri fattori legati al funzionamento dei recettori e degli enzimi che intervengono sui composti che inaliamo con l’aria. La grande varietà di recettori implica che ci possano essere interazioni tra loro di tipo diverso a seconda delle sostanze, con esiti che variano da persona a persona. È il motivo per cui alcuni percepiscono come più intensi alcuni profumi, al punto da trovarli fastidiosi rispetto ad altri. Districarsi in queste sfumature è difficile, ma Wiltschko ritiene che la capacità di una AI di navigare e organizzare la complessità possa essere la risposta. Un tipo di risposta molto conveniente.
    Le valutazioni variano molto, ma si stima che il mercato dei profumi abbia un valore annuo intorno ai 30 miliardi di dollari. È un settore particolarmente remunerativo soprattutto per i produttori di cosmetici e profumi, con alti ricarichi resi possibili soprattutto dalle collaborazioni delle società che li sviluppano con i grandi marchi di moda. Trovare le giuste combinazioni di aromi sta però diventando sempre più difficile perché si faticano a trovare nuove molecole.
    (Justin Sullivan/Getty Images)
    Le società che se ne occupano investono ingenti quantità di denaro per sintetizzarne di nuove, ma poche si rivelano poi adatte per essere impiegate in un profumo. Alcune non sono persistenti a sufficienza dopo l’applicazione sulla pelle, altre sono poco stabili o si disgregano troppo facilmente quando sono miscelate con altri composti. Una nuova molecola di sintesi deve essere inoltre testata per verificarne la sicurezza, con regole che variano a seconda dei paesi. Può quindi accadere che un composto che sembrava molto promettente debba essere accantonato dopo anni di sviluppo, rendendo fallimentare l’investimento iniziale.
    In futuro i sistemi sviluppati da Osmo, e da altre società che seguono approcci simili, potrebbero essere impiegati per sviluppare velocemente nuove molecole usando le loro articolate mappe degli odori. L’idea è che si possa chiedere al sistema un aroma di cedro maturato al Sole nell’aria salmastra del Mediterraneo d’estate, ottenendo come risposta la formula chimica delle sostanze per realizzarla. In ultima istanza, potrebbe essere il sistema stesso a provvedere alla sua sintesi, uno scenario che per i più scettici è da fantascienza allo stato attuale delle conoscenze e delle tecnologie.
    I modelli basati sulle AI potrebbero rivelarsi utili anche per sviluppare nuovi sistemi per l’analisi e la rivelazione degli odori. Macchinari di questo tipo esistono già da tempo, ma di solito sono altamente specializzati nel riconoscere determinate sostanze. I cosiddetti “nasi elettronici” sono impiegati per esempio per rilevare gli inquinanti presenti nell’aria come il diossido di azoto o il monossido di carbonio, o per valutare l’impatto olfattivo di impianti industriali nelle prossimità dei centri abitati. Non esistono però nasi elettronici versatili e con capacità paragonabili a quelle del nostro olfatto, e soprattutto non forniscono descrizioni delle sensazioni che evocano le sostanze odorose.
    Oltre ai recettori che abbiamo nel naso, la nostra esperienza con gli aromi è fortemente legata all’attività cerebrale. Il nostro cervello è estremamente abile nell’interpretare i segnali che riceve quando odoriamo qualcosa e alcune persone hanno capacità più spiccate di altre. L’”ipersomia” è una condizione che determina questa capacità e può portare a esiti sorprendenti, come la capacità di distinguere l’odore di una malattia degenerativa, prima che questa diventi evidente in chi ne è affetto. Imitando questa capacità si potrebbero quindi realizzare nasi elettronici per aiutare i medici nella diagnosi precoce di alcune malattie, intervenendo con le terapie prima ancora della comparsa di alcuni sintomi.
    Un naso elettronico basato sull’intelligenza artificiale come quello cui sta lavorando Osmo potrebbe rivelarsi utile anche per un altro tipo di prevenzione. Ogni anno in tutto il mondo ci sono circa 250 milioni di casi di malaria trasmessa dalle zanzare, con oltre 600mila morti annue per la malattia. Intervenire sulle popolazioni di zanzare e sui metodi per prevenire il loro morso è essenziale per ridurre i contagi e di conseguenza i decessi, ma fare prevenzione è costoso e richiede grandi sforzi organizzativi, non sempre praticabili nelle aree più povere del mondo. Un migliore repellente contro le zanzare potrebbe fare la differenza.
    Reti per ridurre il rischio di contagi da malaria dovuti alle zanzare in una capanna in Cambogia nel 2010 (Paula Bronstein/Getty Images)
    Per questo la Bill & Melinda Gates Foundation, che finanzia da anni progetti per contrastare la diffusione della malaria, ha investito 3,5 milioni di dollari in Osmo scommettendo sulle capacità dei suoi sistemi per sviluppare in futuro repellenti di nuova generazione contro le zanzare. Questi insetti trovano le loro prede, per lo più gli esseri umani, grazie a recettori estremamente sensibili all’anidride carbonica e ad altre sostanze volatili che produciamo con la traspirazione.
    I repellenti le mascherano in modo da risultare meno appetibili alle zanzare, ma contengono sostanze da utilizzare con cautela e c’è il sospetto che generazione dopo generazione le zanzare abbiano iniziato ad adattarsi e a non trovarle più repellenti come un tempo. Conoscendo il funzionamento dei recettori delle zanzare, i sistemi di Osmo e quelli sviluppati da altre società potrebbero essere impiegati per sviluppare sostanze per eluderli e che al tempo stesso richiedano meno precauzioni per il loro utilizzo rispetto ai repellenti attuali.
    Wiltschko aveva iniziato a lavorare con i sistemi di intelligenza artificiale ben prima che iniziasse l’euforia degli ultimi anni, spinta soprattutto dai successi di ChatGPT di OpenAI. Il maggiore interesse verso queste tecnologie ha comunque favorito gli investimenti anche nel settore in cui è attiva Osmo, che dovrà quindi confrontarsi con altre aziende e start-up interessate a risolvere il mistero dell’olfatto, o almeno a provarci. LEGGI TUTTO

  • in

    Si fa presto a dire test di Turing

    Caricamento playerL’8 giugno di settant’anni fa Alan Turing fu trovato morto nella propria casa di Wilmslow, in Inghilterra, dalla sua governante. Le analisi sul suo corpo portarono alla conclusione che uno dei più brillanti pionieri dell’informatica fosse morto il giorno prima – il 7 giugno – a causa di un avvelenamento da cianuro. Vicino al suo corpo c’era una mela mangiata a metà: si ipotizzò che Turing l’avesse usata per mascherare il sapore del veleno, ma non fu mai analizzata per verificare se contenesse tracce di cianuro. Turing morì dopo un periodo di grandi difficoltà, definito dalle leggi dell’epoca un criminale per la propria omosessualità e sottoposto alla castrazione chimica, dopo aver dato un contributo fondamentale all’informatica e allo sviluppo del concetto di “intelligenza artificiale”.
    Solo nel 2009, a più di mezzo secolo dalla sua morte, il governo britannico espresse il proprio rammarico per il trattamento riservato a Turing, così come alle migliaia di altre persone condannate per la loro omosessualità. Furono poi necessari altri quattro anni prima che la regina Elisabetta II concedesse a Turing una grazia postuma, riconoscendo il suo importante contributo per il progresso e la pace, soprattutto in un periodo drammatico come quello della Seconda guerra mondiale.
    Turing fu infatti uno dei protagonisti delle decodifica dei messaggi realizzati con Enigma, la macchina sviluppata dai nazisti per comunicare in codice e organizzare gli attacchi soprattutto contro i sottomarini degli Alleati, come raccontato nel film The Imitation Game con Benedict Cumberbatch. Ma il contributo più grande di Turing fu nello studio e nelle riflessioni intorno al rapporto tra gli esseri umani e le macchine, in un periodo in cui l’informatica per come la intendiamo oggi era agli albori e gli scenari in cui i computer avrebbero risolto molti dei nostri problemi sembravano ancora da fantascienza.
    Prima della Seconda guerra mondiale e di Enigma, Turing immaginò nei suoi studi una macchina in grado di svolgere qualsiasi compito, prospettando caratteristiche e funzionamenti non molto lontani da quelli dei computer che usiamo ogni giorno, smartphone compresi. Turing riteneva che la sua ipotetica macchina sarebbe stata in grado di rispondere a specifiche esigenze, a patto di fornirle un programma adeguato per farlo.
    Ma Turing era soprattutto affascinato dalla possibilità che un giorno le macchine potessero diventare sofisticate al punto da sembrare umane. Illustrò l’idea in un articolo pubblicato nel 1950 sulla rivista accademica Mind, descrivendo un esperimento per mettere alla prova un sistema artificiale in una conversazione tra esseri umani.
    Fin dall’inizio dell’articolo Turing chiariva la difficoltà del problema: «Propongo di prendere in considerazione la seguente questione: “Le macchine possono pensare?”». La riflessione proseguiva segnalando come fosse difficile definire il concetto stesso di “pensare”, arrivando alla proposta di un gioco-test basato per lo più sul linguaggio da considerare come un’espressione di intelligenza.
    Una versione di Enigma (Getty Images)
    Nel corso del tempo sarebbero state elaborate varie versioni del test, oggi noto come “Test di Turing” dal nome del suo inventore, ma ci sono spesso elementi comuni. Nel test un valutatore deve essere in grado di distinguere veri interlocutori da un interlocutore artificiale, naturalmente senza poterli vedere e sapendo che uno di loro è una macchina. Il sistema artificiale supera la prova se il valutatore non riesce a distinguerlo dagli esseri umani.
    Nonostante fosse stato presentato in un articolo in parte speculativo e “minore” rispetto ad altre ricerche svolte da Turing – e non fosse definito esplicitamente come un modo per misurare l’intelligenza di un sistema – il test che porta il suo nome sarebbe diventato negli anni un importante punto di riferimento per chi si occupa di informatica e di sistemi di intelligenza artificiale. A oltre 70 anni dalla sua pubblicazione, si discute ancora oggi sulla possibilità che una macchina sviluppi una propria coscienza, tale da consentirle di articolare un pensiero e di averne consapevolezza.
    Nel corso del tempo il test di Turing avrebbe ricevuto diverse critiche per una certa ingenuità, dimostrata dal fatto che alcuni dei vincoli previsti possono essere facilmente aggirati per dare l’illusione al valutatore di avere effettivamente a che fare con un essere umano, anche se sta interagendo con una macchina fortemente limitata ma programmata per nascondere i propri limiti. Anche per questo motivo nacquero test alternativi, pur basati sugli assunti di Turing.
    ELIZA, un programma sviluppato negli anni Sessanta negli Stati Uniti, dava risposte all’apparenza “intelligenti” imitando uno psicologo. Il sistema suggeriva con una certa frequenza ai propri interlocutori umani di riflettere sulle loro affermazioni, proprio come avrebbe fatto un terapista, semplicemente componendo le proprie frasi in domande che contenevano parte delle risposte appena ricevute. Secondo alcuni parametri, ELIZA superava il test e in un recente studio ha anche battuto una delle versioni di GPT, il sistema di intelligenza artificiale che fa funzionare il famoso ChatGPT.
    Che un sistema concepito 60 anni fa, quando i computer avevano una frazione della capacità di calcolo di quelli attuali, ne abbia superato uno recentissimo e molto discusso proprio per le sue capacità si spiega col fatto che non esiste un’unica versione formalizzata del test. L’idea di base è quella che fu esposta da Alan Turing a metà Novecento, ma i modi in cui viene effettuato il test possono variare sensibilmente in base ai criteri scelti dai gruppi di ricerca che se ne occupano.
    Essendo il sistema più conosciuto e studiato degli ultimi anni, ChatGPT è finito al centro di molte sperimentazioni anche tese a verificare la sua capacità di produrre conversazioni così verosimili da poter essere scambiate per quelle prodotte da un essere umano.
    Nel luglio del 2023 un articolo pubblicato su Nature ha segnalato il superamento del test di Turing da parte di ChatGPT, pur evidenziando come rimangano irrisolti molti problemi legati al produrre sistemi che siano effettivamente in grado di ragionare. Alcuni particolari sistemi di AI come ChatGPT sono basati su modelli linguistici di grandi dimensioni (LLM) per la generazione di testi, che prevedono le parole da utilizzare man mano che scrivono una frase senza che abbiano una consapevolezza di ciò che stanno facendo (per alcuni esperti è un problema secondario, nel momento in cui una AI svolge comunque efficacemente il compito che le è stato assegnato).
    A inizio 2024 un altro studio, pubblicato su Proceedings of the National Academy of Sciences, ha segnalato come la versione all’epoca più recente di ChatGPT producesse conversazioni non distinguibili da quelle dei suoi interlocutori umani, rivelando le proprie origini artificiali solo nel caso di risposte orientate in modo più marcato alla cooperazione e all’altruismo. La sperimentazione era stata effettuata basandosi su una serie di test solitamente somministrati per verificare la personalità e le scelte in particolari scenari, di tipo etico ed economico. Secondo il gruppo di ricerca, lo studio dimostra uno dei primi casi in cui una intelligenza artificiale ha superato «un rigoroso test di Turing», ma per alcune delle risposte fornite «non avrebbe probabilmente guadagnato molti amici».
    L’esperimento non può comunque essere considerato definitivo, visto che la questione del test di Turing e più in generale della capacità delle macchine di pensare è ancora ampiamente discussa tra chi si occupa di filosofia, di informatica e di matematica. La proposta di Turing non era del resto orientata a dare risposte, ma a fare domande: non aveva pensato il proprio test come una prova di intelligenza e umanità, ma come un gioco, una gara di imitazione. Lo immaginò in un’epoca molto diversa dalla nostra, dove sarebbe stato già sorprendente di per sé avere un programma che risponde a delle domande ed è in grado di portare avanti una conversazione.
    Oggi sappiamo che quei sistemi esistono, sono ormai nella nostra vita di tutti i giorni, ma sappiamo anche che non hanno consapevolezza di sé e che non “pensano”. E quando arriviamo a quest’ultima conclusione, ci interroghiamo su che cosa significhi davvero “pensare”, un concetto per nulla banale e sul quale si ragiona e specula praticamente da sempre. Turing era consapevole dell’impossibilità di dare una risposta convincente alla definizione di quel concetto, ancor prima di applicarlo alle macchine.
    Una statua dedicata ad Alan Turing a Manchester, Regno Unito (Getty Images)
    Di certo Turing avrebbe osservato con interesse i progressi raggiunti nel campo delle AI negli ultimi anni, visto che già nel suo articolo del 1950 ammetteva che «Le macchine mi sorprendono con grande frequenza», aggiungendo poi:
    L’idea che le macchine non possano suscitare sorprese è dovuta, a mio avviso, a un errore a cui sono particolarmente soggetti filosofi e matematici. Deriva dal presupposto che non appena un fatto viene presentato a una mente, tutte le conseguenze di quel fatto affiorano nella mente simultaneamente con esso. È un presupposto molto utile in molte circostanze, ma si dimentica troppo facilmente che è falso. Una conseguenza naturale di ciò è che si presuppone che non vi sia alcuna virtù nel mero elaborare conseguenze partendo da dati e principi generali.
    Alan Turing morì a 41 anni in circostanze mai completamente chiarite e che ancora oggi lasciano aperte molte domande. Due anni prima della sua morte, la polizia stava indagando su un furto avvenuto nella sua casa e Turing ammise di avere avuto una relazione fisica con un uomo, che gli aveva riferito di conoscere l’identità di chi aveva commesso il furto e che sarebbe stato quindi utile alle indagini. Nel marzo del 1952 Turing fu accusato di «grave indecenza e perversione sessuale» e si dichiarò colpevole e fu condannato alla castrazione chimica attraverso l’assunzione di estrogeni. La condanna per omosessualità comportò la fine dell’accesso da parte di Turing ai documenti e alle attività governative secretate, per esempio legate alle attività di intelligence durante la Guerra Fredda, nonostante pochi anni prima avesse dato un contributo importante nel decifrare i messaggi di Enigma.
    Il corpo di Alan Turing fu cremato due giorni dopo la morte e le ceneri furono disperse nel giardino del crematorio, nel punto in cui anni prima erano state disperse le ceneri di suo padre.
    ***
    Dove chiedere aiutoSe sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24.Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22. LEGGI TUTTO

  • in

    Avremo farmaci sviluppati dalle intelligenze artificiali?

    Sviluppare un nuovo farmaco è un po’ come fare una scommessa: si investono tempo e moltissimo denaro nella ricerca e nella sperimentazione di qualcosa che non si sa se davvero funzionerà e che potrebbe rivelarsi un costosissimo fallimento. Una nuova molecola molto promettente in laboratorio può mostrarsi inefficace nella sperimentazione animale o nei test clinici sugli esseri umani e prevederlo prima è spesso impossibile. Per ridurre uno dei rischi di impresa più grandi che esistano, negli ultimi tempi le aziende farmaceutiche hanno iniziato a esplorare le nuove possibilità offerte dai sistemi di intelligenza artificiale (AI), i cui progressi sono diventati evidenti anche ai meno esperti nell’ultimo anno soprattutto grazie al successo di ChatGPT di OpenAI.Alcune aziende hanno iniziato a utilizzare le AI per provare a prevedere efficacia e sicurezza di nuovi principi attivi, altre per rendere più semplice e rapido il complicato processo di selezione dei volontari che partecipano ai test clinici. Lo hanno fatto sia sviluppando al proprio interno nuove divisioni dedicate ai sistemi di intelligenza artificiale, sia appoggiandosi alle società e startup nate di recente proprio per applicare le AI al settore dei farmaci.
    A inizio gennaio le due aziende farmaceutiche Eli Lilly e Novartis hanno stretto un accordo con Isomorphic Labs, una società controllata da Alphabet (la holding di Google) e nata da una divisione di DeepMind, una delle più innovative aziende nel settore delle AI. Trattandosi di accordi per un valore complessivo di 3 miliardi di dollari se ne è parlato molto e non solo tra gli addetti ai lavori, ma le condizioni prevedono investimenti piuttosto misurati nel tempo. Eli Lilly anticiperà 45 milioni di dollari, ma i restanti 1,7 miliardi di dollari dell’accordo saranno pagati solo al raggiungimento di alcuni risultati ambiziosi, come l’avvio dei test clinici o l’approvazione dei nuovi principi attivi. Qualcosa di analogo riguarda anche Novartis che anticiperà 37,5 milioni di dollari e investirà altri 1,2 miliardi di dollari nel tempo, sulla base di un sistema basato su incentivi e risultati.
    DeepMind è tra le società che più hanno sperimentato l’impiego delle AI in ambito scientifico e in particolare nell’analisi e nella previsione delle caratteristiche delle proteine. La forma di una proteina determina infatti anche la sua funzione, di conseguenza lo studio e la previsione della sua struttura sono fondamentali nello sviluppo di molti farmaci. Isomorphic Labs parte da quelle conoscenze e ha l’obiettivo di accelerare in modo significativo la fase di scoperta di nuove molecole per i farmaci che attualmente dura diversi anni e richiede molte risorse, portandola dalla media di cinque anni a due.
    Sfruttando diversi modelli di apprendimento automatico, Isomorphic Labs ha sviluppato una piattaforma per prevedere le caratteristiche delle molecole e il modo in cui potranno interagire con l’organismo. Avere la possibilità di fare queste valutazioni in maniera più accurata consente di orientare la ricerca, riducendo il rischio di un fallimento nelle fasi successive quando dalla sperimentazione in laboratorio si passa ai test clinici con le persone. Il sistema naturalmente non garantisce sempre la produzione di molecole efficaci e sicure, ma secondo i responsabili dell’azienda può limitare sensibilmente gli insuccessi e soprattutto potrebbe accelerare le fasi di sviluppo.
    In un certo senso i sistemi di Isomorphic Labs hanno qualcosa in comune con i modelli generativi come ChatGPT, che tra le altre cose riescono a comporre testi come in una normale conversazione utilizzando la statistica per prevedere qualche parola da inserire dopo quella che hanno appena prodotto. Le AI per lo sviluppo dei farmaci fanno qualcosa di simile, ma per progettare le strutture molecolari rispettando alcune regole e limitazioni che vengono scelte dagli operatori. In poco tempo, il sistema è in grado di produrre numerose varianti della stessa molecola, affinando man mano il risultato in base agli effetti previsti sull’organismo.
    Sanofi, un’altra grande azienda farmaceutica, ha avviato una collaborazione con la società Exscientia che nella sua documentazione si presenta con frasi alquanto audaci come: “In futuro tutti i farmaci saranno progettati con le AI. Il futuro è ora con Exscientia”. Anche questa azienda ha l’obiettivo di scoprire nuovi principi attivi e di prevederne le caratteristiche e le interazioni con l’organismo, ancora prima di avviarne lo sviluppo e la sperimentazione.
    L’azienda farmaceutica italiana Menarini ha invece avviato una collaborazione con Insilico Medicine, società fondata tra Hong Kong e New York che sostiene di avere già sviluppato 17 potenziali nuovi farmaci sui quali effettuare i test clinici. L’accordo ha un valore stimato intorno ai 500 milioni di dollari e coinvolge Stemline Therapeutics, una delle controllate di Menarini, che avrà l’esclusiva per lo sviluppo, la sperimentazione e l’eventuale vendita di un nuovo principio attivo per il trattamento di alcune forme di tumore. Le possibilità di successo, però, sono ancora tutte da dimostrare.
    Per questo motivo ha suscitato una certa attenzione nel settore l’avvio dei test clinici su un nuovo farmaco sperimentale di Genentech per trattare la colite ulcerosa, una malattia cronica che comporta una forte infiammazione del colon, tale da far aumentare nel tempo il rischio di tumore rispetto a chi non ha questa condizione. Il principio attivo era stato sviluppato per trattare altri problemi di salute, ma da alcune simulazioni con sistemi di intelligenza artificiale è emerso che avrebbe potuto dare qualche risultato contro la colite ulcerosa.
    Talvolta può accadere che un farmaco sperimentale si riveli inefficace nel trattare la condizione per cui era stato sviluppato, mentre mostra di essere promettente contro un’altra malattia. Scoprirlo però non è semplice e richiede spesso anni di lavoro o qualche coincidenza favorevole. I gruppi di ricerca di Genentech sono riusciti a ottenere questo risultato in nove mesi utilizzando anche le AI per confrontare milioni di ipotesi, fino a trovare conferme sulla probabile utilità del loro farmaco nel trattare le cellule del colon coinvolte nella malattia.
    Già nel 2022 erano emersi indizi sul possibile uso del farmaco contro la colite ulcerosa, ma ora saranno necessari i test clinici per confermare la sua efficacia su pazienti veri. Le sperimentazioni di questo tipo fuori dai laboratori sono richieste dalle autorità di controllo per assicurarsi non solo che un farmaco sia efficace, ma anche sicuro per chi lo utilizza.
    I tempi dei test clinici sono molto lunghi e spesso hanno una fase iniziale molto costosa, sia in termini di tempo sia di denaro, per la selezione dei volontari che dovranno far parte della sperimentazione. Per alcuni test clinici è infatti necessario avere persone con diagnosi chiare della malattia che si vuole trattare, distribuiti in particolari fasce della popolazione per genere, età, condizione economica e provenienza geografica. In molti studi più il campione selezionato è di qualità, più ci si possono attendere dati affidabili.
    Partendo da questi presupposti, alcune aziende farmaceutiche hanno iniziato a sfruttare sistemi di intelligenza artificiale per organizzare la selezione dei volontari nei test clinici. Le AI possono accedere a enormi elenchi, come quelli degli ospedali o quelli tenuti dalle istituzioni sanitarie, effettuando rapidamente una preselezione in base ai criteri richiesti dall’azienda farmaceutica. In questo modo si riducono i tempi successivi della selezione e, almeno in linea teorica, si possono ottenere gruppi di volontari più adatti alla sperimentazione da svolgere.
    La multinazionale farmaceutica Amgen ha sviluppato uno strumento di intelligenza artificiale che si chiama ATOMIC, specializzato nella ricerca e nella classificazione dei dati clinici provenienti da medici, ospedali e altre istituzioni sanitarie. Amgen dice che con il nuovo sistema è in grado di selezionare in meno di nove mesi i volontari per uno studio clinico, rispetto all’anno e mezzo di lavoro richiesto in precedenza. La società ha già usato lo strumento per l’avvio di alcuni test clinici legati alle malattie cardiovascolari e al trattamento dei tumori con buoni risultati, di conseguenza utilizzerà ATOMIC per buona parte delle nuove selezioni in programma per quest’anno.
    La selezione dei volontari è naturalmente un ambito molto diverso rispetto a quello dello sviluppo di nuovi principi attivi, ma è comunque importante perché una sua migliore gestione potrebbe consentire alle aziende farmaceutiche di risparmiare tempo e denaro. È inoltre un settore in cui secondo gli esperti ci sono maggiori margini di successo in breve tempo e minori rischi, considerata la diversa complessità dell’iniziativa.
    Soluzioni di questo tipo sono inoltre viste come una naturale evoluzione degli strumenti basati sulle AI che avevano iniziato a farsi spazio nelle aziende farmaceutiche. Per esempio l’azienda svizzera Roche ha sviluppato un sistema che ha chiamato RocheGPT con dati e informazioni legati all’azienda, alle sue attività e agli ambiti di ricerca. RocheGPT è visto come una sorta di ChatGPT, ma altamente specializzato sulle caratteristiche di Roche e in grado di fornire risposte di vario tipo e in vari ambiti, non necessariamente legati alla sola ricerca, ma anche alla gestione delle attività aziendali.
    Altre aziende farmaceutiche hanno iniziato a sperimentare le AI per accelerare altri processi che di solito richiedono molto tempo legati alla compilazione della documentazione da presentare agli organismi regolatori, come la Food and Drug Administration (FDA) negli Stati Uniti e l’Agenzia europea per i medicinali (EMA) in Europa. In alcuni casi si tratta di documenti accessori e meno importanti, in altri dell’organizzazione dei dati dei test clinici sui quali è comunque necessario un controllo umano finale. Al momento FDA ed EMA non hanno regole esplicite sull’impiego dei sistemi di intelligenza artificiale, ma iniziano a essere sollevati dubbi e preoccupazioni per la loro mancanza, come del resto sta avvenendo in diversi altri settori in cui hanno iniziato a diffondersi le AI di ultima generazione.
    A essere molto interessate al settore farmaceutico non ci sono solamente le società che sviluppano sistemi di intelligenza artificiale, ma anche le aziende che producono microprocessori. Nvidia, uno dei principali produttori al mondo di chip e molto attivo nel settore dei sistemi per le AI, ha contratti con almeno una ventina di aziende farmaceutiche per fornire i propri processori o i centri dati che vengono impiegati per la grande quantità di calcoli richiesti da alcuni modelli di intelligenza artificiale. La domanda è alta e secondo alcuni analisti in breve tempo alcune delle aziende farmaceutiche più grandi competeranno per i dati e la capacità di elaborarli.
    L’interesse intorno ai sistemi di intelligenza artificiale nell’ultimo anno è stato senza precedenti e di sicuro ha portato ad aspettative che in alcuni ambiti sono molto più alte rispetto alle effettive capacità di alcune AI. Gli investimenti, comunque, non mancano in numerosi settori e si prevede che si manterranno alti anche nel corso di quest’anno. In ambito farmaceutico si stima che nell’ultimo decennio ci siano stati investimenti per circa 18 miliardi di dollari in società di biotecnologie che hanno al centro i sistemi di intelligenza artificiale. Se agli inizi riguardavano per lo più società di dimensioni relativamente piccole o medie, ora interessano alcuni dei marchi più famosi e potenti al mondo. LEGGI TUTTO