More stories

  • in

    SpaceX ci riprova con Starship

    Oggi la compagnia spaziale statunitense SpaceX tenterà per la seconda volta di raggiungere lo Spazio con la sua gigantesca astronave Starship, che nel suo sistema di lancio comprende Super Heavy, il razzo più potente mai realizzato nella storia delle esplorazioni spaziali. Il lancio è previsto intorno alle 14 (ora italiana) ed è un secondo tentativo dopo quello non andato a buon fine dello scorso aprile, quando i tecnici avevano deciso di fare esplodere il veicolo spaziale a causa di vari malfunzionamenti emersi nei primi minuti di volo. Il nuovo test è considerato essenziale per dimostrare le capacità di Starship, che un giorno sarà impiegata per il primo allunaggio del programma lunare Artemis e in futuro per l’esplorazione con astronauti di Marte, almeno nei piani di Elon Musk, il fondatore di SpaceX.Il lancio avverrà da Boca Chica, la piccola località a pochi chilometri di distanza dalla costa del Golfo del Messico in Texas. In quella zona nell’ultima decina di anni SpaceX ha costruito un grande complesso che ha chiamato Starbase. L’area è servita sia all’assemblaggio di Starship e Super Heavy sia ai test delle prime versioni di prova dell’astronave, con grandi esplosioni e un solo tentativo riuscito di riportare al suolo intero il veicolo spaziale, seppure con qualche danno.Esteticamente, Starship ricorda l’astronave di Tintin nel raconto a fumetti Obiettivo Luna, ma è molto più grande e meno colorata. È alta 50 metri, quanto un palazzo di 16 piani, e ha un diametro di circa 9 metri; utilizza sei motori alimentati con ossigeno liquido e metano liquido, che a pieno carico aggiungono circa 300 tonnellate alle mille della massa dell’astronave. Una volta funzionante, potrà essere impiegata per il trasporto in orbita di satelliti di grandi dimensioni, di moduli per stazioni spaziali (compresa la base Gateway che dovrà essere costruita intorno alla Luna nell’ambito di Artemis) e di equipaggi anche verso la Luna o Marte.Per raggiungere l’orbita terrestre, la potenza di Starship non è sufficiente e per questo per darle la spinta necessaria viene utilizzato il grande razzo Super Heavy, alto quasi 70 metri e dotato di 33 motori, sempre alimentati da ossigeno liquido e metano liquido. Il lanciatore spinge Starship oltre l’atmosfera, poi compie una manovra per tornare sulla Terra come fanno già i Falcon 9, i razzi parzialmente riutilizzabili di SpaceX. Il sistema consente di non dovere costruire nuovi razzi per ogni lancio, come fanno diversi concorrenti di SpaceX, e ciò permette di ridurre molto i costi per i lanci e di renderli più frequenti.Super Heavy e Starship montata sulla sua sommità, sulla rampa di lancio (AP Photo/Eric Gay, File)Per Starship e Super Heavy l’obiettivo è ancora più ambizioso, perché la compagnia spaziale vuole ottenere un sistema di lancio che sia completamente riutilizzabile. Entrambi i veicoli spaziali dovrebbero avere la capacità di tornare sulla Terra effettuando un atterraggio controllato, in modo da essere pronti per un nuovo lancio dopo il rifornimento, un po’ come fanno gli aeroplani. Riuscirci non è però semplice, il sistema è complesso e questo spiega le numerose esplosioni che si sono viste in questi anni a Boca Chica, compresa quella fragorosa dello scorso aprile.La partenza del razzo era stata molto più energetica del previsto, aveva distrutto la piattaforma della rampa di lancio e aveva prodotto una forte onda d’urto, con conseguenze nel raggio di diversi chilometri. Starship non si era separata da Super Heavy per proseguire il proprio viaggio e aveva perso la traiettoria corretta, rendendo necessario l’innesco di alcune cariche esplosive per distruggere l’intero sistema. Nei mesi seguenti i tecnici di SpaceX si erano messi al lavoro per analizzare l’incidente e rivedere alcuni componenti e meccanismi sia su Starship sia su Super Heavy. In un rapporto pubblicato lo scorso settembre, SpaceX aveva segnalato che la causa principale dei problemi era stata una perdita di propellente da Super Heavy, che aveva poi avuto ripercussioni su altri componenti.L’incidente aveva portato la Federal Aviation Administration (FAA), l’agenzia governativa statunitense che si occupa delle autorizzazioni per l’aviazione civile, ad avviare una propria indagine che era terminata con la pubblicazione di un rapporto contenente 63 richieste a SpaceX, soprattutto per mettere in sicurezza l’area di lancio. L’onda d’urto aveva provocato il danneggiamento di vari edifici intorno a Boca Chica, alcuni detriti avevano colpito almeno un veicolo e le associazioni ambientaliste avevano segnalato il rischio di contaminazioni e inquinamento. SpaceX ha quindi dovuto rispettare le indicazioni della FAA per ottenere il nuovo permesso per un lancio sperimentale.Oltre ad apportare modifiche a Starship e Super Heavy, negli ultimi mesi SpaceX ha lavorato per rinforzare la base della rampa di lancio, aggiungendo un sistema più elaborato e potente di getti d’acqua, che si attivano per ridurre l’onda d’urto dei motori prodotta nei primi istanti dalla loro accensione. Sono stati assunti diversi altri accorgimenti legati alla riduzione del rischio nella dispersione di inquinanti.SpaceX proverà inoltre una procedura di separazione diversa tra Super Heavy e Starship, facendo accendere i motori all’astronave prima che si separi dal razzo. È una pratica seguita da tempo soprattutto sui razzi russi e consente di perdere meno potenza quando il lanciatore ha quasi terminato la propria spinta e si separa dal resto, visto che farebbe solamente da zavorra. Il passaggio a questa soluzione ha reso necessaria la revisione del funzionamento di alcuni sistemi e potrebbe aggiungere qualche complicazione. Dopo il primo tentativo ad aprile, Musk aveva detto che le probabilità di successo con un secondo lancio sarebbero state superiori al 50 per cento.Come in primavera, il lancio di oggi avverrà utilizzando “Mechazilla”, la particolare rampa di lancio dotata di due grandi bracci meccanici chiamati informalmente “chopsticks” (“bacchette” in inglese) che un giorno dovranno pinzare i razzi di ritorno: in questo secondo test non è previsto il recupero.Le “bacchette” di Mechazilla durante un test dei motori (SpaceX)Al termine del conto alla rovescia, Super Heavy accenderà i 33 motori e spingerà Starship per circa tre minuti, bruciando in poco tempo la grande quantità di propellente nei propri serbatoi. Si separerà poi da Starship e tornerà sulla Terra, effettuando un atterraggio controllato nelle acque del Golfo del Messico: si inabisserà e non sarà riutilizzato, mentre le sue versioni future torneranno automaticamente verso Mechazilla per essere recuperate e riutilizzate. Starship intanto proseguirà il proprio viaggio spingendosi oltre l’atmosfera terrestre e si inserirà in un’orbita per iniziare a girare intorno alla Terra a un’altitudine di circa 230 chilometri. I piani prevedono che sia effettuata un’orbita parziale, poi Starship effettuerà una manovra per rientrare nell’atmosfera e finire nell’oceano Pacifico, dove non sarà recuperata.Il nuovo lancio è molto atteso perché dallo sviluppo di Starship e Super Heavy dipende una parte importante dei piani per tornare sulla Luna e per costruire una stazione spaziale nella sua orbita. La NASA ha dato un appalto da 2,9 miliardi di dollari a SpaceX per realizzare il nuovo sistema e utilizzarlo come veicolo da trasporto per compiere gli allunaggi a partire dalla missione Artemis 3, in programma non prima della fine del 2025 (ci saranno probabilmente ritardi). Negli ultimi mesi sono stati sollevati dubbi e qualche preoccupazione sulla lentezza dei progressi raggiunti, soprattutto se confrontati con gli annunci fatti in passato da Musk che in più occasioni aveva definito imminente un volo orbitale di Starship, senza che questo venisse realizzato a causa dei ritardi e di vari inconvenienti tecnici.SpaceX confida comunque di accelerare i tempi di sviluppo, seguendo una strategia simile a quella adottata nei primi anni di realizzazione dei Falcon 9, i razzi che ormai impiega regolarmente per trasportare satelliti in orbita, materiale ed equipaggi verso la Stazione Spaziale Internazionale, sempre per conto della NASA. La compagnia spaziale ha un approccio alquanto aggressivo: sperimenta i propri sistemi consapevole dell’alta probabilità di un insuccesso, ma in questo modo può raccogliere grandi quantità di dati per correggere gli errori e produrre sistemi di lancio via via più affidabili. I primi voli orbitali di Starship saranno inoltre sfruttati per portare nello Spazio grandi quantità di satelliti Starlink, il sistema per fornire connessioni a Internet per le aree della Terra non raggiunte dai cavi in fibra ottica o dai ripetitori delle reti cellulari. Starlink è diventata un’importante fonte di ricavo per SpaceX e si parla di una sua probabile quotazione in borsa, anche se per ora Musk ha escluso che possa avvenire in tempi brevi. LEGGI TUTTO

  • in

    Il Consiglio Nazionale delle Ricerche ha 100 anni

    Caricamento playerPer molti secoli la scienza è progredita in buona parte attraverso scoperte di persone che potevano dedicarsi ai propri studi grazie a risorse economiche di famiglia, al sostegno di persone facoltose o all’esercizio di professioni svolte in parallelo. Nel corso dell’Ottocento poi le università hanno cominciato ad avere un ruolo sempre maggiore, via via che si definivano le diverse branche della scienza per come la conosciamo oggi e si aprivano facoltà scientifiche. Nell’ultimo secolo infine si sono sviluppati istituti dedicati esclusivamente alla ricerca, molto spesso voluti dai governi: è il caso del Consiglio Nazionale delle Ricerche italiano, il CNR, che fu fondato esattamente cento anni fa.Oggi è il principale ente di ricerca italiano per numero di ricercatrici e ricercatori, 5.559, che lavorano in 88 istituti e 228 sedi con laboratori sparsi nel territorio nazionale, ed è anche l’ente non universitario che finanzia più dottorati. Si occupa di un gran numero di ambiti di studio, dalla fisica alle scienze agroalimentari, dalla chimica ai beni culturali, dalle scienze biomediche all’ingegneria.La storia del CNR inizia dopo la Prima guerra mondiale. Alla fine del conflitto molti paesi, interessati dalle tecnologie usate dall’esercito tedesco come i sottomarini e i gas velenosi, vollero favorire il progresso scientifico e le sue applicazioni pratiche, sia in campo militare che industriale. Si pensò allora di creare organizzazioni che coordinassero le nuove ricerche tra università, aziende ed esercito: in Italia venne istituito, nel 1923, il CNR. Il suo primo presidente fu l’importante matematico e fisico Vito Volterra, che durante la guerra mondiale si era occupato di dirigibili maturando una certa esperienza nelle applicazioni pratiche delle scoperte scientifiche.– Leggi anche: Vito Volterra e la libertà della scienzaInizialmente il CNR si occupava soprattutto di fisica e chimica. Quando nel 1927 Volterra dovette rinunciare alla presidenza dell’ente in quanto antifascista (nel 1931 fu uno dei dodici professori universitari italiani a rifiutarsi di prestare il giuramento di fedeltà al fascismo), il regime di Benito Mussolini nominò al suo posto Guglielmo Marconi, che nel 1909 era stato insignito con il premio Nobel per la Fisica per «lo sviluppo della telegrafia senza fili» ed era quindi molto noto e stimato anche all’estero. Marconi tentò, come Volterra prima di lui, di creare laboratori di ricerca al di fuori del contesto universitario, ma non riuscì davvero in questo intento: i principali risultati scientifici italiani degli anni Trenta furono ottenuti dal gruppo di Enrico Fermi che lavorava all’interno del Regio istituto di fisica dell’università di Roma.Alla morte di Marconi nel 1937, Mussolini nominò presidente del CNR il capo di Stato maggiore Pietro Badoglio, che avrebbe poi firmato l’armistizio del 1943. Mussolini scelse un militare perché già all’epoca si parlava della possibilità di una nuova guerra in Europa e voleva che gli scienziati e l’esercito collaborassero. La cosa non funzionò mai davvero, e così il regime ridusse i finanziamenti al CNR. In quegli stessi anni la comunità scientifica italiana aveva peraltro subìto grandi danni a causa delle leggi razziali contro gli ebrei che avevano spinto molti scienziati, tra cui Fermi, vincitore del Nobel per la Fisica nel 1938, a trasferirsi all’estero.Il periodo di maggior rilevanza della storia del CNR iniziò dopo la Seconda guerra mondiale, quando fu riformato in senso democratico, ampliò i propri campi di attività e collaborò alla ricostruzione del paese. Infatti il CNR ebbe un ruolo importante nella pianificazione territoriale e negli studi ingegneristici necessari per costruire il gran numero di abitazioni che servivano nelle città italiane in quel periodo. Fece anche studi per la costruzione del gran numero di ponti e viadotti realizzati negli anni Quaranta e Cinquanta, e sviluppò le normative tecniche per le attività produttive, quelle che garantiscono la sicurezza dei lavoratori dell’industria, dell’edilizia e non solo.Ma il CNR si occupò molto anche di fisica nucleare e dei suoi possibili impieghi nel campo dell’energia e di ricerca spaziale. Nel 1951 fu fondato l’Istituto nazionale di fisica nucleare (INFN), che sarebbe diventato un ente di ricerca autonomo negli anni Sessanta, e nel 1959 la Commissione per le ricerche spaziali, l’origine dell’Agenzia spaziale italiana (ASI) creata nel 1988. L’ambito delle ricerche spaziali è uno di quelli in cui il CNR collaborò di più con le aziende: negli anni Settanta questa collaborazione portò al lancio nello Spazio di SIRIO, il primo satellite geostazionario europeo per le telecomunicazioni.L’Istituto per le applicazioni del calcolo (IAC), che era stato fondato nel 1927 e fu il primo degli istituti del Consiglio Nazionale delle Ricerche, ne fa tuttora parte. Nel 1955 fu il secondo ente italiano dopo il Politecnico di Milano ad assemblare un computer, il FINAC, che fu usato per fare calcoli per il ministero del Bilancio, oltre che per la ricerca nucleare.Ancora negli anni Sessanta il CNR continuò la propria espansione. Prima di tutto perché nel 1962 l’allora presidente Giovanni Polvani volle aggiungere alle discipline scientifiche di cui si era occupato il CNR fino ad allora anche quelle umanistiche, in particolare nel campo delle scienze umane e del patrimonio culturale. Oggi fanno parte del CNR anche enti di ricerca come l’Istituto di studi giuridici internazionali (ISGI), l’Istituto di studi sui sistemi regionali federali e sulle autonomie (ISSIRFA) e l’Istituto opera del vocabolario italiano (OVI), che ha il compito di elaborare il vocabolario storico italiano.Tra gli anni Settanta e gli anni Novanta tuttavia il CNR ebbe un periodo di crisi a causa della diminuzione delle risorse finanziarie stanziate dai governi per la ricerca (erano più o meno sempre gli stessi fondi, ma nel frattempo aumentava l’inflazione) e della sempre maggiore burocratizzazione dei progetti di ricerca, che di fatto la rallenta. Le cose migliorarono con l’intervento di Antonio Ruberti, ingegnere, ex rettore della Sapienza di Roma e ministro dell’Università e della Ricerca scientifica dal 1988 al 1992, che riprese a finanziare il CNR.Oggi il Consiglio Nazionale delle Ricerche continua a essere la più importante istituzione di ricerca pubblica in Italia, ma da tempo si discute della necessità di rivederne parte dell’organizzazione e di modificare alcuni sui meccanismi legati sia all’assegnazione delle borse sia ai criteri di ricerca stessa.– Leggi anche: Cosa ci facciamo in Antartide LEGGI TUTTO

  • in

    È stato eseguito il primo trapianto di un bulbo oculare completo

    Aaron James, un uomo che nel 2021 perse l’occhio sinistro in un grave incidente con un cavo elettrico, è diventato il primo uomo a ricevere un trapianto di un intero bulbo oculare. L’operazione è stata eseguita a maggio dai medici dell’NYU Langone Health, un centro ospedaliero dell’Università di New York, ma la sua riuscita è stata annunciata solo giovedì 9 novembre. È stata guidata dal dottor Eduardo Rodriguez, e ha coinvolto 140 sanitari. Mentre il trapianto di cornea, la membrana trasparente che sta davanti all’occhio, è una procedura relativamente comune, il trapianto dell’intero bulbo oculare, assieme ai muscoli, ai vasi sanguigni e al nervo ottico, non era mai stato fatto con successo sugli esseri umani.A diversi mesi di distanza l’occhio trapiantato è in buona salute, e anche se al momento non permette a James di vedere dall’occhio sinistro i medici non escludono questa possibilità (quello destro era comunque rimasto illeso). James, che nell’incidente ha perso anche il braccio sinistro e ha subito lesioni gravissime al volto, ha anche ricevuto un trapianto parziale del volto, un’altra procedura rara e complessa: è il diciannovesimo paziente a riceverlo negli Stati Uniti.Al momento gli effetti della procedura su James sono essenzialmente estetici, ma è possibile che col tempo la sua visione dall’occhio sinistro venga parzialmente ripristinata. L’operazione è comunque considerata dagli esperti un grande passo avanti, che avvicina la possibilità di ripristinare la vista di milioni di persone cieche.– Leggi anche: Storia del mio occhio di vetro Aaron James, che ha ricevuto il trapianto, con sua moglie Megan (AP Photo/Joseph. B. Frederick) LEGGI TUTTO

  • in

    È morto a 95 anni l’astronauta statunitense Frank Borman, comandante della prima missione spaziale con a bordo persone a orbitare intorno alla Luna

    È morto a 95 anni Frank Borman, astronauta statunitense che fu il comandante della missione spaziale Apollo 8, la prima con a bordo un equipaggio di esseri umani a orbitare intorno alla Luna. La missione Apollo 8 – di cui facevano parte anche i piloti James Lovell e William Anders – partì il 21 dicembre del 1968 e impiegò tre giorni per raggiungere la Luna. Orbitò intorno al satellite per dieci volte nel corso di 20 ore, durante le quali l’equipaggio effettuò una breve trasmissione in diretta televisiva e scattò una famosissima fotografia della Terra vista dallo Spazio. Gli astronauti tornarono sulla Terra il 27 dicembre, ammarando nell’Oceano Pacifico.– Leggi anche: La storia della foto scattata dall’Apollo 8 (Larry Mayer/The Billings Gazette via AP) LEGGI TUTTO

  • in

    Allevare i tonni rossi sulla terraferma è meglio o peggio che pescarli?

    Caricamento playerLo scorso luglio l’Istituto spagnolo di oceanografia (IEO) ha annunciato di essere riuscito, per la prima volta a livello mondiale, a far riprodurre dei tonni rossi in cattività in un impianto di acquacoltura sulla terraferma. Questo successo del centro di ricerca ha subito suscitato l’interesse di alcune aziende che si stanno organizzando per aprire i primi grandi allevamenti terrestri di tonno rosso con la collaborazione dello IEO.La carne del tonno rosso infatti è molto richiesta, ma la pesca e l’allevamento in mare di questo pesce hanno grandi impatti ambientali: la possibilità di allevarlo “a terra” potrebbe rendere il settore più sostenibile. Però c’è anche chi pensa che acquacolture di questo genere potrebbero risultare più dannose rispetto ai metodi attuali, anche per il benessere dei tonni, che da adulti possono superare i due metri di lunghezza e alcune centinaia di chili di peso e, in natura, si spostano per migliaia di chilometri nell’oceano.Il tonno rosso è una delle varie specie di tonni che ci sono al mondo e vive nell’oceano Atlantico e nel mar Mediterraneo: il suo nome scientifico è Thunnus thynnus ed è detto anche “tonno pinna blu”. Non è una delle specie di tonno le cui carni sono vendute in scatolette (quelle sono il tonnetto striato, il tonno pinna gialla e il tonno obeso, economicamente meno costose e considerate meno pregiate), ma è una delle tre con cui si fanno il sushi e il sashimi di tonno. Le altre sono il tonno del Pacifico (Thunnus orientalis), che come suggerisce il nome vive nell’oceano Pacifico, e il tonno australe (Thunnus maccoyii), che vive in una fascia molto meridionale degli oceani del mondo, quasi fino ai limiti dell’oceano Antartico: esteriormente queste due specie sono praticamente indistinguibili dal tonno rosso e hanno a loro volta la carne di colore rosso.La maggior parte dei tonni rossi delle tre specie che viene consumata nel mondo è pescata, anche se negli ultimi anni si è diffusa una forma di allevamento basata sulla tecnica dell’ingrasso: si catturano giovani tonni liberi e li si fa crescere all’interno di grandi reti in mare fino a quando non raggiungono la taglia adatta per essere venduti sul mercato. Dal 2015 poi a questa forma di acquacoltura se ne è aggiunta una seconda, per ora minoritaria. In quell’anno l’azienda giapponese Maruha Nichiro ha venduto i primi tonni del Pacifico che ha allevato a partire dalla nascita, prima in strutture di acquacoltura sulla terra e poi all’interno di reti in mare: è stato possibile far riprodurre i pesci in cattività mettendo una certa quantità di ormoni nelle vasche in cui nuotavano gli individui adulti, che così sono stati spinti a produrre e fertilizzare uova.L’Istituto spagnolo di oceanografia è il primo ente che è riuscito a fare la stessa cosa anche con i Thunnus thynnus, i tonni rossi dell’Atlantico e del Mediterraneo, e due aziende europee, la tedesca Next Tuna e la norvegese Nortuna, stanno lavorando per creare acquacolture di tonni di scala con i suoi metodi. Next Tuna vuole realizzare un impianto vicino a Valencia, in Spagna, mentre Nortuna a Capo Verde, in Africa occidentale.Anche se per ora questo tipo di acquacoltura è agli inizi, ha attirato molto interesse perché il modo in cui è praticata la pesca dei tonni è considerato poco sostenibile per la conservazione delle specie.Il Giappone è il più grande importatore di tutte e tre le specie di tonni rossi e il principale consumatore al mondo, seguito dagli Stati Uniti, dove si stima si mangi tra l’8 e il 10 per cento del sashimi del mondo. Negli ultimi decenni del Novecento la grande domanda di Giappone e Stati Uniti ha notevolmente ridotto la quantità di tonni rossi delle tre specie, anche se poi le restrizioni alla loro pesca introdotte intorno al 2010 hanno migliorato la situazione. Secondo le stime dell’Unione Internazionale per la Conservazione della Natura (IUCN), l’ente riconosciuto dall’ONU che valuta quali specie animali e vegetali rischiano l’estinzione, il tonno australe è tuttora a rischio di estinzione e il tonno del Pacifico è minacciato.Invece il tonno rosso (quello che vive nell’Atlantico e nel Mediterraneo) non è più considerato minacciato, perché sebbene tra il 1966 e il 2018 la popolazione dell’Atlantico occidentale sia diminuita dell’83 per cento per l’eccesso di pesca, si stima che i tonni rossi dell’Atlantico orientale, la cui popolazione è molto maggioritaria considerando la specie nel complesso, siano diventati più numerosi dagli anni Sessanta a oggi. Le preoccupazioni sulla sostenibilità della pesca comunque rimangono, per via del calo della popolazione occidentale.Per le aziende che si occupano di acquacoltura dei tonni rossi o sono interessate a praticarla, l’uso delle tecniche che consentono la riproduzione dei pesci in cattività ridurrebbe la pressione sulle popolazioni selvatiche e per questo dovrebbe essere favorito. Tenere i tonni in età da riproduzione in vasche sulla terraferma significa poter regolare sia la temperatura dell’acqua che l’illuminazione. In questo modo, secondo chi sta lavorando ai progetti di acquacoltura, si potrà allungare il periodo dell’anno in cui i tonni rossi si possono riprodurre. In natura lo fanno per circa 45 giorni tra giugno e luglio: se negli allevamenti lo faranno per più tempo si otterranno popolazioni in cattività più numerose di quelle che si fanno ingrassare dopo aver catturato giovani tonni in mare.Tuttavia alcuni scienziati hanno espresso delle preoccupazioni riguardo alla nuova forma di allevamento, che riguardano sia il benessere degli animali sia gli impatti ambientali del settore che si potrebbe sviluppare.Per quanto riguarda direttamente i tonni, l’ong spagnola per i diritti degli animali Observatorio de Bienestar Animal ritiene che anche vasche molto grandi e spaziose non siano un ambiente adatto per i bisogni di una specie migratoria come i tonni rossi, che si spostano per migliaia di chilometri per cercare cibo e riprodursi.In un articolo pubblicato su The Conversation Wasseem Emam, ricercatore dell’Istituto di acquacoltura dell’Università di Stirling, ha spiegato che è difficile giudicare l’esperienza di vita dei tonni nelle vasche perché le aziende che le hanno non diffondono troppe informazioni in merito. Ma «generalmente le specie di pesci non domesticate sperimentano forme maggiori di stress in cattività e quando sono gestite da personale umano rispetto alle specie che si sono adattate all’allevamento nel tempo». Emam cita anche alcuni studi secondo cui i pesci possono essere stressati dal rumore e da certe vibrazioni, che sono probabilmente presenti all’interno di impianti di allevamento a terra. Però sarebbe nell’interesse degli allevatori evitare questo tipo di stress perché si sa che la carne dei pesci stressati ha una qualità minore. In particolare è noto che se prima di essere uccisi i tonni rossi provano a scappare, il loro corpo produce grandi quantità di acido lattico che peggiora il gusto della loro carne.Alle preoccupazioni sul benessere dei tonni si aggiungono poi quelle sull’impatto ambientale e la sostenibilità di eventuali grandi allevamenti a terra. La prima è legata all’alimentazione dei tonni in cattività: attualmente i tonni rossi all’ingrasso sono nutriti in grandissima parte con specie ittiche che potrebbero essere usate anche nell’alimentazione umana e in Giappone per produrre 1 chilogrammo di carne di tonno del Pacifico allevato servono tra i 2,5 e i 3,5 chili di altri pesci. Significa anche che per allevare i tonni a terra in grande quantità bisognerebbe aumentare la pesca di altre specie.Maruha Nichiro sta facendo delle ricerche per migliorare l’efficienza nell’alimentazione dei tonni in cattività. Il presidente di Nortuna Anders Attramadal ha invece sminuito questo problema parlando con il Guardian perché sostiene che i tonni allevati a terra mangino meno di quelli in mare; Andrew Eckhardt di Next Tuna invece ha detto che la sua azienda cercherà di ridurre la quantità di pesce necessaria a nutrire i tonni creando mangimi a base di altri ingredienti, come proteine vegetali, alghe e insetti.Altre preoccupazioni riguardano l’uso di antibiotici che sarà richiesto negli allevamenti per evitare la diffusione di malattie (molto alto in tutti i generi di allevamenti di animali su scala industriale) e l’inquinamento delle acque legato agli scarichi degli impianti di acquacoltura. Next Tuna dice di non voler usare antibiotici, e Nortuna dice che ne farà un uso minimo. Riguardo all’inquinamento delle acque, la prima azienda progetta un sistema per prelevare acqua marina che poi però non sarà riscaricata in mare. Per il momento non si conoscono i dettagli né dell’impianto di Next Tuna né di quello di Nortuna. Con i tonni del Pacifico Maruha Nichiro ha un approccio diverso, perché una volta che i pesci hanno raggiunto una certa dimensione nelle vasche a terra li sposta all’interno di reti in mare. LEGGI TUTTO

  • in

    C’è un altro farmaco contro l’obesità

    La Food and Drug Administration (FDA), l’agenzia governativa statunitense che si occupa di farmaci, ha approvato il Zepbound, un nuovo farmaco contro l’obesità prodotto dall’azienda Eli Lilly che farà concorrenza al Wegovy, il farmaco molto discusso e richiesto negli ultimi mesi per trattare la medesima condizione. L’approvazione è avvenuta contestualmente a quella dell’Agenzia regolatrice per i medicinali e i prodotti sanitari del Regno Unito, a conferma della grande attenzione intorno ai farmaci contro l’obesità, un problema sanitario che secondo l’Organizzazione mondiale della sanità (OMS) ha ormai raggiunto «proporzioni epidemiche» con una stima di circa 4 milioni di morti all’anno.– Ascolta anche: L’obesità è una questione mondialeZepbound non è tecnicamente un nuovo farmaco: il suo principio attivo (tirzepatide) era già stato approvato in precedenza come trattamento contro il diabete con il nome commerciale Mounjaro, disponibile anche nell’Unione Europea. Il suo sviluppo era iniziato sei anni fa con una sperimentazione clinica che aveva coinvolto circa 300 persone affette da diabete di tipo 2 (la forma più diffusa della malattia e la cui causa principale è spesso l’obesità) che avevano assunto il farmaco per tre mesi. L’obiettivo era trattare il diabete, ma dal test era emerso che le persone volontarie avevano perso almeno il 13 per cento della loro massa corporea. Lo studio fu seguito da una serie di test clinici di maggiore durata, circa 72 settimane, e con il coinvolgimento di oltre 2.500 persone con problemi di obesità.Lo scorso anno Eli Lilly aveva annunciato i risultati, segnalando come la metà dei pazienti che avevano ricevuto il dosaggio più alto di tirzepatide una volta alla settimana avesse perso almeno il 20 per cento della massa corporea, un esito senza precedenti nella perdita di peso per un farmaco di quel tipo. Tra il 2017 e il 2022 l’azienda aveva accelerato la ricerca e lo sviluppo del principio attivo, focalizzandosi sull’obesità e facendo grandi investimenti sia per condurre test clinici in parallelo sia per ingrandire la propria capacità produttiva, scommettendo sul fatto di ricevere un’autorizzazione dalla FDA per l’utilizzo del farmaco.I dati conclusivi dei test clinici, consultati dalla FDA per valutare l’approvazione, dicono che le persone che hanno assunto Zepbound hanno perso in media il 18 per cento della propria massa corporea, un risultato paragonabile al 15 per cento ottenuto con il Wegovy (semaglutide). Anche quest’ultimo era stato sviluppato come farmaco contro il diabete ed è venduto come Ozempic per il trattamento di questa malattia, mentre il nome commerciale Wegovy riguarda una versione con un diverso dosaggio specificamente venduta per trattare l’obesità.Negli ultimi mesi la domanda di Wegovy è diventata molto alta al punto che Novo Nordisk, l’azienda danese che lo produce, non riesce a soddisfare le tante richieste con una conseguente carenza del farmaco e di Ozempic. Il processo produttivo richiede tempo perché Wegovy è una preparazione da iniettare. Anche Zepbound deve essere iniettato e questo oltre a complicare la produzione rende meno pratico l’utilizzo da parte dei pazienti. Sia Novo Nordisk sia Eli Lilly sono al lavoro per sviluppare una versione dei loro farmaci per uso orale, in modo da aumentare la loro capacità produttiva e raggiungere un maggior numero di pazienti. I test clinici della versione orale di Zepbound sono già in corso.Secondo esperti e analisti, i farmaci di nuova generazione contro l’obesità sono una delle più grandi occasioni per le aziende farmaceutiche, anche considerato l’aumento delle persone con questa condizione in tutto il mondo. Il loro impiego è comunque vincolato a una diagnosi medica di obesità o di forte sovrappeso con alcune condizioni di salute tipiche delle persone obese. Come tutti i farmaci, anche Zepbound e Wegovy hanno effetti collaterali e devono essere somministrati sotto supervisione medica, nell’ambito di un trattamento che comprenda anche una modifica degli stili di vita.Attualmente Zepbound non è disponibile nell’Unione Europea, ma Eli Lilly ha presentato domanda per l’approvazione all’Agenzia europea per i medicinali. L’approvazione negli Stati Uniti di solito implica una rapida autorizzazione anche in Europa. LEGGI TUTTO

  • in

    Lo spostamento del Polo Nord magnetico è un problema per gli aeroporti

    Entro la fine di novembre la pista dell’aeroporto di Milano Linate cambierà designazione per riflettere lo spostamento del Polo Nord magnetico. Per le migliaia di passeggeri che utilizzano ogni giorno l’aeroporto più vicino alla città non cambierà nulla, mentre per i responsabili dello scalo saranno necessari alcuni litri di vernice per dipingere i nuovi numeri sulla pista, nuovi cartelli per la segnaletica, nuove mappe, manuali e indicazioni per i piloti e le compagnie aeree. È una procedura con cui deve prima o poi fare i conti buona parte degli aeroporti del mondo ed è dovuta al modo particolare in cui si modifica nel tempo il campo magnetico terrestre, con grandi conseguenze per l’intero settore dei trasporti.In un certo senso la Terra si comporta come un enorme magnete, o per meglio dire un “dipolo magnetico”, che secondo le teorie più condivise è dovuto alla struttura interna del nostro pianeta. Il nucleo interno, che si trova al centro della Terra, è solido, mentre il nucleo esterno è liquido. Entrambi questi strati sono formati per lo più da ferro e nickel e le loro interazioni generano un grande campo magnetico, che si estende ben oltre la superficie del nostro pianeta, proteggendolo dalle emissioni più dannose del Sole.Il nucleo esterno inizia a poco meno di 3mila chilometri di profondità e non può essere quindi osservato e studiato direttamente, ma l’analisi delle variazioni del campo magnetico e del modo in cui si propagano le onde sismiche tra i vari strati della Terra permettono di studiarne e ipotizzarne le caratteristiche. Sappiamo che i fenomeni che avvengono al suo interno rendono poco prevedibili i cambiamenti del campo magnetico terrestre nel corso del tempo. Di conseguenza, mentre il Polo Nord geografico è sempre lo stesso ed è il punto più a nord della Terra, quello magnetico verso il quale puntano le bussole cambia posizione e non coincide con il primo.Negli ultimi decenni, per esempio, il Polo Nord magnetico si è via via spostato dal Canada verso la Siberia (Russia) a una velocità non costante, arrivando a modificare la propria posizione anche di 60 chilometri in un anno. Visto che molti dei sistemi di orientamento che usiamo ogni giorno sono nella loro essenza delle bussole, è importante sapere come si modifica il campo magnetico terrestre. Per farlo si utilizza un modello matematico, l’International Geomagnetic Reference Field, con il quale si producono mappe che vengono aggiornate periodicamente in modo da avere punti di riferimento condivisi. Queste mappe e altri sistemi sono utilizzati per mettere in relazione l’orientamento reso possibile dal campo magnetico con quello dei sistemi di geolocalizzazione, come il GPS.Il campo magnetico in una mappa del 2015Per gli aeroporti le conseguenze di questi cambiamenti sono particolarmente sentite perché le loro piste sono denominate in base al modo in cui sono orientate rispetto al Polo Nord magnetico, cioè al punto verso cui si orienta l’ago della bussola. La pista di Linate, per esempio, attualmente è numerata 18 a una estremità e 36 all’altra (gli aeroplani possono utilizzarla in una delle due direzioni per atterrare o decollare). I due numeri indicano l’orientamento della pista rispetto al Polo Nord magnetico a seconda se questa viene presa da una parte o dall’altra. Il 36 indica che la pista è orientata esattamente verso Nord e si sta andando in quella direzione, mentre il 18 indica l’orientamento verso Sud procedendo dall’altra parte.Su una bussola il piano dell’orizzonte, cioè il piano su cui si trova l’osservatore, è rappresentato con un cerchio graduato suddiviso in 360 gradi. Il Nord coincide con 0° (o 360°, visto che facendo un giro completo si torna al punto di inizio) e ha al suo opposto il Sud che è quindi a 180°. I numeri sulle piste degli aeroporti riflettono questa impostazione, ma per praticità e chiarezza vengono mostrati dividendo per 10 i gradi del piano dell’orizzonte. Nel caso di Linate quel 18 deve essere quindi moltiplicato per 10: il prodotto risultante è 180 e indica 180° cioè il Sud; il 36 sta invece per 360° e indica il Nord.Non è infrequente che le piste degli aeroporti più vecchi venissero orientate sull’asse Nord-Sud per motivi pratici, ma ci sono moltissimi casi di piste con un orientamento diverso. Nel caso dell’aeroporto di Genova la pista ha i numeri 10 e 28: è quindi orientata 100° e 280° dal Nord (in senso orario). La pista di Roma Ciampino è 15/33, mentre quella di Catania è 08/26. Avendo ovviamente ogni pista due orientamenti opposti, le direzioni di percorrenza sono sempre a 180°: è quindi sufficiente sapere il numero su una delle due estremità per ottenere l’altro, aggiungendo semplicemente 18.Conoscere la denominazione della pista per chi pilota è importante per sapere se ha orientato correttamente l’aereo per puntare nella giusta direzione durante l’atterraggio. Oggi ci sono naturalmente molti altri dispositivi a bordo di un aereo per sapere di essere orientati correttamente e nella giusta traiettoria, ma le denominazioni sono comunque importanti come doppio controllo o nel caso ci siano malfunzionamenti e imprevisti a bordo.I piloti sanno comunque che i numeri sulle piste costituiscono un’indicazione di massima, visto che sono approssimati per difetto (da 0 a 4) e per eccesso (da 5 a 9). Per esempio: se una pista viene costruita con un orientamento a 183 gradi verso Nord il numero indicato sulla pista è 18, mentre se è a 187 gradi l’indicazione diventa 19. Ma come abbiamo visto nel corso del tempo il Polo Nord magnetico si sposta e di conseguenza un aeroporto può ritrovarsi con la pista orientata diversamente da come era stata costruita e con un’indicazione numerica che non rispecchia più l’effettivo orientamento rispetto al Polo Nord magnetico.In base alla loro posizione geografica, alcuni aeroporti sono più esposti di altri a questi cambiamenti e mettono in conto di dover prima o poi rivedere buona parte della loro segnaletica. È quello che è successo a Linate, che non può più continuare ad approssimare i numeri della pista come aveva fatto finora. Entro fine novembre la pista passerà quindi da 18/36 a 17/35 per riflettere il cambiamento di orientamento relativo al Polo Nord magnetico. Oltre ai due grandi numeri bianchi agli estremi della pista, l’aeroporto di Linate dovrà cambiare tutta la segnaletica orizzontale con le indicazioni per raggiungere o lasciare la pista, tutta la segnaletica verticale con i cartelli che indicano le direzioni, le mappe dell’aeroporto e le informazioni per la navigazione.Le modifiche riguardano la pista principale dell’aeroporto, quella lunga 2,4 chilometri, mentre la pista più piccola di circa 600 metri orientata allo stesso modo aveva cambiato denominazione già in passato e ora è utilizzata per lo più come area di parcheggio. LEGGI TUTTO

  • in

    Perché sveniamo è un mistero

    Nella Deposizione dalla Croce, una delle opere più famose e importanti del pittore fiammingo Rogier van der Weyden, la Vergine Maria perde i sensi alla vista del proprio figlio Gesù morto durante la crocifissione. Maria ha una posa simile a quella del figlio e viene sorretta mentre con gli occhi chiusi e le guance rigate dalle lacrime si accascia a terra. È una rappresentazione drammatica di uno degli eventi più importanti della cristianità, ma è anche tra i migliori esempi di un tema iconografico che si sviluppò a partire dal tardo Medioevo quando si diffuse la convinzione che Maria fosse svenuta dopo la crocifissione di Gesù. Nei secoli successivi il tema dello svenimento sarebbe stato ripreso in molti quadri, non necessariamente di carattere religioso, mostrando un particolare interesse per un fenomeno plateale e al tempo stesso misterioso.Ancora oggi le cause e il meccanismo dietro gli svenimenti non sono completamente chiari, anche se una recente ricerca da poco pubblicata sulla rivista scientifica Nature offre qualche nuova prospettiva che potrebbe aiutare a risolvere il mistero. A complicare da sempre le cose c’è il fatto che non tutti gli svenimenti sono uguali e che la loro classificazione può essere difficoltosa.Quello che comunemente chiamiamo “svenimento” è in termini medici una sincope, cioè una perdita di coscienza transitoria le cui caratteristiche principali sono la breve durata e la risoluzione spontanea. In generale la sincope è causata da un minore afflusso di sangue al cervello dovuto a una riduzione della pressione sanguigna (ipotensione), ma possono contribuire altri fattori come problemi cardiaci e nervosi. Chi sta per avere una sincope ha talvolta sintomi che precedono la perdita di sensi vera e propria: giramenti di testa, improvvisa sudorazione, pallore, vista sfocata, nausea e vomito. Nel caso in cui a questi sintomi non segua una perdita di conoscenza si parla di presincope, condizione che non dovrebbe comunque essere trascurata.Si stima che circa il 40 per cento delle persone abbia almeno una sincope nel corso della propria vita, a dimostrazione di quanto sia diffuso un fenomeno che nella maggior parte dei casi non lascia conseguenze. Nonostante la frequenza tra la popolazione, molti aspetti della perdita di conoscenza non sono ancora chiari e ciò è dovuto soprattutto alla grande varietà di situazioni in cui può verificarsi una sincope.Classificare le sincopi è di per sé complicato e a seconda dei manuali di medicina e del lavoro di ricerca dei medici si trovano diverse classificazioni. Secondo la Società europea di cardiologia, una sincope può avere cause: neuromediate (cioè legate alle attività del sistema nervoso), ortostatiche (dovute alla posizione eretta), cardiache o cerebrovascolari. La forma più diffusa, e che comunemente chiamiamo appunto svenimento, rientra nella prima categoria ed è la sindrome vasovagale.Una persona che vive una situazione di forte e improvviso stress emotivo, come nel caso della Vergine Maria di van der Weyden, sviene a causa di una sincope vasovagale. Il presupposto è di solito la bassa pressione sanguigna che può essere determinata semplicemente da come si è fatti o da condizioni ambientali, come una giornata molto calda che porta a una maggiore vasodilatazione per disperdere il calore (i vasi sanguigni si dilatano e di conseguenza diminuisce la pressione a cui circola il sangue al loro interno). Deve poi esserci una causa scatenante che può essere improvvisa, come la visione dell’ago della siringa per un prelievo o un evento spaventoso, oppure crescente come uno stato d’ansia o un attacco di panico.Davanti a una situazione percepita come di pericolo, il nostro organismo si prepara a reagire e come prima cosa fa aumentare il battito cardiaco per rifornire più velocemente l’organismo di ossigeno e altre sostanze attraverso il sangue, ma il cuore non riesce a soddisfare la richiesta perché la pressione sanguigna non è sufficiente. Il nervo vago – uno dei principali canali di comunicazione tra il cervello e i polmoni, il cuore, lo stomaco e altri organi addominali – interviene e fa rallentare la frequenza cardiaca che si riflette in un minore afflusso di sangue al cervello che porta infine alla sincope.Su questo meccanismo già di per sé complicato possono intervenire numerose altre variabili e molti aspetti del fenomeno non sono ancora chiari. La ricerca da poco pubblicata su Nature offre però nuovi importanti elementi per comprendere meglio che cosa succede nel momento in cui interviene il nervo vago, determinando infine la sincope. Il gruppo di ricerca è infatti riuscito ad analizzare le interazioni tra cuore e cervello, superando le ricerche precedenti che si erano invece quasi sempre concentrate su uno dei due, analizzandoli come sistemi isolati.Lo studio è consistito nell’analisi genetica delle cellule di un tratto del nervo vago che ha permesso di identificare alcuni neuroni coinvolti nei processi che portano alla contrazione dei vasi sanguigni. Il gruppo di ricerca ha notato che questi neuroni formano intricate diramazioni intorno ai ventricoli, le due cavità nella parte inferiore del cuore, e sono poi in comunicazione con la postrema, una struttura che si trova nel tronco encefalico alla base del cervello.(Wikimedia)Identificate le strutture e i loro collegamenti, il gruppo di ricerca ha iniziato a fare qualche esperimento in laboratorio sui topi. Come spiega lo studio, hanno stimolato quegli specifici neuroni in vario modo tenendo nel frattempo sotto controllo il battito cardiaco, la respirazione, la pressione sanguigna e i movimenti degli occhi degli animali. Sapendo su quali strutture neuronali intervenire è stato possibile riprodurre in modo molto più accurato le condizioni che portano a una sincope e analizzare i loro effetti sull’organismo.Un topo libero di muoversi e normalmente attivo, per esempio, sveniva in pochi secondi non appena venivano stimolati i neuroni identificati dal gruppo di ricerca. La perdita di sensi era accompagnata da una marcata dilatazione della pupilla e da un movimento verso l’alto e all’indietro del bulbo oculare, un effetto che si osserva spesso anche nelle persone che hanno una sincope. Altri esami hanno permesso di rilevare una riduzione della pressione sanguigna, della frequenza cardiaca e respiratoria, nonché un ridotto afflusso di sangue verso la testa.Il gruppo di ricerca si è poi chiesto che cosa accade nel cervello quando si ha una sincope, visto che la mancanza delle sostanze portate dal sangue riguarda l’intero encefalo. Ad alcuni topi sono stati applicati elettrodi per rilevare la loro attività neuronale in varie aree del cervello mentre svenivano e si è notato che questa diminuiva praticamente ovunque, tranne che nel nucleo paraventricolare nell’ipotalamo, la struttura che ha tra le sue funzioni principali il controllo del sistema nervoso autonomo. Bloccando l’attività del nucleo, il gruppo di ricerca ha notato che i topi rimanevano privi di sensi più a lungo; una stimolazione permetteva invece di risvegliare rapidamente gli animali che tornavano a comportarsi normalmente.L’ipotesi è che i neuroni identificati dalla ricerca lavorino insieme al nucleo paraventricolare nel regolare le fasi della sincope, dallo svenimento al successivo processo di ripresa di conoscenza e delle attività cerebrali sospese per qualche secondo. Il cervello richiede una grande quantità di energia (glucosio) e di ossigeno portati dalla circolazione sanguigna: in loro assenza i neuroni smettono di funzionare e dopo 2-5 minuti iniziano a morire. La sincope dura molto meno e si risolve di solito entro un minuto, ripristinato il normale afflusso di sangue verso il cervello.La nuova ricerca è un importante progresso nella conoscenza del fenomeno, ma non offre spiegazioni su come quegli specifici neuroni siano stimolati in primo luogo, né spiega il perché della sincope. Che senso ha perdere i sensi quando vediamo il sangue o siamo sottoposti a una situazione di grande stress?Una delle teorie più dibattute sostiene che svenire sia un retaggio evolutivo del fingersi morti, una pratica diffusa tra diverse specie e che può accrescere le probabilità di sopravvivere quando si subisce un attacco da un predatore. A questa teoria è associata quella secondo cui una ridotta pressione sanguigna rallenterebbe la perdita di sangue nel caso di una ferita, aumentando anche in questo caso le possibilità di sopravvivenza. Un’altra teoria ancora ha legato lo svenimento al modo in cui interagivano i gruppi di esseri umani nel paleolitico. Le persone non coinvolte nei combattimenti che svenivano segnalavano che non costituivano una minaccia e avevano maggiori probabilità di sopravvivenza. La paura degli aghi potrebbe derivare da quella per gli oggetti che in un remoto passato potevano causare ferite e sanguinamenti. È una teoria affascinante, ma ancora dibattuta e difficile da confermare.Le teorie formulate nel tempo sono per lo più dedicate alla sincope vasovagale, la più comune e per certi versi misteriosa se confrontata con quelle legate a problemi cardiaci e circolatori. Mentre la prima si verifica di solito come un caso isolato, queste ultime possono essere ricorrenti e rendono quindi necessari esami perché potrebbero essere il sintomo di uno specifico problema di salute. Risalendo alle cause i medici possono prescrivere terapie o cambiamenti di abitudini nello stile di vita, in modo da ridurre il rischio che si verifichino nuovi episodi. Se è vero che quasi sempre la sincope si risolve da sé, lo svenimento può avere altre conseguenze come battere violentemente la testa da qualche parte mentre ci si accascia privi di senso.(Wikimedia)L’invenzione di particolari divani simili alle chaise longue e ai triclini degli antichi Romani in età vittoriana viene spesso attribuita alla necessità di ridurre proprio i rischi delle cadute dovute agli svenimenti, offrendo a chi subisce una sincope un comodo appoggio su cui accasciarsi e riprendersi. Quel tipo di divano viene chiamato “fainting couch”, letteralmente “divano da svenimento”, e divenne effettivamente molto diffuso nel Regno Unito durante il diciannovesimo secolo. Era spesso collocato all’interno delle “fainting room”, camere da svenimento, una stanza solitamente al primo piano delle case dove in sostanza ci si ritirava per fare un pisolino.Non è completamente chiara l’origine dei due nomi legati allo svenimento, ma fu proprio in età vittoriana che nacque lo stereotipo secondo cui le donne perdono facilmente i sensi davanti a una forte emozione. Per diverso tempo si disse che la presunta maggiore frequenza degli svenimenti fosse legata agli stretti corsetti della moda dell’epoca, che non permettevano di respirare bene e di conseguenza potevano portare a una sincope. In realtà non ci sono elementi storici e scientifici per ritenere che questo fosse il caso ed è probabile che quel tipo di divani si diffuse semplicemente per questioni di moda, in un periodo che si rifaceva spesso all’antichità. LEGGI TUTTO