Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Una delle lezioni che ci viene dall’osservazione della storia della scienza (è che è dura da accettare) è che spesso siamo ciechi di fronte a fenomeni evidenti.
Un esperimento chiave può essere fatto e perfino ripetuto più volte ma non sortisce i suoi effetti sulla nostra cultura se non dopo che la nostra costruzione teorica abbia acquisito lo spazio per accettarlo.
L’effetto degli anestetici è uno dei fenomeni che lo mostra.
La scoperta dell’azione degli anestetici risale al 1844; nel dicembre di quell’anno un dentista americano Horace Wells venne a sapere di una manifestazione ad Hartford sul protossido di azoto (meglio noto come gas esilarante, capace di indurre una sorta di ebrezza alcolica in chi lo aspirava). Durante lo spettacolo notò che uno dei volontari, che si era sottoposto alla somministrazione del gas, aveva urtato contro l’orlo di un sedile e, senza accorgersi della profonda ferita procuratesi alla gamba, aveva continuato a far divertire il pubblico, mantenendo i movimenti tipici di un ubriaco. Fu così che intuì la possibilità di estendere l’uso del protossido di azoto anche alla chirurgia odontoiatrica, e dimostrare ai medici dell’epoca che il dolore durante un’operazione chirurgica poteva essere anestetizzato. https://saluteuropa.org/scoprire-la-scienza/storia-dellanestesia/
Da N Engl J Med 2003;348:2110-24.
Appena 5 anni dopo, nel 1849, Scientific American dava notizia dell’esperimento fatto sulle piante “sensibili” da tale Dr. Manet e riportato sul Transactions of Physicial Society of Geneva usando il cloroformio con analoghi risultati. La notizia però si perse e non è stata mai più citata.
Dovettero passare trent’anni e si arrivò al 1878 quando il grande Claude Bernard, fisiologo francese considerato il fondatore della medicina sperimentale, (gli si deve la nozione di mezzo interno e di omeostasi, fondamento della biologia moderna) riscoprì l’effetto e lo riportò nel suo libro Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux. (Librairie J.-B. Baillière et Fils) con un esperimento condotto sulla Mimosa pudica usando l’etere (pg. 259 del libro). Bernard riscoprì il fenomeno e non cita l’esperimento seminale di Manet, fatto quasi 30 anni prima con un diverso anestetico. Egli ne concluse che le piante e gli animali devono condividere un’essenza biologica comune che viene interrotta dagli anestetici.
Da allora la cosa è stata studiata e riportata parecchie volte in letteratura fino ad arrivare alla moderna riscoperta di massa (legata fra gli altri all’attività dell’italiano S. Mancuso) che anche le piante mostrano fenomeni di sensibilità notevolissimi tanto da poter essere considerate non solo sensibili ma perfino “intelligenti”: Planta sapiens (che è poi il titolo di un recente libro di Paco Calvo ed. Il saggiatore).
In realtà la sensibilità all’anestesia è sorprendente poiché accomuna noi, i batteri, le piante e perfino i mitocondri, che come abbiamo ricordato altrove sono batteri che si sono uniti ad altri contribuendo alla formazione della cellula eucariota. Insomma specie che si sono di fatto succedute nell’ambito di almeno un miliardo e mezzo di anni di evoluzione hanno conservato una profonda sensibilità alle medesime molecole.
Questo però nel caso delle piante dovrebbe aiutarci a vederle da un punto di vista diverso. Le piante in sostanza non sono lo “sfondo” della vita animale, ma sono anch’esse vive ed attive con meccanismi che non ci appaiono evidenti solo perché i loro tempi sono diversi dai nostri; ma questo non giustifica una nostra pretesa superiorità.
Da leggere: Planta sapiens, Perché il mondo vegetale ci assomiglia più di quanto crediamo di Paco Calvo con Natalie Lawrence, Ed. Il Saggiatore, 2022, pag. 350
Il presente modello di sviluppo spinge alla competizione e alla perdita dell’idea di bene comune, causando il deterioramento del tessuto sociale. Il principale, se non unico obiettivo è arricchirsi. Questa situazione si è inacerbata con la crisi pandemica, la guerra in Ucraina e tutti i problemi collegati.
Nonostante la crisi energetica, le compagnie petrolifere stanno guadagnando in modo abnorme (ENI: 10,81 miliardi di euro nei primi nove mesi 2022). Pochi giorni fa, i giornali ci hanno informato che Leonardo nel 2021 ha venduto armi per 13,9 miliardi di dollari, prima fra le aziende europee, e che l’amministratore delegato di una grande banca italiana ha chiesto un aumento del 40% per il suo stipendio, che è già di 7,5 milioni all’anno. In Gran Bretagna, Equality Trust ha riportato che il numero dei miliardari è aumentato da 15 nel 1990 a 177 nel 2022 e che nello stesso periodo la ricchezza dei miliardari è aumentata di più del 1000%, mentre è cresciuto enormemente il numero di poveri. Equality Trust sottolinea che questo divario non è da imputarsi al fatto che i miliardari sono persone intelligenti, creative o fortemente dedicate al lavoro, ma perché essi sono i maggiori beneficiari di un sistema economico inadeguato. E’ quanto afferma anche papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.
Un’indagine estesa a molti paesi sviluppati indica che al crescere delle disuguaglianze aumentano gli indici di malessere, come la violenza e l’abuso di droghe, mentre diminuiscono gli indici di benessere, come la fiducia reciproca e la mobilità sociale. Quindi, se si vuole migliorare la qualità della vita si devono ridurre le disuguaglianze, problema che non può essere risolto con una caritatevole politica sociale. Consumando più risorse e, allo stesso tempo, aumentando le disuguaglianze, si scivolerà sempre più velocemente verso l’insostenibilità ecologica e sociale, fino a minare, in molti paesi, la sopravvivenza della stessa democrazia.
La piramide dei ricchi nel mondo (fonte: Sole24Ore)
Per migliorare il mondo è necessario, anzitutto, chiedersi ciò che deve essere fatto e ciò che non deve essere fatto, prendendo come valori di riferimento l’obiettivo del lavoro, la sua metodologia e il suo significato. L’obiettivo deve essere la custodia del pianeta, la metodologia giusta è la collaborazione, il significato è la dignità di ogni singola persona. Poi c’è l’economia; in gennaio, i trenta membri della Transformational Economics Commission del Club di Roma hanno chiesto al World Economic Forum di Davos, nel quale ogni anno si incontrano i leader dei governi, dell’economia e della società civile, di prendere concrete decisioni per frenare il cambiamento climatico e prevenire l’instabilità sociale. Hanno calcolato che il forte aumento della spesa pubblica può essere totalmente coperto con fondi ottenuti tassando in modo più efficiente e maggiormente progressivo le imprese e le persone più ricche, in base anche alle emissioni di gas serra che producono e a quanto pesantemente sfruttano le risorse del pianeta.
Tutto questo è in linea con quanto afferma papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.
L’atmosfera urbana è caratterizzata dalla presenza di un insieme vasto ed eterogeneo, da un punto di vista chimico-fisico, di particelle aerodisperse di dimensioni comprese tra 0,005 e 100 μm, costituite essenzialmente da minerali della superficie terrestre, prodotti di combustione e di attività industriali, artigiane, domestiche, sali provenienti da aerosol marini, prodotti di reazione in atmosfera. Le quantità di materiale particellare riscontrabili nelle atmosfere urbane sono in genere dell’ordine di 50-150 μg/m3,,ovviamente con i valori bassi dell’intervallo più pertinenti alle città europee e dei paesi più avanzati nelle politiche ambientali.
Fra queste particelle viene considerata con sempre maggiore interesse per i suoi effetti sulla salute della popolazione esposta la frazione inalabile, ovvero la frazione granulometrica di diametro aerodinamico minore di 10 μm (PM 10). La frazione granulometrica del PM 10 formata da particelle di diametro aerodinamico maggiore di 2,5μm costituisce la frazione coarse, che una volta inalata può raggiungere l’apparato respiratorio superando il livello naso-faringeo, quella costituita da particelle con diametro aerodinamico minore di 2,5μm (PM 2,5) costituisce la frazione fine, che una volta inalata, è in grado di arrivare fino al livello degli alveoli polmonari.
Le polveri fini, o particolato, hanno soprattutto tre origini:
Mezzi di trasporto che bruciano combustibili
Impianti industriali
Impianti di riscaldamento
Le attuali conoscenze sul potenziale rischio cancerogeno per l’uomo dovuto all’esposizione del particolato, derivano da studi di epidemiologia ambientale e di cancerogenesi sperimentale su animali e da saggi biologici a breve termine, quali test di genotossicità, mutagenesi e trasformazione cellulare.
Si è riscontrata un’elevata attività mutagena nell’aria urbana di tutte le città del mondo e risulta crescente la preoccupazione per un possibile effetto cancerogeno sulla popolazione in seguito all’esposizione da particolato urbano. E’ infatti noto da molto tempo che estratti della componente organica da particolato urbano possono indurre cancro alla pelle in animali da esperimento e risultano mutageni in alcuni dei test adottati per tale valutazione.
Inoltre in alcuni studi è stato mostrato come l’esposizione ad aria urbana abbia provocato la formazione di addotti multipli al DNA, sia nel DNA batterico che nel DNA della pelle e del polmone del topo. Infine estratti della componente organica da particolato sono risultati positivi anche in saggi di trasformazione cellulare in cellule di mammifero.
Uno studio dell’US Environmental Protection Agency (USEPA) sui tumori “ambientali” negli Stati Uniti stima che il 35% dei casi di tumore polmonare “urbano” attribuibili all’inquinamento atmosferico sia imputabile all’inquinamento da particolato.
L’organizzazione Mondiale della Sanità ha riconosciuto che in Italia, nelle città più inquinate la percentuale dei decessi che si possono addebitare alle polveri può arrivare fino al 5%.
La variabilità della composizione chimica del particolato atmosferico fa si che, ai fini della protezione dei cittadini e degli esposti, la misura solo quantitativa di questo indice non sia del tutto significativa.
E’ per questo che negli ultimi anni vanno moltiplicandosi gli studi su questo inquinante, riguardanti il campionamento, l’analisi, la valutazione di tossicità.
La presenza nel particolato di elementi e composti diversi a differenti concentrazioni comporta quindi che, a parità di quantità, la qualità di esso possa essere differente da caso a caso e determinante ai fini della individuazione di situazioni di rischio e pericolo. È ovvio che, per gli aspetti più strettamente fisici del rischio ambientale, tale considerazione è relativamente meno influente in quanto tale azione si esercita attraverso un’ostruzione delle vie respiratorie da parte del particolato; ma quando da questi si passa a quelli chimici e quindi alle interazioni chimiche e biochimiche fra l’ecosistema, l’organismo umano, che ne fa parte, ed il particolato, si rende necessaria una valutazione integrale di tipo anche tossicologico finalizzata a valutare le potenzialità nocive del particolato in studio.
I test di tossicità integrale nascono con il fine di fornire in tempo reale risposte finalizzate a possibili interventi tempestivi in caso di situazione di allarme, superando i tempi morti dell’attesa dei risultati delle complesse e complete analisi chimiche e microbiologiche di laboratorio.
Le metodiche di campionamento da adottarsi devono essere compatibili con le procedure e le tecniche di preparazione dei campioni dell’analisi successiva. I metodi adatti a tale fine sono essenzialmente due: il metodo del filtro a membrana che permette di raccogliere direttamente il particolato su un supporto adatto alla successiva analisi mediante microscopio elettronico (MEA) ed il campionamento mediante impattori inerziali. Fra i test di tossicità integrale, escludendo quelli basati su sperimentazione animale che richiedono strutture particolari e guardando piuttosto al contrario verso test semplici ed economici che possano essere applicati anche da laboratori non particolarmente attrezzati, stanno trovando crescente interesse quelli respirometrici. Sostanzialmente si misura la capacità respiratoria di cellule, libere o immobilizzate, spesso di lieviti, nell’ambiente sotto esame e la si confronta con quella in un ambiente di riferimento.
La riduzione della suddetta capacità è correlata alla tossicità dell’atmosfera testata. Il test può anche essere condotto basandosi sulla cinetica di respirazione. Nell’intenzione di rendere il test quanto più sensibile possibile si sono utilizzate modificazioni genetiche cellulari, cellule private della parete o cellule sensibilizzare attraverso trattamenti preliminari. In tutte queste misure l’elettrodo indicatore può essere di 3 tipi: in primis ovviamente l’elettrodo di Clark che misura per via amperometrica la concentrazione dell’ossigeno, l’elettrodo a diffusione gassosa per la CO2 ed un FET (transistor ad effetto di campo) per l’acidità prodotta dalla respirazione.
Abbiamo ripetuto più volte su queste pagine un concetto che Primo Levi ha portato alla dignità della letteratura e che ripeto qua a modo mio. La materia è dura ed insensibile, il chimico la vivifica mentre essa appare morta, la manipola mentre essa resiste duramente ad ogni manipolazione, e tramite questo intenso rapporto alla fine (anche se non sempre) ne trae qualcosa, una sorta di “anima” della materia, che poi permea tutta la nostra disciplina.
Noi chimici non abbiamo paura della materia di qualunque natura essa sia; sappiamo che col duro lavoro possiamo trarne qualcosa di buono. Ed ecco perché su questo blog parliamo spesso di materiali che sono di solito “vietati”, proibiti: i rifiuti, gli escrementi, l’acqua sporca; noi sappiamo che da essi possiamo riestrarre cose utili e necessarie, ma dobbiamo avvicinarli senza paura, blandirli, studiarli, renderli innocui e poi trasformarli: il lavoro del chimico!
Un recentissimo lavoro pubblicato su Soft matter, una brillante rivista che parla di materiali soffici, come dice il titolo, ci racconta il perché della forma degli escrementi di mammifero; oggi vi parlerò, insomma, della forma della cacca, argomento ostico, ma non così puzzolente come potreste immaginare.
Dietro questo studio c’è l’osservazione della forma degli escrementi diversi in diversi animali; forse il più famoso è il wombat, un piccolo marsupiale noto a molti perché produce escrementi cubici, una geometria certamente peculiare.
Gli escrementi o fatte degli animali sono costituiti dalle parti solide indigeribili degli alimenti (resti vegetali, ossa, peli, penne etc) e rappresentano ottimi segnali che possono indicare la presenza di una specie in un determinato ambiente; oltre alla presenza di una specie gli escrementi consentono anche di conoscerne le abitudini alimentari poiché spesso al loro interno è possibile riconoscere e identificare i resti indigeriti che aiutano a comprendere le abitudini alimentari dell’animale. Per chiarezza il termine borre invece indica un escremento solido espulso dalla bocca (in genere da uccelli) e che contiene resti di cibo non digeriti; si tratta sostanzialmente di pelo, piume, ossa o materiale vegetale indigeribile pressati in una sorta di capsula simile ad una fatta (la pressatura avviene in uno dei due stomaci che alcuni uccelli posseggono).
Nel caso dei mammiferi le fatte fresche hanno un ruolo sessuale poiché indicano dall’odore la disponibilità dell’animale all’accoppiamento, ma servono anche a marcare il territorio e vengono depositate in luoghi specifici che lo delimitano: “questo è mio” o “io sono qua”, questo il senso e-scatologico.
In altri casi le feci vengono espulse in “corsa”, come avviene al capriolo o al cervo (vedi foto qui sotto).
Ma sebbene molto interessante questo non ci fa avanzare nella comprensione della forma così variabile delle fatte.
Il parametro considerato critico dagli autori è la percentuale di acqua presente nel bolo; il bilancio fra l’acqua liquida e quella vapore cambia durante il percorso e questo comporta, in ragione delle dimensioni del corpo, del diametro del bolo e del tempo la formazione di crack trasversali che spezzano il bolo conferendogli una forma specifica, come riportato nel seguente grafico.
Gli autori sviluppano anche una ipotesi, che però non è confermata dall’analisi numerica, ossia che il processo sia simile a quello che ha generato le formazioni poligonali di Causeway, un sito di interesse geologico.
In realtà, almeno per quanto riguarda il caso umano l’osservazione della relazione fra lo stato delle feci e lo stato della salute del soggetto considerato era stata già fatta e viene espressa nella cosiddetta scala di Bristol sviluppata fin dal 1997 come presidio di valutazione medica.
Diciamo che sebbene possa dare adito a considerazioni buffe o peggio, e superando un naturale(?!) disgusto anche la materia fecale ha un ruolo importante nella nostra vita e nel nostro stato di salute e dunque esiste una chimica e perfino una chimica-fisica delle feci, che però non credo i chimici prendano di solito in considerazione nei loro studi, contravvenenendo ai saggi consigli di Primo Levi. Tenete presente che esiste però una letteratura significativa sul tema della composizione delle feci ma una assai più scarsa sulla dinamica della loro formazione, un soggetto forse spiacevole, ma penso molto interessante e con potenziali ricadute tecniche, mediche ed ingegneristiche (a titolo di esempio una volta fui coinvolto nello studio dei meccanismi per i quali è difficile pulire per bene con metodi automatici le superfici dei gabinetti pubblici, tema non peregrino se fate un viaggio chessò in auto, e vi assicuro che la ragione è perfettamente legata alle proprietà di superficie dei materiali ceramici ma anche alla dinamica dei liquidi, in particolare alla cosiddetta no-slip hypothesis, ma questa è un’altra storia).
In questo post traduco, adattandolo, un articolo-review di Mark Peplow, pubblicato su C&EN news il 5 febbraio scorso.
I laboratori di ricerca sulle macchine molecolari aumentano di anno in anno, tanto che si può quasi udire il ronzio immaginario di questi dispositivi su scala nanometrica.
Negli ultimi due decenni, i ricercatori hanno assemblato una stupefacente serie di molecole con parti mobili che agiscono come macchinari in miniatura. Hanno realizzato motori con pale rotanti, pompe che raccolgono molecole dalla soluzione, assemblatori molecolari che mettono insieme peptidi e in grado di leggere i dati memorizzati su fili di nastro molecolare. Tra i pionieri in questo campo troviamo l’italiano Vincenzo Balzani,https://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma
Jean-Pierre Sauvage, J. Fraser Stoddardt e Bernard L. Feringa che hanno ottenuto il premio Nobel per la chimica 2016.
Cosa possono fare questi dispositivi? Sebbene le applicazioni siano ancora relativamente lontane, i ricercatori stanno iniziando a vedere come le macchine molecolari potrebbero essere sfruttate per compiti utili. Ad esempio i motori molecolari possono flettere le nanofibre o riorganizzare i cristalli liquidi, che possono essere utilizzati per creare materiali reattivi e “intelligenti”.
Ora i ricercatori si stanno ponendo domande più profonde: come funzionano le macchine e come possiamo migliorarle? Le risposte, dicono alcuni, arriveranno studiando la cinetica e la termodinamica di questi sistemi per capire come l’energia e le velocità di reazione li fanno funzionare. Affrontare questi fondamenti potrebbe aiutare il campo a superare un approccio in qualche modo basato su tentativi ed errori alla costruzione di macchine e sviluppare invece un insieme più robusto di principi di progettazione.
I ricercatori stanno già iniziando a mettere a punto i combustibili chimici che guidano alcune macchine molecolari. Stanno anche costruendo macchine molecolari autonome che richiedono meno intervento da parte dei loro operatori umani, fintanto che è presente una scorta di carburante scelta con cura. Ma questa attenzione ai carburanti sta anche suscitando accesi dibattiti sui principi fondamentali del funzionamento di queste macchine. I motori sono forse il tipo più iconico di macchina molecolare. In genere operano attraversando un ciclo ripetuto di reazioni chimiche che modificano la forma della molecola e provocano il movimento, ad esempio la rotazione attorno a un legame o il movimento lungo una traccia. Per evitare che il motore si muova inutilmente avanti e indietro, i ricercatori hanno anche bisogno di un meccanismo che assicuri che si muova in una sola direzione.
Il primo motore molecolare rotativo sintetico completamente funzionante è stato presentato nel 1999 da Ben Feringa, dell’Università di Groningen. L’innovativo motore di Feringa conteneva due voluminosi gruppi chimici collegati da un doppio legame carbonio-carbonio. I gruppi ruotavano attorno a questo asse attraverso una serie di isomerizzazioni indotte dalla luce ultravioletta e dal calore. La chiralità della molecola motrice assicurava che i gruppi ingombranti potessero schiacciarsi l’uno accanto all’altro quando si muovevano in avanti nel ciclo ma non all’indietro [1].
Sulla sua scia sono seguiti dozzine di altri motori guidati dalla luce e sono stati sfruttati per una varietà di compiti, come la produzione di gel sensibili alla luce e il movimento di muscoli artificiali. La luce è una fonte di energia comoda e regolabile e non produce prodotti di scarto.
Fig.1 Questo motore autonomo contiene un anello (blu) che si muove in senso orario attorno a un binario circolare in quattro fasi. I siti di riconoscimento (verdi) ostacolano l’anello, mentre i gruppi ingombranti (rossi) ne impediscono l’avanzamento. Le molecole di carburante (sfere rosse) aggiungono questi gruppi bloccanti, che possono essere rimossi per produrre scorie (sfere arancioni). Copyright: Nature.
Tuttavia, per coloro che cercano di comprendere e imitare le macchine molecolari biologiche, come le proteine motrici che aiutano a trasportare il carico all’interno delle cellule, la luce non è sufficiente. La biologia ha utilizzato con successo pompe e motori molecolari per miliardi di anni, ma generalmente li guida con sostanze chimiche come l’adenosina trifosfato (ATP) piuttosto che con la luce. Per i chimici, quel precedente rappresenta una sfida irresistibile per lo sviluppo di macchine molecolari sintetiche alimentate da processi chimici.
Nel 1999, T. Ross Kelly del Boston College ha compiuto un passo importante verso tale obiettivo sviluppando un prototipo di motore alimentato a fosgene in grado di ruotare di 120° [2]. Sei anni dopo, Feringa costruì un motore rotativo ad azionamento chimico in grado di completare un giro completo attorno a un singolo legame C–C formando e rompendo un lattone che collegava le due unità del motore. Un agente riducente chirale fungeva da combustibile, aprendo il lattone e assicurando che il motore ruotasse in un’unica direzione [3].
I ricercatori hanno ora una serie di altre strategie di rifornimento [4]. Alcuni impiegano una serie di passaggi di protezione e deprotezione che aggiungono o rimuovono gruppi chimici pesanti dalla macchina. Altri variano il pH per far compiere a una macchina un ciclo completo. Un terzo approccio, sviluppato negli anni ’90, dipende da reazioni di ossidazione e riduzione.
La maggior parte di questi dispositivi azionati chimicamente si affida ai loro manipolatori umani per aggiungere il giusto tipo di carburante o altri reagenti in ogni punto del ciclo della macchina.
Ancora più importante, non è così che funzionano le macchine biomolecolari. Nuotano in un mare di molecole di carburante come l’ATP, le raccolgono ogni volta che ne hanno bisogno e operano ininterrottamente. Raggiungere quel tipo di autonomia nelle macchine molecolari sintetiche è un obiettivo importante per il settore.
A differenza dei fotoni, i combustibili chimici forniscono un modo per immagazzinare e trasportare una fonte di energia concentrata a cui le macchine molecolari possono accedere su richiesta [5]. David Leigh (University of Manchester) ritiene che se le macchine possono accedere a una fonte di energia secondo necessità, potrebbero avere una gamma più ampia di applicazioni rispetto ai sistemi non autonomi.
Nel 2016, Leigh ha pubblicato una pietra miliare nella spinta all’autonomia delle macchine. Afferma: “È stato il primo motore autonomo guidato chimicamente”. Il motore è costituito da un anello molecolare che può muoversi su una pista circolare. Ci sono due regioni, chiamate siti di riconoscimento, sui lati opposti della pista, che possono mantenere l’anello in posizione mediante legami a idrogeno. Ciascun sito di riconoscimento si trova vicino a un gruppo idrossilico che reagisce con un combustibile, il cloruro di fluorenilmetossicarbonile (Fmoc-Cl). Questa reazione installa ingombranti gruppi Fmoc sul binario, bloccando il movimento dell’anello [6].
Ma la miscela di reazione contiene anche una base che aiuta a strappare i gruppi bloccanti, permettendo all’anello di passare. Il risultato è che i gruppi Fmoc entrano ed escono costantemente dai siti di ancoraggio idrossilici della traccia. Fondamentalmente, l’impedimento sterico assicura che la reazione per aggiungere un Fmoc avvenga circa cinque volte più velocemente nel sito di ancoraggio che si trova di fronte all’anello.
Da allora, Leigh ha utilizzato una chimica del carburante Fmoc in una pompa autonoma che raccoglie gli eteri dalla soluzione e li inserisce in una lunga catena di stoccaggio [7]. L’avvento di tali dispositivi autonomi ha suscitato entusiasmo, ma alimenta anche un dibattito di lunga data su come funzionino effettivamente le macchine molecolari guidate chimicamente. Ed è qui che le cose si complicano.
Per comprendere questo dibattito, si consideri la chinesina, una macchina biologica proteica che trasporta il carico all’interno delle cellule. La proteina ha due “piedi” che avanzano lungo binari rigidi chiamati microtubuli e il movimento è guidato dall’idrolisi dell’ATP in adenosina difosfato (ADP). Alcuni ricercatori hanno sostenuto che la rottura del forte legame fosfato nell’ATP innesca la chinesina mettendola in uno stato ad alta energia. Il rilassamento della chinesina da questo stato provoca un cambiamento conformazionale che spinge i “piedi” in avanti, uno dopo l’altro.
Questa interpretazione non è corretta, afferma Dean Astumian, un fisico dell’Università del Maine che ha svolto un ruolo chiave nel guidare il pensiero sul funzionamento dei motori molecolari: “Lo dico come un fatto deduttivo, non come un’opinione: i dati sperimentali mostrano che il movimento della chinesina è controllato dalle velocità relative delle reazioni reversibili che coinvolgono anche chinesina, ATP e i loro prodotti.”[8].
Fig. 2 Un combustibile carbodiimmide chirale e un catalizzatore chirale aiutano a garantire che questo motore autonomo ruoti in una direzione. Le frecce tratteggiate mostrano reazioni inverse che sono meno probabili nelle condizioni di reazione. Copyright: Nature
Astumian e altri sostengono che tutte le macchine molecolari guidate chimicamente sono governate dall’asimmetria cinetica in questo tipo di “dente di arresto” browniano. Al contrario, i colpi di potenza sono coinvolti nella guida di macchine guidate dalla luce: la luce eccita il dispositivo in uno stato di alta energia e il suo rilassamento provoca un grande cambiamento meccanico. Questa distinzione nel meccanismo ha importanti implicazioni.
Fig. 3 Il “dente di arresto” autonomo contiene un anello (nero) intrappolato su un binario lineare (grigio). Girando finemente il carburante della macchina, che installa un gruppo barriera (rosa) sul binario, i ricercatori possono migliorare le possibilità dell’anello di assestarsi nel sito di riconoscimento (verde) più lontano dalla barriera. Copyright: J. Am. Chem Soc.
Il modello di “dente di arresto” browniano è ampiamente accettato tra i macchinisti molecolari. Ma alcuni sottolineano che se il ruolo principale di una molecola di combustibile non è quello di fornire energia per far muovere un motore molecolare, non dovrebbe essere chiamata combustibile.
Alcuni ricercatori affermano che il carburante è semplicemente una comoda scorciatoia per qualsiasi reagente che aziona una macchina molecolare.
Per affrontare questo e altri problemi meccanicistici, i ricercatori hanno recentemente delineato una serie di modelli che descrivono la termodinamica e la cinetica alla base delle macchine molecolari. In aprile 2022, Leigh ha presentato un motore autonomo guidato chimicamente che è molto più efficiente del suo esempio del 2016. Il motore beneficia di una migliore reazione di alimentazione e di due fasi distinte che conferiscono ciascuna una certa asimmetria cinetica al suo ciclo di reazione. Il motore contiene una coppia di gruppi arilici che ruotano attorno a un legame singolo C–C formando e rompendo un gruppo di anidride a ponte. I ricercatori usano un combustibile chirale di carbodiimmide e un catalizzatore di idrolisi chirale, assicurando che il motore giri (principalmente) in una direzione [9]
Feringa afferma che il suo team sta effettuando calcoli di meccanica molecolare e altri approcci di modellazione per effettuare progetti di macchine e capire come diverse strutture e sostituenti potrebbero farli funzionare più velocemente e in modo più efficiente. A luglio, i ricercatori hanno mostrato un motore autonomo che funziona con carbodiimmide in ambiente acido ma ruota formando e rompendo un estere a ponte [10].
Leigh sta anche modificando i suoi carburanti per migliorarne le prestazioni. A settembre, il suo team ha dimostrato tale approccio su un “dente di arresto” autonomo che contiene un anello intrappolato su un binario lineare [11].
Per ora, tutte queste macchine autonome alimentate chimicamente sono dispositivi di prova che non svolgono compiti utili. Ma Leigh ci sta lavorando. In collaborazione con Katsonis dell’Università di Groningen, ad esempio, spera di manipolare i cristalli liquidi con i suoi motori alimentati chimicamente, cosa già ottenuta con i motori azionati dalla luce. Katsonis afferma che il progetto sta evidenziando una delle difficoltà per i sistemi alimentati chimicamente: come gestire i loro prodotti di scarto. I rifiuti chimici prodotti dalle reazioni di alimentazione possono alterare le condizioni di reazione come il pH o legarsi alla macchina in modi che ostacolano l’accesso a ulteriori molecole di carburante. Le molecole di scarto potrebbero essere riciclate in carburante, proprio come la natura trasforma l’ADP in ATP. Per raggiungere questo obiettivo, i ricercatori dovranno sviluppare una gamma più ampia di carburanti per macchine autonome.
Nel frattempo, un’altra fonte di energia sta venendo alla ribalta. Stoddart ha recentemente sviluppato un motore molecolare che utilizza un meccanismo redox azionato direttamente dall’elettricità [12]. Di fronte alla sana concorrenza della luce e dell’elettricità, le macchine autonome alimentate chimicamente ora devono dimostrare di poter svolgere una varietà di utili funzioni meccaniche, afferma Feringa: “Questa è la cosa più interessante e importante, e questa è la grande sfida”
Bibliografia
[1] N. Komura et al., Light-driven monodirectional molecular rotor, Nature, 1999, 401, 152-155.
[2] T. Ross Kelly, H. De Silva, R. De Silva, Unidirectional rotary motion in a molecular system, Nature, 1999, 401, 150-152.
[3] S.B. Fletcher et al., A Reversible, Unidirectional Molecular Rotary Motor Driven by Chemical Energy, Science, 2005, 310, 80-82.
[4] R. Benny et al., Recent Advances in Fuel-Driven Molecular Switches and Machines, Chemistry Open, 2022, 9, 1-21.
[5] S. Borsley, D.A. Leigh. BMW. Roberts, Chemical fuels for molecular machinery, Nature Methods, 2022, 14, 728-738.
[6] M.R. Wilson et al., An autonomous chemically fuelled small-molecule motor, Nature, 2016, 534, 235–240.
[7] S. Amano, S.D.P. Fielding, D.A. Leigh, A catalysis-driven artificial molecular pump, Nature, 2021, 594, 529–534.
[9] S. Borsley et al., Autonomous fuelled directional rotation about a covalent single bond, Nature, 2022, 604, 80–85.
[10] K. Mo et al., Intrinsically unidirectional chemically fuelled rotary molecular motors, Nature, 2022, 609, 293–298.
[11] S. Borsley et al., Tuning the Force, Speed, and Efficiency of an Autonomous Chemically Fueled Information Ratchet,J. Am. Chem. Soc., 2022, 144, 17241–17248.
[12] L. Zhang et al., An electric molecular motor, Nature, 2023, 613, 280–286.
James. G Ballard scrittore inglese, che sarebbe riduttivo definire unicamente autore di libri di fantascienza, nel 1964 pubblica un libro che viene tradotto in Italiano con il titolo di “Terra Bruciata”.
È il libro che sto leggendo in questi giorni, attirato sia dall’immagine di copertina di Karel Thole, il grafico olandese che disegnò le copertine della collana di fantascienza “Urania”, che dallo stile letterario di Ballard. Caustico, molto critico nei confronti della società contemporanea e delle sue palesi contraddizioni, che l’autore mette a nudo con racconti quasi surreali.
In questo libro l’autore immagina un pianeta terra piegato dalla siccità. Sono bastate pochissime righe per provare quella gradevole sensazione, quella specie di scossa elettrica che sento quando mi rendo conto di aver trovato un libro che ti incolla alla pagina, uno di quelli che ti fa restare alzato a leggere fino ad ora tarda.
Nelle prime pagine del libro un brano mi ha particolarmente colpito: “La pioggia! Al ricordo di quello che la parola significava un tempo, Ransom alzò lo sguardo al cielo. Completamente libero da nuvole o vapori, il sole incombeva sopra la sua testa come un genio perennemente vigile. Le strade e i campi adiacenti al fiume erano inondati dalla stessa invariabile luce, vitreo immobile baldacchino che imbalsamava ogni cosa nel suo calore”.
Personalmente queste poche righe mi hanno ricordato la situazione del Fiume Po la scorsa estate.
Nella trama del romanzo si immagina una migrazione umana sulle rive dell’oceano dove si sono dissalati milioni di metri cubi di acqua marina, e dove le spiagge sono ormai ridotte a saline, ugualmente inospitali per la vita degli esseri umani, così come le zone interne,dove fiumi e laghi stanno lentamente prosciugandosi.
So molto bene che molte persone storcono il naso quando si parla di fantascienza ,senza probabilmente averne mai letto un solo libro,probabilmente per una sorta di snobismo preconcetto. La mia non vuole essere una critica, è solmente una mia personale constatazione. Ma non posso fare a meno di pubblicare su questo post un’altra foto,drammaticamente significativa.
L’immagine scattata dal satellite Copernicus, mostra la situazione del Po a nord di Voghera lo scorso 15 Febbraio. La foto è chiarissima. Rimane valido il motto che dice che un’immagine vale più di mille parole.
Ecco è proprio dalle parole che vorrei partire per chiarire alcuni concetti, porre degli interrogativi a me stesso, e a chi leggerà queste righe.
Parole. Quali parole possiamo ancora usare per convincere chi nemmeno davanti a queste immagini prende coscienza del problema siccità, continuando ostinatamente a negare l’evidenza, esprimendosi con dei triti e tristi luoghi comuni.
Uno fra i tanti, un messaggio inviato alla trasmissione di radio 3 “Prima pagina”. Quando la giornalista lo legge in diretta io rimango sbalordito. L’ascoltatore che lo ha inviato scrive testualmente. “Il riscaldamento globale è un falso problema, tra 100 anni saremo in grado di colonizzare altri pianeti e di sfruttare le loro risorse”. Giustamente la conduttrice risponde che non abbiamo cento anni di tempo. I problemi sono qui e adesso.
Il senso di sbigottimento rimane anche mentre sto terminando di scrivere questo post. Uscendo in bicicletta nel pomeriggio ho potuto vedere palesemente la sofferenza dei corsi d’acqua in provincia di Varese: il Tresa e il Margorabbia ridotti a dei rigagnoli. Ho visto terreni aridi e molti torrenti della zona prealpina completamente asciutti.
Quali parole possiamo ancora usare, parole che facciano capire l’importanza dell’acqua? L’acqua è indispensabile alla vita penso di averlo letto nelle prefazioni praticamente di ogni libro che si occupasse del tema. Mentre scrivo, in un inverno dove non ho visto un fiocco di neve nella zona dove vivo, leggo l’intervista fatta a Massimiliano Pasqui, climatologo del CNR, che dichiara che ci servirebbero 50 giorni di pioggia per contenere il problema della siccità nel Nord Italia. Il deficit idrico del Nord Ovest ammonta a 500 mm. Le Alpi sono un territorio fragile, i ghiacciai arretrano. Lo speciale Tg1 dedica una puntata ai problemi dei territori dell’arco alpino. Ma buona parte delle persone intervistate sono preoccupate unicamente per il destino delle stazioni sciistiche. Solo una guida alpina valdostana suggerisce un nuovo modo per godere la montagna, uscendo dal pensiero unico che vuole che in montagna si vada unicamente per sciare. Una biologa che si occupa della microfauna dei torrenti alpini ricorda l’importanza della biodiversità e delle catene alimentari che la riduzione delle portate può compromettere. Un sindaco della zona prealpina del comasco, difende l’idea di creare una pista di innevamento artificiale a 1400 metri di quota, quando ormai lo zero termico si sta situando intorno ai 3000. Non posso pensare ad altro se non ad una sorta di dipendenza. Non da gioco d’azzardo o da alcol, ma una dipendenza che ci offusca il ragionamento. Mi vengono in mente altre parole, le parole di un proverbio contadino: “Sotto la neve pane, sotto la pioggia fame”. Ma anche di pioggia se ne sta vedendo poca nel Nord Italia, e la neve sembra essere un ricordo in molte zone.
Il Piemonte sta diventando arido. Mia cugina che vive nelle terre dei miei nonni, nel Monferrato, mi informa che alcuni contadini stanno pensando di piantare fichi d’india. Nei vigneti il legno delle piante è secco e asciutto e la pianta sembra essere in uno stato sicuramente non di piena salute. Ci si accorge di questo anche nel momento in cui si lega il tralcio al primo fil di ferro per indirizzare la crescita della pianta: si ha timore di spezzarlo.
Ritorno per un attimo al libro di Ballard. Nella prefazione trovo un passaggio interessante: nel libro l’autore ci parla della siccità che ha immaginato, non in maniera convenzionale. Ci sono nel libro descrizioni di siccità e arsura, ma quello che emerge dalla lettura è il fantasma dell’acqua. Ballard ha sempre evitato i temi della fantascienza classica, viaggi nello spazio e nel tempo, incontri con civiltà aliene.
Ha preferito narrare e immaginare le catastrofi e le decadenze del futuro prossimo. Ma sono catastrofi particolari. Sono cioè catastrofi che “piacciono” ai protagonisti. Che quasi si compiacciono di quello che si sta svolgendo sotto i loro occhi. Vale per i protagonisti di “Deserto d’acqua e di “Condominium”. Il primo si compiace della spaventosa inondazione che ha sommerso Londra, il secondo racconta le vicende degli inquilini di un condominio di nuova generazione, dove una serie di black out e dissidi tra vicini fanno regredire tutti gli inquilini allo stato di uomini primitivi.
Terra bruciata invece ci mostra un’umanità che deve fare i conti con la mancanza ed il ricordo del composto linfa, H2O. La formula chimica probabilmente più conosciuta in assoluto. Conosciamo a memoria la formula, ma forse non conosciamo affatto l’acqua. E a volte è uno scrittore come Ballard che riesce ad essere più diretto nel mostrarci quello che rischiamo non preservandola e dandola per scontata. L’indifferenza, la mercificazione indotta, le nostre percezioni errate, lo sfruttamento del composto indispensabile alla vita ci stanno rivelando come anche noi ci stiamo forse compiacendo o abituando a situazioni surreali. Sul web ho visto la pubblicità di una marca di borracce che ci ingannano. Borracce con sedicenti pod aromatizzati che ti danno la sensazione di stare bevendo acqua aromatizzata. Riporto dal sito, senza citare per ovvie ragioni la marca.
“Tu bevi acqua allo stato puro. Ma i Pod aromatizzati fanno credere al tuo cervello che stai provando sapori diversi come Ciliegia, Pesca e molti altri.
Naturalmente gustosi. Tutti i nostri Pod contengono aromi naturali e sono vegetariani e vegani.
Idratazione sana. Prova il gusto senza zuccheri, calorie o additivi.
E ‘scienza (anche se ci piace pensare che sia anche un po’ magia). Il tuo centro olfattivo percepisce l’aroma come se fosse gusto, e fa credere al tuo cervello che tu stia bevendo acqua con un sapore specifico.”
Trovo questa pubblicità davvero agghiacciante.
Mi sto chiedendo ormai da diverso tempo come possiamo opporci a questa deriva. Ho letto diversi romanzi di fantascienza sociologica che immaginano società distopiche. Ma francamente mi sembra che non sia più necessario leggerla. In realtà mi sembra tristemente che siamo molto vicine a vivere in una società distopica. Sull’onnipresente rifiuto di bere acqua di rubinetto con la motivazione che “sa di cloro” o addirittura “che fa schifo”, qualcuno costruisce il business delle borracce ingannatrici. Ormai l’acqua non è più il composto vitale. E ‘un composto puro ma che deve essere migliorato. Qualcuno mette in commercio acqua aromatizzata, qualcun altro ci vuole vendere borracce che ci fanno credere che lo sia.
Mi chiedo davvero cosa sia andato storto, e quando recupereremo non dico la razionalità ma almeno il buon senso comune. E intanto possiamo aspettare fiduciosi la stagione estiva.
Quando si parla di idrogeno viene subito necessario chiarire che si tratta di un vettore di energia perché – si dice- non esistono giacimenti di idrogeno sul nostro pianeta; questo nonostante l’idrogeno sia l’elemento più diffuso dell’universo e anche il più antico degli elementi, quello che si è formato per primo e anche il motore basico dell’energia delle stelle.
Ma questa descrizione è del tutto vera e corretta? Abbiamo parlato ripetutamente del ciclo dell’idrogeno e delle sue peculiarità, per esempio qui e qui. Ma mai dell’idrogeno naturale.
Lavori che mostravano l’esistenza di risorse “naturali” di idrogeno risalgono almeno al 1962 (World Oil, nov, pag 78), ma il dubbio esiste ufficialmente fin dal 1990, quando un ingegnere minerario, H.C. Petersen scriveva (Int. J. Hydrogen Energy,Vol. 15,No. 1,p. 55, 1990) in una lettera alla rivista, raccontando di aver cercato l’elio nei campioni di gas che gli provenivano da parecchi giacimenti americani, ma di aver trovato anche idrogeno in percentuali che erano significative; e rivelando che, a suo parere, in Kansas and Iowa erano stati perforati pozzi dalla Texaco alla ricerca specifica di idrogeno.,
Da allora sono stati pubblicati un piccolo numero di lavori riguardanti la ricerca di giacimenti di idrogeno; il più famoso dei quali si trova, al momento, in Mali, in Africa.
Nella prima di queste review (1) del 2005 gli autori scrivevano:
Nella medesima review si sosteneva che le risorse di idrogeno “naturale” erano prodotte in massima parte da processi di serpentinizzazione in rocce ultramafiche o ultrabasiche, rocce ignee con contenuto molto basso, meno del 45%, di silice (che esalta l’acidità), generalmente percentuale superiore al 18% di ossidi di magnesio, ossidi ferrosi elevati, basso contenuto in potassio, e sono composte principalmente da minerali femici (ossia contenenti ferro e magnesio).
Queste condizioni erano estranee a quelle dei comuni giacimenti di petrolio e necessitavano dunque di una ricerca specifica.
Per confronto il lavoro mostra la diversa composizione in idrogeno di un tipico deposito carbonifero e quella invece di depositi ultramafici ricchi di idrogeno.
La reazione principale per la formazione di idrogeno è proposta in questa forma:
In definitiva i depositi di ferro ferroso servono da riducenti dell’acqua geologica formando cospicue quantità di idrogeno e di ferro ferrico. Secondo un lavoro del 1979 (2) la quantità di idrogeno che viene ceduta all’intero oceano da questi processi assommerebbe a sole 70 ton al giorno, 25mila ton/anno; e come si sa la quantità di idrogeno presente in atmosfera è particolarmente limitata, dell’ordine di un paio di centinaia di Mton.
Una review più recente del 2019 (3) al contrario stima in circa 23Mton/anno il flusso geologico di idrogeno da tutte le sorgenti verso l’atmosfera, dunque dell’ordine del 10% del deposito atmosferico, che come abbiamo raccontato altrove si disperde nello spazio a causa della bassa gravità terrestre.
Nella review si dice:
“Da un punto di vista geologico, l’idrogeno è stato trascurato”. Questo è stato scritto da Nigel Smith e colleghi più di un decennio fa in un articolo del 2005, che sembra essere l’ultima iniziativa in una revisione dell’idrogeno naturale (Smith et al., 2005). Nel 2019 questa affermazione è ancora valida. Sospetto che ciò sia dovuto a un pregiudizio esistente secondo cui l’idrogeno libero in natura è raro, e le descrizioni delle poche scoperte conosciute sono aneddotiche e per qualche motivo raccolgono pochissima attenzione. Pertanto, se nessuno si aspetta di trovare idrogeno libero, nessuno lo campiona. Questo pregiudizio influenza il modo in cui i campioni di gas vengono analizzati e campionati, ma anche il modo in cui i sistemi di rilevamento sono progettati. L’approccio analitico standard per la gascromatografia utilizza spesso l’idrogeno come gas di trasporto (Angino et al., 1984). Per questo motivo, se c’è idrogeno in un campione di gas, non verrà rilevato. È stato riferito che anche nel 1990, molte indagini non erano attrezzate per analizzare l’idrogeno (Smith, 2002). È ancora vero, fino ad oggi, che solo pochi gas-analizzatori portatili moderni utilizzati nelle scienze naturali includono un sensore di idrogeno nel loro design. È difficile stimare quante volte l’idrogeno non è stato identificato in campioni ricchi di H2 a causa della mancanza di una tecnica di rilevamento adeguata per misurare le concentrazioni di idrogeno.
Questo spiega perché a tutt’oggi non abbiamo idea precisa delle effettive dimensioni degli eventuali giacimenti mondiali di idrogeno naturale.
Nella review del 2020 esiste tuttavia una mappa, dalla quale si potrebbe erroneamente pensare che ci sono più depositi in Europa e Russia, ma questo dipende solo dal maggior numero di analisi condotte:
Il giacimento più famoso e sfruttato al momento è quello scoperto in Mali. La sua scoperta è stata raccontata in un recente articolo su Science (17 FEBRUARY 2023 • VOL 379 ISSUE 6633 631 )
All’ombra di un albero di mango, Mamadou Ngulo Konaré ha raccontato l’evento leggendario della sua infanzia. Nel 1987, gli scavatori di pozzi erano venuti al suo villaggio di Bourakébougou, Mali, per trivellare l’acqua, ma avevano rinunciato a un pozzo asciutto a una profondità di 108 metri. “Nel frattempo, il vento stava uscendo dal buco”, ha detto Konaré. Denis Brière, petrophyfisico e vicepresidente di Chapman Petroleum Engineering, nel 2012. Quando un perforatore ha sbirciato nel buco mentre fumava una sigaretta, il vento gli è esploso in faccia. “Non è morto, ma è stato bruciato”, ha continuato Konaré. “E abbiamo avuto un enorme incendio. Il colore del fuoco durante il giorno era come l’acqua frizzante blu e non aveva inquinamento da fumo nero. Il colore del fuoco di notte era come oro splendente, e in tutti i campi potevamo vederci nella luce…. Avevamo molta paura che il nostro villaggio sarebbe stato distrutto”.
Un racconto ed una descrizione più tecnica si ha nella ref. (5)
Questo ci aiuta a capire che si tratta di riserve di idrogeno NON FOSSILI è bene confermarlo, non dipendenti da processi di trasformazione petrolifera e dunque non soggetti ai medesimi limiti, ma comunque limitati nel loro sviluppo complessivo; sono tecnicamente rinnovabili se non usate al di sopra della loro limitata velocità di riproduzione.
I serbatoi di idrogeno relativamente puri sono associati a tracce di metano, azoto ed elio. L’accumulo geologico stratigrafico di idrogeno è legato alla presenza di davanzali e falde acquifere doleritiche sovrapposte che sembrano svolgere un ruolo per disabilitare la migrazione e la dispersione di gas verso l’alto. Il verificarsi di una miscela di gas e acqua che agisce con un’attività artesiana conferma la presenza di fluidi sovra-pressati. Ciò si traduce in un fluido di superficie difasico eruttivo di tipo geyser in molti dei pozzi. Il sistema di “sollevamento del gas” e la presenza di tracce di monossido di carbonio altamente instabile è legato a una recente carica di idrogeno gassoso ai serbatoi dalle falde acquifere sotterranee, in eruzione con l’acqua associata. I pozzi del Mali sottolineano la fonte non fossile di idrogeno gassoso e presentano caratteristiche di un’energia sostenibile. L’attuale stima del suo prezzo di sfruttamento è molto più economica dell’idrogeno fabbricato, sia da combustibili fossili che dall’elettrolisi.
Al momento mi sembra di poter dire che dunque esistono giacimenti sia pur limitati di idrogeno abbastanza puro nella crosta terrestre, da sorgenti non fossili, nel senso non dipendenti da depositi di tipo petrolifero, o carbonifero, ma solo da processi puramente geochimici ed in potenza rinnovabili; tuttavia la loro presenza SEMBRA limitata e potrebbe dunque dare solo un limitato apporto ad un’economia rinnovabile, probabilmente significativa solo in certi luoghi. Rimane però che non esistono ancora precise descrizioni e valutazioni delle dimensioni di queste riserve di idrogeno naturale e che il campo si svilupperà fortemente nei prossimi anni
Sono sicuro che torneremo sull’argomento; infatti proprio perché l’interesse per queste tematiche è enorme serve chiarirne bene i contorni e l’importanza.
1 Hydrogen exploration: a review of global hydrogen accumulations and implications for prospective areas in NW Europe
5 International journal of hydrogen energy 43 (2018) p.19315-19326 Discovery of a large accumulation of natural hydrogen in Bourakebougou (Mali) Alain Prinzhofer et al
Già in altre occasioni ho parlato dei Salesiani e della loro capacità di anticipare i tempi. È successo in occasione della raccolta differenziata, della nutraceutica, oggi avviene per il contrasto agli abbandoni scolastici.
Da quasi un secolo a Palermo i Salesiani accompagnano generazioni di studenti attraverso una gestione della scuola “circolare” fondata sulla responsabilità condivisa della comunità educativa. Già la sede, sopravvissuta indenne alla seconda guerra mondiale, rappresentava un impegno: trasformata da spazio di sollazzo di casati in decadenza in scuola ed oratorio. La visione antropocentrica della vita e lo studio dell’economia sono da sempre i suoi connotati primari
La secondaria di primo grado accompagna gli studenti alla scoperta del proprio talento attraverso il dialogo e la proficua relazione fra giovani ed educatori. Ogni allievo cresce attraverso una combinazione di formazione e di educazione alla vita, financo a farlo abituare sin dalle aule alla competizione concorsuale ed ai laboratori professionali. Molta attenzione è anche riservata alle lingue con full immersion nei relativi laboratori, ma in una visione non solo economica, ma anche culturale, così con uno sguardo ad esempio all’arabo, oltre ai tradizionali inglese, francese e spagnolo.
Villa Ranchibile, sede Istituto Salesiano Don Bosco di Palermo
Nella Scuola Secondaria di Secondo Grado multiculturalità, apertura e dialogo con Paesi vicini e lontani sono le coordinate. Sul piano delle software skills, ossia delle competenze trasversali spendibili in qualsiasi ambito di lavoro, è attiva una Sala Confezione Telegiornale. È poi previsto un tempo da dedicare alla lettura ed interpretazione dei social, da un punto di vista grafico e contenutistico. La sala robotica corrisponde perfettamente alle esigenze della didattica 4.0: il confronto continuo con le istituzioni accademiche garantisce la scelta professionale più idonea.
Due altre attività di certo qualificanti riguardano l’educazione al Teatro sia come spettatori che come attori e l’educazione alla legalità. L’alternanza Scuola Lavoro è realizzata in modo nuovo senza creare le fasi di confusione ed incertezza proprie del metodo nella forma attuale ed avviene sotto la guida di CNR, Agenzia delle Entrate, Istituti Finanziari.
Visite culturali, molto innovativa e moderna quella realizzata a Wall Street, e comunicazione sociale completano questo quadro formativo, al tempo stesso tradizionale ed innovativo.
Come si comprende una scuola diversa da quella tradizionale generalmente basata sulla monoculturalitá che funge da base per caratterizzare l’offerta, dimenticando però la multiculturalità che caratterizza la domanda è che se rispettata può fungere da incentivo a superare i momenti difficili e ridurre gli abbandoni.
Sia la fissione nucleare (scissione di un nucleo atomico pesante in nuclei più leggeri) che la fusione nucleare (unione tra nuclei leggeri per formare un nucleo più pesante) convertono piccole quantità di massa (m) in enormi quantità di energia (E), come schematizzato dall’ equazione di Einstein E=mc2, dove c indica la velocità della luce (300.000 km/s). Sia la fissione che la fusione nucleare sono state usate per creare armi di incredibile potenza sin dal 1950. La produzione di energia elettrica da fissione nucleare, realizzata per la prima volta nel 1954, è oggi usata in alcuni paesi fra molte polemiche, a causa dei numerosi problemi che la caratterizzano, quali la produzione di scorie radioattive pericolose per decine di migliaia di anni, che non si sa dove collocare.
Nel 1955 è stata preconizzata la possibilità di ottenere entro due decenni energia elettrica dalla fusione nucleare, risolvendo definitivamente il problema energetico su scala mondiale. Questa (fra due decenni …) è stata riproposta più volte dal 1955 ad oggi. In realtà, nonostante i grandi capitali investiti, finora non sono stati fatti passi significativi, a dispetto della spasmodica attesa di politici, economisti e mezzi di comunicazione.
L’episodio più eclatante è avvenuto il 13 dicembre scorso, quando i giornali di tutto il mondo hanno riportato che la National Ignition Facility (NIF) del Laurence Livermore National Laboratory (USA) aveva ottenuto un importantissimo risultato: focalizzando l’energia di 192 laser su una sferetta contenente deuterio e trizio (due isotopi dell’idrogeno), si è provocata in pochi nanosecondi la loro fusione generando una quantità di energia (3,15 MJ), leggermente maggiore di quella iniettata dai laser nella sferetta (2.05 MJ). Da notare, però, che i 192 laser hanno consumato circa 400 MJ, ai quali va aggiunta l’energia usata dalle altre apparecchiature utilizzate nell’esperimento.
Per applicazioni commerciali della fusione nucleare, oltre a generare più energia di quella consumata, si deve vincere un’altra sfida ancora più difficile: costruire un’apparecchiatura che funzioni non per pochi miliardesimi di secondo, ma in modo continuo. Oltre ad altri numerosi problemi tecnici difficili da affrontare, c’è anche quello che il trizio. Si tratta di un gas radioattivo che non esiste in natura, decade con un tempo di semivita di soli 12 anni e si ottiene con una reazione nucleare di un isotopo del litio, dopo averlo arricchito dal 6% al 90% con un costosissimo processo.
Spendere miliardi di dollari nel tentativo di generare elettricità mediante un processo che molti scienziati giudicano irrealizzabile serve solo ad ostacolare il definitivo sviluppo delle energie rinnovabili che, con una frazione di quei finanziamenti, potrebbero risolvere gli ultimi loro problemi e fornire al pianeta energia elettrica senza provocare il cambiamento climatico, senza generare scorie radioattive e senza facilitare la costruzione di armi atomiche. Già, perché è bene ricordare che il compito primario del NIF e degli altri laboratori di questo tipo non è la produzione di energia, ma lo studio della fusione per scopi bellici.
E’ noto che l’acqua ha un diagramma di fase complesso (Figura 1), in quanto nella fase solida ha ben 20 fasi cristalline, molte delle quali scoperte anche recentemente (tre nuove fasi cristalline solo negli ultimi 5 anni).
Figura 1 Diagramma di stato dell’acqua e delle diverse forme di ghiaccio
Oltre alle forme cristalline, attualmente, si annoverano delle forme amorfe.
Il ghiaccio amorfo a bassa densità (LDA) è stato prodotto per la prima volta negli anni ’30 dal congelamento del vapore acqueo su una superficie molto fredda, a una temperatura inferiore a -150°C (1).
Il ghiaccio amorfo ad alta densità (HDA) negli anni ’80 è stato prodotto dalla compressione del ghiaccio Ih (la forma più diffusa nelle condizioni di pressione ambiente con la classica struttura solida esagonale) o dal LDA a basse temperature (2).
Il riscaldamento dell’HDA sotto pressione produce ghiaccio amorfo espanso ad alta densità (eHDA) o ad altissima densità (vHDA), come riportato nei primi anni di questo secolo.
Come suggeriscono i loro nomi, i ghiacci amorfi si distinguono principalmente per la loro densità, con LDA che ha una densità di 0,94 g cm–3 e gli HDA partono da 1,13 g cm–3 a pressione ambiente e 77 K. Queste due forme lasciano un “buco” nelle densità attorno alla densità dell’acqua liquida (1 g cm–3) che non è riempito da nessuna fase cristallina nota.
Questo divario, e la questione se i ghiacci amorfi abbiano stati liquidi corrispondenti al di sotto di un punto critico liquido-liquido (Tale punto denota condizioni di temperatura, pressione e composizione oltre le quali una miscela si separerà in due o più fasi liquide differenti), è un argomento di grande interesse per quanto riguarda la spiegazione delle numerose anomalie dell’acqua (3).
Inoltre lo studio dei ghiacci amorfi è di grande interesse perché è quello più abbondante nello spazio. Infatti se queste due forme di ghiaccio sono molto poco comuni sulla Terra, entrambe sono abbondanti ad esempio nelle comete, che come è noto dalla famosa definizione di Whipple sono “palle di neve sporca”, quindi corpi di ghiaccio amorfo a bassa densità.
A queste due forme si deve aggiungere una nuova forma di ghiaccio amorfo che andrebbe a colmare il vuoto intorno alla densità 1 g cm-1, come riportato da un articolo apparso su Science del febbraio ’23 (4).
Per poterlo ottenere questa nuova forma si è ricorsi alla macinazione a sfere, una tecnica consolidata per la produzione di materiali amorfi. Al centro dei processi di amorfizzazione ci sono impatti cristallo-sfera che esercitano una combinazione di forze di compressione e di taglio sui materiali di partenza cristallini. Sebbene gli effetti di fusione locale siano stati attribuiti come origine dell’amorfizzazione la principale forza trainante del processo sembra essere l’introduzione di difetti di dislocazione. Per ottenere il ghiaccio amorfo con una densità intermedia tra LDA e HDA è stato raffreddato del ghiaccio Ih preventivamente a 77 k con azoto liquido con sfere di acciaio inossidabile. Per ottenere l’amorfizzazione, l’intero assemblaggio è stato agitato vigorosamente per 80 cicli di macinazione a sfere. Il ghiaccio appariva a questo punto come una polvere granulare bianca che si attaccava alle sfere di metallo. La caratterizzazione mediante diffrazione dei raggi X mostra massimi di picco a 1,93 e 3,04 Å–1. Un confronto con i modelli di diffrazione con gli altri ghiacci amorfi evidenzia che il ghiaccio amorfo ottenuto attraverso la macinazione a sfere è strutturalmente diverso. La corrispondenza più vicina in termini di posizioni delle molecole è l’HDA. Tuttavia, contrariamente all’HDA, il ghiaccio amorfo ottenuto non si trasforma in LDA a seguito di riscaldamento a pressione ambiente. Invece, i modelli di diffrazione raccolti, a seguito del riscaldamento, mostrano la ricristallizzazione a seguito di impilazione del ghiaccio disordinato (ghiaccio Isd) sopra i 140 K che successivamente si trasforma nel ghiaccio stabile Ih. L’identificazione sperimentale di MDA mostra che il poliamorfismo di H2O è più complesso di quanto precedentemente stimato a seguito dell’esistenza di più stati amorfi distinti.
Una domanda chiave è se l’MDA debba essere considerato come uno stato vetroso dell’acqua liquida. La natura vitrea di LDA e HDA è ancora dibattuta e una serie di diversi scenari si materializzano con la scoperta di MDA. Una possibilità degna di nota è che MDA rappresenti la fase vetrosa dell’acqua liquida, questa ipotesi sarebbe supportata dalle densità simili e dalle caratteristiche di diffrazione. Ciò non violerebbe necessariamente la ben nota ipotesi del punto critico liquido-liquido, ma MDA dovrebbe avere una temperatura di transizione vetrosa al di sopra del punto critico liquido-liquido. Di conseguenza, MDA rappresenterebbe acqua liquida prima che la separazione di fase in LDA e HDA avvenga a temperature inferiori al punto critico liquido-liquido. Coerentemente con questo scenario, MDA non mostra una transizione vetrosa al di sotto della temperatura di ricristallizzazione a 150 K nonostante l’esteso riscaldamento a una gamma di temperature diverse. Di conseguenza, MDA sarebbe metastabile rispetto a LDA o HDA a basse temperature e a tutte le pressioni.
In alternativa, potrebbe esistere un intervallo di pressione a basse temperature entro il quale MDA è più stabile di LDA e HDA. Tuttavia, a causa della cinetica generalmente lenta a basse temperature, i due scenari sono difficili da distinguere. Il riscaldamento dell’MDA a pressione ambiente non porta alla formazione di LDA e l’MDA è rimasto stabile dopo il riscaldamento alle condizioni p/T dell’eHDA. La compressione di MDA a 77 K, al contrario, mostra una transizione a HDA con una variazione graduale del volume a una pressione iniziale di ~ 1, 1 GPa. Coerentemente con la maggiore densità di MDA rispetto al ghiaccio Ih, la variazione graduale di volume è minore rispetto alla corrispondente transizione della stessa quantità di ghiaccio Ih. La pressione iniziale della transizione da MDA a HDA dopo la compressione è a una pressione più alta rispetto alla transizione da LDA a HDA a 0,5 GPa.
Un terzo scenario è rappresentato dal fatto che MDA non è un liquido vetroso, ma piuttosto uno stato cristallino fortemente tagliato che manca di connessione con la fase liquida. Qualunque sia la precisa natura strutturale di MDA, ci si aspetta che svolga un ruolo nella geologia del ghiaccio a basse temperature, ad esempio nei numerosi corpi planetari come i satelliti di ghiaccio del sistema solare. Infatti alcuni satelliti del nostro Sistema Solare, come uno dei 4 satelliti galileiani di Giove, Europa (Figura 2), e il satellite di Saturno Encelado (Figura 2), hanno superfici ghiacciate.
Zooming In On Enceladus (Movie)
Figura 2 Sopra il satellite Europa ripresa dalla sonda Galileo della NASA.Sotto la superficie di Encelado catturata dalla navicella spaziale Cassini della NASA.
Se due aree ghiacciate dovessero sfregare l’una contro l’altra, a causa delle forze di marea, potrebbero produrre ghiaccio amorfo di media densità, facilitando la transizione del ghiaccio Ih. Si riproduce quindi lo stesso processo a condizione che queste si verifichino in un intervallo di temperatura e pressione simile a quello verificato in laboratorio dai ricercatori. Le forze di marea all’interno delle lune di ghiaccio sono indotte dalle forze gravitazionali dei giganti gassosi. L’aumento della densità potrebbe creare spazi vuoti nella superficie, producendo interruzioni mentre il ghiaccio si rompe tutto insieme. Ci sarebbe un crollo massiccio del ghiaccio che comporterebbe implicazioni per la geofisica delle lune ghiacciate.
Questo potrebbe, a sua volta, avere implicazioni per la potenziale abitabilità da parte di esseri viventi degli oceani di acqua liquida che si trovano sotto le superfici ghiacciate di questi satelliti. Uno degli aspetti fondamentali è se si può avere un’interfaccia tra l’acqua liquida e le rocce. In queste condizioni potrebbe emergere la vita ed il ghiaccio amorfo potrebbe avere un ruolo che è da investigare.
Se confermata, la nuova forma di ghiaccio potrebbe quindi consentire studi sull’acqua in un modo che prima non era possibile. L’acqua liquida è un materiale strano ed ancora non ne sappiamo quanto vorremmo. Ad esempio, si pensa comunemente che l’acqua sia composta da due forme, acqua a bassa densità e acqua ad alta densità, corrispondenti alle varianti precedentemente note del ghiaccio amorfo.
La scoperta di un ghiaccio amorfo di media densità potrebbe sfidare questa idea.
1. E. F. Burton, W. F. Oliver, The Crystal Structure of Ice at Low Temperatures. Proc. R. Soc. Lond.153, 166–172 (1935).
2. O. Mishima, L. D. Calvert, E. Whalley, An Apparently First-order Transition Between Two Amorphous Phases of Ice Induced by Pressure. Nature 314, 76–78 (1985).
3. P.G. Debenedetti, F. Sciortino, G.H. Zerze Second critical point in two realistic models of water Science369 (6501), 289-292 (2020) https://org.doi/10.1126/science.abb9796.
4. A. Rosu-Finsen, M.B. Davies, A. Amon, H. Wu, A. Sella, A. Michaelides, C.G. Salzmann, Medium-density amorphous ice. Science379 (6631), 474-478 (2023). https://org.doi/10.1126/science.abq2105.