Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.
Salviette usa e getta, comode, utilizzatissime, sopravvalutate sul piano igienico ed ambientale. Che sia per rinfrescarsi, igienizzarsi le mani o pulire i bambini, le salviettine monouso umidificate sono una pratica comune, specie quando si è fuori casa. Il conto ambientale di questa comodità è però salato.
Sia pure etichettate come biodegradabili o come compostabili di fatto rappresentano sempre un pericolo per ambiente e per i nostri sistemi di smaltimento e riciclo, a partire dalle fognature urbane. Quando vi finiscono all’interno tendono alla frantumazione ed a rilasciare residui fibrosi e nanoplastiche che ostruiscono i condotti di smaltimento ed inquinano l’ambiente.
Il mercato globale delle salviette umidificate è previsto in crescita, con un valore stimato che dovrebbe passare da circa 21,65 miliardi di dollari nel 2025 a 28,21 miliardi di dollari. La crescita è guidata dalla praticità d’uso, dalla facilità nel mantenere l’igiene e dalla maggiore consapevolezza igienica, specialmente tra i genitori.
Anche le salviette etichettate come biodegradabili perché contengono più cellulosa, contribuiscono all’inquinamento, perché non si dissolvono completamente: in questi prodotti è sempre presente una parte di fibre sintetiche, il che significa che quando disperse nell’ambiente diventano comunque causa di inquinamento. Tra queste anche i prodotti con l’etichetta che invita a smaltire il prodotto nel wc, come le salviette igieniche: il confronto con la carta igienica, usata come standard di riferimento da una recente indagine ha mostrato che le salviette igieniche si disgregano in misura minima, in media del 3%. Ciò significa che, quando gettate nel wc e finché non raggiungono gli scarichi fognari, le salviette non diventano poltiglia – come avviene invece per la carta igienica, che nel giro di mezz’ora nell’acqua mostra un altro grado di disgregazione. Con il rischio di intasare non solo le tubature del bagno ma anche di contribuire alla formazione di rifiuti che creano problemi negli impianti di trattamento delle acque.
Dopo il Regno Unito, che ha messo al bando le salviette umidificate contenenti plastica, anche la Spagna è pronta a mettere un freno all’inquinamento che deriva dall’uso di questi prodotti: la nuova norma riguarda sia le salviette umidificate – incluse quelle destinate ai neonati, all’igiene personale e alla pulizia della casa – contenenti plastica sia quelle etichettate come biodegradabili che “non significa che possano essere gettate nel WC, poiché la loro degradazione nell’ambiente è limitata” si legge nella bozza del decreto.
Per questo motivo, il nuovo regolamento spagnolo vieterà sia l’abbandono diretto nell’ambiente sia di gettare le salviette umidificate nel water, per ridurre al minimo il loro impatto sulle strutture igienico-sanitarie “poiché non si disintegrano completamente, causano ostruzioni nel sistema fognario, riducendone la capacità di ritenzione idrica e aumentando il rischio di tracimazioni, soprattutto durante episodi di forti piogge” insiste la bozza.
Questo problema non solo compromette le infrastrutture urbane, ma genera anche scarichi diretti di rifiuti nei fiumi e in altri corpi idrici, contribuendo all’inquinamento da microfibre e danneggiando gli ecosistemi, soprattutto quelli acquatici. Anche se biodegradabili o se indicano la possibilità di essere smaltite nel wc, il decreto sconsiglia comunque di gettarle nel water, per evitare problemi ambientali e tecnici, inclusi intasamenti e contaminazione delle reti di depurazione.
Nell’ambito del suo speciale su 119 prodotti per la pulizia della casa, nel 2019 la rivista francese 60 millions de consommateurs ha analizzato anche 12 marche di salviette disinfettanti, multiuso e per il wc, per cercare di capire la loro composizione, la sicurezza per i consumatori e l’impatto ambientale. Quello che emerge è abbastanza chiaro: si tratta di prodotti che non dovremmo mai acquistare. Su 12 referenze, comprate in negozi e supermercati francesi (ma alcune delle quali presenti anche sul mercato italiano) un prodotto ottiene C, sei D e 2 E. Si fa riferimento al Ménag’Score, sistema di classificazione che valuta i prodotti in base ad una serie di parametri: ingredienti, la loro proporzione e i rischi chimici che rappresentano per la salute e l’ambiente, assegnandogli un punteggio che va da A (il migliore) ad E (il peggiore).Gli ingredienti contenuti in alcune salviette per pulire e che il test segnala come pericolosi per la salute è l’ambiente sono sostanze allergizzanti, sospetti interferenti endocrini o probabili cancerogeni:
acrilcopolimeri: una famiglia di polimeri potenzialmente cancerogeni, mutageni e reprotossici
iodopropinil butilcarbammato: un fungicida e battericida, sospettato di essere un interferente endocrino
acido formico: un acido sospettato di essere interferente endocrino
benzalconio cloruro: un ammonio quaternario (disinfettante, tensioattivo), molto tossico, irritante e inquinante
didecildimetilammonio cloruro: un ammonio quaternario molto irritante e inquinante, Agisce danneggiando i doppi strati lipidici delle cellule, ed è ampiamente utilizzato come disinfettante, igienizzante, conservante e deodorante.
alcool grasso decil etossilato: è potenzialmente inquinante
benzoato di denatonio: tossico e inquinante (rende amaro il prodotto, è la sostanza più amara conosciuta, basta 1g in 2000 litri, 1mM, 1 milionesimo di mole per litro d’acqua per rendere sensibile l’amaro)
limonene: un profumo, sensibilizzante, irritante e molto inquinante, in natura è presente la forma (R). Quello sintetico è un racemo.
metilisotiazolinone: allergenico, irritante e inquinante
Considerato tutto ciò, gli esperti francesi concludono che Possono essere pratiche ma le salviette vanno assolutamente bandite dai nostri usi. Imbottite di sostanze problematiche e inquinanti, costituiscono un insopportabile disastro sanitario e ambientale.
La parola greca climatèrio s. m. [dal gr. κλιμακτήρ, propr. «gradino», der. di κλῖμαξ «scala»; per il sign., cfr. climaterico] (dalla Treccani), si riferisce in genere alla vita sessuale di uomini e donne, e in particolare al momento della vita in cui si ha riduzione o scomparsa della fertilità nei due generi con tutta una serie di eventi annessi.
Tenete presente che la seconda k della parola greca si conserva nell’inglese, in cui si scrive il sostantivo climacter o l’aggettivo climacteric, NON climateric, mentre in italiano la seconda k è scomparsa.
Ma quello di cui vi parlerei oggi non è il climaterio umano ma quello vegetale; infatti nella maturazione dei frutti sulla pianta o dopo la raccolta si verificano dei fenomeni molto interessanti cui fa riferimento questo termine.
I frutti climaterici sono quelli che anche dopo essere stati raccolti producono una significativa quantità di etilene, un gas ben conosciuto ai chimici per il suo ruolo nell’industria dei polimeri, ma anche ai biochimici per il suo ruolo di ormone vegetale.
Un secondo avviso lo metterei per la confusione che a volte si fa nei giornali o nel parlar comune fra etilene ed ossido di etilene, due sostanze affatto diverse e riportate qui sotto!
Etilene
Ossido di etilene
L’ossido di etilene è una sostanza estremamente reattiva (basta considerare la tensione dell’anello a tre termini!) e considerata cancerogena almeno in Europa, tanto da non essere più usata in determinati contesti; tuttavia dato che continua ad essere usata in altri paesi, per esempio come antibatterico e fumigante, i suoi residui possono rimanere nei prodotti anche alimentari poi importati; dunque attenzione a questa distinzione. Un contenitore metallico di un TIR reso sterile tramite ossido di etilene potrebbe diventare una sorgente di inquinamento dei prodotti poi trasportati a meno di non ripulirne le superfici con altri gas.
Torniamo all’etilene, che pure è esplosivo o asfissiante ma non tossico o cancerogeno, tanto da potere essere usato come gas anestetico.
È un intermedio chiave nell’industria polimerica, ma anche come dicevo un ormone, dunque una sostanza di controllo delle piante, di origine del tutto naturale in quel caso.
Bella questa centralità della piccola molecola di etilene sia nell’attività umana che in quella naturale, questa duplice natura di una molecola che è poi un fenomeno comune ed importante in Chimica. Ne abbiamo parlato parecchie volte e avrebbe fatto contento Guido Barone ed anche Hegel o Marx.
L’etilene non agisce direttamente su un singolo enzima, ma stimola la sintesi di diversi enzimi, tra cui cellulasi e poligalatturonasi, che degradano le pareti cellulari durante i processi come la maturazione dei frutti e l’abscissione (ossia la caduta di foglie e frutti). L’etilene regola anche la propria stessa produzione, essendo prodotto dall’enzima ACC-ossidasi che converte l’ACC (acido aminociclopropancarbossilico, che è un amminoacido NON proteico, cioè che non si trova nelle proteine) in etilene.
acido ammino-ciclo-propan-carbossilico
Quali sono i frutti che producono più etilene e quali sono quelli più sensibili al suo effetto? C’è stato molto lavoro su questo tema a cavallo del nuovo millennio e una review particolarmente citata è quella del 2002 di Kader, elencata in fondo, da cui possiamo estrarre le tabelle seguenti e anche lo schema temporale dell’azione dell’etilene. I frutti che risentono dell’azione dell’etilene si chiamano frutti climaterici; ovviamente l’etilene può incrementarne la maturazione ma anche portarla oltre i limiti di uso utile del frutto o del vegetale, dunque è importante regolare con attenzione le condizioni di utilizzo pratico, od eventualmente associare altri ormoni gassosi ad azione antitetica, oppure usare comuni molecole come ossigeno e CO2, già presenti in ambiente la cui concentrazione agisce sul ciclo dell’ormone, come indicato dopo, anche perché la curva di azione è complessa come si vede qui sotto.
Lista di comuni frutti e vegetali climaterici e non-climaterici.
E tenete presente che ci sono frutti che producono poco etilene ma sono molto sensibili alla sua azione e anche frutti non climaterici, ossia che non continuano a maturare una volta raccolti dalla pianta, poiché non hanno la capacità di produrre etilene in modo autonomo. Invece di maturare dopo la raccolta, questi frutti si possono deteriorare se acquistati acerbi. Esempi comuni includono agrumi (arance, limoni), frutti di bosco (fragole, ciliegie, lamponi), l’uva, l’ananas, i melograni, le olive, e anche alcuni ortaggi come cetrioli e peperoni.
Potreste trovare elenchi non completamente coincidenti perché l’azione e la produzione dell’etilene dipendono dal contesto sperimentale usato.
In modo parallelo ma opposto all’etilene il metil-ciclopropene si comporta da ritardante della maturazione e dunque può essere usato per mantenere fiori e frutti maturi prevenendo il loro deterioramento
In conclusione attenzione a come mettete la frutta e i vegetali insieme in frigo o nella dispensa, perché potreste avere effetti inattesi e non necessariamente vantaggiosi.
Dopo tutto sono ancora vivi quando li conserviamo.
Consultati:
Kader, A.A. (2002) Postharvest Technology of Horticultural Crops. 3rd Edition, University of California, Agriculture and Natural Resources, Oakland, Publication 3311, 535 p., Kader, AA.
Il lavoro illustrato in questo post da uno degli autori ha vinto il premio IGNobel per la fisica 2025
Pochi piatti rappresentano l’essenza della cucina italiana quanto la Cacio e Pepe. Tre ingredienti, pasta, pecorino e pepe, per una ricetta semplice solo in apparenza. Chiunque abbia provato a prepararla sa che bastano pochi secondi di distrazione e la crema può trasformarsi in un disastro culinario. Da fisici italiani in Germania, io e i miei colleghi abbiamo spesso l’abitudine di cenare insieme durante i freddi weekend invernali, e le chiacchierate a tema scientifico di fronte a un piatto di pasta fumante non mancano mai. Nei nostri menu mancava però sempre un piatto: la Cacio e Pepe. Cucinarla per tante persone era infatti un problema. La gestione del calore diventa infatti progressivamente più difficile man mano che le quantità di pasta aumentano, e sprecare una gran quantità di prezioso pecorino portato dall’italia facendo magari una figuraccia davanti ad amici di varie nazionalità era un rischio che non volevamo correre. È proprio discutendo di queste difficoltà che abbiamo realizzato come la facilità con cui una salsa inizialmente liscia e omogenea si aggruma al variare delle condizioni esterne potesse indicare la presenza di una transizione di fase. Spinti dalla curiosità, abbiamo deciso di costruire un apparato sperimentale che ci permettesse di studiare lo stato della salsa in diverse condizioni fisiche.
Per condurre gli esperimenti abbiamo riprodotto la preparazione della salsa con strumenti da cucina comuni (bilancia, frullatore a immersione, pentolino e termometro digitale), ma con un controllo di temperatura più preciso. Il riscaldamento è stato realizzato con un sistema sous-vide modificato, in cui il pentolino contenente la salsa veniva immerso in acqua a temperatura controllata, sostenuto da una piattaforma di legno su misura che ne impediva il galleggiamento e assicurava un trasferimento di calore uniforme. Per l’analisi visiva della salsa, i campioni venivano disposti in una piastra di Petri su un supporto trasparente realizzato con semplice pellicola da cucina, illuminati dal basso da una lampada da tavolo e fotografati con uno smartphone montato su treppiede. Questo allestimento casalingo ma preciso ci ha permesso di osservare la formazione dei grumi e di costruire un diagramma di fase della Cacio e Pepe.
Da buoni fisici teorici, non potevamo accontentarci di uno studio puramente sperimentale. Durante le nostre discussioni ci siamo resi conto che un modo possibile di interpretare i risultati era quello offerto dalla fisica della separazione di fase, che qui a Dresda è particolarmente popolare. Gli argomenti di ricerca sono ovviamente più “seri”: dalla formazione degli organelli senza membrana nelle cellule alla comparsa delle placche beta-amiloidi nella malattia di Alzheimer. Nel nostro caso, invece, abbiamo a che fare con una miscela a base di pecorino romano che contiene proteine, grassi e sali minerali sospesi in una matrice solida. Quando viene grattugiato e mescolato con acqua, solitamente con l’acqua di cottura della pasta, queste componenti devono riorganizzarsi per formare un’emulsione stabile, cioè un sistema in cui minuscole goccioline di grasso sono disperse in acqua grazie all’azione stabilizzante delle proteine, in particolare le caseine. Tuttavia, se l’acqua è troppo calda, oltre i 65°C, le proteine denaturano e perdono la capacità di stabilizzare la salsa che inevitabilmente si rompe. Poichè il pecorino inizia a fondere intorno ai 55°C, la Cacio e Pepe riesce quindi solo entro una stretta finestra di temperatura compresa tra la fusione del formaggio e la denaturazione delle proteine. In questo equilibrio delicato l’amido gelatinizzato dell’acqua di cottura svolge un ruolo chiave, mantenendo la salsa omogenea e rendendola stabile anche a temperature più alte.
Il sugo cacio e pepe è composto da pecorino, pepe e acqua arricchita di amido. (a) Pasta con emulsione di pecorino e acqua arricchita di amido, condita con pepe nero macinato fresco. (b) Istantanee della miscela che costituisce la base del sugo, ovvero formaggio e acqua con diverse quantità di amido, a diverse temperature. In particolare, confrontiamo l’effetto dell’acqua da sola; dell’acqua di cottura della pasta che trattiene parte dell’amido (ottenuta cuocendo 100 g di pasta in 1 litro d’acqua); e dell’acqua di cottura della pasta “risottata”, ovvero l’acqua di cottura della pasta riscaldata in una padella per far evaporare l’acqua (fino a ridurne il peso totale di tre volte) e concentrare l’amido. All’aumentare della concentrazione di amido, gli aggregati di formaggio diminuiscono di dimensioni e si formano a temperature più elevate. La regione qui denominata “Fase Mozzarella” è caratterizzata da enormi grumi di formaggio simili alla mozzarella sospesi nell’acqua, risultanti da un’estrema aggregazione delle proteine durante il riscaldamento
Per studiare l’effetto dell’amido, nei nostri esperimenti abbiamo utilizzato amido in polvere, gelatinizzato in un pentolino per controllarne al meglio la quantità. In questo modo siamo riusciti a caratterizzare il diagramma di fase temperatura–amido della salsa Cacio e Pepe. Da questo si evince che esiste una quantità critica di amido, circa l’1% in massa rispetto al formaggio, al di sotto della quale, a temperature superiori ai 65 °C, l’aggregazione delle proteine avviene in modo drammatico, formando un unico grande grumo. Abbiamo deciso di chiamare questa condizione la “Mozzarella Phase”, e ci piace scherzare dicendo che questa è l’unica circostanza conosciuta in natura in cui la mozzarella rappresenti un risultato negativo. Al di sopra di questa soglia, i grumi sono molto più piccoli, persistendo fino temperature vicino ai 100 °C. Oltre il 4% di amido la rende la salsa un po’ troppo densa una volta raffreddata. Abbiamo quindi individuato una quantità ottimale tra il 2% e il 3%, che garantisce la minima dimensione dei grumi senza compromettere la consistenza della salsa.
Anche se non era nelle nostre intenzioni iniziali, la tentazione di tradurre queste osservazioni in una ricetta è stata troppo forte. Per due porzioni abbondanti, con circa trecento grammi di pasta e duecento grammi di pecorino, la quantità giusta di amido è di circa cinque grammi. Poiché l’acqua di cottura, anche se concentrata, raramente ne contiene a sufficienza, usiamo amido in polvere gelatinizzato, sciogliendo l’amido di patata o di mais in 50 grammi d’acqua e scaldandolo dolcemente fino a quando la miscela diventa traslucida e viscosa. Una volta ottenuto il gel, lo si può diluire con 100 grammi d’acqua a temperatura ambiente e frullare con il pecorino grattugiato fino a ottenere una crema omogenea, liscia e stabile. Questa stabilizzazione a basse temperature rende la salsa resistente all’aumento di calore.
Non può ovviamente mancare il pepe, possibilmente tostato in padella a partire dai grani e poi pestato al mortaio. Nel frattempo la pasta, cotta in poca acqua salata, va scolata al dente e lasciata riposare per un minuto, così da evitare che il calore eccessivo destabilizzi la salsa. Ricordiamo infatti che i nostri esperimenti sono stati condotti cercando di essere il più adiabatici possibile, per studiare il diagramma di fase in condizioni di equilibrio. Aumentare la temperatura della salsa troppo rapidamente può provocare effetti cinetici che ne destabilizzano la struttura nonostante la presenza dell’amido. La mantecatura deve avvenire a fuoco spento, con la padella non troppo calda, unendo la crema di formaggio e, se serve, poca acqua di cottura per regolare la consistenza. Sebbene non indispensabile per un cuoco esperto, questa ricetta rende senz’altro più semplice l’esecuzione di questo grande classico.
Possiamo però dire con certezza che, grazie ad essa, la Cacio e Pepe è tornata a essere una protagonista dei nostri menu serali tra gruppi numerosi di ricercatori.
In alternativa all’amido, si può usare una piccola quantità di citrato trisodico, un sale alimentare che stabilizza efficacemente le emulsioni a base di formaggio chelando il calcio contenuto nella caseina e impedendo la sua aggregazione. Il diagramma di fase con il citrato mostra nuovamente una regione in cui la “Mozzarella Phase” appare, ma a partire dal 2% in massa di citrato rispetto al formaggio (nel nostro caso circa 4 grammi), ogni traccia di grumi scompare. Questo mostra come l’effetto “chimico” del citrato sia diverso da quello più “fisico” del network di amido, che stabilizza la miscela in modo meccanico, formando una rete che intrappola le goccioline di grasso e proteine limitandone l’aggregazione. Il citrato permette quindi di ottenere una crema perfetta senza traccia di grumi, ma modifica leggermente il sapore del formaggio, probabilmente a cause delle proprietà basiche dello ione citrato, motivo per cui rimane a nostro parere una curiosità più che un ingrediente autentico.
Concludo dicendo che la ricerca scientifica non dovrebbe essere vista come contrapposta alla tradizione e alla spontaneità che rendono cucinare un’attività così ispirante, ma come un modo per capire meglio ciò che mangiamo. Le nonne romane che preparano la Cacio e Pepe perfetta non parlano di separazione di fase o di denaturazione delle proteine, ma hanno imparato empiricamente a controllare temperatura e acqua amidosa. La differenza è che oggi possiamo descrivere quantitativamente quei gesti, e magari usarli per insegnare chimica e fisica in modo più gustoso.
* Ivan Di Terlizzi è ricercatore al Max Planck Institute for the Physics of Complex Systems di Dresda. Si occupa di fisica statistica di non equilibrio e termodinamica stocastica; in biofisica lavora all’intersezione tra fisica dei sistemi complessi e genomica.
Gli autori del paper sono tutti fisici che hanno lavorato presso il Max Planck Institute for the Physics of Complex Systems di Dresda, dove si sono conosciuti. Attualmente Ivan Di Terlizzi, Matteo Ciarchi e Vincenzo Maria Schimmenti, tutti biofisici, lavorano ancora a Dresda. Giacomo Bartolucci, biofisico, è all’Università di Barcellona. Daniel Maria Busiello e Davide Revingas, entrambi fisici statistici, sono ricercatori all’Università di Padova. Fabrizio Olmeda, il romano del gruppo, è biofisico all’Istituto di tecnologia austriaco (ISTA) a Vienna. Infine, Alberto Corticelli, fisico della materia condensata, sta intraprendendo un percorso di ricerca all’intersezione tra neuroscienze e meditazione.
Era da un po’ di tempo che non si avvertiva un’ondata di entusiasmo generalizzato come quella che si è vista in questi ultimi giorni dopo l’annuncio dell’assegnazione del Premio Nobel per la Chimica 2025 a Susumu Kitagawa, Richard Robson e Omar M. Yaghi.
Sono molti infatti gli studiosi che, avendo in vari modi contribuito ad ampliare la conoscenza sui metal–organic frameworks, MOF, negli ultimi 30 anni almeno, sentono questo riconoscimento un po’ più vicino a loro. Nel mondo accademico, della ricerca e dello sviluppo industriale, non pochi chimici, scienziati della materia, ingegneri, fisici e tanti altri hanno progettato, sintetizzato, caratterizzato, modificato, ottimizzato, impiegato, prodotto su larga scala e sfruttato in vari modi i MOF.
Allo stesso tempo, molti colleghi, che negli ultimi anni avevano visto assegnare il massimo riconoscimento per la Chimica ad ambiti tematici più spostati verso le scienze della vita o la medicina, sono ora contenti di ritrovare in questo premio un paradigmatico distillato del loro bel mestiere: scegliere gli elementi più interessanti della tavola periodica, selezionare le molecole organiche più promettenti, assemblarle seguendo le regole della chimica reticolare e un po’ di fiuto del sintetista, per ottenere così eleganti strutture a livello nanometrico da utilizzare nell’immagazzinamento e separazione dei gas, nella catalisi, nella sensoristica o, ancora, nella progettazione di materiali energetici.
Inoltre, anche i giornalisti, che in questi giorni hanno divulgato la notizia, non hanno celato la soddisfazione di aver davvero capito, forse questa volta senza sforzi, quale sia stato l’oggetto del Premio. L’idea infatti del gioco di costruzioni nanoscopico, del “meccano” con stanghette molecolari e con snodi metallici, è di per sé molto mediatica ed è stata colta con immediatezza da tutti i comunicatori, anche quelli che hanno meno dimestichezza con le discipline scientifiche. Ne consegue che anche il grande pubblico dei “non addetti ai lavori” ha potuto cogliere almeno l’essenza del lavoro dei tre scienziati e padroneggiare, una volta tanto, una notizia che altrimenti avrebbe lasciato completamente indifferenti i più.
Va anche detto che la comunità scientifica internazionale dei chimici si attendeva, prima o poi, un Nobel per questo filone di ricerche che ha ampliato e potenziato quella corsa ai solidi sintetici porosi ordinati che aveva visto alla fine degli anni ’40 le prime zeoliti sintetiche, poi i setacci molecolari microporosi e i solidi mesoporosi ordinati tra gli anni ’80 e ’90 e, negli ultimi decenni, le strutture porose avanzate (APF, advanced porous frameworks), che sono, a loro volta, suddivise in amplissime famiglie, come i MOF, premiati lo scorso 8 ottobre, i covalent organic frameworks, COF, i porous organic frameworks POP, i porous organic cages POC o, ancora, gli hydrogen-bonded organic frameworks HOF.
Advanced Porous Frameworks e loro potenzialità applicative nelle separazioni e nelle purificazioni (da DOI:10.1002/adma.201902009)
E’ superfluo ricordare ai lettori di queste pagine (molti dei quali conoscono bene l’ambito di ricerca dei tre vincitori del Nobel) le proprietà dei MOF e di tutte queste strutture porose reticolari.[1] Sono infatti materiali estremamente versatili, le cui applicazioni sono ben di più di quelle ricordate dai mezzi stampa in questi giorni. Anche l’impennata, negli ultimi 25 anni, nel numero di pubblicazioni scientifiche e di brevetti in cui compaia la parola chiave MOF dimostra in modo chiaro e obiettivo un interesse reale che va ben oltre la “moda del momento“.
Numero di articoli scientifici per anno contenenti le parole chiave “metal organic framework” e “metal organic frameworks” nel periodo 2000-2024 (fonte Scopus)
Numero di brevetti registrati per anno contenenti la parola chiave “metal organic framework” nel periodo 2000-2025 (elaborazione da dati cas.org)
Giocando sulle permutazioni di forme, topologie, geometrie e composizione chimica, il numero di strutture MOF ottenibile è davvero infinito, con altrettanto modulabili porosità, aree superficiali e volumi utili interni. Solamente per le applicazioni catalitiche, ad esempio, poter collocare il metallo attivo con determinate caratteristiche chimico-fisiche in prossimità di gruppi funzionali specifici presenti nei segmenti organici del reticolo, ricorda molto ciò che la Natura fa nei sistemi enzimatici, in cui è tutto l’insieme del sistema sito attivo / intorno chimico / confinamento sterico che rende eccezionalmente attivi, selettivi ed efficienti questi catalizzatori naturali.
Ad ogni modo, sebbene alcune applicazioni dei MOF abbiano mostrato di essere arrivate ad una buona maturità tecnologica, alcuni aspetti legati ad un utilizzo su larga scala di questi solidi necessitano di ulteriori studi attenti e approfonditi. Per esempio, per alcune tipologie di strutture MOF, la sintesi solvotermica in autoclave, l’uso di solventi organici e/o di reagenti costosi (leganti funzionalizzati, metalli rari) rendono la produzione su scala industriale non banale. Per ovviare a ciò, si cerca di condurre sintesi in continuo (flow solvothermal synthesis), di utilizzare meno solventi, o più verdi, oppure basse temperature, così da superare il divario ancora spesso esistente tra sistemi dimostrativi di laboratorio e produzione commerciale economicamente sostenibile.
Anche l’impatto tossicologico e ambientale di questi materiali è un aspetto ancora controverso e poco studiato, soprattutto quando gli scopi applicativi prevedono l’uso di grandi quantità di MOF, come per la cattura e l’immagazzinamento di gas o per la decontaminazione di alti volumi di liquidi o di aeriformi. Alcuni MOF contengono metalli ecotossici (Cr, Cu in eccesso) o leganti organici potenzialmente problematici. La loro possibile dispersione o rilascio in ambiente, durante l’uso o a fine vita, necessita valutazioni accurate, proprio perché non è detto che quanto osservato per un sistema di una determinata forma o composizione sia poi estendibile a materiali analoghi.
Quindi, è chiaro come questo premio Nobel non sia affatto un punto di arrivo, ma uno (s)punto di partenza per nuovi avvincenti futuri lavori di chimici e scienziati. Vedremo come la comunità scientifica internazionale risponderà, nei prossimi anni, a questo invito.
[1] Chi volesse approfondire la conoscenza dei MOF può consultare alcune rassegne alquanto esaurienti in vari ambiti applicativi, (tutte di libero accesso):
Siamo in periodo di Nobel e vorrei fare 2 considerazioni, una sui Nobel di oggi, una sui Nobel di ieri.
Per quella sul Nobel di oggi non posso da chimico che riferirmi al premio Nobel 2025 per la Chimica da poco comunicato e dedicato alla messa a punto di strutture capaci di immobilizzare ed isolare all’interno di sistemi complessi componenti di particolare, assegnato a Susumu Kitagawa, Richard Robson e Omar Yaghi per lo sviluppo di strutture metallo organiche.
Trattasi di una sorta di economia circolare di seconda generazione che i vincitori hanno proposto per recuperare acqua ed inquinanti vari dall’aria, CO2 ed idrogeno dall’ambiente.
Incredibile Scienza la Chimica: solo poco più di 60 anni fa – un batter di ciglia rispetto alla Storia del mondo – capace di sollevare le economie ferite dalla guerra, poi scoperta ambientalista innovando produzioni e tecniche, infine fino al premio di ieri, circolare con l’invenzione di quella che vorrei chiamare la macchina del recupero universale.
Per il passato invece, tenuto conto dell’importanza della Scuola, di cui tanto si parla in chiave politica in questi giorni in Italia, vorrei ricordare il più prestigioso studio, per l’appunto valso il Nobel a Schulz ed Heckman nel 1979, che hanno quantificato il rapporto di proporzionalità diretta fra ricchezza di un Paese e suo livello di istruzione.
Applicato al caso Italia questo studio genera una perdita di 35 miliardi andati distrutti per mancanza di figure professionali e di mestieri attivi. L’incontro fra domanda ed offerta nel mercato del lavoro è essenziale, ma non come fatto straordinario ed eccezionale, ma come principio base di governance.
Questo principio ha suggerito nuovi cicli formativi e, rispetto all’Intelligenza Artificiale il suo ruolo di supporto che non può nè deve cancellare carta e penna che continueranno ad essere essenziali come strumenti di stimoli creativi e di apprendimento di base senza i quali la digitalizzazione viene subita più che applicata.
Non posso cominciare questo post (vedrete un po’ strano ed anomalo) se non ricordando un altro post scritto anni fa da Rinaldo Cervellati che tutti voi conoscete, collega di Bologna e collaboratore di questo blog dal principio, che ha scritto un bel libro che compare nella nostra pagina principale dedicato alle donne che avrebbero meritato il Nobel. Rinaldo da qualche tempo è in pausa, ma spero tanto ci legga e poi torni a scrivere per noi tutti.
Il post di Rinaldo è splendido ed è dedicato alla mole, un concetto di cui rifà la storia ed analizza la complessità e difficoltà didattica; vi consiglio caldamente di rileggerlo.
In inglese il collegamento fra talpa e mole è immediato, in quanto la talpa si chiama proprio: mole; in tedesco mol.
La parola “mole” in chimica non ha un’origine specifica ma è un calco del tedesco Mole, che deriva a sua volta dal latino moles, “massa” o “quantità”, e fu introdotta dal chimico Tedesco Wilhelm Ostwald per indicare una grande quantità di particelle.
Il post di Rinaldo comincia proprio da quel “cattivone” di Ostwald, ricordandoci che fu un premio Nobel particolare, che ricorda per certi aspetti San Paolo, un convertito, insomma.
Inizialmente era un cultore dell’energetismo, tutto era energia, e la società umana era basata sull’efficienza con la quale era in grado di sfruttare l’energia; gli atomi di cui si parlava ormai da cento anni prima di lui erano solo, per Ostwald prima della “conversione”, un trucco per analizzare i dati.
Ostwald criticava le spiegazioni meccanicistiche della natura che riducevano tutto al movimento degli atomi, l’energia era il concetto più fondamentale e universale, e la materia poteva essere compresa in termini di energia e delle sue trasformazioni. Riteneva che l’idea degli atomi non soddisfacesse lo scopo della scienza di spiegare i fatti e non fosse un’ipotesi sufficientemente robusta, soprattutto in relazione ai fenomeni chimici.
Sebbene non fosse un sostenitore della teoria atomica, Ostwald fu uno dei fondatori della chimica fisica, contribuendo a discipline che in seguito sarebbero diventate fondamentali per la comprensione della chimica moderna, compresa la teoria atomica.
La legge di Ostwald delle diluizioni, sviluppata nel 1888, permette di mettere in relazione la costante di dissociazione di un elettrolita debole con la conduttività ionica equivalente:
Keq è la costante di equilibrio, la lettera greca lambda indica la conduttività ionica equivalente e C la concentrazione. Non ne parleremo oggi.
L’energetismo d’altronde ebbe comunque un enorme peso culturale, per esempio influenzò profondamente il pensiero di Bogdanov, membro dei bolscevichi e che si scontrò con Lenin proprio su questi concetti. Energetismo voleva dire che l’energia era l’unica realtà che accomunasse materia bruta, spirito umano e società umana. Al concetto di atomo Ostwald contrapponeva “il concetto ipotetico di sistema energetico”, aprendosi la via a una rappresentazione unitaria del “divenire naturale”, che va dalla natura inorganica alla vita fino alla nascita della coscienza. Lo scontro fra materialismo ed energetismo vide schierati su fronti opposti le più importanti personalità della scienza mondiale, alcune delle quali ricordiamo qui:
Energetismo
Atomismo
Ostwald, Mach, Avenarius, Wald, Duhem
Boltzmann, Cannizzaro, Perrin
Ricorderemo invece gli esperimenti condotti da Jean Perrin sul moto browniano delle particelle in sospensione in un liquido che culminarono nel 1908 che fornirono una forte evidenza dell’esistenza degli atomi, dimostrando che il moto irregolare e incessante di tali particelle era causato da collisioni con le molecole invisibili del liquido. Questi risultati hanno permesso a Perrin di determinare valori per costanti fondamentali legate al moto atomico, come la costante di Boltzmann, che hanno a loro volta contribuito a convincere scienziati come Wilhelm Ostwald, inizialmente scettico, della realtà fisica degli atomi.
Ostwald, ormai convertito all’atomismo, ricevette il Nobel per la Chimica nel 1909, per le sue ricerche sui principi fondamentali dell’equilibrio chimico, sulle velocità delle reazioni chimiche e per il suo lavoro sulla catalisi. Perrin lo ha ricevuto per la Fisica nel 1926 per le sue ricerche sulla struttura discontinua della materia, in particolare per la scoperta dell’equilibrio di sedimentazione, che fornì prove concrete sull’esistenza degli atomi attraverso lo studio del moto browniano.
Ma ripeto fu proprio Ostwald ad inventare e portare alla luce il concetto di mole, “scavando”, facendosi spazio attraverso il sottosuolo culturale dell’energetismo, direi nonostante l’energetismo.
In questi stessi anni si sviluppava la meccanica quantistica e la relatività e cresceva la polemica fra Einstein e Bohr, di cui parleremo in prossimi post.
Anche se sembra sconvolgente un Nobel, come Ostwald, poteva arrivare al 1908 senza credere nella realtà degli atomi, ipotesi avanzata da Dalton nel 1801 e diventata rapidamente una teoria fondamentale! Decisamente la scienza non ha uno sviluppo lineare come spesso ci viene raccontato!
Ed è per questo che la talpa che scava sottoterra, invisibile ma poi esplode in modo inatteso in superficie con la sua attività è un’animale che torna nella cultura moderna.
Shakespeare lo fa citare nell’Amleto al suo personaggio rivolto al fantasma di suo padre alla fine del primo atto; la voce dello spettro del padre ingiunge ad Amleto e ai suoi amici di giurare vendetta sulla spada “Swear by his sword”. Il fantasma si è molto spostato, anche se non si vede, dal luogo dove è apparso e scomparso. Perciò Amleto dice “Well said, old mole! Canst work i’ th’ earth so fast? A worthy pioneer!” che si potrebbe tradurre “Ben detto, vecchia talpa. Come fai a lavorare sottoterra così svelto? Che degno minatore!”.
Hegel indicando l’operare dello spirito nel “sottosuolo” della storia e la sua capacità di scuotere la “crosta terrestre” che rappresenta invece il nostro presente scrive nelle Lezioni sulla storia della filosofia «Hai lavorato bene, brava talpa!».
Ma ovviamente la frase più famosa viene ancora dopo, ne Il 18 brumaio di Luigi Buonaparte, Marx riferendosi al processo costante e profondo che modifica la realtà capitalistica della metà XIX secolo sbucando poi come sommovimento sociale nel momento più inaspettato, scrive la celeberrima frase «Ben scavato, vecchia talpa!» attribuendo alla rivoluzione l’abilità del minatore shakespeariano.
Ecco dunque che la talpa come animale simbolico è e rimane importante nella cultura mondiale.
Nella Chimica arriva tramite un caso linguistico; la talpa si dice “mole” in inglese, con una etimologia che condivide la stessa radice del francese “moulon” (cumulo) e del tedesco “Mahl” (granulo), riferendosi però alla terra smossa o al cumulo di terra creato dalla talpa che scava.
A questo punto non mi resta che chiudere il cerchio della talpa citando qui una malinconica poesia di un grande chimico e scrittore, Primo Levi, che scrisse i malinconici versi che seguono, con probabile riferimento a se stesso che cercava disperatamente di “digerire”, di superare la terribile esperienza della Shoah, ma anche l’insensibilità, la difficoltà che trovava nel farsi ascoltare quando parlava di “quelle oscure cose”, un po’ come in “Napoli milionaria!”. In quella commedia del 1950, il drammaturgo napoletano Eduardo De Filippo, attraverso la figura di Don Gennaro, rappresenta invece l’atteggiamento di chi cerca di affrontare la dura realtà post-bellica, ma viene soffocato dal rumore del quotidiano e dalla disperazione dei tempi: nessuno lo ascolta.
Non è tanto la guerra in sé a non essere ascoltata, ma la possibilità di parlarne e di trovare risposte in un contesto di ritrovato temporaneo ed occultante slancio economico; un po’ come quando oggi si parla di guerra e crescita economica dimenticando che sarebbe nucleare e senza ritorno.
Vecchia talpa.
Che c’è di strano?
Il cielo non mi piaceva,
Così ho scelto di vivere solo e al buio.
Mi sono fatto mani buone a scavare,
Concave, adunche, ma sensitive robuste.
Ora navigo insonne Impercettibile sotto i prati,
Dove non sento mai freddo né caldo
Né vento pioggia giorno notte neve
E dove gli occhi non mi servono più.
Scavo e trovo radici succulente,
Tuberi, legno fradicio, ife di funghi,
E se un macigno mi ostruisce la via
Lo aggiro, con fatica, ma senza fretta,
Perché so sempre dove voglio andare.
Trovo lombrichi, larve e salamandre,
Una volta un tartufo,
Altra volta una vipera, buona cena,
E tesori sepolti da chissà chi-
In altri tempi seguivo le femmine
E quando ne sentivo una grattare
Mi scavavo la via verso di lei:
Ora non più; se capita, cambio strada.
Ma a luna nuova mi prende il morbino, e allora qualche volta mi diverto
A sbucare all’improvviso per spaventare i cani”.
Primo Levi, scrisse questa poesia nel 1961, nel Bestiario, una raccolta poi pubblicata nelle sue opere complete.
Cosa riserva il futuro alla talpa nella cultura umana e alla mole in Chimica?
L’unica cosa che mi sento di aggiungere è che non possiamo rimanere sottoterra, usciamo allo scoperto, diciamo no alla guerra, talpe anche noi.
Segnalo la lettura delle frasi seguenti che segnano il percorso del pensiero di Ostwald, la talpa atomica che scava dentro l’energetismo.
Nel 1895, al congresso dei medici e naturalisti che si tenne a Lubecca, Ostwald lesse una comunicazione dal titolo, molto significativo, Il superamento del materialismo scientifico. Tra le altre cose Ostwald disse:
“La materia è un’invenzione, del resto abbastanza imperfetta, a cui facciamo ricorso per rappresentarci quanto vi è di permanente in tutto ciò che accade. La realtà effettiva, quella che opera su di noi, è l’energia, [inoltre] l’irreversibilità di fatto dei fenomeni effettivi della natura dimostra che vi sono processi i quali non sono descrivibili mediante equazioni meccaniche, e con ciò il verdetto sul materialismo scientifico è deciso.”
Un accenno a questo dovere ed a questa necessità, fatto da me a Lubecca nel 1896 in una conferenza sulla Disfatta del materialismo scientifico, tenuta in occasione della riunione annuale dei naturalisti tedeschi, richiamò, è vero, l’attenzione di molti, ma non riuscì a modificare essenzialmente quello stato di cose. Era perciò necessario di mostrare, portando uno sguardo sintetico nei domini generali della scienza, che il concetto e le leggi dell’Energia hanno in sè stessi realmente la facoltà di unificare e di chiarire, perchè attraggono l’attenzione dello studioso sui problemi reali ed eliminano quelli apparenti. Il mio corso di lezioni di filosofia naturale, tenuto nel 1902, ebbe appunto questo scopo.
Ostwald : 4a edizione del trattato Grundriss der allgemeinen Chemie 1908
«Mi sono convinto che da breve tempo siamo giunti in possesso delle prove sperimentali della natura discreta ossia granulare della materia, [prove] che l’ipotesi atomica aveva atteso vanamente da secoli, anzi da millenni … l’accordo dei moti browniani con le conseguenze dell’ipotesi cinetica che è stato verificato da una schiera di ricercatori…autorizzano ora anche lo scienziato prudente a parlare di una conferma sperimentale della natura atomica della materia estesa. Con ciò quella che è stata finora l’ipotesi atomica è assurta al rango di una teoria scientifica ben fondata».
Ed infine Perrin, il calcolatore del numero di Avogadro, nel suo Les atomes del 1913:
«La teoria atomica ha trionfato. Ancora poco tempo fa assai numerosi, i suoi avversari, alfine conquistati, rinunciano uno dopo l’altro a sfide che furono a lungo legittime e senz’altro utili. È a proposito di altre idee che ormai sarà condotto il conflitto degli istinti di prudenza e di audacia il cui equilibrio è necessario al lento progresso della scienza umana. Ma nel trionfo stesso, vediamo svanire ciò che la teoria primitiva aveva di definitivo e di assoluto. Gli atomi non sono quegli elementi eterni e indivisibili la cui irriducibile semplicità dava al Possibile un limite, e, nella loro inimmaginabile piccolezza, cominciamo a presentire un formicolio prodigioso di mondi nuovi».
Difficilmente si riesce a stare lontani dai propri interessi e dagli argomenti che sono stati la base della tua crescita personale, ancor prima che professionale.
Certi concetti sono come un fiume carsico, sembrano sparire, ma poi si ripresentano. E questo accade anche quando magari vengono per qualche tempo accantonati, per delusione o fatica. Nel mettere in ordine la libreria mi sono ritrovato tra le mani questo numero di “Le Scienze dossier”, supplemento che ormai non viene più pubblicato.
La rivista è uscita nell’autunno del 2000, ovvero un quarto di secolo fa. La mia impressione è che da allora si sia fatto qualcosa, ma non abbastanza. Ogni volta che viene diramata un’allerta meteo si verificano alluvioni, trombe d’aria, grandine con chicchi grandi come palle da tennis; fanno seguito interviste alle persone che hanno subito danni, che si mostrano più avvilite per il danneggiamento dell’auto, piuttosto che del tetto di casa. Si sente spesso ripetere dagli intervistati che non si era mai visto niente di simile in passato, cosa che dovrebbe indurre a qualche riflessione.
Ma tutte queste esperienze, sono esperienze indirette, che hanno un impatto mediato dal mass media che te lo veicola.
Martedì 23 settembre esco di casa come al solito e vado al lavoro. Telefono a casa, cosa che faccio ogni giorno, e tutto è normale. Esco dal lavoro alle 17.00 e mi dirigo in bicicletta verso la stazione di Legnano.
Non ho avuto tempo di guardare dallo smartphone i siti che danno la situazione del traffico ferroviario in tempo reale, sono uscito dall’ufficio con il sole. Arrivato in stazione i monitor mi informano di pesanti ritardi sulla linea che uso per tornare a casa. Richiamo e mia moglie mi informa che ci sono stati una quindicina di minuti di una fortissima precipitazione, con grandine, tuoni e vento.
La cronaca è riassunta in questo articolo dell’edizione milanese di Repubblica.
L’ondata di maltempo che già ieri aveva causato gravi danni in varie zone della Lombardia è tornata a investire il Varesotto: tra le aree più colpite c’è proprio la città di Varese, che è stata flagellata da un autentico nubifragio, con precipitazioni copiose e grandinate. L’acqua è arrivata anche a invadere una parte del centro commerciale Belforte. Alcune strade si sono trasformate in fiumi per le abbondanti piogge – soprattutto nelle zone di viale Ippodromo, di viale Valganna e della Schiranna – mandando il traffico in tilt: Autolinee Varesine, tramite i propri canali social, ha avvisato gli utenti di rilevanti modifiche al servizio su numerose linee, parlando di “allagamenti e disagi diffusi”.
La situazione non è migliore sul versante del trasporto ferroviario: Trenord ha comunicato che per colpa di danni dovuti al maltempo la circolazione è stata momentaneamente sospesa tra le stazioni di Malnate e Varese-Casbeno: tre i treni cancellati. Si segnalano inoltre ritardi dovuti a un veicolo che ha danneggiato le sbarre di un passaggio a livello in prossimità di Varese-Casbeno, nonché sulla linea tra Varese e Gazzada.
Riesco a prendere il mio solito treno delle 17.12 che arriva con solo 25 minuti di ritardo. Ma è strapieno, il conducente si affaccia dal finestrino e mi dice che non sa se potrò salire, il capotreno invece mi fa cenno di sì. Non ci sono solo io che devo proseguire dopo Varese. Sul monitor si legge che la destinazione finale del treno è Varese, dove di solito faccio il cambio salendo sui treni diretti in Svizzera. Ma appena dopo il capotreno ci informa della limitazione del treno a Gallarate.
A Gallarate sul marciapiede dove ferma il treno, c’è il caos. La prima cosa che mi viene in mente sono i film, o i documentari che mostravano come si viaggiava in tempo di guerra. Gente disorientata che mi rende quasi impossibile dirigermi verso il sottopassaggio. Un ragazzo che conosco, che prima viaggiava anche lui con bici al seguito, è fermo da circa un’ora. Hanno annunciato due treni che sarebbero dovuti arrivare a Varese, ma in realtà ha visto partire un treno cantiere, diretto a sgomberare il tratto di linea tra Gazzada e Varese, dove la sede ferroviaria è allagata e ci sono rami caduti sulla linea. Capisco che la situazione è critica. Riesco ad arrivare sul piazzale esterno della stazione, richiamo casa avvertendo che data la situazione rientrerò in bicicletta. Mi raggiunge il mio amico, che dice che andrà a farsi prestare una bici dalla sorella che vive a Gallarate e che farà come me. Lo saluto perché intanto la perturbazione che ha flagellato la Valceresio si sta avvicinando. Appena lasciata Gallarate mi riparo sotto un balcone, indosso i pantaloni antipioggia, e la copertura impermeabile allo zaino. Un fulmine saetta a poche decine di metri, con conseguente botto assordante. Non provo paura, ma sgomento, e comincio a pensare se non dovrò cercarmi un albergo per dormire in zona. Poi la situazione si normalizza. Alla fine pedalo fino a Varese bene o male riparato dalla mia attrezzatura antipioggia per la bici, e mi dirigo in stazione per verificare la situazione della circolazione dei treni. Sta riprendendo gradualmente, quindi salgo su un treno annunciato con arrivo a Chiasso, perché freddo e umidità si stanno facendo sentire. Veniamo ancora fatti spostare su un treno pronto sul binario a fianco, perché il blocco della circolazione ferroviaria e i ritardi hanno scombinato tutti i turni e la circolazione ordinaria ne risente. Il treno fermerà a Mendrisio, i passeggeri diretti a Lugano troveranno coincidenza, mentre per Chiasso ancora non si sa nulla. Io nel frattempo sarò già sceso ad Arcisate.
Alla fine uscito dall’ufficio alle 17.00 entro in casa alle 20. Posso dire di essere stato fortunato, anche se ceniamo a lume di candela, perché la corrente ancora non è tornata. Qualche tegola del tetto è spostata, ma il tetto è ancora sulla nostra testa. Ma ci andrà sempre così bene? Si è cenato a lume di candela, perché la corrente non era ancora tornata, però non c’era un’atmosfera romantica, tutt’altro.
Ho assaggiato l’antipasto della “carne dell’orso” di cui parlava Primo Levi, che poi trasformerà nel racconto Ferro nel “Sistema periodico”.
Pensavo di essere resiliente, in parte lo sono stato. Ma la paura e il disorientamento si sono affacciati alla mente. E soprattutto ho potuto sperimentare nei giorni successivi il solito disinteresse al tema, già sperimentato in altri contesti, anche familiari. Nella stessa settimana Trump intervenendo al palazzo di vetro all’Onu dichiara che :” Il cambiamento climatico è “la più grande truffa” di tutti i tempi. Le politiche green dell’Europa sono inattuabili “e porteranno al fallimento” diversi paesi. Negli ultimi anni “non c’è stato un aumento delle temperature anzi un raffreddamento”.
Se qualcuno ha lo stomaco forte, può trovare in rete il testo integrale del discorso. Le farneticazioni del presidente degli Stati Uniti fanno il paio con quelle di Adolf Hitler.
Questo blog si occupa di chimica, di scienza, ma oggi è sempre più difficile e faticoso farlo, in un mondo dove il senso della realtà è ai livelli più bassi di sempre.
Mi scuso con i lettori, in questo post non c’è chimica, non c’è depurazione, ma ugualmente non potevo tenere queste sensazioni solo per me. La crisi del clima è una guerra silente, che viene peggiorata da ogni conflitto reale, in termini di emissioni di combustibili fossili. E decine di istituzioni scientifiche per lo studio del clima vengono cancellate d’autorità negli Stati Uniti. Tutto questo è follia, non trovo un altro termine che possa definire meglio la situazione attuale.
Mi prendo un’ultima libertà. Dedico questo post al mio carissimo amico Maurizio Tron, ormai “diversamente presente” dall’Aprile 2024. Maurizio, insegnante al Liceo scientifico Pascal di Giaveno, per anni vicepresidente della società meteorologica italiana, era colui che sempre cercavo quando queste sensazioni di incredulità e di inutilità mi assalivano. Primo Levi raccontava di un sogno: era a tavola con amici e parenti, in un’atmosfera giovale e festosa. Ma quando iniziava a parlare della prigionia, uno alla volta i suoi amici e familiari si alzavano e lo lasciavano solo. Qualcosa di simile mi capita quando cerco di parlare con amici o parenti della crisi climatica. Nessuno abbandona il tavolo lasciandomi solo, ma capisco di essere il guastafeste, alla fine abbandono il tentativo Con Maurizio questo non succedeva mai E parlare con lui mi aiutava sempre a trovare quel briciolo di speranza. Critica ma pur sempre speranza.
A caccia di casi di specie che dimostrino quanto sia vero parlare di 2 volti della Chimica ho trovato quest’altro dato.
Il TiO2 è universalmente accettato come un foto-catalizzatore efficace: in presenza di opportuna radiazione UV produce vacanze elettroniche nella sua banda di valenza ed eccessi elettronici nella sua banda di conduzione (band-gap di 3.25 eV). Questi, le une e gli altri, reagiscono con O2 e H2O producendo ROS, ossia specie radicaliche dell’ossigeno, idrossido, perossido e superossido in grado di attaccare le molecole di molti composti con la conseguente loro degradazione, quindi con una possibile applicazione sul piano ambientale ed igienico sanitario.
Purtroppo man mano che la degradazione procede la sua efficienza diminuisce. Si è così trovato che l’aggiunta di fluoro, il tanto temuto elemento dei PFAS, sia assorbito in superficie del TiO2, sia aggiunto come drogante nella sua struttura, consente di superare questo inconveniente garantendo una prolungata efficienza al processo di fotodegradazione.
La faccia buona del diossido di titanio ha però anche un altro connotato. Fa riferimento al suo impiego come colorante classificato E171 utilizzato in molteplici applicazioni a partire da componente di pitture e quadri, anche se solo moderni vista la giovane età di questo colorante; ad essi conferisce luminosità e opacità, la stessa attività che svolge verso i rivestimenti in resina. Anche le applicazioni cosmetiche rispondono al criterio delle due facce: da un lato utilizzato come filtro solare per proteggerci dai pericolosi raggi UV responsabili del melanoma, aggressivo tumore della pelle, dall’altro agente di reazioni cutanee come dermatiti, eczemi, allergie, o addirittura di invecchiamento e infiammazioni croniche della pelle, per non parlare della sua cancerogenicità dermica, tanto che l’uso in questo campo è stato vietato dal 2024. Ancora una chimica singolarmente a due facce: per prevenire il melanoma dovuto ai raggi UV si usa per protezione un composto potenzialmente cancerogeno!!
Oggi però a rinforzare la seconda faccia, quella cattiva del TIO2, arrivano i risultati di una ricerca pubblicata da istituzioni di ricerca francesi (CNRS, INRAE, AP-HP) che evidenzia come questo composto sia ritrovato nel quasi 90%di un set di campioni di latte materno, animale o industriale.
Tenuto conto che si tratta di un composto vietato per uso alimentare sin dal 2022 questa scoperta non può che essere collegata ad una ubiquitarietà del composto in questione che contamina suoli ed acque. Questo dato non può non preoccupare tenuto conto della cancerogenicità del TiO2 e del fatto che i consumatori del latte materno sono neonati, quindi soggetti appena venuti alla vita, quindi non ancora sviluppati per resistere alle insidie dirette alla propria salute.
La ricerca è stata eseguita impiegando come tecniche analitiche Fluorescenza X e Spettrometria di Massa al fine di individuare micro e nano particelle del TiO2 nei campioni di latte. Con queste tecniche i ricercatori hanno ricercato nel latte materno composti dai nomi non noti al consumatore medio, ma ben noti in ambito scientifico in quanto derivati del TiO2, tra i quali rutilo ed anatasio, entrambi ossidi, ilmenite (FeTiO3), titanite (CaTiSiO5), pseudo-brookite (Fe2Ti05).
Quasi tutti (90%) i campioni di latte materno analizzati, liquidi o in polvere, biologici o meno, pastorizzati o no, sono risultati positivi al test contenendo da 6 milioni a 4 miliardi di nanoparticelle di TiO2, a seconda del tipo di campione. Il commento degli autori è particolarmente preoccupante: fra concentrazione nell’ambiente e presenza nel latte materno del TiO2 c’è un gap che impedisce la correlazione fra i 2 dati: ma allora la fonte deve essere un’altra e deve essere trovata al più presto tenuto conto della tossicità del composto, anche per gli adulti, e che il suo impiego in vernici, materiali di vario tipo, rivestimenti è in continua crescita.
Il consumo mondiale di biossido di titanio (TiO₂) nel 2024 è stato valutato in oltre 21,49 miliardi di dollari e si stima che supererà i 48 miliardi entro il 2037, con una crescita media annua (CAGR) superiore al 6,4%. La crescita è trainata dall’aumento della domanda di vernici e rivestimenti, settori chiave per l’utilizzo del TiO₂, soprattutto in Asia-Pacifico a causa della rapida industrializzazione e dell’edilizia.
Da Epicuro a Giordano Bruno, da Kant a Hegel, sono molti i filosofi che si sono interrogati, talvolta in modo scettico, altre volte meno, sulla possibile esistenza di forme di vita extraterrestre.
Nel XIX secolo a seguito della scoperta dei canali da parte di Schiapparelli, con le maggiori somiglianze con la Terra rispetto agli altri pianeti del Sistema Solare, Marte è stata ipotizzata come la sede della vita alternativa alla Terra più vicina a noi. Anche la fantascienza e l’arte vedeva in Marte il pianeta in cui vivevano gli “omini verdi”. Nel romanzo “Sotto le lune di Marte” lo scrittore Edgar Rice Burroughs descrisse varie specie di Marziani, tra cui una razza con la pelle verde e nella famosa Guerra dei Mondi nel 1938, Orson Wells faceva una radiocronaca dello sbarco dei marziani in una cittadina del New Jersey. In realtà già dall’inizio del XX secolo si era compreso che su Marte, date le condizioni attuali dell’atmosfera, estremamente rarefatta (al suolo la pressione è di 4 mbar) e composta dal diossido di carbonio, al massimo potevano essere presenti forme di vita unicellulare nel suolo.
Su queste basi, durante la missione Viking nel 1976, toccando il suolo di Marte, furono effettuati esperimenti basati sulla somministrazione di amminoacidi, acido glicolico, lattato e carboidrati in entrambe le forme levogira e destrogira per verificare se si producessero ossidi di carbonio, generati dal metabolismo di possibili microbi presenti nel suolo marziano. I risultati, discutibili all’epoca, non diedero una risposta univoca, ma successivamente si è esclusa la presenza di attività microbica.
Ciò che però non ci si aspettava era che uno strumento principale a bordo dei lander, il gascromatografo-spettrometro di massa, non rilevò alcuna materia organica. Questa fu una sorpresa per gli scienziati, che sapevano che il materiale organico veniva depositato sulla superficie marziana da comete e meteoriti. L’apparente assenza di molecole organiche nel materiale superficiale marziano è diventata un mistero scientifico per decenni. Nel 2008, la sonda spaziale Phoenix esplorò il polo nord di Marte. Phoenix scoprì la presenza del perclorato sul suolo marziano, raro sulla Terra. Dopo ulteriori conclusioni sulla presenza di questo sale su Marte e esperimenti complementari sulla Terra, gli scienziati ipotizzarono che questo sale potesse aver clorurato eventuali sostanze organiche all’interno degli strumenti Viking. Effettivamente negli esperimenti del Viking è stato possibile individuare un prodotto di reazione tra il sale e le sostanze organiche presenti nel forno Viking, il clorobenzene, una molecola organica clorurata [1]. La presenza del perclorato aveva qualche anno fa spinto un gruppo di ricerca tedesco a dimostrare la possibilità di forme di vita estremofile quali gli Archea capaci di sopravvivere in queste condizioni di cui ci siamo occupati in un altro post .
Accertata la presenza di sostanze organiche, da allora tutte le missioni spaziali hanno avuto come obiettivo oltre a quello di dimostrare l’esistenza di sostanze organiche, se in passato ci fosse stata della vita microbica, rilevando un’origine biotica delle molecole. In questo scenario si inserisce la missione NASA Mars 2020. Il rover Perseverance sta esplorando il cratere marziano Jezero, in quanto è uno dei luoghi più promettenti per l’identificazione di vita extra-terrestre nel passato del pianeta rosso. Il cratere corrisponde ad un’antica area che un tempo ospitava un lago e che in passato potrebbe aver avuto un alto potenziale di abitabilità. Rilevare materia organica è fondamentale per valutare la possibile abitabilità passata ed identificare potenziali biosignature, poiché composti organici semplici possono essere nutrienti per la vita e composti organici complessi possono fornire evidenze dirette di biogenicità.
I risultati sono stati oggetto di una recente pubblicazione su Nature Astronomy [2].
Per poter effettuare le analisi, a bordo del rover, è stato utilizzato lo strumento Scanning Habitable Environments with Raman and Luminescence for Organics and Chemicals (SHERLOC), uno spettrometro Raman e di fluorescenza nel profondo UV (DUV). I risultati sono stati paragonati a quelli ottenuti in laboratorio (a cui ha collaborato un laboratorio dell’Università Federico II) effettuando le stesse analisi con precursori sintetizzati ad hoc. In particolare un confronto tra il set di dati di laboratorio e le osservazioni SHERLOC nella zona QRT (parte della formazione rocciosa Séítahe dove è “ammartato” Perseverance ) e sul campione Pilot Montain (PMT) ha mostrato che diversi tipi di composti organici aromatici sono presenti nei solfati come il naftalene, l’1- e 2-naftolo (HN), 1,3- e 2,6-diidrossinaftalene (DHN), il 9-metilantracene (9-MA), l’uracile e un polimero di idrocarburo aromatico ossi-policiclico (IPA) sintetizzato da 1-HN (poli1-HN) – presentano intense bande di strechting dell’anello C–C e C=C (e bande di allungamento C=O nel caso di composti come l’uracile con gruppi funzionali carbonilici sull’anello aromatico) in diverse posizioni all’interno delle regioni spettrali di interesse. Ci si pone quindi il problema dell’origine di queste molecole e si prefigurano 4 scenari (Figura 1). Lo scenario 1a descrive un processo igneo in situ per la formazione di IPA a partire da gas magmatici intrappolati nei pori delle rocce ignee del cratere Jezero, ed in seguito conservati nei solfati precipitati a seguito dell’alterazione acquosa, che potrebbe essere coerente con l’origine della zona da cui proviene il campione QRT. Lo scenario 1b descrive un processo igneo ex situ per la formazione di IPA verificatosi all’esterno del cratere Jezero, e solo successivamente trasportati verso il cratere Jezero, dove gli IPA potrebbero essere stati coprecipitati con i sali solfati o intrappolati e conservati all’interno dei cristalli. Questo scenario potrebbe essere coerente con le osservazioni sia del campione QRT che del PMT, e con l’accumulo selettivo di IPA in queste rocce al posto del carbonio macromolecolare (MMC) a causa della sua minore mobilità nelle fasi fluide. Lo scenario 2 descrive un potenziale meccanismo idrotermale per la formazione di IPA e il successivo trasporto da parte di acque sotterranee idrotermali che potrebbe essere correlato all’idrotermalismo regionale associato al vulcanismo della Syrtis Major. Lo scenario 3 descrive un potenziale processo di rilascio esogeno di IPA o di produzione durante processi di impatto d’urto. Lo scenario 4 descrive una potenziale origine biotica degli IPA come prodotti di degradazione chimica di antichi composti biotici.
Figura 1 Schema dei 4 scenari proposti dai geochimici del lavoro di Nature Astronomy. Le frecce verdi indicano i meccanismi di formazione in situ, mentre le frecce blu indicano i meccanismi di formazione ex situ. Le posizioni dei target QRT e PMT nel cratere Jezero sono mostrate in un’immagine acquisita dalla telecamera stereo ad alta risoluzione a bordo della sonda orbitante Mars Express dell’ESA. Credit: background image, ESA/DLR/FU-Berlin/NASA/JPL-Caltech
I risultati ottenuti sono coerenti con gli studi sui meteoriti marziani e le osservazioni dal cratere Gale e rafforzano l’ipotesi che i solfati potrebbero essere cruciali nella conservazione e nel trasporto di molecole organiche nell’ambiente marziano e, quindi, potrebbero aver svolto un ruolo significativo nel ciclo del carbonio marziano, influenzando la disponibilità e il ciclo dei composti del carbonio necessari alla vita.
Nonostante la rilevanza dei risultati alla domanda che ci siamo posti all’inizio su una possibile presenza di vita nel passato di Marte, non si può associare una risposta definitiva. E’ necessario stigmatizzare i titoli dei quotidiani e dei siti internet, che per catturare l’attenzione del lettore, riportano nel titolo argomentazioni diverse da quelle correttamente riportate negli articoli. Considerati i limiti delle tecniche di spettroscopia Raman e di fluorescenza di Perseverance, intrinsecamente meno diagnostiche dei metodi di spettrometria di massa utilizzati dal rover Curiosity, che forniscono identificazioni chimiche più definitive, le diverse ipotesi richiederebbero ulteriori studi di laboratorio. Questi studi potrebbero ricostruire i processi di alterazione chimica che potrebbero essersi verificati nel cratere Jezero nel tempo e che hanno portato alla formazione delle sostanze organiche osservate. Una risposta più chiara si potrà avere quando i campioni torneranno sulla Terra nell’ambito della Mars Sample Return Campaign per analisi ad alta sensibilità in laboratori terrestri.
Bibliografia
[1]Guzman, M. et al. Journal of Geophysical Research: Planets. 2018, 123, 1674-1683. 10.1029/2018JE005544
Pochi giorni fa i giornali hanno reso noto l’arresto, avvenuto in Italia, di un cittadino ucraino considerato il coordinatore responsabile delle esplosioni che hanno distrutto o reso inattivi i due gasdotti che portavano gas dalla Russia alla Germania.
Secondo i giudici tedeschi che ne hanno ordinato l’arresto con un mandato internazionale costui, un agente segreto tale Kuznietsov, “posizionò almeno quattro ordigni esplosivi”, ciascuno tra i 14 e i 27 kg, composti da esogene (Rdx) e ottogene (Hmx) con micce a tempo, a nord-est e a sud-est dell’isola di Bomholm, a una profondità di 70-80 metri sul fondale dei gasdotti.
Una valutazione inferiore a quella fatta su Wikipedia alla voce https://it.wikipedia.org/wiki/Sabotaggio_dei_gasdotti_Nord_Stream, dove si parlava di esplosivi simili (il C4 è una formulazione contenente RDX e plasticizzanti) ma in quantità nettamente superiore per giustificare la forza delle esplosioni registrate.
Nel raccontare questa storia, che forse qualcuno aveva dimenticato, e che conferma che dopotutto “la guerra è una continuazione della politica”, come diceva qualcun altro, la Chimica è entrata di prepotenza, perché le esplosioni sono state realizzate usando i due esplosivi dal nome suggestivo di esogèno ed ottogène, definiti come nomi chimici, ma che non sono che nomi comuni di due molecole
Esogène o esanitrodifenilammina o RDX
Ottogène o ciclotetrametilentetranitroammina o HDX
Questo ci da l’occasione di fare due parole sugli esplosivi e sui loro effetti subacquei, che come vedremo sono alquanto spettacolari.
Anzitutto ricordiamo cosa è un esplosivo o un’esplosione: è una reazione di ossidoriduzione che avviene velocemente fra un’ossidante e un riducente in genere o in una molecola che contenga entrambe le funzioni con la produzione di calore e di un’onda d’urto (dovuta alla generazione di gas) che producono insieme gli effetti desiderati. Una combustione rientrerebbe in questo tipo di definizione ed infatti molti esplosivi sono semplicemente dei combustibili che bruciano velocemente nell’ambiente ossidante dell’atmosfera; ma non tutti sono così.
Ci sono poi un paio di altri punti da tener presente per una analisi di base.
La velocità dell’esplosione: La deflagrazione è un processo di combustione rapidissima ma subsonica (più lenta del suono), mentre la detonazione è un processo ancora più rapido e violento, con una propagazione supersonica (più veloce del suono), accompagnata da un’onda d’urto e pressioni molto più elevate. La differenza fondamentale è la velocità di propagazione dell’onda di pressione generata dalla reazione che ovviamente provoca effetti molto diversi.
Il bilancio di ossigeno: dato che l’ossigeno è l’ossidante comune in atmosfera un esplosivo può sfruttarlo; si dice che un esplosivo ha un bilancio di ossigeno positivo se nella sua molecola c’è più ossigeno di quel che serve per ridurre tutti i suoi componenti alla forma ossidata finale (acqua, CO2, NOx etc), mentre il bilancio può anche essere negativo o nullo; quest’ultimo caso è il migliore perché la reazione può avvenire in qualunque ambiente e con i rapporti ottimali fra i reagenti.
Sia RDX, HDX (a volte indicato come HMX) che C4 hanno bilancio di ossigeno negativo. Alcuni sono mostrati nell’immagine qua sopra.
Devo dire un’ultima cosa, che mi ha colpito; nel preparare questo post (cosa che come sempre mi comporta un po’ di lavoro di approfondimento) mi sono reso conto che nei testi scientifici invece di scrivere esplicitamente esplosivo si usa spesso una diversa definizione, quasi che questo potesse rendere meno “ostico” l’argomento o più neutro.
Questi materiali vengono definiti “high energy density materials”, (HEDS, un bell’acronimo non si nega a nessuno) materiali ad alta densità energetica e si dice che il loro uso può essere bellico ma anche nell’industria aerospaziale, come propellenti o casomai nell’industria del divertimento (i fuochi di artificio); nulla mi toglie dalla testa che questa pur giusta definizione, tecnicamente giusta, abbia un contenuto “ideologico”, neutralizzante, del tipo; la scienza inventa cose, ma poi gli uomini possono usarle bene o male; anche questo messo così è vero, ma il punto basilare è perché si inventano le cose, cosa spinge a farlo, le domande da cui queste scoperte sono mosse, le risorse che vengono messe a disposizione e da chi.
Personalmente credo che in questo senso preciso la scienza non sia o non sia più neutra. Lo è stata per un certo tempo (forse), ma al momento l’uso della forza è una spinta troppo radicale per trascurarne gli impatti sul nostro lavoro, che ne è fortemente influenzato, perfino NEI CONTENUTI (argomento discutibile, ma ci tornerò in altri post).
Torniamo al nostro argomento.
Una esplosione sott’acqua è diversa da una in aria; per vari motivi: 1) non c’è ossigeno disponibile, dunque un esplosivo a bilancio di ossigeno negativo è sfavorito, non può esplicare la sua potenza appieno, ne serve di più 2) l’acqua è incomprimibile e dunque qualunque onda di pressione è trasportata più efficacemente che in aria, anche se l’inerzia della massa da spostare è parecchio più alta ed infine l’innesco è reso più difficoltoso.
Alcune di queste cose ed i loro effetti sono mostrati nei video spettacolari mostrati nella pagina di ZMEscience indicata in fine del post. Analogamente l’altra pagina web di Youtube mostra alcuni esperimenti di combustione ed esplosione in microgravità, che aiutano a comprendere come le forze agiscano sul sistema in esplosione e come la gravità abbia un ruolo che non capiamo a prima vista, sulla geometria degli effetti.
Questi aspetti tecnici possono aiutarci a districare la matassa politica che c’è dietro l’esplosione?
In piccola parte; nel senso perché usare due esplosivi solo in parte adeguati, con bilancio di ossigeno negativo e dovendone usare di più? Certo sono esplosivi diffusi, comuni in ambito militare e anche sicuri per chi li mette in posizione, in ambienti ostili come sott’acqua.
Quindi la loro scelta potrebbe essere stata indirizzata sia da motivi di praticità che di opportunità e questo vale chiunque ne sia stato l’attore; secondo Seymour Hersch, famoso giornalista americano che ha vinto il premio Pulitzer, gli attentati furono messi in campo dagli USA, ma potrebbero aver usato agenti ucraini; la scelta degli esplosivi senza riscontri tecnici approfonditi condotti in loco non può dare molto aiuto.
Lo sapremo quando tutta la storia si sarà sedimentata e resa non segreta come certamente è ancora adesso nei documenti ufficiali.
In quegli impianti c’erano anche soldi europei e dunque nostri, un po’ di chiarezza in merito non farebbe male.
una pagina veramente esplosiva, fatta di brevi video ad altissima velocità che scoprono gli effetti più spettacolari delle esplosioni subacquee, molto interessante.
fra gli esperimenti più spettacolari fatti sulla stazione spaziale o in microgravità e che svelano alcuni aspetti trascurati delle fiamme e delle esplosioni.
Gli indicatori isotopici sono il rapporto tra diversi isotopi stabili di un elemento chimico, utilizzato per studiare il movimento e l’origine di sostanze in vari contesti, tra cui l’ambiente, gli alimenti e la geologia. Elementi come carbonio, ossigeno, idrogeno, azoto e zolfo hanno isotopi stabili (ad esempio, 12C e 13C) in proporzioni variabili in natura.
Le piccole deviazioni in questi rapporti, rispetto a standard internazionali, sono cruciali per differenziare i campioni e tracciare i percorsi. I campioni vengono trasformati in gas (come CO2) e analizzati tramite uno spettrometro di massa per determinare il rapporto tra gli isotopi. I risultati vengono espressi come valore δ in parti per mille (‰).
L’analisi di questi rapporti, permette di tracciare cicli geochimici, identificare frodi alimentari, monitorare l’inquinamento e studiare i cambiamenti climatici passati, come si osserva nella stratigrafia isotopica.
Oggi questa tecnica analitica, che nei libri storici di Analisi Chimica rientrava nei metodi radiochimici (gli altri erano gli ottici, i cromatografici, gli elettrochimici) è risultata preziosa in mano ai ricercatori dell’Università di Padova e dell’ISMEO di Roma per dirimere una questione storica e culturale insieme circa la provenienza del Leone in bronzo che si erge in cima a una delle due grandi colonne della Piazzetta di Piazza San Marco a Venezia.
Per esso allo stesso tempo valgono tre considerazioni: rappresenta il Leone Alato veneziano, potente simbolo di sovranità, fu installato in un periodo di incertezza politica nell’Europa mediterranea medievale, le sue caratteristiche non riflettono le convenzioni artistiche locali
Molte speculazioni circondano le origini e l’identità culturale del grande ‘Leone’. Le ipotesi sulle sue origini includono una fonderia veneziana del XII secolo d.C. (Pilutti Namer 2013 ) o una località non specificata in Anatolia o nella Siria settentrionale nel periodo ellenistico (323-30 a.C.) (Ward Perkins 2015), con possibili influenze romaniche, gotiche, assire, etrusche, sassanidi e cinesi (Elam1990 ).
BM Scarfì (Scarfì1990 ) considerava il “Leone” un’interpretazione ellenistica dei grifoni mesopotamici o persiani con testa di leone, realizzati nel IV o III secolo a.C. come veicolo di Sandon, divinità della città di Tarso in Turchia, raffigurato sulle monete in groppa a un grosso gatto cornuto.
Oggi la provenienza cinese orgoglio dei veneziani e della discendenza da Marco Polo trova, grazie alla Chimica, una conferma. Partendo da parallelismi stilistici che si trovano nella Cina della dinastia Tang (618-907 d.C.) ed utilizzando l’analisi degli isotopi di piombo, viene dimostrato che la figura è stata fusa con rame isotopicamente compatibile con il minerale proveniente dal bacino del Basso Fiume Azzurro (il fiume Yangtzi)*.
È possibile che il padre e lo zio di Marco Polo, durante i quattro anni trascorsi alla corte di Kublai Khan durante il loro primo viaggio, siano stati responsabili dell’acquisizione della scultura. Al di là dello specifico risultato acquisito in questo caso da chimico non posso non essere orgoglioso del ruolo della nostra disciplina nel tramandare e sostenere le tradizioni culturali così contribuendo anche a difendere le identità storiche e ad educare i giovani al rispetto del proprio passato, come irrinunciabile componente del presente e del futuro, rispettivamente come insegnamento e come progetto.
Da leggere anche le conclusioni del lavoro di Artioli et al.
Contrariamente alle narrazioni tradizionali che ipotizzavano una produzione locale, anatolica o siriana, riteniamo che il muso e la criniera della creatura ibrida in bronzo presentino somiglianze con lo zhènmùshòu della dinastia Tang (anche se, in linea di principio, non si possono escludere confronti con sculture cinesi precedenti e successive). È possibile che il padre e lo zio di Marco Polo, durante i quattro anni trascorsi alla corte di Kublai Khan durante il loro primo viaggio, siano stati responsabili dell’acquisizione della scultura. L’analisi degli isotopi di piombo del bronzo conferma l’origine cinese, identificando probabili fonti di rame nella regione del basso fiume Yangzi. A causa della sconcertante assenza di informazioni scritte, le intenzioni e la logistica alla base del suo viaggio verso Venezia rimangono elusive e aperte all’interpretazione. Se l’installazione del “Leone” aveva lo scopo di inviare un forte messaggio politico difensivo, ora possiamo anche leggerla come un simbolo dell’impressionante interconnessione del mondo medievale.
* Il Fiume Yangtzi non è azzurro nel colore dell’acqua, ma viene definito così dagli occidentali per la sua bellezza, trasparenza e per il colore che assume verso il tramonto, quando sembra confondersi con il cielo. Il nome originale cinese è “Chang Jiang”, che significa “Lungo Fiume”,
Credo che Guido Barone, un nostro collega di Napoli scomparso qualche anno fa (nel giugno del 2016) mi avrebbe dato ragione per aver scelto il titolo di questo post. Guido non era solo uno scienziato, era uno scienziato che non aveva paura della filosofia e nel caso specifico della dialettica, l’idea che era alla base di parecchia della filosofia del XVIII e XIX secolo: diceva sempre Ogni cosa nel mondo ha due corni, in sostanza riconoscendo la natura complessa e contraddittoria della realtà.
La CO2, un gas naturale, su cui è basata la vita sulla Terra: contribuisce in modo determinante al mantenimento della temperatura del pianeta, serve alla fotosintesi e si trasforma nel manto verde che ricopre il pianeta, ma è anche il prodotto delle combustioni di tutti i fossili che estraiamo dalla terra e che una volta, in origine erano appunto CO2 gassosa, trasformata dall’azione delle piante e dei batteri e dalle forze geologiche.
Solo che, dato che la quantità diventa qualità (avrebbe sempre detto Guido, non io), troppa CO2 immessa in atmosfera tutta insieme produce danni enormi e si trasforma da molecola preziosa in molecola rischiosa; alcuni addirittura la confondono con le sostanze tossiche che pure si trovano in atmosfera (e questa è una sciocchezza). Il trucco, avrebbe aggiunto un altro chimico “diverso”, che amava le contraddizioni, Enzo Tiezzi, sta nel tempo; il tempo storico brevissimo in cui bruciamo, confligge con quello biologico lunghissimo in cui il ciclo del carbonio si svolge naturalmente.
Questa sarebbe la negazione, una molecola naturale preziosissima, che passando per l’azione umana diventa il suo contrario: un gas climalterante che non riusciamo a controllare più e che sta alterando la temperatura planetaria e il pH oceanico con danni enormi.
E già, direte voi, passi pure sta voglia di filosofare; ma la negazione della negazione che sarebbe?
Beh per capire questo vi ricordo un libro scritto pochi anni fa da uno di noi che pure conoscete bene, tal Gianfranco Pacchioni, che ha avuto l’ardire di proporre il titolo seguente: W la CO2. Possiamo trasformare il piombo in oro?Cosa voleva dire il Pacchioni? Dopo aver ricostruito il ruolo complesso e complicato del gas naturale Gianfranco si è messo a ricordare che da esso la chimica è in grado di ricostruire le molecole organiche originali e che dunque questo rischioso gas che troviamo ormai in relativa abbondanza (ma non gratis perché occorre estrarlo e purificarlo) in atmosfera potrebbe diventare una risorsa chimica non banale da cui ricavare, come fanno le piante, molecole utili e complesse, ritornando a giocare dunque un ruolo positivo ed utile.
Questo diede origine subito ad una discussione non banale. Un altro collega impegnato su questi temi, Nicola Armaroli criticò l’approcciò di Gianfranco; ho chiesto a GoogleAI cosa ne pensava e mi ha risposto:
Armaroli è uno scettico riguardo all’idea di Gianfranco Pacchioni di utilizzare l’idrogeno per trasformare l’anidride carbonica (CO2) in sostanze utili o combustibili. Pacchioni, autore del libro “W la CO2”, propone questa soluzione, ma Armaroli, chimico e dirigente di ricerca presso il Consiglio Nazionale delle Ricerche, solleva dubbi sulla fattibilità del progetto a causa delle presunte complessità.
Una volta tanto la pappagalla stocastica non ha allucinazioni; ci sono delle complessità nella negazione della negazione che Gianfranco ha proposto; ci vuole energia e una lunga serie di reazioni chimiche per assorbire il gas dall’atmosfera o dai siti di combustione e tramite la reazione di Sabatier, trasformarla in metano che è più facile e sicuro da stoccare sia dell’idrogeno che della stessa CO2. I costi energetici sarebbero comunque enormi e finora impianti di questo tipo non esistono.
Oggi sappiamo che certi processi si possono fare anche elettro-chimicamente, per esempio con le batterie calcogeno-CO2, che sono capaci perfino di assorbire CO2 e produrre energia contemporaneamente; qui il trucco starebbe nell’aver prima prodotto l’elemento calcogeno scelto (i calcogeni sono gli elementi del gruppo 16 o VIa o 6a) che pure ha il suo costo energetico. Sempre meglio che usare la CO2, come semplice gas che accumula energia nella transizione di fase come ha fatto l’ENI in un piccolo impianto sperimentale in Sardegna (Energy Dome), che comunque non è inutile, ma forse ha troppe limitazioni.
Però il problema rimane: come accumulare energia dalle rinnovabili e coprire le notti e i periodi invernali o comunque le irregolarità produttive inevitabili?
Ho scritto varie volte che ci sono solo due modi: o si costruisce una unica rete mondiale dell’elettricità, come sognava Buckminster-Fuller, sfruttando il fatto che un emisfero è sempre al Sole e un emisfero è sempre in estate (facile da dire ma difficile da fare soprattutto per motivi politici al momento) oppure costruire in ogni paese o blocco di paesi grandi accumuli di energia, la cui scala deve essere gigantesca che dovrebbero avere come dimensione tipica il TWh (al momento non ne abbiamo nessuno) e non sapremmo nemmeno come costruirli. I nostri impianti di accumulo italiani, basati sull’idroelettrico, in un ciclo unico di carica e scarica, in tutto stoccano 0.1TWh; ossia per un ciclo singolo di carica e scarica potrebbero fornire energia per qualche ora a potenza piena, non per giorni o settimane.
La negazione della negazione, proposta da Gianfranco è una possibilità, passando per la reazione di Sabatier o casomai usando l’ammoniaca o qualche altro sistema “semplice” e scalabile; nonostante le inevitabili perdite quella rimane una possibilità.
Certo anche fare batterie elettrochimiche giganti, in flusso o basate su ioni sodio o litio o con metodi non ancora inventati o scalati a dimensione industriale è possibile; il fatto è che non abbiamo molto tempo; la temperatura è GIA’ aumentata di oltre 1.5°C sul livello medio dell’inizio del periodo della Rivoluzione industriale (XVIII -XIX sec.); non possiamo basarci su cose che non esistono ancora, non ne abbiamo più il tempo; se no faremmo la fine di chi continua a sognare la fusione nucleare o le centrali da fissione di generazione n+1; noi siamo Chimici e di solito siamo legati alla “materia bruta” (quella di Levi) e teniamo fede ai patti.
Inoltre abbiamo qualche responsabilità in merito: siamo stati proprio noi a perfezionare le combustioni portandole al livello attuale; e mi piace ricordare che pure lì abbiamo scoperto una negazione della negazione: la fiamma è il simbolo delle combustioni storiche (che a loro volta distruggono il combustibile di partenza e dunque lo negano); beh si è scoperto che in realtà la fiamma non aiuta la combustione ad essere efficiente e l’abbiamo abolita, si è visto che le migliori e più efficienti combustioni sono quelle senza fiamma, flameless. I processi flameless, che aboliscono le fiamme, sono più efficienti di quelli con le fiamme, li negano e li superano. Che ve ne pare?
Bella rivincita per Hegel e gli altri che hanno sviluppato la dialettica (e non pensate solo a Marx ma anche a tanti scienziati della Natura come JD Bernal, R Levins o JBS Haldane, R Lewontin e SJ Gould e tanti altri che non ho il tempo di ricordare).
Ed anche per chi come me ha passato un anno di liceo a leggere la Introduzione alla Fenomenologia dello Spirito. Secondo me Guido se la sta ridendo dovunque sia.
Da chimico ho sempre rispettato il ruolo della luce nei processi biologici che regolano la nostra vita. Questo rispetto si è trasformato in interesse per la fotochimica soprattutto riferita alla fotocatalisi ed alla capacità di alcuni composti semiconduttori di esercitare all’interno di questo processo un ruolo fondamentale di agenti foto-catalizzatori.
Tale ruolo è strettamente correlato alla capacità di alcune radiazioni luminose di promuovere un elettrone dalla banda di valenza a quella di conducibilità esaltando il passaggio di un composto isolante nella categoria dei conduttori. Partendo da questi dati e dalla analisi completa di queste reazioni i cui prodotti secondari sono radicali liberi dell’ossigeno si resta affascinati dal confronto diretto con quanto avviene nel corpo umano.
La luce è essenziale per la vita umana perché regola il nostro ritmo circadiano, influenzando il sonno e l’umore attraverso la serotonina e la melatonina, il primo ormone del benessere, il secondo ormone del sonno.
La luce stimola inoltre la produzione di vitamina D, importante per la salute di ossa e cervello. La luce naturale migliora le prestazioni cognitive e la concentrazione, mentre la luce artificiale può svolgere un ruolo nel trattamento di disturbi come la depressione stagionale e la sindrome del tramonto.
Oltre a benefici fisici, la luce ha un forte valore simbolico, rappresentando la conoscenza, la verità e la salvezza. Nella filosofia infatti la luce è spesso associata alla conoscenza e all’intelletto, guidando l’essere umano verso la verità e la comprensione del mondo.
La luce naturale regola il ciclo sonno-veglia, ma un’esposizione eccessiva alla luce, soprattutto a quella artificiale notturna, può alterare questo ritmo, riducendo la produzione di melatonina e peggiorando la qualità del riposo. La luce naturale favorisce migliori prestazioni in termini di concentrazione, memoria e reattività. L’uso di luci brillanti può essere utile per i malati di demenza, contribuendo a ridurre i sintomi depressivi e il deterioramento cognitivo.
L’eccessiva luce artificiale, soprattutto nelle città, può alterare i ritmi biologici, portando a un aumento delle ore di sonno più tardive e a disturbi del sonno. Da quanto ora detto emerge, come spesso avviene discutendo di fenomeni naturali, che anche rispetto al ruolo della luce mondo animale e mondo minerale, che sembrano così lontani fra loro, in effetti lo siano molto meno di quanto sembri.
Promozione di un elettrone e produzione di un ormone quanto sono sconnessi e distanti??
Lo zolfo è uno degli elementi essenziali negli esseri viventi, presente nei minerali sulla crosta terrestre sia come solfuro che come solfato, oltre che allo stato nativo, e le cui proprietà sono state ampiamente trattate in un post alcuni anni fa. Ma come viene prodotto lo zolfo nell’universo e qual è la sua presenza nello spazio?
La nucleosintesi dello zolfo avviene principalmente per fusione di un nucleo alfa (cioè un nucleo di 4He) con carbonio e ossigeno attraverso la formazione di neon, magnesio e silicio. Il processo richiede alte temperature, per superare la barriera di repulsione elettrostatica dovuta all’elevata carica positiva dei nuclei (si ricorda che lo zolfo ha un nucleo con 16 protoni). Queste temperature vengono raggiunte negli strati più interni, vicino ai nuclei di stelle massicce con più di 8 masse solari. Questo processo avviene nelle fasi terminali dell’evoluzione stellare, poco prima che queste stelle massicce diano luogo ad un’esplosione di supernova di tipo II, espellendo molto del materiale processato nello spazio. Si ritiene quindi che l’abbondanza di tutti gli elementi più pesanti, ma prodotti per fusione nucleare nelle stelle massicce, segua all’incirca lo stesso comportamento durante l’evoluzione chimica galattica.
Lo zolfo gioca a questo punto un ruolo importante nella tracciatura dell’evoluzione chimica della Via Lattea e delle galassie esterne, soprattutto quelle con elevato red shift, cioè quelle molto lontane, quindi che sono nelle prime fasi temporali dell’universo. Tuttavia, le variazioni di abbondanza nella Galassia sono ancora poco chiare perché il numero di misurazioni dell’abbondanza di zolfo disponibili è attualmente piuttosto limitato. In particolare le quantità rilevate nelle nubi molecolari fredde, dalle quali ricordiamo si formano le stelle per collasso gravitazionale, fino ad oggi sono circa mille volte inferiori rispetto a quelle previste dai modelli che lo pongono come il decimo elemento più abbondante nell’universo.
Le osservazioni acquisite spettroscopiche recentemente anche con strumenti, come il telescopio spaziale James Webb (JWST), nella nebulosa molecolare TMC1 (Figura 1) mostrano la presenza di elementi quali l’ossigeno, carbonio o azoto. Ma per lo zolfo si rileva una quantità estremamente ridotta.
Figura 1.Nebulosa molecolare TMC1 situata nel braccio di Orione della Via Lattea (al quale appartiene anche il Sistema Solare) e visibile nella costellazione del Toro, distante dal Sistema Solare 460 anni luce. In questa nebulosa sono state ritrovate moltissime molecole, anche organiche, a partire dagli anni ottanta. E’ sede attualmente di formazione stellare, pertanto è possibile osservare varie tipologie di stelle che sono nelle fasi iniziali della loro evoluzione.
Ma in quali forme molecolari ci si aspetta di trovare lo zolfo?
Dal momento della rilevazione della prima molecola contenente zolfo interstellare, il monosofuro di carbonio (CS) nel 1971, sono state identificate circa 40 molecole contenenti zolfo nel mezzo interstellare (ISM). Nella fase gassosa dell’ISM, queste molecole vanno da semplici molecole triatomiche, come il solfuro di idrogeno (H2S), a molecole più complesse come i tioli (RSH), i tioaldeidi (HCSR), i tioceteni (RCCS), i tioacidi (HSOCR) e le tioammidi (RCSNR’), dove R e R’ sono catene organiche. Nelle nubi dense molecolari, recenti osservazioni nella regione dell’infrarosso medio con il JWST hanno fornito importanti informazioni sulla composizione dei grani ghiacciati. In queste particelle solide sono stati rilevati il solfuro di carbonile (OCS) e probabilmente il diossido di zolfo (SO2) (Figura 2).
Figura 2Molecole contenenti zolfo identificate nello spazio (Copyright Nature)
La molecola più semplice, che dovrebbe essere presente, è il solfuro di idrogeno (H2S), ma non è stata ancora osservata nei ghiacci interstellari tramite osservazioni nel dominio dell’infrarosso. I modelli chimici prevedono che il H2S sia presente in questi ghiacci. Poiché le analisi infrarosse dei ghiacci interstellari hanno rivelato prove di composti più volatili del H2S (come il metano) ancora presenti nei ghiacci, l’assenza di rilevazione del H2S è probabilmente dovuta alle deboli caratteristiche infrarosse. Poiché le particelle di polvere interstellare e le nubi molecolari fredde forniscono essenzialmente la materia prima per i dischi protoplanetari e i rispettivi sistemi solari, gli astronomi hanno dedotto che le particelle interstellari e le molecole contenenti zolfo sono almeno parzialmente incorporate in comete e altri corpi planetari, mentre le nubi molecolari si trasformano in regioni di formazione stellare
Ora, per gli autori di una recente pubblicazione [1], in questi ambienti estremamente freddi lo zolfo può assumere due forme stabili: una molecola analoga alla forma allotropica presente sulla Terra, cioè un ciclo ad otto atomi di zolfo, e dar luogo alla fomazione dei polisolfani, catene di atomi di zolfo legati tra loro con atomi di idrogeno alle estremità. Il ciclo ad otto atomi di zolfo è favorito dalla reazione della specie diradicalica S2, come discusso da Hoffman e discusso in questo post. Queste molecole potrebbero formarsi sulla superficie dei granelli di polvere ricoperti di ghiaccio, intrappolando lo zolfo in forme solide non rilevabili facilmente dai telescopi.
Le simulazioni condotte in laboratorio hanno ricreato le condizioni del mezzo interstellare, dimostrando che queste molecole a base di zolfo possono effettivamente formarsi. Gli esperimenti di simulazione in laboratorio dimostrano che il H2S può essere convertito su grani interstellari ricoperti di ghiaccio nelle nubi molecolari fredde attraverso l’interazione dei raggi cosmici galattici (costituiti da protoni e nuclei di elio) a 5K in sulfani (H2Sn; n = 2-11) ed effettivamente in zolfo ottamolecolare (S8). I modelli teorici portano alla conclusione che fino al 33% del solfuro di idrogeno può essere convertito in questi prodotti nel corso della vita delle nubi molecolari di 107 anni.
Una volta che le regioni di formazione stellare si riscaldano, queste molecole possono sublimare, tornando alla fase gassosa: a quel punto sarebbe possibile individuarle con i radiotelescopi, quindi a lunghezze d’onda più alte.
Un’ulteriore difficoltà è legata alla natura stessa dello zolfo: le sue molecole cambiano facilmente forma, passando da strutture ad anello a catene ad altre configurazioni. Tuttavia, i ricercatori sono riusciti ad individuare alcune configurazioni stabili che potrebbero diventare i nuovi obiettivi per le future osservazioni astronomiche.
1 ) A. Herath et al. “Missing interstellar sulfur in inventories of polysulfanes and molecular octasulfur crowns” Nature Communications2025, 16, 5571 https://doi.org/10.1038/s41467-025-61259-2
Qualcuno mi prenderà per scemo per questo titolo. Mi è venuto in testa dopo aver letto un articolo scritto da Roberto Burioni, il noto virologo, su Repubblica di qualche settimana fa e che vedete riprodotto in piccolo nella immagine qua sotto.
Ho pensato più o meno questo: se Burioni può attribuire ad un batterio ed alla sua scoperta un qualche ruolo decisivo o comunque importante nel processo che ha portato in un secolo alla nascita dello stato israeliano con l’espulsione di milioni di persone di etnia palestinese dalle loro case, allora è come se io attribuissi all’acetone prodotto dal batterio di Burioni un ruolo di solvente “politico” per ottenere la stessa dichiarazione, scritta da Lord Balfour e che segnò l’origine di quel processo.
Cosa scrive Burioni?
Burioni semplifica molto la questione (ed io riassumo ancora più per voi): l’Inghilterra entrata in guerra si accorge di aver bisogno di molto più acetone per produrre i propri proiettili, basati sulla cordite, un esplosivo deflagrante, dunque a basso potere esplosivo (onda d’urto che viaggia a meno della velocità del suono) costituito da una miscela di nitroglicerina, nitrocellulosa ed oli minerali (ce ne ha parlato in un post di parecchi anni fa il compianto Gianfranco Scorrano) estrusa sotto forma di filamenti sottili. Per produrli occorreva usare come solvente l’acetone, che però all’epoca si produceva a partire dalla decomposizione del calcio acetato ottenuto dalla distillazione del legno. La produzione avveniva in Germania ed Austria e dunque l’Inghilterra si trovò a secco durante la guerra. Ma in soccorso dell’Inghilterra arrivò il brevetto di un biochimico di religione ebraica, Chaim Weizmann, che lavorava in Inghilterra e che otteneva l’acetone tramite la fermentazione di sorgenti naturali, come le castagne dell’ippocastano, un prodotto di scarto; la soluzione andò così bene che l’Inghilterra riuscì ad aumentare enormemente la produzione di cordite. Il governo inglese fu grato a Weizman (che era uno dei capi del movimento sionista mondiale) e acconsentì (secondo Burioni) alla sua richiesta di aiutare il popolo ebraico a trovare una patria nel territorio che 2000 anni prima era stato sede di quella religione, (ma che all’epoca era abitato da centinaia di migliaia di palestinesi; la Palestina era una provincia dell’Impero Ottomano, che perse la guerra e fu smembrato).
Ma come stanno le cose? Cosa ne pensano gli storici? Fu veramente così “semplice”? Uno scambio fra acetone per usi bellici e dichiarazione Balfour?
Il 2 novembre 1917 il ministro degli esteri del Regno Unito il conte Arthur Balfour indirizzò una lettera a Lord Rothschild (banchiere famoso ma qui considerato come principale rappresentante della comunità ebraica del Regno Unito e referente del movimento sionista).
In essa, il governo britannico esprimeva il proprio sostegno alla creazione di un “focolare nazionale” per il popolo ebraico in Palestina, pur sottolineando il rispetto dei diritti civili e religiosi delle comunità non ebraiche già presenti nella regione. Tenete presente che la Dichiarazione Balfour è solo questo, una dichiarazione fatta da un ministro inglese ad un rappresentante di un movimento politico, non è un accordo internazionale come siamo abituati a dire oggi dopo un secolo di “legalità internazionale”; una promessa diciamo così fra le tante fatte dagli inglesi a destra e a manca per avere alleati in guerra.
Il termine sionista non è un termine offensivo, ma fa riferimento, come evincete dal testo della lettera, al nome ufficiale dell’omonimo movimento politico europeo; tale movimento era nato soprattutto dopo il caso Dreyfus in Francia per opera di Theodore Herzl; costui aveva scritto un libro in cui proponeva ai governi europei l’idea che si creasse uno stato ebraico (in una qualsiasi colonia delle potenze europee, oppure in Argentina) che sottraesse gli ebrei alle persecuzioni antisemite. Fu poi il fondatore, nel 1897, del movimento politico del sionismo, che si proponeva di far sorgere nei territori coloniali del mandato britannico della Palestina uno Stato ebraico. Agli inizi del 1900 propose infine lo schema Uganda per trovare un nuovo insediamento degli ebrei, anche in Uganda se necessario. Tutto ciò era, almeno in parte, basato sul concetto di autodeterminazione e ritorno degli ebrei alla loro terra “ancestrale”, intesa come la terra affidata loro dal loro dio. Queste posizioni non trovarono favore nella diaspora ebraica nel mondo mentre furono accolte con favore dai movimenti cristiano evangelici, soprattutto negli USA e in UK. Il sionismo è stato ed è in gran parte un movimento cristiano, basato sull’interpretazione letterale della Bibbia e che ha coperto un’assalto colonialistico al territorio palestinese (si veda per esempio qui).
Il testo qua sotto, scritto il 2 novembre, fu reso pubblico esattamente il 9 novembre ossia il giorno che gli italiani si attestarono sul Piave, dopo aver ceduto al nemico 250000 prigionieri e 2300 cannoni
Pochi giorni prima, il 23 ottobre 1917, il Comitato Centrale bolscevico aveva deliberato l’insurrezione armata che fu compiuta la sera del 6 novembre. Il 7 mattina alle 10 Lenin proclamava a Pietrogrado la presa del potere politico.
E’ impossibile non notare la coincidenza di questi tre avvenimenti che trasformeranno la storia futura.
In quei pochi giorni di inizio novembre 1917 vennero al pettine tutta una serie di contraddizioni.
Il movimento rivoluzionario in Russia coinvolgeva operai, contadini e soldati ed era iniziato nel febbraio con il rovesciamento dell’imperatore Nicola II Romanov e la nomina di un governo costituzionale; dopo la fallimentare offensiva di giugno e le giornate di protesta contro la guerra di luglio, il fronte era difficile da mantenere e dunque le forze degli Imperi centrali poterono muovere truppe e risorse dal fronte russo al fronte italiano, che per la sua struttura era il punto debole dello schieramento alleato e scatenare l’offensiva di Caporetto.
Il documento Balfour era in “lavorazione” da tempo, ma fu pubblicato proprio in corrispondenza di questi eventi che facevano temere ai governanti inglesi problemi di tenuta non solo bellica.
Nel suo libro Gerusalemme, il giornalista e storico inglese Simon Sebag Montefiore scrive:
“Nella primavera del 1917, l’America entrò in guerra e la Rivoluzione Russa rovesciò l’imperatore Nicola II. ”È chiaro che il governo di Sua Maestà era principalmente preoccupato di come mantenere la Russia nelle file degli Alleati“, spiegò uno dei principali funzionari britannici, e per quanto riguarda l’America, ”si pensava che l’opinione pubblica americana potesse essere influenzata favorevolmente se il ritorno degli ebrei in Palestina fosse diventato un obiettivo della politica britannica”. Balfour, in procinto di recarsi in America, disse ai suoi colleghi che “la stragrande maggioranza degli ebrei in Russia e in America sembra ora favorevole al sionismo”. Se la Gran Bretagna avesse potuto fare una dichiarazione filosionista, “saremmo stati in grado di portare avanti una propaganda estremamente utile sia in Russia che in America”.
Se la Russia e l’America non erano abbastanza urgenti, gli inglesi vennero a sapere che i tedeschi stavano prendendo in considerazione una loro dichiarazione sionista: dopotutto, il sionismo era un’idea tedesco-austriaca e fino al 1914 i sionisti avevano avuto sede a Berlino. Quando Jemal Pasha, il tiranno di Gerusalemme, visitò Berlino nell’agosto 1917, incontrò i sionisti tedeschi e il gran visir ottomano, Talaat Pasha, accettò con riluttanza di promuovere “una patria nazionale ebraica”. Nel frattempo, ai confini della Palestina, il generale Allenby stava segretamentepreparando la sua offensiva.
Questi, e non il fascino di Weizmann, furono i veri motivi per cui la Gran Bretagna abbracciò il sionismo e ora il tempo era essenziale. «Sono un sionista», dichiarò Balfour, e forse il sionismo divenne l’unica vera passione della sua carriera. Anche Lloyd George e Churchill, ora ministro delle munizioni, divennero sionisti e quell’effervescente provocatore, Sir Mark Sykes, ora membro del Gabinetto, si convinse improvvisamente che la Gran Bretagna aveva bisogno dell’“amicizia degli ebrei di tutto il mondo” perché “con la grande comunità ebraica contro di noi, non c’è alcuna possibilità di portare a termine l’impresa”, ovvero la vittoria nella guerra.
Non tutti nel Gabinetto erano d’accordo e si scatenò una battaglia. “Che ne sarà del popolo di questo Paese?”, chiese Lord Curzon, ex viceré dell’India. Lloyd George sostenne che “gli ebrei potrebbero essere in grado di darci più aiuto degli arabi”. Il segretario di Stato per l’India, Edwin Montagu, ebreo tormentato, erede di una dinastia di banchieri e cugino di Herbert Samuel, sostenne con forza che il sionismo avrebbe probabilmente suscitato un aumento dell’antisemitismo. Molti magnati ebrei britannici erano d’accordo: Claude Goldsmith Montefiore, pronipote di Sir Moses, sostenuto da alcuni Rothschild, guidò la campagna contro il sionismo e Weizmann si lamentò che “considerava il nazionalismo al di sotto del livello religioso degli ebrei, tranne che come inglesi”….“La Gran Bretagna fu in seguito accusata dagli arabi di cinico tradimento, per aver promesso contemporaneamente la Palestina allo sceriffo, ai sionisti e ai francesi, una perfidia che entrò a far parte della mitologia della Grande Rivolta Araba. Si trattò certamente di cinismo, ma le promesse fatte agli arabi e agli ebrei erano entrambe il risultato di una convenienza politica a breve termine, sconsiderata e urgente in tempo di guerra, e nessuna delle due sarebbe stata fatta in altre circostanze. Sykes insistette allegramente: “Ci siamo impegnati a favore del sionismo, della liberazione armena e dell’indipendenza araba”, ma c’erano gravi contraddizioni: la Siria era stata promessa specificamente sia agli arabi che ai francesi. Come abbiamo visto, la Palestina e Gerusalemme non erano state menzionate nelle lettere allo sceriffo, né la città era stata promessa agli ebrei. Sykes-Picot specificò una città internazionale e i sionisti acconsentirono: «Volevamo che i Luoghi Santi fossero internazionalizzati», scrisse Weizmann.
La Dichiarazione era stata concepita per allontanare gli ebrei russi dal bolscevismo, ma la notte prima della sua pubblicazione Lenin prese il potere a San Pietroburgo. Se Lenin avesse agito qualche giorno prima, la Dichiarazione Balfour non sarebbe mai stata emanata. ….“Ironia della sorte, il sionismo, spinto dall’energia degli ebrei russi – da Weizmann a Whitehall a Ben-Gurion a Gerusalemme – e dalla simpatia dei cristiani per la loro difficile situazione, fu ora tagliato fuori dagli ebrei russi fino alla caduta dell’Unione Sovietica nel 1991”
Insomma quello che si tira fuori da una breve disamina della letteratura storica è che la storia è un sistema complesso nel quale il rapporto causa effetto, per di più semplificato, come sembra piacere al collega Burioni non è il meccanismo fondamentale. Attribuire a singoli fatti, apparentemente casuali, le conseguenze di dimensioni mondiali che ne sono seguite appare veramente riduttivo, una favoletta per adulti, ma sostanzialmente inesatta.
La dichiarazione Balfour (che ripeto era solo una dichiarazione di intenti) fu il compimento e nello stesso tempo l’inizio di un processo storico che non era dovuto alla abilità e simpatia di Weizman, ma alle leggi di funzionamento della società umana organizzata nel cosiddetto “capitalismo”, che redistribuì le sue zone di influenza attraverso uno scontro bellico mondiale. L’impero di Sua Maestà britannica prometteva di appoggiare l’obiettivo di un movimento politico agli albori sperando di trarne guadagno (gli interessi inglesi per il controllo del petrolio nascevano allora, quando l’allora Ministro della Marina tale Winston Churchill, nel 1913, decise di spostare il combustibile delle navi da guerra dal carbone di cui l’Inghilterra aveva il controllo, ma che era al suo picco, al petrolio che doveva essere ottenuto dagli stati arabi al momento tramite il porto di Haifa, che fu non a caso luogo di uno dei primi attentati dell’Irgun ).
Nella conclusione di Guerra e Pace Tolstoj ebbe a scrivere:
“Per la storia, il riconoscimento della libertà degli uomini come una forza che può influire sugli avvenimenti storici, cioè come una forza non soggetta a leggi, è la stessa cosa che per l’astronomia il riconoscimento della libera forza di movimento delle forze celesti.
Questo riconoscimento distrugge la possibilità dell’esistenza delle leggi, cioè di qualsiasi conoscenza. Se esiste anche un solo corpo che si muove liberamente, non esistono più le leggi di Keplero e di Newton e non esiste più nessuna rappresentazione del movimento dei corpi celesti. Se esiste una sola azione libera dell’uomo, non esiste alcuna legge storica e alcuna concezione degli eventi storici.
Per la storia esistono linee di movimento delle volontà umane, un’estremità delle quali si nasconde nell’ignoto, mentre all’altra estremità si muove nello spazio, nel tempo e in dipendenza dalle cause la coscienza della libertà che hanno gli uomini nel presente.
Quanto più si apre davanti ai nostri occhi questo spettacolo del movimento, tanto più evidenti sono le leggi di questo movimento. Cogliere e definire queste leggi è il compito della storia.”
L’anno scorso un nuovo termine è venuto ad incrementare la confusione che già esisteva a proposito del magnetismo; sfido chiunque dei miei pochi lettori a negare che parlare di magnetismo comporti sempre un certo grado di difficoltà.
Il termine cui alludo è altermagnetismo, inventato nel 2024 in un lavoro pubblicato su Nature; un successivo lavoro su un’altra rivista della galassia Nature una review aiuta a farsi un’idea, ma c’è anche qualche articolo divulgativo, che consiglio caldamente.
Ovviamente devo ripartire da un poco prima per raccontarvi la cosa. Dedicatemi qualche minuto casomai sotto l’ombrellone.
Prima cosa da ricordare. Si dice spesso che il magnetismo (B) è un effetto relativistico del campo elettrico (E) (B ed E sono vettori), ossia frutto del fatto che la velocità con cui il campo si espande è finita, non infinita e dunque se ne vedono le variazioni, i gradienti; questa descrizione sia pure utile non è completamente corretta e dunque si dovrebbe parlare di campo elettromagnetico, in cui i due componenti interagiscono reciprocamente a causa della relatività, ma non solo. Dire che tutto il magnetismo è “solo un effetto relativistico dell’elettricità” funziona bene per campi statici generati da cariche in moto (tipo i fili con corrente), ma non per configurazioni in cui E e B sono coesistenti e accoppiati dinamicamente, come avviene nelle onde elettromagnetiche, dove vale invece la classica immagine delle due oscillazioni perpendicolari.
Fig. 1 Un’onda elettromagnetica (sinusoidalepolarizzata linearmente) che si propaga nella direzione +z in un mezzo omogeneo, isotropo e senza perdite (come potrebbe essere il vuoto). Il campo elettrico E → (frecce blu) oscilla nella direzione ±x, mentre il campo magnetico B → (frecce rosse) – ortogonale ad E → – oscilla nella direzione ±y, in fase con il campo elettrico.
Seconda cosa da ricordare. Ci sono tre vettori che esprimono il campo magnetico, indicati dai simboli B, H e M; in sostanza, H è il campo sorgente, M quello indotto all’interno di un materiale ed infine il campo B è il campo finale modificato dall’effetto della magnetizzazione del materiale, e infatti la loro relazione è la seguente
B = μ₀ * (H + M)
Dove:
μ₀: è la permeabilità magnetica del vuoto.
M: è la magnetizzazione del materiale, che rappresenta la risposta del materiale al campo magnetico.
Se la magnetizzazione M è nulla o bassa allora rimane una sostanziale proporzionalità fra B ed H
B = μ₀ *H
Ed inoltre esiste una relazione fra M ed H M = χ*H
in cui il termine di proporzionalità adimensionale può essere positivo, nullo e negativo e prende il nome di suscettività magnetica del materiale. Possiamo adesso introdurre tutti quegli aggettivi che rendono complessa la descrizione del magnetismo, guardatevi la figura qui sotto e le sue scale logaritmiche!!
Fig.2 Diversi casi di suscettibilità magnetica nei materiali secondo ChatGPt-5 free in scala symlog. I valori sono indicativi. Si tenga presente che i rapporti di suscettività dipendono anche dalla temperatura.
A questo punto, forti del nostro breve ricordo generale della descrizione del magnetismo possiamo introdurre qualcosa di più. Da dove si origina?
Dai campi magnetici delle particelle costituenti (elettroni soprattutto, i nuclei ce l’hanno ma è molto più debole, noi chimici ci facciamo l’NMR). Se guardiamo agli elementi della tavola periodica possiamo classificarli in modo schematico come nella figura qui appresso.
Fig. 3 Il magnetismo nella tavola degli elementi.
I materiali, a livello microscopico possono essere formati da atomi o molecole aventi un momento magnetico diverso da zero: questo si può verificare in quanto la materia contiene elettroni, che sono dotati di momento magnetico.
Le categorie riportate nella figura /diamagnetismo, paramagnetismo, etc) sono valide non solo per gli elementi ma più in generale per tutti i composti chimici che vengono classificati come descritto qui di seguito.
I materiali diamagnetici sono per esempio rame, oro, argento, zinco, ossido di alluminio, cloruro di sodio. In questi gli elettroni occupano completamente i livelli energetici e non ci sono elettroni spaiati; quando sono sottoposti ad un campo magnetico esterno il loro moto viene comunque perturbato ma in modo diverso: quelli che si muovono in una direzione vengono accelerati e gli altri rallentati e si crea un campo magnetico che si oppone a quello esterno (legge di Lentz); in complesso la suscettività è piccola e negativa.
Tenete presente che in fisica classica la spiegazione che abbiamo dato non esiste, i materiali diamagnetici sono già oggetti da meccanica quantistica.
Nel caso invece che ci siano elettroni spaiati, ma isolati, non accoppiati, a causa della struttura del materiale e dell’effetto della temperatura ambiente, il materiale non presenta momento magnetico proprio, ma se sottoposto ad un campo esterno si allinea ad esso, sia pur debolmente. In questo caso abbiamo i materiali paramagnetici, come per esempio alluminio, cromo, sodio, titanio, ossigeno o composti come cloruro di cromo, solfato di manganese.
Il paramagnetismo dell’ossigeno, del tutto inatteso, ne rivela la peculiare struttura elettronica (tre coppie di legame ed una di antilegame, i cui due elettroni spaiati rendono l’ossigeno nello stato fondamentale paramagnetico). Ne abbiamo parlato altre volte.
I valori della suscettività sono bassi in entrambi i casi, ma negativi per i diamagnetici e positivi per i paramagnetici.
Ci sono casi di materiali con suscettività elevate e sono questi i materiali ferromagnetici, detti così a causa del fatto che l’esempio più importante è il ferro, da cui dipende così tanta parte della nostra tecnologia. In questo caso non solo ci sono elettroni spaiati ma anche un elemento strutturale: la distanza fra gli elettroni spaiati è opportuna a favorire il loro allineamento; infatti, se ci si fa i conti esatti, in alcuni materiali allineare gli spin di elettroni isolati abbassa l’energia del sistema e dunque ne favorisce l’esistenza. Questo può avvenire se tale abbassamento abbassa l’energia più di quanto l’energia termica tenda a disturbare il fenomeno. Dunque esiste una temperatura detta di Curie, sopra la quale l’allineamento è sfavorito.
Ma sotto quella temperatura esisteranno domini dell’ordine dei micron con gli spin allineati (ma in direzioni diverse per ogni dominio, detto dominio di Weiss) e l’applicazione del campo esterno H è in grado di allinearli tutti al campo stesso. La suscettività acquista dunque un valore elevato dell’ordine anche di migliaia di volte. È il caso di ferro, cobalto e nickel o anche leghe opportune come il permalloy. Cessato il campo esterno l’allineamento rimane e ha una durata anche lunga. In generale questi materiali mostrano di essere sorgenti di campo magnetico proprio per questo motivo (in Natura sono poi immersi nel campo magnetico terrestre e dunque la sorgente che li fa accoppiare esiste sempre).
Esistono anche materiali con elettroni spaiati in cui la struttura cristallina (di solito costituita di specie ioniche diverse) è tale che per quelle distanze e combinazioni l’energia minima si ha quando nei domini gli spin isolati negli atomi e molecole sono anti-allineati; in questo caso il campo magnetico spontaneo è nullo se i singoli atomi o ioni sono in egual numero; ma se sono in numero diverso allora avrò anche qui un campo magnetico residuo come nei ferromagnetici. Tali materiali vengono definiti ferrimagnetici (ossidi di ferro, di titanio e di ferro e titanio (ilmeniti)), con suscettività anche elevate.
Nel caso di egual numero di spin diversi avrò l’antiferromagnetismo, ossia la suscettività sarà nulla o quasi a bassa temperatura perché in ogni condizione i campi dei domini tenderanno ad annullarsi. La temperatura critica si chiama qua di Neel.
Fig.4 Ordinamento degli spin nei domini di una materiale antiferromagnetico.
Nella figura 2 si vede che il cromo ha queste caratteristiche.
Di passaggio noto che nei materiali superconduttori la suscettività è pari a -1 in quanto il campo magnetico è come “espulso” dal materiale mentre è superconduttore; ma mi fermo qua perché l’argomento ci porterebbe troppo lontano.
E arriviamo finalmente all’altermagnetismo.
Qualcuno di recente ha notato uno strano fenomeno; che ci sono materiali come l’ossido di rutenio o il tellururo di manganese (entrambi composti ionici) in cui la suscettività magnetica nulla nasce da una diversa condizione.
Gli atomi con momento magnetico opposto sono accoppiati dalla rotazione dei cristalli o dalla simmetria speculare come nella figura seguente:
Fig. 5 Pattern magnetico e cristallino altermagnetico nel tellururo di manganese altermagnetico (MnTe, a sinistra) e nel biossido di rutenio (RuO 2 , a destra).
Come va la suscettibilità negli altermagneti?
Gli altermagneti, pur essendo antiferromagnetici a livello microscopico, presentano una suscettibilità magnetica che può variare in modo significativo a seconda della temperatura e della struttura del reticolo. A differenza degli antiferromagneti classici, dove la suscettibilità raggiunge un massimo alla temperatura di Néel (temperatura di transizione tra lo stato ordinato e quello disordinato), gli altermagneti possono mostrare comportamenti più complessi. La suscettibilità magnetica degli altermagneti può essere influenzata da diversi fattori, tra cui: temperatura, struttura del reticolo e interazioni magnetiche.
Cogliere la differenza fra antiferromagneti e altermagneti può non essere banale; il tellururo di manganese è stato per anni classificato antiferromagnetico. Poi l’anno scorso una collaborazione internazionale (Accademia ceca delle scienze, EPFL, PSI, Università di Nottingham e altri) si è concentrata sul tellururo di manganese (MnTe). Hanno utilizzato la spettroscopia avanzata di fotoemissione risolta in spin presso strutture a raggi X di sincrotrone (la Swiss Light Source e la svedese MAX IV) per sondare MnTe. Alla fine del 2024, hanno riferito su Nature che le bande elettroniche di MnTe sono effettivamente “spin-split”, il che significa che i livelli di energia per gli elettroni di spin-up divergono da quelli per gli elettroni di spin-down. È importante sottolineare che MnTe non ha magnetizzazione netta (gli spin sugli atomi di Mn vicini si annullano). Questa combinazione di magnetizzazione netta evanescente e degenerazione di spin rotto è esattamente ciò che la teoria prevede per gli altermagneti, ed è qualcosa che un antiferromagnete convenzionale non può fare.
Fig 6 Struttura cristallina del MnTe con due sottoreticoli a spin opposto (MnA e MnB) e possibili trasformazioni di trasposizione dei sottoreticoli contenenti un riflesso nello spazio reale o una rotazione sestupla.
Ma questa apparentemente sottile differenza può essere importante?
Diciamolo teoricamente: Possiamo dire che un altermagnete è magneticamente “invisibile” esternamente ma internamente polarizzato. Gli esperimenti hanno confermato questo vedendo la divisione della banda in MnTe senza magnetizzazione netta. Quindi, se si invia una corrente attraverso un altermagnete in una particolare direzione, può essere fortemente polarizzata in spin (tutto in uno spin), simile alla corrente di un ferromagnete.
Diciamolo praticamente: una memoria basata sugli altermagneti sarebbe molto più veloce, stabile ed efficiente energeticamente di una attuale perché funzionerebbe nel campo dei THz, dunque 1000 volte più veloce di quella del computer che sto usando adesso, sarebbe maggiormente protetta dai campi vicini e dunque potrebbe essere più piccola e implicherebbe correnti di gran lunga inferiori. In effetti questa sarebbe una applicazione spintronica come si dice oggi, ossia basata sullo spostamento di spin non su correnti elettroniche.
Il prossimo passo è capire quante sostanze altermagnetiche esistono e rifare le figure 2 e 3 per bene. Vedremo.
Niente accordo alle Nazioni Unite sul trattato internazionale per limitare l’inquinamento da plastica. All’undicesimo giorno di trattative a Ginevra l’incontro con quasi 2000 partecipanti si e’ chiuso senza una intesa sulla riduzione della crescita di produzione della plastica e sull’adozione di controlli legalmente vincolanti sui componenti chimici utilizzati.
Il fallimento del negoziato replica quindi quello gia’ verificatosi un anno fa in Corea del Sud. Secondo quanto riportano le agenzie internazionali, nessuna delle due bozze di documento, presentate dal presidente del comitato creato nel 2022 con il mandato di raggiungere una intesa, l’ambasciatore ecuadoriano Luis Vayas Valdivieso, e’ stata accettata dai 184 Paesi al tavolo come base per il negoziato.
Il dubbio che su questo non-risultato ci possa essere un effetto dazi si basa su un semplice collegamento fra i 2 problemi: ad esempio visti i dazi su alluminio ed acciaio è probabile che le aziende europee e statunitensi vireranno ancor di più sui prodotti in plastica, come ad esempio ha dichiarato qualche tempo fa Coca-Cola. Le posizioni per porre fine a questo inquinamento, esteso a tutto il ciclo produttivo, devono poi fare i conti con le tensioni geopolitiche e gli equilibri industriali.
Ecco perché è particolarmente interessante comprendere qual è la posizione che l’Unione Europea intende portare avanti dopo il risultato al tavolo svizzero di questi giorni. Dei 2 documenti presentati in sede di Assemblea uno è stato espressione dei Paesi rigoristi sulle cui posizioni le divergenze riguardano questioni centrali: la definizione delle plastiche problematiche e prioritarie, l’inclusione delle microplastiche, i meccanismi di finanziamento – soprattutto a sostegno dei Paesi in via di sviluppo – e l’adozione di obiettivi chiari e misurabili di riduzione e gestione.
Dall’altra parte si è schierato un gruppo di Paesi definiti “Like-Minded“, tra cui figurano giganti petroliferi come Arabia Saudita, Cina, Russia e Iran. Questa fazione si oppone fermamente a qualsiasi limite alla produzione, sostenendo che il trattato dovrebbe concentrarsi esclusivamente su una migliore gestione dei rifiuti e sul riciclo, una posizione che, secondo gli esperti, non è sufficiente, dato che a livello globale oggi si ricicla appena il 9% della plastica prodotta.
In una posizione più sfumata si trovano gli Stati Uniti, che si sono dichiarati favorevoli a un trattato meno ambizioso, senza tagli netti alla produzione.
A dare voce alla comunità scientifica è stato il professor Richard Thompson, l’accademico che per primo coniò il termine “microplastiche”. Come riportato dal quotidiano britannico The Guardian, Thompson, presente a Ginevra, ha lanciato un appello ai delegati: “È davvero chiaro che per proteggere le generazioni future dobbiamo agire con decisione ora (…). Spero davvero che i negoziatori possano guardare negli occhi la prossima generazione e dire di aver agito con decisione”.
Forse già ora possiamo dire che questa speranza è andata delusa. Ad oggi ci dobbiamo accontentare dell’ultima versione del documento votato a Ginevra che ha tentato senza successo la sintesi delle 2 posizioni emerse. Esso non include limiti alla produzione di plastica, ma riconosce che gli attuali livelli di produzione e consumo sono “insostenibili” e richiedono “un’azione globale”. Il testo aggiunge che tali livelli superano le capacità attuali di gestione dei rifiuti e sono destinati ad aumentare, rendendo necessaria “una risposta globale coordinata per fermare e invertire queste tendenze”.
È stato anche proposto che i Paesi realmente interessati a un accordo lascino l’attuale processo e formino un “trattato dei volenterosi”, introducendo meccanismi di voto che eliminino la “tirannia del consenso”. Secondo l’ambientalista, senza un cambiamento radicale del metodo, i prossimi negoziati rischiano di concludersi con un nuovo fallimento.
Se ci domandiamo quale sia la prima reazione chimica che avviene nell’universo primordiale, possiamo rimanere relativamente sorpresi rispetto alle specie coinvolte. A noi, studiosi delle reazioni nelle condizioni che ritroviamo sul nostro pianeta o che ci sono permesse di raggiungere mediante la tecnologia, ma soprattutto correlate alla composizione chimica dell’atmosfera, dell’idrosfera e della crosta terrestre, ci è difficile immaginare che l’elemento centrale della chimica primordiale sia l’elio. L’elio è l’elemento chimicamente più inerte di tutti e non è coinvolto nelle reazioni a causa della sua stabilità. Recentemente [1] però un team di ricercatori negli Stati Uniti e in Cina ha calcolato che una pressione estrema (nell’ordine dei tera-pascal – circa 10 volte la pressione trovata al centro della Terra) potrebbe teoricamente consentire la formazione di legami covalenti stabili tra elio e fluoro, formando il composto energeticamente stabile He3F2. Nell’universo primordiale però le condizioni sono diverse. Innanzitutto dominano tre soli elementi, i più leggeri, l’idrogeno, l’elio, e il litio, che si formano durante la fase della nucleo-sintesi nei primi secondi dopo il Big Bang, per gli altri bisogna aspettare la formazione delle stelle. Inizialmente sono tutti e tre completamente ionizzati, fino a che la temperatura non si abbassa, circa 400.000 anni dopo il big bang, abbastanza per permettere la ricombinazione degli elettroni con i nuclei per formare atomi neutri. A causa dell’alto potenziale di ionizzazione di 24.6 eV, l’elio fu il primo elemento a divenire neutro e pertanto disposto a dar luogo potenzialmente a reazioni chimiche. Ormai è acclarato che le prime molecole furono formate in un processo di associazione radiativa H⁺ + He → HeH⁺ + hν e conseguentemente che si formarono altri ioni piccoli ioni molecolari e molecole neutre tra cui H2⁺, H2, H3⁺+, LiH, LiH⁺, e le loro varianti deuterate. L’idruro di elio è stato ottenuto esattamente un secolo fa in laboratorio ed è presente anche nell’attuale universo, anche se in maniera meno abbondante. E’stato per la prima volta osservato nel 2016 (pubblicato nel 2019) nell’oggetto NGC 7027, una nebulosa planetaria (https://it.wikipedia.org/wiki/NGC_7027) situata approssimativamente a 3.000 anni luce di distanza nella costellazione del Cigno da un team di ricerca internazionale, usando lo Stratospheric Observatory for Infrared Astronomy (SOFIA) della NASA [2] (Figura 1).
All’età della ricombinazione degli atomi e la formazione delle molecole seguì la cosiddetta età oscura dell’universo: sebbene l’universo fosse ormai divenuto trasparente alla radiazione non esistevano ancora le stelle in grado di emettere luce. Dovevano trascorre diverse centinaia di milioni di anni prima che si formassero le prime. Perché la nube di gas dalla quale si forma una protostella collassi fino al punto in cui può iniziare la fusione nucleare, il calore deve essere dissipato. La dispersione avviene attraverso delle collisioni che eccitano atomi e molecole, che poi emettono questa energia sotto forma di fotoni.
Al di sotto di circa 10mila gradi Celsius, tuttavia, questo processo diventa inefficace per gli atomi di idrogeno, che in quell’età dell’universo erano dominanti. Un ulteriore raffreddamento è potuto avvenire solo attraverso molecole in grado di emettere energia aggiuntiva attraverso rotazioni e vibrazioni.
Per il suo elevato momento di dipolo, lo ione HeH⁺ è particolarmente efficiente a queste basse temperature ed è stato a lungo considerato un candidato potenzialmente importante per il raffreddamento nella formazione delle prime stelle. Di conseguenza, la concentrazione di ioni idruro di elio nell’universo può avere avuto un impatto significativo sulla formazione delle prime stelle.
Figura 1 Lo ione HeH+ scoperto nella nebulosa planetaria NGC 7027. La nebulosa è visibile a 5 gradi a sud-est di Deneb, la stella più luminosa della costellazione del Cigno, alta nel cielo estivo. Immagine della NASA’s Ames Research Center. Nel riquadro lo spettro IR che evidenzia il segnale del legame elio-idrogeno e che consente alla molecola di svolgere il suo ruolo di raffreddante delle nubi di gas che si contraggono e vanno a formare le stelle, come spiegato nel testo.
Durante questo periodo, le collisioni con gli atomi di idrogeno hanno costituito un importante percorso di degradazione per l’HeH⁺, portando alla formazione di un atomo neutro di elio e uno ione H2⁺, che successivamente hanno reagito con un altro atomo di idrogeno per formare, liberando un protone, una molecola di H2 cioè idrogeno molecolare, componente fondamentale delle nebulose dalle quali si formano le stelle (Figura 2).
I calcoli teorici suffragavano queste ipotesi, restava dimostrare l’effettiva efficacia di queste reazioni e soprattutto verificarne la velocità di reazione in funzione della temperatura.
Ora, per la prima volta [3], un esperimento nel rilevare le collisioni fra lo idruro di elio con il deuterio (scelto per ragioni di opportunità in luogo dell’idrogeno) è stato condotto presso il Cryogenic Storage Ring (Csr) dell’Mpik di Heidelberg, uno strumento unico al mondo per studiare le reazioni molecolari e atomiche in condizioni simili a quelle spaziali. La reazione ha prodotto la molecola HD con tasso maggiore di quello previsto, in quanto la velocità di reazione non rallenta al diminuire della temperatura, ma rimane pressoché costante
Figura 2 Un diagramma che illustra la reazione tra HeH+ e deuterio. (MPIK; copyright immagine di sfondo: W. B. Latter (SIRTF Science Center/Caltech) e NASA)
Poiché le concentrazioni di molecole come l’HeH⁺ e l’idrogeno molecolare (H2 o HD) hanno giocato un ruolo importante nella formazione delle prime stelle, questo risultato costituisce un altro mattoncino nella comprensione della formazione delle stelle nell’universo delle origini.
[3] F. Grussie et al. “Experimental confirmation of barrierless reactions between HeH+ and deuterium atoms suggests a lower abundance of the first molecules at very high redshifts” Astronomy and Astrophysics 699, L12 (2025) https://doi.org/10.1051/0004-6361/202555316
“ Purtroppo, molti sforzi per cercare soluzioni concrete alla crisi ambientale sono spesso frustrati non solo dal rifiuto dei potenti, ma anche dal disinteresse degli altri. Gli atteggiamenti che ostacolano le vie di soluzione, anche fra i credenti, vanno dalla negazione del problema, all’indifferenza, alla rassegnazione comoda, o alla fiducia cieca nelle soluzioni tecniche.” Laudato sì Edizioni EDB Bologna 2015 pg. 14
Quando nel 2015 venne pubblicata l’enciclica di Papa Francesco, personalmente credevo che potesse essere non dico risolutiva, ma che avrebbe suscitato un minimo di presa di coscienza più ampio sulle problematiche ambientali. Mi sembrava anche rivoluzionaria, rispetto al concetto che vede l’uomo come padrone assoluto, dominatore del pianeta
Dopo dieci anni purtroppo devo constatare, con una forte delusione, che neanche questa invocazione apostolica è servita a scalfire il muro di gomma e di indifferenza, con cui chi ha a cuore i problemi ambientali finisce irrimediabilmente per scontrarsi.
Ho iniziato a rileggerla, così come mi riprometto di rileggere tutti i libri che hanno contribuito alla mia formazione sui temi ambientali, a partire da i “Limiti dello sviluppo”.
Confesso di farlo non con l’intento di rivedere concetti di base, ma con intento direi quasi consolatorio.
La mia formazione ed il mio interesse per i problemi ambientali, nasce in primo luogo dall’educazione ricevuta dai miei genitori. Che mi hanno lasciato in dote l’amore per i libri, il rispetto per la natura. Educato al rispetto dei beni comuni. Oggi credo che questo tipo di educazione sia assente in molti nuclei familiari.
Ho avuto la fortuna di avere insegnanti e docenti capaci di farmi appassionare, accendere ulteriormente la mia curiosità innata. La termodinamica e la chimica fisica mi hanno sempre rapito nelle ore di lezione.
E mi sono servite, sia nel mio lavoro, sia nella comprensione del reale. La curiosità mi ha spinto a fare domande, superando la mia timidezza e vincendo il senso di inadeguatezza. Ho trovato maestri anche fuori dall’ambito del percorso di istruzione, e di questo sono grato e riconoscente. Un chimico modesto che ha trovato fiducia. Anche la presenza su questo blog nasce da questo, e merita un grazie.
Ma è a questo punto che nascono i problemi. Anzi il problema, l’assillo quasi, che mi porto dietro da sempre.
Che è lo stesso che lo scomparso pontefice esprime nel brano che apre questo post. Ovvero quello di comunicare in maniera efficace i problemi ambientali. In un primo momento l’intenzione che avevo era quella di scrivere un “bignamino”, come quello che scrissi per la depurazione. Ma le cronache di questo ultimo anno mi hanno scoraggiato. E poi un post di quel tipo va attentamente preparato.
Ma facciamo semplicemente un piccolo esempio: concetti di chimica fisica, come il diagramma di fase dell’acqua, l’equazione di Clausius- Clapeyron studiati al liceo o all’università, anche se dimenticati o studiati superficialmente dovrebbero fornire quella base, che dovrebbe automaticamente indurre alla riflessione, e alla voglia di rinfrescare la memoria o di approfondire. Farebbe capire che le “bombe d’acqua” (termine che detesto profondamente) hanno una spiegazione, sono la conseguenza del modo miope che usiamo nella cura della casa comune. Invece sulla base della mia personale esperienza tutto questo non lo vedo accadere, non lo percepisco. Una pubblica opinione correttamente informata dovrebbe istintivamente reagire quando si trova di fronte a disinformazione pacchiana e palese. Ma non riesce a farlo per diversi motivi: abitudine e poca voglia di fare fatica. Sia intellettualmente, che personalmente, nel decidere di cambiare le abitudini sbagliate.
Invece da chimico modesto quale mi sento di essere, mai come nel nostro vivere quotidiano noto un insopportabile disprezzo, che nessuno maschera, nei confronti dello studio e della conoscenza. Che viene sfruttato abilmente da una “politica” ormai del tutto asservita al potere finanziario, ancor prima che economico.
Gli Stati Uniti ne sono l’esempio eclatante. Il NOAA ( National Oceanic and Atmospheric Administration) sta affrontando una crisi senza precedenti, con oltre 1.000 licenziamenti in appena cinque settimane, dopo che la Corte Suprema degli Stati Uniti ha revocato la decisione di un tribunale federale della California che ne aveva dichiarato l’illegalità. Questi tagli seguono una linea politica ben definita della Casa Bianca, che mira a ridimensionare il governo federale, colpendo duramente i programmi di monitoraggio climatico.
In Italia le notizie di casi di ricovero per infezioni da West Nile provocano migliaia di commenti che deridono in maniera volgare e grossolana, quanto riportano i giornali. Uno degli effetti più diretti del cambiamento climatico sulla salute riguarda la diffusione delle malattie infettive. L’aumento delle temperature e i cambiamenti nei modelli di precipitazioni stanno espandendo le aree in cui vettori come zanzare, zecche e altri insetti possono sopravvivere e riprodursi. Ma normalmente la reazione è quella di negare, immaginare un complotto, e ritornare in una comoda “confort zone”.
E’ da molti anni che cerco di trovare una risposta ai negazionismi, senza averla ancora trovata. E tutto questo mi provoca un senso di sconforto, che gestisco con molta fatica. Dalla pubblicazione della “Laudato si” ad oggi, abbiamo mancato l’obbiettivo di contenere il riscaldamento del pianeta entro 1.5° C.
E non contenti di questo siamo riusciti anche a delegittimare la scienza. Sottoponendola a una sorta di tribunale dell’inquisizione planetario, dove chiunque può tranquillamente sbeffeggiare il lavoro di scienziati e ricercatori. Non riesco davvero a farmene una ragione, né a comprendere questo atteggiamento.
“L’aspetto più triste della vita in questo momento è che la scienza raccoglie informazioni più velocemente di quanto la società raccolga saggezza” Isaac Asimov
La capacità di gestire il fuoco ha rappresentato una pietra miliare nella evoluzione della nostra specie. Questo ha consentito ai nostri lontani progenitori di accedere ai numerosi vantaggi prodotti dalla cottura quali l’abbattimento della carica microbica, l’aumento della digeribilità, la modifica della consistenza dei cibi. Ancora oggi, in tutte le culture, la cottura è il passaggio fondamentale delle preparazioni alimentari. In realtà, sebbene molto meno utilizzati, esistono altri metodi di processamento degli alimenti capaci di incrementarne la digeribilità attraverso la modifica della struttura delle macromolecole (proteine, lipidi e amido) e la riduzione dei fattori antinutrizionali, ma anche di modificarne il profilo nutrizionale. Tra questi metodi applicabili ai semi di svariate specie vi sono l’ammollo prima della cottura, la fermentazione e la germinazione. In questi ultimi anni, il consumo di germogli è significativamente aumentato sia tra i consumatori particolarmente attenti alla propria alimentazione che nell’industria alimentare sempre interessata allo sviluppo di nuovi formulati. Oggi sono disponibili in commercio germogli di cereali, leguminose e numerose altre specie.
La normativa europea definisce “germogli”: “il prodotto ottenuto dalla germinazione dei semi e dal loro sviluppo in acqua o in un altro mezzo, raccolto prima dello sviluppo delle foglie vere e destinato a essere consumato intero, compreso il seme” (Regolamento (CE) n. 208/2013). Da un punto di vista nutrizionale, i germogli sono annoverati tra gli alimenti funzionali in quanto caratterizzati da un contenuto, relativamente elevato, di diversi composti nutraceutici e da una notevole capacità antiossidante, potenzialmente preventiva nei confronti di varie patologie. Vantaggi pratici derivano dal fatto che i germogli possono essere ottenuti tutto l’anno in brevissimo tempo, solo alcuni giorni. Inoltre la loro produzione non necessita di attrezzature particolarmente sofisticate, vantaggio non da poco nell’ottica di un loro importante apporto nella dieta di future colonie spaziali.
Sono molto numerosi gli studi scientifici pubblicati sino ad oggi con l’obiettivo di studiare in dettaglio la composizione e di conseguenza la reale valenza nutraceutica dei germogli. Qual è l’attuale stato dell’arte?
Come è noto la germinazione, indotta dalla reidratazione del seme secco, comporta l’attivazione di vari enzimi endogeni che, scomponendo le macromolecole, rendono disponibili le risorse necessarie al sostentamento delle prime fasi di sviluppo della futura pianta. Accanto a questi processi si attivano altri meccanismi che influenzano i livelli di diversi metaboliti secondari, tra cui polifenoli, carotenoidi, glucosinolati, acido gamma-amminobutirrico (GABA), fitoestrogeni, tutti con spiccate caratteristiche nutraceutiche. Ovviamente questi composti non sono presenti nei germogli di tutte le specie infatti i glucosinolati sono presenti nelle Brassicacee, i polifenoli hanno livelli significativi in cereali e leguminose, e così via. Sebbene il contenuto di composti nutraceutici nei germogli sia tendenzialmente maggiore rispetto al seme secco, l’entità del surplus è strettamente dipendente dalla specie e, a parità di specie, dal particolare genotipo utilizzato. Ad esempio, se nei germogli di grano di due giorni si ha un incremento dei fenoli liberi associato ad una diminuzione dei fenoli legati ad altre molecole, nei germogli di riso si ha un incremento di entrambe queste classi.
In aggiunta alle caratteristiche genetiche di ciascuna specie, è stato dimostrato che i livelli dei metaboliti secondari nei germogli possono essere significativamente influenzati dalle condizioni in cui avviene la crescita dei germogli. Temperatura, umidità, giorni dall’inizio del processo, crescita al buio o con illuminazione a specifiche lunghezze d’onda, irradiazione con UV-B, applicazione di ultrasuoni sono tutti fattori fisici in grado di agire sull’accumulo nei tessuti di specifici composti [1]. Ai fattori fisici si possono poi sommare gli effetti prodotti dall’aggiunta durante la crescita dei germogli di svariati composti chimici (elicitori). L’elenco è abbastanza lungo ma tra quelli maggiormente investigati vi sono: acido ascorbico, acido benzoico, acido salicilico, fenilalanina, saccarosio, glucosio e metil jasmonato. Tutte queste sostanze, attivando o inibendo specifici pathway metabolici, sono a loro volta in grado di influenzare l’accumulo nei tessuti dei germogli di specifiche classi di metaboliti secondari e quindi anche la capacità antiossidante.
La letteratura scientifica sugli effetti delle condizioni di crescita è abbastanza corposa sebbene alcuni risultati risultino contrastanti sia per le diverse condizioni sperimentali adottate nei test che per l’utilizzo, a parità di specie, di varietà differenti [2 – 4]. Ad ogni modo alcuni aspetti sono ormai ben definiti. Infatti, numerosi studi hanno dimostrato che l’aggiunta di saccarosio, glucosio o mannitolo, in opportune quantità, durante lo sviluppo dei germogli di broccolo produca un incremento tra il 48 e 60% dei composti fenolici totali (TPC) rispetto ai valori dei controlli (germogli ottenuti senza aggiunta di elicitori).
Gli acidi ascorbico, folico e glutammico generano un incremento dei TPC intorno al 20% nei germogli di lenticchia ma l’aggiunta di perossido di idrogeno ne riduce il contenuto di circa il 10%.
L’effetto negativo degli acidi ascorbico e salicilico sul livello dei TPC nei germogli di fagiolo è stato stimato tra il 55 e 65% in funzione di diverse condizioni sperimentali. Chitosano o saccarosio aggiunti nelle fasi di sviluppo dei germogli di cece producono un incremento del contenuto in lipidi di circa il 24 e 15% rispettivamente rispetto ai valori osservati nel seme secco. Particolarmente efficace è risultato l’utilizzo di acido salicilico, saccarosio e metil jasmonato, qualora si voglia incrementare il livello di glucosinolati totali (GLS) nei germogli di broccoli. In letteratura sono riportati incrementi di GLS compresi tra il 25 e 48% rispetto al seme di partenza. Al contrario l’aggiunta di glucosio ha effetti negativi in quanto riduce i GLS di circa un terzo nei germogli di ravanello. Anche l’aggiunta di sali di selenio (Na2SeO3 o Na2SeO4) ai cereali è stata oggetto di alcuni studi. Questi sali producono un significativo incremento del contenuto in vitamina C (acido ascorbico) nei germogli di grano, mentre decisamente contrastato è il loro effetto sull’amaranto che è risultato strettamente dipendente dal particolare genotipo.
Alla luce di queste estremamente sintetiche informazioni è evidente quanto siano complessi e ancora non interamente compresi i meccanismi alla base della produzione di germogli dotati di specifiche caratteristiche nutraceutiche. Sono necessarie ancora ulteriori approfondite indagini per individuare la giusta combinazione tra fattori fisici e chimici capace di indirizzare la produzione di germogli verso specifici target nutraceutici.
Bibliografia
[1] Bian et al. 2015. Effects of light quality on the accumulation of phytochemicals in vegetables produced in controlled environments: A review. Journal of the Science of Food and Agriculture 95: 869-877.
[2] Liu et al. 2019. Effects of elicitation on bioactive compounds and biological activities of sprouts. Journal of Functional Foods 53: 136-145.
[4] Liu et al. 2022. New perspectives on physiological, biochemical and bioactive components during germination of edible seeds: A review. Trends in Food Science & Technology 123: 187–197.
Da USA e UK, Scuola di Chimica l’una e Scuola di Storia e Filosofia la seconda, ci arriva su Nature Chemistry un articolo sulle virtù che dovrebbe avere un buon chimico.
Si arriva addirittura ad una tabella dove queste richieste virtù sono elencate e caratterizzate.
Lo sforzo é da apprezzare, ma poi si legge che esse sono coraggio, autonomia, onestà, curiosità, attenzione.
Ovviamente non si può che essere d’accordo, ma la domanda che viene spontanea è: ma non sono le stesse qualità, sotto altre voci, presenti nel Syllabus di ETHICS IN CHEMISTRY di EUCHEMS, nei documenti di IUPAC e nei vari position papers dello stesso GdL sull’Etica della Società Chimica Italiana, per non parlare del Network dei prof Retired o della Sezione Etica dell’European Association of Emeriti Professors o del programma del CFU di Etica della Chimica attivo al Dip.to di Chimica della Sapienza di Roma?
Di conseguenza nasce il sospetto che l’importanza data al tema derivi dallo scarso rilievo fino ad oggi ad esso riservato dalla Società Americana di Chimica nella convinzione che esso potesse rappresentare un freno alla libertà accademica ed alla iniziativa privata.
È un dilemma che l’Europa si è posto con grande anticipo: anche nella SCIENZA la libertà del singolo ricercatore non può costituire un limite alla libertà degli altri, la flessibilità della chimica deve mantenersi ed essere una dote che proprio nel suo stesso concetto richiede il rispetto di equilibri economici e sociali.
La creatività e la natura sperimentale proprie della chimica richiedono sì quelle virtù a cui i nostri colleghi di oltre oceano si riferiscono ma queste sono poi le stesse che ritroviamo in numerosi articoli europei di 40 anni fa.
Allora per vedere, come è giusto che sia il bicchiere mezzo pieno, evviva l’articolo come segnale di una comunità, quella dei chimici, che da un lato si analizza per trovare in sè quelle capacità che possono contribuire ad una Società più giusta. e dall’altro lato cerca nel dialogo con filosofi, storici, umanisti nuovi spunti per implementare quella analisi.
Da quando è cominciato, secondo il metodo scientifico, lo studio della chimica, i ricercatori hanno cercato delle leggi che fissassero delle regole su come gli atomi si legassero per formare i composti. Certamente una pietra miliare in questo studio è la pubblicazione di Lewis [1] che spiega la formazione delle molecole con la compartecipazione degli elettroni da parte degli atomi fino a raggiungere attorno a ciascuno di essi il numero di otto. In realtà questa regola generale mostrava subito delle eccezioni, tanto che già 5 anni dopo, in un altro celebre articolo pubblicato da Langmuir [2], si affermava che si, certamente, molte molecole raggiugevano la configurazione stabile con otto elettroni attorno agli atomi che formavano le molecole, ma si stabiliva che attorno ad alcuni elementi erano presenti 18 elettroni. In particolare quelli che oggi definiamo appartenenti al blocco d della tavola periodica, i metalli di transizione, la stabilità si raggiungeva con diciotto elettroni (vedi box 1) provenienti dalla donazione di coppie di elettroni da parte delle basi di Lewis, spiegando così la formazione di quelli che Werner aveva definito composti di coordinazione.
La regola dei 18 elettroni fu originariamente enunciata in modo empirico, ma ha trovato, in seguito, supporto nella teoria degli orbitali molecolari. I 18 elettroni nella molecola occupano solo orbitali di legame (cioè in orbitali molecolari con energia inferiore agli orbitali atomici che li hanno generati). Un numero superiore comporterebbe il riempimento di orbitali di antilegame (cioè orbitali molecolari con energia superiore agli orbitali atomici che li hanno generati), ad alta energia soprattutto per gli elementi della seconda e terza serie di transizione (elementi del V e VI periodo della tavola periodica).
Da quando è cominciato, secondo il metodo scientifico, lo studio della chimica, i ricercatori hanno cercato delle leggi che fissassero delle regole su come gli atomi si legassero per formare i composti. Certamente una pietra miliare in questo studio è la pubblicazione di Lewis [1] che spiega la formazione delle molecole con la compartecipazione degli elettroni da parte degli atomi fino a raggiungere attorno a ciascuno di essi il numero di otto. In realtà questa regola generale mostrava subito delle eccezioni, tanto che già 5 anni dopo, in un altro celebre articolo pubblicato da Langmuir [2], si affermava che si, certamente, molte molecole raggiugevano la configurazione stabile con otto elettroni attorno agli atomi che formavano le molecole, ma si stabiliva che attorno ad alcuni elementi erano presenti 18 elettroni. In particolare quelli che oggi definiamo appartenenti al blocco d della tavola periodica, i metalli di transizione, la stabilità si raggiungeva con diciotto elettroni (vedi box 1) provenienti dalla donazione di coppie di elettroni da parte delle basi di Lewis, spiegando così la formazione di quelli che Werner aveva definito composti di coordinazione.
La regola funziona bene per i complessi metallorganici, cioè quelle specie contenenti almeno un legame metallo-carbonio, dove il metallo di transizione è in uno stato di ossidazione basso e i leganti sono buoni accettori π (π acidi) (I leganti acidi π (o π accettori) utilizzano orbitali di simmetria π vuoti accettando elettroni dal metallo e agendo quindi da acidi di Lewis).
Per la prima serie di transizione (elementi del IV periodo che riempiono gli orbitali 3d) esistono complessi con più di 18 elettroni soprattutto nella seconda metà della serie 3d, come ad esempio [Co(H2O)6]2+ (19 elettroni), [Cu(NH3)6]2+ (21 elettroni), e [Zn(NH3)6]2+ (22 elettroni) (vedi box 2).
Questa violazione si verifica in quanto la distanza energetica fra gli orbitali di legame e di antilegame è minore rispetto alle altre due serie di transizione.
In realtà di violazioni ce ne sono tante; alcuni composti, pur raggiungendo i 18 elettroni, non sono stabili; oppure lo sono, pur non raggiungendoli, come i complessi a 16 elettroni con configurazione d8 (il centro metallico ha 8 elettroni negli orbitali d come ad esempio gli ioni Ni2+, Pd2+, Pt2+) in genere a geometria quadrato planare (fra i più noti il cis platino utilizzato come farmaco chemioterapico). Inoltre molti complessi non riuscivano a raggiungere i 18 elettroni per l’ingombro sterico. Quelli che però risultavano particolarmente stabili erano i composti diamagnetici a 18 elettroni, in particolare i complessi con configurazione elettronica d6 (il centro metallico ha 6 elettroni negli orbitali d come ad esempio gli ioni Fe2+, Ru2+, Co3+), che non hanno possibilità di coordinare un legante per formare un complesso a 20 elettroni, nemmeno come intermedi di reazione. Un complesso considerato paradigmatico esempio della regola dei 18 elettroni è il ferrocene, che segna l’inizio della chimica organometallica moderna, tale per cui i suoi studi hanno portato al Premio Nobel Ernst Otto Fischer e Geoffrey Wilkinson nel 1973. Il ferrocene, sintetizzato per la prima volta negli anni 50 da parte di Kealy e Pauson, è costituito da un atomo di ferro racchiuso a sandwich tra due anelli aromatici (il ciclopentadienile), i cui cristalli si presentano di colore arancio (Figura 1).
Figura 1 Sopra, la struttura del Ferrocene, sotto, cristalli arancioni del Ferrocene
Vari derivati del ferrocene sono stati sintetizzati e utilizzati in applicazioni importanti, come la catalisi, oppure come componenti delle celle solari, di materiali avanzati, ma anche come medicinali e dispositivi medici. La versatilità dei derivati del ferrocene è dovuta principalmente alla loro stabilità, alla loro ossidazione reversibile ad un elettrone con potenziali moderati e per la facilità di funzionalizzazione del ligando.
Ora la sfida dei ricercatori era di intaccare anche questo che veniva considerato un bastione inespugnabile della chimica di coordinazione e della regola dei 18 elettroni. Pertanto uno sforzo collaborativo tra ricercatori in Germania, Giappone e Russia ha portato alla sintesi di complessi a base di ferrocene con 20 elettroni di valenza aggiungendo al complesso altri due elettroni donati dal ligando [3]. Come si è giunti a questo risultato? Mediante un design modulabile del legante, legando i due anelli ciclopentadienilici ad una piridina in posizione orto, in questo modo si consente la coordinazione reversibile della piridina intramolecolare con il ferro (Figura 2). Con la donazione della coppia di elettroni si aumenta, come detto, il numero di elettroni del complesso a 20. I ricercatori attribuiscono questa capacità alla crescente densità elettronica dei sostituenti para-amminici sull’azoto piridinico. Questa proprietà favorisce la formazione di un legame ferro-azoto. L’assenza di questi sostituenti donatori in posizione para sull’anello comporta la sintesi di complessi a 18 elettroni senza la coordinazione dell’azoto piridinico (Figura 2). Studi computazionali rivelano inoltre, una diminuzione dell’interazione covalente tra il ferro e gli anelli ciclopentadienilici per accogliere gli elettroni aggiuntivi della piridina.
Figura 2a Via sintetica dei complessi 1-X e 2-X (X = H, Cl, OMe e NMe2). b Struttura molecolare a raggi X di 1-H i cerchi verdi rappresentano gli atomi di idrogeno. c Struttura molecolare a raggi X di 2-NMe2. d Definizione geometrica dei parametri di scorrimento dell’anello Cp Δ e ψ rispetto al centroide dell’anello Cp (Cpc). (Copyright Nature)
Altri complessi a 18 elettroni con lo stesso legante – tra cui il cobaltocene cationico e un complesso sandwich di rutenio neutro – non hanno mostrato alcun legame tra il centro metallico e l’azoto piridinico. In questi casi i forti legami tra il centro metallico e l’anello ciclopentadinile rendono improbabile l’aggiunta di due elettroni aggiuntivi. Ora ci si domanda se altri complessi di metalli di transizione neutri della prima serie di transizione potrebbero essere in grado di adottare una coordinazione simile a quella di questi complessi di ferrocene. Ma quali sono le proprietà di questo nuovo complesso? I derivati del ferrocene a 20 elettroni mostrano una chimica redox insolita. I composti possono transitare reversibilmente in condizioni blande tra Fe(II), Fe(III) e Fe(IV) (vedi box3).
Le proprietà redox insolite sono determinate in quanto i due elettroni aggiuntivi donati dal ligando, vanno ad occupare gli orbitali di antilegame ad alta energia in quanto quelli di legame a più bassa energia sono interamente occupati secondo il principio di esclusione di Pauli. Pertanto sarà più facile rimuovere i due elettroni aggiuntivi provocando un’ossidazione di questi derivati del ferrocene. I ricercatori sono stati in grado di sfruttare la relativa facilità in condizioni blande dell’ossidazione a due elettroni per produrre una specie dicationica che solitamente si forma in condizioni altamente ossidanti, da cui si prospettano applicazioni future nell’ambito soprattutto della catalisi.
Questa pubblicazione ha portato a quello che deprecabilmente è il sensazionalismo della scoperta che sovverte le leggi della scienza. La violazioni di regole, che in realtà si mostrano solo dei casi particolari, ma non per questo esse restano meno valide ed utili. Per definire le proprietà dei composti, devono per forza richiedere dei titoli, come quello proposto dal sito Chemistry World della Royal Society of Chemistry: “Organometallic compound found to break textbook principle”?
La scoperta che, anche il ferrocene, in determinate condizioni può superare la regola dei 18 elettroni potrebbe avere la sua rilevanza, come riportato, per eventuali proprietà catalitiche di questi derivati, sperando che possano offrire miglioramenti per l’ottenimento di medicinali e materiali avanzati nelle applicazioni future. Alternativamente potrebbe rimanere una curiosità scientifica certamente importante, ma non tale da riscrivere i libri di testo, ma al massimo da aggiungere una postilla. Le sfide raccolte per trovare eccezioni nelle regole della scienza sono entusiasmanti per chi le lancia, ma a volte se mal presentate all’opinione pubblica possono generare una sfiducia nella scienza. Quanto è stato dimostrato con tanti esperimenti, per i non coinvolti nella problematica, a questo punto diventa non credibile. Invece quanto viola questi principi sono solo delle condizioni particolari che riaffermano comunque la validità delle regole in tutti i casi rimanenti.
P.S. A seguito di questo post, nel sottoporlo alla redazione, nella discussione è emersa la necessità di ricordare come la scienza nel fissare le proprie leggi le sottopone al metodo scientifico. Pertanto il principio che le regole scientifiche possono avere eccezioni che la stessa scienza è in grado di spiegare da un lato è una conferma del metodo scientifico e dall’altro contrasta qualsiasi tentativo di delegittimazione della stessa. Può quindi emergere che le regole siano violate, ma al tempo stesso valide. La ricerca pone soltanto dei perimetri nelle quali si applicano. Si possono fare tanti esempi di leggi superate, ma non per questo sconfessate (come può credere l’opinione pubblica male informata). La legge della gravitazione universale di Newton è superata dalla teoria della relatività generale. Questo significa che non è valida? No è un caso particolare, valida in determinate condizioni (siamo andati sulla Luna con le leggi di Newton!).
Cittadini, associazioni e attivisti hanno sfidato un colosso come ENI e le istituzioni che lo sostengono: sembrava una lotta impari,ma hanno vinto, ottenendo dalla Cassazione l’ammissione del loro ricorso.
Viene riconosciuta la giurisdizione dell’autorità giudiziaria italiana che ora dovrà esprimersi nel merito, come già avviene in altri paesi europei.Le Sezioni Unite della Cassazione hanno stabilito che anche in Italia si possono istruire le cause climatiche. Lo storico pronunciamento della Suprema Corte, che come è risaputo fa giurisprudenza, ha confermato che spetta al giudice civile decidere sui danni ai diritti umani provocati dalle emissioni climalteranti delle aziende fossili.
La Sentenza fa riferimento a comportamenti e scelte di ENI che contrastano con l’Accordo di Parigi entrato in vigore il 4 novembre 2016, dopo l’adempimento della condizione di una sua ratifica da parte di almeno 55 paesi che rappresentassero almeno il 55% delle emissioni globali di gas a effetto serra.
Ma la Sentenza è storica anche perché è espressione dalla corretta interpretazione dei propri ruoli da parte della Politica e della Magistratura.
La politica fa le leggi in difesa dei cittadini e delle risorse comuni, ma se poi tali leggi non vengono rispettate procurando danni all’ambiente e/o ai cittadini è compito della Magistratura intervenire per punire i trasgressori.
Si entra così in una storica ambiguità circa le leggi e le norme ed il fatto che possono essere le più belle del mondo ma se non vengono rispettate sono assolutamente inutili. In questo caso il mancato rispetto riguarda come detto, l’accordo di Parigi per un impegno che mantenga entro 2 gradi l’innalzamento della temperatura media del Pianeta rispetto all’era preindustriale.
Le Sezioni Unite civili hanno così accolto il ricorso per regolamento di giurisdizione presentato da Greenpeace Italia, ReCommon e 12 cittadine e cittadine che nel maggio del 2023 avevano avviato una causa, da loro ribattezzata la “Giusta Causa”,* contro il gigante petrolifero italiano ENI affinché sia imposto alla società di rispettare l’Accordo di Parigi. In punta di diritto.
È stato così escluso che nella materia possa essere invocato un “difetto assoluto di giurisdizione”, nel senso che nessun giudice italiano avrebbe potuto decidere sulle cause climatiche, come obiettavano ENI e i suoi azionisti di maggioranza relativa.
Pochi giorni fa il 12 luglio ci ha lasciati Lucio Russo, uno dei più importanti intellettuali italiani.
Quando questo blog era ancora giovane (adesso ha 13 anni) scrissi su di lui, che era venuto a Trento ad inaugurare l’anno accademico di Lettere. Lucio era un fisico matematico, ma credo si facesse beffe delle differenze fra le due culture, nel senso che era ferratissimo nell’umanesimo, era un uomo di cultura, un vero intellettuale.
Se andate a rileggervi il mio post del 2013, troverete che parla di Chimica e dell’origine della Chimica a partire dalla maggiore scoperta di Lucio, fisico matematico ed esperto di meccanica statistica, ossia la riscoperta della cultura alessandrina e delle molteplici scoperte che quella cultura ha prodotto e che sono state poi dimenticate e riscoperte dopo oltre 1000 anni!!!
Si può dire a ragione che alla base del Rinascimento italiano e alla grandezza di molti intellettuali del 1500-1600 c’è l’apporto diretto degli intellettuali cacciati da Costantinopoli e dei libri rubati dopo la caduta della città (1453) ad opera degli ottomani, ma anche depositari dei testi originali della cultura alessandrina; alcuni dei grandi classici alessandrini furono riscoperti e redistribuiti a partire dal mercato di Costantinopoli, come narra Russo nei suoi testi.
Ovviamente la storia non si può inventare ma sta di fatto che alcune grandi idee del periodo alessandrino hanno giaciuto nascoste ai più e hanno dovuto aspettare la rivoluzione scientifica per tornare alla luce.
Cito per esempio il termoscopio, inventato da Filone di Bisanzio nel III sec aC.
A proposito della Chimica mi autocito dal mio post del 2013
La rivoluzione dimenticata, nel quale nel capitolo 5 analizza alcune discipline così come si erano sviluppate nella scienza ellenistica, attorno al III secolo a.C.
Russo mi racconta come nel capitolo 5 si faccia notare come Zosimo di Panopoli, che è considerato uno dei primi chimici (ma siamo già nel 4 sec. DOPO Cristo) sia in effetti un alchimista e ragioni come tale e che occorra, per ricostruire la storia della Chimica dipanare l’alchimica che è venuta DOPO dalla chimica empirica del periodo alessandrino. In Zosimo si incontrano ripetutamente, nella descrizione di apparecchi e procedure di laboratorio, nomi greci degli apparecchi, termini magici egiziani e riferimenti generali al giudaismo, tanto che Maria la Giudea, sorella di Mosè è ritenuta l’iniziatrice; in realtà, dice Russo, questo tripartitismo della lingua rinvia ad Alessandria, la città multilingua dove le tre culture si incontrarono. Altri testi famosi, come quello di Bolo Democrito di Mendes o il più antico papiro di Leyden e di Stoccolma (che risale al IV sec. aC) non contengono in effetti nulla di alchemico ma elenchi di modi e procedure per produrre cose, soprattutto colorate. Questo suggerisce che l’interesse alessandrino fosse in questo settore; Plinio e Vitruvio con riferimento agli alessandrini parlano di pigmenti colorati di origine sia naturale che artificiale.
C’è di più. Gli Stoici, come Crisippo (II sec dC) hanno già chiara la distinzione fra materiali omogenei ed eterogenei e singoli composti. Con estrema chiarezza Stobeo, con riferimento agli Stoici distingue e definisce fra miscela e soluzione ed ancora fra composto frutto di una reazione, usando tre distinti termini per ciascuno dei casi.
Ma c’è molto di più; e questa è una vera chicca: la idea moderna di molecola ha un precedente alessandrino!
Sesto Empirico parla dell’ oncos (öγκοσ) che è una entità, che pur costituendo il componente ultimo delle cose, a differenza dell’atomo è capace di trasformarsi attraverso la riorganizzazione delle sue parti. Ora nei testi latini il termine oncos è tradotto sistematicamente mole, nel senso di quantità e nel testo di Boyle in cui si introduce modernamente l’idea di molecola (Chymista Scepticus) si fa continuamente riferimento alle idee degli Scettici di cui Sesto Empirico è il nostro essenziale riferimento.
Nel papiro di Leyden e Stoccolma quando si parla di procedure chimiche si fa riferimento alle parti degli ingredienti da mescolare, e quindi alle loro proporzioni. Nella Vita di Demonatte di Luciano si dice ad un certo punto: “quanto fumo otterai da una certa quantità di legno?”; la risposta è “pesa le ceneri e la differenza fra legno e ceneri ti darà il fumo”; ora- dice Russo- a parte l’errore legato al trascurare l’ossigeno, la questione è perché farsi questa domanda se non come riferimento ad una teoria di conservazione della massa (idea che per esempio Lucrezio nel De Rerum accetta senza tema) di precedente origine.
E ce ne sono ancora altri di riferimenti nel testo di Russo, insomma abbastanza per ripensare al modo in cui presentiamo l’origine delle idee della Chimica; verosimilmente GIA’ la Chimica alessandrina aveva l’idea di molecola, di reazione chimica e di composto molecolare, tutte idee che noi attribuiamo alla scienza moderna.
Insomma ce n‘è abbastanza per ripensare completamente l’origine della Chimica e la sua storia; concludo ancora ri-citando la posizione di Russo sul rapporto fra le due culture che secondo me è l’unico modo per superare le presenti difficoltà didattiche e culturali a scuola e non solo in Italia: ricostruire l’unità del sapere a partire dalla Storia.
La storia della Chimica è un buon punto di partenza per qualunque insegnamento di Chimica; ripartire anche qui dai nostri antenati, dalla grotta oscura di Blombos dove un chimico primitivo per primo formulò coloranti oltre 100mila anni fa.
Bibliografia di Lucio Russo
La Rivoluzione dimenticata, Feltrinelli, 1996 (III ed. ampliata 2003).
Il riso viene prodotto in tutto il mondo in ragione di poco meno di mezzo miliardo di tonnellate all’anno, ed è il cibo più comune al mondo.
Eppure ditemi voi quanti hanno sentito parlare dell’aroma del riso; intendo qui da noi.
Noi italiani non siamo, dopo tutto, grandi consumatori di riso; fra i produttori l’Italia si trova al 31° posto al mondo, preceduta da altri paesi dell’Asia, dell’America Latina e dell’Africa, confermandosi però al primo posto assoluto in Europa: tra gli altri paesi europei compaiono in 39° posizione la Spagna e in 61° posizione la Grecia. Come consumatori invece siamo a 6kg/procapite (contro per esempio i quasi 30 di pasta); per capirci la media mondiale è rimasta stabile intorno ai 53.9 kg dal 2000, con picchi di oltre 100kg/pro capite in alcuni paesi del sud est asiatico.
Insomma importanti nel contesto europeo, ma piccoli sul piano mondiale; il che spiega perché dopo tutto parlare di aroma del riso non è banale, mentre ci crediamo grandi esperti per via della tradizione del risotto.
Questo post nasce come spesso accade da una esperienza familiare; mi alzo la mattina e sento un odore di pop-corn, provenire dalla cucina; mi avvicino speranzoso, ma trovo una pentolina ormai spenta con del riso nero integrale già cotto, che sta raffreddandosi; mia moglie, che è la cuoca di casa, per evitare il caldo cucina sul presto ed oggi ha deciso di fare una insalata di riso nero integrale, prodotto al 100% in Italia.
L’odore è quello del pop-corn ma la realtà è diversa.
La cosa mi incuriosisce dato non è la prima volta che lo sento, ma stavolta non demordo finche non trovo la ragione, che sta in un lavoro pubblicato ormai oltre 40 anni fa, ed è la molecolina qui sotto:
2-acetil-1-pirrolina o 2-AP
(ATTENZIONE: la pirrolina NON è un composto aromatico* come invece il pirrolo )
Fate caso al titolo del lavoro citato nelle note: “cooked rice”, non si tratta di un aroma del riso al naturale ma di un aroma del riso DOPO averlo cucinato, come dopo tutto succede col pop-corn.
L’anello pirrolinico rende il composto altamente instabile. È il principale composto aromatico e gustativo presente nel riso profumato e responsabile dell’aroma “popcorn” nei prodotti alimentari. Ha una soglia di odore molto bassa (0,1 μg kg-1 ) in acqua e di conseguenza può essere rilevato dal naso umano a concentrazioni molto basse.
Dopo la sua scoperta da parte di Buttery la 2-AP è stata ritrovata in un numero elevato di sistemi biologici sia piante che animali (è un feromone per la tigre!! ed è presente nell’urina del binturong), sia batteri che funghi; si trova in numerosi cibi cotti.
Binturong o gatto orsino.
La specie che lo contiene in maggiore quantità è la pianta Pandanus Amaryllifolius (nelle foglie fresche), originaria delle Molucche ed usata per fare cesti che possono essere usati per contenere e cuocere/aromatizzare il cibo ma anche per scacciare gli scarafaggi.
La via biosintetica è complessa ed è riportata qui sotto:
Come potete osservare l’ultima fase è una reazione non enzimatica.
Nel riso in particolare 2-AP non è presente in alta concentrazione, ma è presente a tassi anche decine di volte inferiori rispetto al Pandano fresco; dunque come mai si sente così bene il suo odore in fase di cottura?
La spiegazione risiederebbe nel processo cosiddetto di gelatinizzazione dell’amido del riso; e qua devo per forza cercare di sintetizzare.
L’amido è composto da due polisaccaridi principali, l’amilosio e l’amilopectina, che si presentano in granuli con una struttura cristallina.
Quando i granuli di amido vengono riscaldati in acqua, le molecole di acqua penetrano all’interno dei granuli, rompendo i legami tra le molecole di amido, causandone il rigonfiamento.
Il rigonfiamento porta alla perdita della struttura cristallina e alla formazione di una massa gelatinosa, dove l’amilosio e l’amilopectina formano legami con le molecole d’acqua.
La gelatinizzazione è un passaggio chiave nella cottura degli alimenti che contengono amido, come pasta, riso, patate e farine, e nella preparazione di prodotti da forno.
Al momento della gelatinizzazione tutti i composti contenuti nella massa e volatili vengono rilasciati; fra di essi si trova la 2-AP in quantità tale da essere recepito dai nostri sensi; questo spiega perché ce la troviamo letteralmente dentro al naso quando cuciniamo il riso nero (ma anche il basmati o altri risi aromatici che sono chiari). Nel caso del pop-corn la concentrazione originale è ancora più bassa, poche decine di microgrammi/kg, ma la temperatura di trattamento più alta.
Dunque così spieghiamo anche perché lo sentiamo nonostante sia presente in piccola quantità nel cibo originale.
In chiusura devo aggiungere una ulteriore strada di formazione della 2-AP legata alla cottura come tale.
È stato dimostrato che la 2-acetil-1-pirrolina si forma anche nella reazione di Maillard (le reazioni della cottura del cibo che portano al suo imbrunimento); può formarsi dalla reazione tra prolina (un amminoacido) e cosiddetti zuccheri riducenti/prodotti di degradazione degli zuccheri al riscaldamento
Ricordiamo infine che sebbene vi sia un elevato interesse commerciale per il 2-AP a causa dei suoi desiderabili attributi sensoriali, l’instabilità di questo composto (non è un composto aromatico e dunque non è stabilizzato dall’aromaticità) è un problema significativo per la sua applicazione commerciale. Il 2-AP puro diventa rosso e si degrada entro 10 minuti a temperatura ambiente e si verifica una significativa riduzione a breve termine della concentrazione di 2-AP nei prodotti alimentari, come i popcorn e il riso profumato crudo (quindi se volete sentire la sua presenza non aspettate che il riso raffreddi).
Non ho potuto consultare il lavoro originale del 1982 Buttery RG, Ling LC and Juliano BO, 2-acetyl-1-pyrroline: An important aroma component of cooked rice. Chem Ind (London UK) 12:958–959 (1982) che mi è risultato citatissimo ma introvabile ed è ad esso che risale la scoperta del ruolo aromatico della 2-AP.
*Una nota finale per i non chimici; l’aromaticità NON è l’aroma ma l’esistenza di doppi-legami coniugati ossia alternati con legami singoli in un composto ad anello planare.
Qui sotto aggiungo alcune foto mandate dal collega Matteo Guidotti da Kuala Lampur (congresso IUPAC); il nostro speciale inviato Guidotti che ha anche commentato il testo ci fa vedere cosa si da con le foglie di pandano, Pandanus Amaryllifolius;
Questa con il riso è, il Nasi Pandan, (foglie di pandano con le frecce rosse);
la serie di cilindretti è un banchetto di dolci a base di cocco zucchero di palma e pandan;
infine quelle nella busta sono le foglie, fotografate al supermercato.
Anzitutto quanti composti organo-fluorurati esistono in natura?
Poco più di venti.
Invece gli uomini ne hanno sintetizzato oltre 20 milioni, dei quali oltre 7 sono definibili come PFAS a norma della definizione proposta dall’OECD nel 2023.
The Chemical Definition of PFASs according to OECD
PFASs are defined as fluorinated substances that contain at least one fully fluorinated methyl or methylene carbon atom (without any H/Cl/Br/I atom attached to it), i.e., with a few noted exceptions, any chemical with at least a perfluorinated methyl group (−CF3) or a perfluorinated methylene group (−CF2−) is a PFAS.
(traduzione: Definizione chimica dei PFAS secondo l’OCSE
I PFAS sono definiti come sostanze fluorurate che contengono almeno un atomo di carbonio metilico o metilenico completamente fluorurato (senza alcun atomo di H/Cl/Br/I attaccato ad esso), vale a dire, con alcune eccezioni, qualsiasi sostanza chimica con almeno un gruppo metilico perfluorurato (-CF3) o un gruppo metilenico perfluorurato (-CF2-) è un PFAS.
Al 1° luglio 2025, PubChem conteneva 119 milioni di composti chimici unici, di cui oltre 20milioni fluorurati e oltre 7 milioni rispondevano alla definizione OECD di PFAS.
Uno potrebbe chiedersi come mai questa abissale differenza fra la Natura e l’uomo?
La letteratura scientifica dà una risposta possibile, chiedendosi se questo numero così basso abbia una giustificazione chimica e rispondendosi di si.
E’ vero che il legame C-F è il legame organico singolo più forte, ma c’è una fortissima barriera di potenziale per la reazione di formazione del legame e dunque tale legame è poco favorito in qualunque catena reattiva. In un lavoro dedicato all’abbondanza presunta universale di tale legame gli autori scrivono:
Di conseguenza, il bilancio evolutivo complessivo costi-benefici dell’incorporazione del legame C-F nel repertorio chimico della vita non è favorevole. Noi sosteniamo che le limitazioni della chimica organo-fluorurata sono probabilmente universali, in quanto non si applicano esclusivamente aspecifiche della biochimica terrestre. I legami C-F, quindi, saranno rari nella vita oltre la Terra, indipendentemente dalla sua composizione chimica
Queste le ragioni della scienza.
Ma quelle della chimica industriale dominante e del profitto a breve termine basato su una concezione privatistica delle cose, della Natura, della vita e di tutto sono diversi.
La scelta di introdurre anche il solo gruppo -CF3 o -CF2 ha vantaggi immediati notevoli poiché riduce il catabolismo e rinforza e prolunga la durata di azione delle molecole. Il gruppo CF3 è particolarmente idrofobico e stabile.
Abbondanze elementari tra i prodotti naturali (NP). Sono indicati il numero di prodotti naturali nel nostro database contenenti un determinato elemento e la percentuale. I composti contenenti gli atomi alogeni Cl- e Br sono quasi altrettanto comuni dei composti contenenti S tra i prodotti naturali. Al contrario degli alogeni Cl, Br e persino I, i composti naturali contenenti F sono gravemente sottorappresentati nel repertorio chimico della vita sulla Terra. La compilazione della figura mostra solo gli elementi che possono formare legami covalenti stabili in acqua. La compilazione esclude dall’analisi i metalli di transizione. (figura estratta dal lavoro sulla rarità dei composti fluorurati)
Esistono molte comuni molecole che sotto forma di farmaco, per esempio, sono però PFAS a tutti gli effetti. Ve ne facciamo una breve lista:
il prozac, Fluoxetina
il fluorochinolone, un antibiotico
il flurbiprofene, un comune FANS (antiinfiammatori non-steroidei)
la trifluridina/tipiracil (Lonsurf), un recente antitumorale
Desflurano, Sevoflurano, Isoflurano. tre anestetici inalatori
la Cilnidipina, un calcioantagonista usato come anti-ipertensivo.
Nel caso dei farmaci si potrebbe obiettare che molti di essi sono salvavita; e questo può essere; ma il criterio con cui i nuovi farmaci sono messi sul mercato indebolisce questo ragionamento; come racconta nel suo bel libro (Farmaci. Luci ed ombre) Silvio Garattini la logica del mercato farmaceutico NON è immettere nuovi farmaci SOLO se sono migliori degli esistenti, ma immettere nuovi farmaci se funzionano, consentendo a chi li inventa di godere del beneficio del brevetto e, tramite investimenti di vario tipo, spingerne il consumo. Ne segue che non sappiamo se quei farmaci che abbiamo elencato sono veramente il meglio dei loro settori; alcuni di essi sono importanti di sicuro (sul fluorochinolone ci abbiamo scritto un recente post); ma spesso potrebbero essere sostituiti senza colpo ferire.
Con il vantaggio di non immettere in natura molecole estremamente resistenti alla distruzione e che si accumulano nell’ambiente con effetti imprevedibili su di noi o su altre specie viventi (per esempio si vedano gli effetti ambientali della fluoxetina).
La questione tuttavia ha solo un aspetto etico perché al momento i farmaci (e i fitofarmaci), seppur PFAS ai sensi della definizione, non sono oggetto di restrizione (e quindi di discussione al momento in ECHA) perché hanno un iter autorizzativo autonomo.
Ancora peggiori sono le strategie di scelta delle nuove molecole nel caso di una molecola o un materiale usato in altri settori non della salute, come avviene nella maggior parte dei casi documentati di inquinamento, che ormai comprendono perfino l’acqua potabile.
A partire da questa strategia “privata” chiusa sul proprio ombelico, si è ormai stabilita una frattura all’interno dello stesso mondo scientifico.
Da una parte c’è chi vorrebbe che IUPAC desse una definizione propria di PFAS, dall’altra dato che quella esistente è già stata analizzata in ambito scientifico c’è un nutrito gruppo di colleghi che teme che questo sia solo una sorta di sotterfugio per aprire la strada a una situazione meno gestibile, meno chiara.
Dunque negli ultimi mesi abbiamo avuto prima una attività IUPAC a dicembre 2024 un congresso organizzato dal collega Metrangolo di Polimi denominato “1st IUPAC Workshop on PFAS Terminology“; e dall’altra la recente pubblicazione di un articolo firmato da ben 13 colleghi esperti del settore provenienti da tutto il mondo, che tramite la rivista dell’ACS Environmental Science & Technology Letters hanno rivolto un appello a NON cambiare le regole di denominazione, temendo appunto che qualunque cambiamento possa essere il prodromo di una situazione poco gestibile in questo delicato momento in cui a livello internazionale si discute di una strategia per far fronte ai pericoli ormai conclamati e riconosciuti da varie magistrature (i responsabili dell’inquinamento veneto di PFAS sono stati condannati in 1° grado pochi giorni fa) dell’uso disinvolto e pluridecennale di questi composti contro i quali non esistono a tuttoggi strategie di ricerca e di eliminazione completamente efficaci e ben fondate.
Per l’Italia ha partecipato al lavoro in qualità di autrice una delle personalità scientifiche più complete su questa vicenda, la collega Sara Maria Valsecchi dell’IRSA-CNR di Brugherio.
Riportiamo alcuni brani del lavoro.
I sottoscritti sono scienziati esperti in sostanze per- e polifluoroalchiliche (PFAS) e/o nella gestione delle sostanze chimiche. Affermiamo che la definizione di PFAS dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) è scientificamente fondata, inequivocabile e adatta a identificare queste sostanze chimiche. Siamo preoccupati che alcuni individui e organizzazioni stiano cercando di ridefinire i PFAS approvati dall’Unione Internazionale di Chimica Pura e Applicata (IUPAC) per escludere alcuni sottogruppi chimici fluorurati dall’ambito della definizione esistente. Siamo preoccupati che questo sforzo sia politicamente e/o economicamente motivato, piuttosto che scientificamente. Una definizione di PFAS approvata dalla IUPAC e potenzialmente più ristretta potrebbe conferire un’indebita legittimità all’approvazione da parte di un’organizzazione scientifica globale riconosciuta e, in tal modo, influenzare gli organismi di regolamentazione e altri ad adottare politiche meno protettive.
…..
I PFAS sono definiti come sostanze fluorurate che contengono almeno un atomo di metile o di carbonio di metilene completamente fluorurato (senza alcun atomo di H/Cl/Br/I attaccato ad esso), vale a dire, con poche eccezioni note, qualsiasi sostanza chimica con almeno un gruppo metilico perfluorurato (-CF 3 ) o un gruppo metilenico perfluorurato (-CF 2 -) è un PFAS.
La definizione dell’OCSE è stata sviluppata per rispondere alle preoccupazioni secondo cui alcune sostanze contenenti frazioni completamente fluorurate erano escluse da una precedente definizione di PFAS sviluppata da Buck et al. (2) Tali sostanze comprendevano, ad esempio, gli acidi perfluoroalchildicarbossilici con gruppi acidi su ciascuna estremità della catena del carbonio perfluorurato e le sostanze con anelli aromatici e frazioni perfluoroalchiliche. La definizione dell’OCSE ha colmato questa lacuna ed è chimicamente inequivocabile e adatta per classificare le sostanze chimiche come PFAS.
…..
Gli organismi governativi e intergovernativi, nonché le altre parti interessate, dovrebbero continuare a utilizzare la definizione chimica univoca ed efficace di PFAS fornita dall’OCSE per identificare i PFAS. Si tratta di una questione separata su ciò che è e non è incluso dalle giurisdizioni per specifici scopi normativi o di elaborazione delle politiche, come raccomandato anche dall’OCSE. (1) Ad esempio, sebbene entrambi si basino sulla definizione dell’OCSE, l’attuale approccio canadese basato sui PFAS di gruppo (4) esclude i fluoropolimeri nella sua azione attuale, mentre la proposta di restrizione dei PFAS basata sui gruppi nell’UE include deroghe limitate nel tempo, ad esempio per gli usi nei prodotti medici, ed esclusioni del piccolo sottogruppo dei PFAS completamente mineralizzabili. (5) Analogamente, i pesticidi, i prodotti farmaceutici e i gas fluorurati sono stati regolamentati o gestiti separatamente dagli altri PFAS in molte giurisdizioni. Ciò non li esonera dal soddisfare la definizione chimica di PFAS.
……
L’introduzione di una definizione alternativa o concorrente di PFAS per l’identificazione generale dei PFAS che includa considerazioni che vadano oltre la struttura chimica è preoccupante. Può essere utilizzato da alcune parti con interessi acquisiti per influenzare le normative e, quindi, quali PFAS possono essere utilizzati, emessi e presenti nei prodotti e negli ambienti. Causerà inoltre una sostanziale ambiguità e confusione nelle discussioni internazionali e potrebbe portare a incongruenze giurisdizionali e contraddizioni non necessarie nelle normative e nell’azione in materia di PFAS. Ciò contrasterà l’auspicata armonizzazione tra le giurisdizioni che andrebbe a vantaggio di coloro che regolano, producono e/o utilizzano PFAS, nonché dell’esposizione umana e ambientale. Inoltre, poiché i metodi per monitorare la conformità e l’applicazione sono adattati alle normative, le modifiche alla definizione rallenteranno la continua standardizzazione dei metodi. ….
Riteniamo pertanto che la definizione univoca dell’OCSE debba costituire la base generale per una regolamentazione armonizzata. I responsabili politici possono prevedere esenzioni giustificate per scopi specifici senza modificare la definizione generale di ciò che costituisce un PFAS. Non ci sono prove che indichino che la definizione dell’OCSE sia errata o problematica e, quindi, non c’è bisogno di una nuova definizione di PFAS.
Chi non ha mai provato a cuocere un uovo alla perfezione? Croce e delizia dei cuochi, amatoriali e professionisti, le uova sono ingredienti semplici solo in apparenza. C’è chi le preferisce alla coque, chi sode, chi ama la consistenza “cremosa” del tuorlo tipica della cottura a bassa temperatura. Ma c’è un problema cruciale che la scienza conosce bene: l’albume e il tuorlo richiedono temperature diverse per cuocere in modo ottimale. Fino ad oggi, questa differenza obbligava a scendere a compromessi sul risultato finale. Un recente studio condotto da un team di ricercatori dell’Università degli Studi di Napoli Federico II guidati da Ernesto Di Maio con Emilia Di Lorenzo del Dipartimento di Ingegneria Chimica, dei Materiali e della Produzione Industriale, Antonio Randazzo del Dipartimento di Farmacia e Pellegrino Musto dell’Istituto di Chimica e Tecnologia dei Polimeri (ICTP) CNR
ha però dimostrato che, con un approccio ingegneristico e una buona dose di modellazione matematica, è possibile cuocere l’uovo… in modo perfetto.
Cottura Periodica: l’uovo a due temperature senza romperlo
Il lavoro pubblicato su Communications Engineering [1], presenta una tecnica innovativa denominata Cottura Periodica. Il principio è tanto semplice quanto ingegnoso: cuocere l’uovo alternando brevi immersioni di 2 minuti in acqua calda (100 °C) e 2 minuti in acqua fredda (30 °C), per un totale di otto cicli, equivalenti a 32 minuti complessivi. Questo trattamento termico ciclico genera all’interno dell’uovo un profilo di temperatura controllato che consente di raggiungere circa 85 °C nell’albume, favorendone la coagulazione, e 65–67 °C nel tuorlo, la temperatura ideale per mantenerne la cremosità, senza la necessità di separare le due componenti.
L’idea prende ispirazione da processi di lavorazione dei materiali, dove condizioni variabili nel tempo vengono impiegate per modulare proprietà come la densità o la morfologia. Applicando questo concetto alla cucina, è stato simulato il trasferimento di calore nell’uovo mediante un programma di modellazione e simulazione matematica, con ottimi risultati: il profilo termico risultante è altamente controllato e predicibile.
La prova del cuoco… e dello spettrometro
Per validare la teoria, le uova sono state cucinate con quattro diverse tecniche: bollitura classica (12 minuti a 100 °C), cottura soft (6 minuti a 100 °C), sous vide (60 minuti a 65 °C) e cottura periodica (Figura 1).
Figura 1. Diverse modalità di cottura dell’uovo esplorate Copyright Communications Engineering.
I risultati sono stati analizzati con metodi avanzati: FT-IR per valutare il grado di denaturazione proteica, analisi sensoriale e della consistenza, 1H-NMR e spettrometria di massa ad alta risoluzione per il profilo nutrizionale.
I risultati permettono di stabilire che con la cottura periodica si ottiene un albume ben cotto e un tuorlo cremoso, bilanciando consistenza, sapore e valore nutrizionale. La cottura periodica ha preservato meglio alcune molecole bioattive, in particolare i polifenoli e gli amminoacidi essenziali (come la lisina e e gli altri amminoacidi a catena ramificata), che in altre modalità risultano degradati.
Dalla cucina al laboratorio… e ritorno
Oltre al fascino di poter cuocere un uovo “scientificamente perfetto”, questo studio mette in luce l’importanza della chimica e dell’ingegneria nei processi alimentari. La ricerca suggerisce che un controllo più fine delle condizioni termiche può avere ricadute non solo sul gusto, ma anche sulla qualità nutrizionale e la sicurezza alimentare. E non solo: la periodicità termica è un approccio applicabile anche in ambiti diversi dalla cucina, come la cristallizzazione, la polimerizzazione e la lavorazione di materiali.
In conclusione, questo lavoro, è un esempio brillante di come concetti avanzati possano trasformarsi in soluzioni pratiche per la risoluzione di problemi quotidiani. È anche un invito a guardare alle nostre cucine come laboratori chimici, dove ogni gesto, anche quello di bollire un uovo, può nascondere affascinanti complessità.
[1] Emilia Di Lorenzo, Francesca Romano, Lidia Ciriaco, Nunzia Iaccarino, Luana Izzo, Antonio Randazzo, Pellegrino Musto, Ernesto Di Maio Periodic cooking of eggs. Commun Eng 4, 5 (2025).https://www.nature.com/articles/s44172-024-00334-w
*Nunzia Iaccarino, laurea e PhD CTF a Napoli, dal 2021 è ricercatrice di chimica analitica presso il dipartimento di Farmacia dell’Università di Napoli. Si occupa di metabolomica mediante spettroscopia NMR e spettrometria massa.
L’allotropia (dal greco άλλος altro, e τρόπος modo) è una caratteristica che indica la proprietà degli elementi chimici di esistere in diverse forme per caratteristiche fisiche (colore, sistema di cristallizzazione) o anche chimiche (reattività) causate specificamente dalla struttura del legame chimico esistente fra gli atomi dell’elemento. Il termine è stato utilizzato per la prima volta dal chimico svedese Jöns Jacob Berzelius. La rilevanza di questa proprietà, forse unico caso, ha permesso di estendere il termine dalla chimica alla linguistica, per cui Il termine allotropi indica due o più parole che, pur essendo diverse nel significato sul piano formale e semantico, hanno il medesimo etimo.
Quasi tutti gli elementi chimici presentano diverse forme allotropiche. Quelle da tutti conosciute sono le due forme allotropiche del carbonio sulla Terra a cui si affiancano quelle dello zolfo. Altri elementi, non presentandosi allo stato nativo in natura, possono generare allotropie in funzione delle condizioni di pressione e temperatura nelle quali vengono ottenuti.
A parità di valenza, gli elementi, appartenenti allo stesso gruppo della tavola periodica, tendono ad avere la stessa forma allotropica come nel caso del IV gruppo C, Si, Ge e Sn hanno in comune la geometria tetraedrica a forma cubica. Questo non si verifica in toto nel V gruppo in quanto l’azoto si distacca dagli altri elementi del gruppo. L’azoto rispetto al carbonio, ha un elettrone di valenza in più. Ciò significa che l’azoto elementare non può formare quattro legami tetraedrici come quelli del diamante, in quanto per la teoria del legame di valenza (VBT) ha solo tre orbitali occupati da un solo elettrone e un quarto con una coppia solitaria, pertanto di non legame. Quindi l’azoto forma forti legami π, ma legami singoli relativamente deboli a causa della sfavorevole repulsione fra le coppie solitarie. Questa caratteristica fa sì che l’azoto sia l’unico elemento del gruppo V in grado di assumere forma biatomica. Tutti gli altri elementi del gruppo V (P, As, Sb e Bi) hanno una scarsa tendenza a formare legame multipli forti a causa della scarsa sovrapposizione degli orbitali p (notoriamente di dimensioni maggiori a partire dal 3° periodo) coinvolti nella formazione degli orbitali π. Pertanto dal fosforo in poi sono favorite sempre strutture estese con legami singoli, varianti della struttura cubica semplice per cui si formano in diverse forme allotropiche simili fra loro. La forza del triplo legame della molecola di azoto fa sì che altre forme allotropiche siano difficili da ottenere, ma sarebbero di grande interesse riprodurle come molecole di alta densità energetica.
I materiali ad alta densità energetica (HEDM) sono una classe di materiali che ha trovato enormi applicazioni nell’accumulo di energia, negli esplosivi e nei propellenti. L’efficienza di questi materiali è strettamente correlata ad alcuni fattori importanti come l’elevata densità, l’elevata energia di dissociazione dei legami. La quantità di energia rilasciata dipende dal calore di formazione e dal grado endotermico dell’HEDM. Tuttavia, esiste sempre un compromesso tra la densità energetica e la stabilità del composto, poiché quest’ultima generalmente diminuisce con il grado endotermico, che misura l’assorbimento di energia termica dell’HEDM a determinate temperature. La ricerca di nuovi HEDM ha ricevuto notevole attenzione per anni a causa delle potenziali applicazioni nell’ingegneria della potenza a impulsi, nell’elettrofisica ad alta tensione e ad alta potenza, nei materiali di saldatura e nella protezione dagli urti dei veicoli spaziali.
Gli allotropi dell’azoto molecolare, oltre la molecola biatomica N2, sono promettenti per lo sviluppo di materiali ad alta densità energetica per lo stoccaggio di energia pulita grazie al loro elevato contenuto energetico, maggiore rispetto all’idrogeno, all’ammoniaca o all’idrazina, di uso comune, e perché rilasciano solo azoto a seguito della decomposizione e pertanto dal punto di vista ambientale compatibili. Tuttavia, sono considerati estremamente instabili, specialmente quando hanno cariche ed un numero pari di elettroni. Di conseguenza, fino a quest’anno bisogna segnalare solo due esempi. Il radicale azido (•N3) è stato identificato in fase gassosa attraverso spettroscopia rotazionale nel 1956. Nel 2002, la molecola N4 è stata rilevata mediante spettrometria di massa per neutralizzazione-reionizzazione in fase gassosa; ma la sua struttura non è stata dimostrata. L’intermedio di una specie N6 è stato invece suggerito nel 1970 nel decadimento dei radicali azidi in soluzione acquosa ma non sono state fornite prove spettroscopiche definitive (Figura 1a).
Quindi restava in piedi una sostanziale sfida sintetica non essendo stato isolato nessun allotropo molecolare neutro dell’azoto. La preparazione di un allotropo molecolare metastabile dell’azoto, oltre la molecola biatomica N2, è quindi di notevole interesse.
Recentemente la sfida è stata raccolta [1] ed è stato preparato a temperatura ambiente del N6 molecolare (esazoto) attraverso la reazione in fase gassosa di cloro o bromo con azide d’argento, seguita dall’intrappolamento in matrici di argon a 10 K [Figura b]. L’N6 puro è stato ottenuto come un film alla temperatura dell’azoto liquido (77 K), dimostrando ulteriormente la sua stabilità. La spettroscopia infrarossa ed ultravioletta–visibile (UV-Vis), la marcatura con isotopi di 15N e i calcoli ab initio supportano l’effettivo ottenimento di questo allotropo.
Figura a Le tappe dello studio degli allotropi di azoto b Le reazioni di sintesi dell’allotropo N6. Copyright Nature
Ora sforzi futuri sugli allotropi dell’azoto neutro dovrebbero concentrarsi sul superamento delle sfide legate alla sintesi, sul miglioramento della stabilità termica, sulla possibilità di una caratterizzazione strutturale affidabile e sul raggiungimento di un rilascio di energia più completo, tutti elementi essenziali per le applicazioni pratiche. Inoltre in futuro si spera di ottenere l’allotropo dell’azoto neutro N10.
Anche se la scoperta è rilevante c’è comunque scetticismo per le applicazioni di accumulo di energia. Inoltre pur essendo N6 stabile nell’azoto liquido per lunghi periodi, come può rilasciare energia in modo controllato?
La divisa di un vigile del fuoco è costituita da diversi strati per difendere il suo corpo dal fuoco contro cui dovrà combattere, dalle sostanze nocive con cui venissero a contatto, anche dai fumi. Di fatto resta esposto solo il viso che viene coperto da maschere filtranti solo se l’intervento lo richiede. Per essere efficaci e svolgere il loro ruolo protettivo, i completi anti-fiamma devono essere costruiti con materiali resistenti al fuoco, e quelli in dotazione al Corpo nazionale dei vigili del fuoco (C.N.VV.F) contengono il Politetrafluoroetilene (Ptfe), più conosciuto come Teflon, e altri Pfas, le sostanze perfluoralchiliche note soprattutto per essere responsabili di una delle più grandi contaminazioni ambientali italiane, avvenuta in provincia di Vicenza a opera dell’azienda Miteni e di patologie tumorali diverse. Negli Stati Uniti è stata dimostrata la correlazione tra l’esposizione ai Pfas tramite i Dpi e alcune malattie che colpiscono i pompieri, in Italia un’indagine epidemiologica
IrpiMedia ha fatto analizzare un giaccone anti-fiamma di un pompiere italiano e la concentrazione di Pfas rilevata induce a considerare opportune indagini più approfondite su tale indumento.
Il Teflon, fino a qualche anno fa conteneva Pfoa, un Pfas considerato cancerogeno e vietato dal 2013 a causa della sua pericolosità per l’uomo. È noto soprattutto per essere contenuto nelle padelle antiaderenti; si tratta di un composto che non fa propagare le fiamme, permette ai tessuti di resistere a temperature elevate, è idro e olio repellente, quindi ideale per le tute da intervento dei vigili del fuoco. Il prolungato tempo di indossamento delle tute antifiamma ed il calore dovuto alle alte temperature durante gli incendi potrebbero però aumentare la capacità del corpo umano di assorbire Pfas. IrpiMedia ha consultato diversi capitolati del Ministero dell’Interno, scoprendo che a partire dal 2010 è specificato che la membrana esterna al giaccone e al pantalone deve essere composta da Politetrafluoroetilene (Ptfe) a struttura microporosa espansa e che sulla parte interna delle cuciture esterne deve essere applicato un nastro Ptfe idoneo ad assicurare una perfetta aderenza». Alcuni pompieri hanno scoperto le loro patologie grazie ai controlli sanitari, emocromo, spirometria, misura della vista, elettrocardiogramma, consulto psicologico a cui devono sottoporsi ogni due anni. IrpiMedia ha inviato una giacca da pompiere italiano negli Stati Uniti al professor Graham Peaslee che per primo aveva studiato la correlazione causa effetto nel caso delle patologie riscontrate nei pompieri e che si era offerto di condurre l’analisi e la misurazione della quantità totale di fluoropolimeri presenti nel giaccone italiano. La sua risposta è stata: “i tessuti costruiti con fluoropolimeri presentano un valore di fluoro totale di circa 50.000 ppm (parti per milione) o superiore, ciò equivale a circa il 5% di fluoro sulla superficie. La barriera anti umidità interna dei dispositivi di protezione è in genere realizzata in Ptfe che, quando viene misurato, restituisce concentrazioni di fluoro totale superiori al 20-30%. I vostri ricambi italiani sembravano avere valori di fluoro totale identici a quelli misurati negli Stati Uniti e in Australia».
Secondo queste dichiarazioni, le tute italiane potrebbero quindi contenere diversi tipi di Pfas, come le tute statunitensi e australiane che, secondo Peaslee, possiedono una quantità di Pfoa pari a 2,18 ng/g. marzo 2024.
A seguito di ciò il Conapo, il sindacato autonomo dei Vigili del Fuoco e l’USB hanno richiesto al Ministro dell’Interno e a quello della Salute, studi sull’incidenza dei Pfas nel Corpo Nazionale dei Vigili del Fuoco e accertamenti sanitari sui vigili esposti a queste sostanze.
Il ministero dell’Interno ha dato la stessa risposta del 2021, ovvero che le analisi da loro visionate, realizzate da un laboratorio accreditato, hanno fornito “valori non significativi dal punto di vista della misura”. Per il Ministero, dunque, le tute utilizzate dai pompieri italiani, non presentano quantità pericolose di Pfas.
Ho passato oltre trenta anni della mia vita professionale nell’ex Sanatorio di Mesiano, sulla collina di Trento, un gigantesco edificio costruito alla fine degli anni 30 per ospitare i malati di tubercolosi, allora ancora molto numerosi in Italia, poi riattrezzato dal 1989 a sede della Facoltà di Ingegneria.
Sanatorio di Mesiano (Trento) nel 1938.
Quando ero uno studente di scuola media nel 1963 era ancora obbligo fare a tutti gli alunni di quell’età una radiografia annuale per diagnosticare la presenza di TBC; e in realtà l’obbligo di radiografia toracica è stato abolito in Italia solo nel 1998.
Pochi ricordano bene quel mondo in cui la sputacchiera era un dispositivo comune in molti locali e edifici pubblici.
E in genere noi abitanti delle zone del mondo oggi “ricche” abbiamo spesso dimenticato l’importanza della TBC, una malattia indotta da un batterio, il Mycobacterium Tuberculosis, che fece lo spillover verso la nostra specie molte migliaia di anni fa dai bovini (c’era già 15 o 20mila anni fa); era conosciuta e diagnosticata già dai medici egiziani.
Ne è rimasta memoria nelle grandi storie che erano raccontate nel XIX secolo, una per tutte la Traviata di Verdi:
afflitta dalla tubercolosi, Violetta muore tra le braccia di Alfredo.
La vaccinazione con il bacillo vivo attenuato BCG (Bacillo di Calmette-Guérin), messa a punto al principio del XX secolo iniziò in Italia solo nel 1926 e divenne di legge nel 1951, ma ancora nel 1970 solo 400mila persone all’anno erano vaccinate (noi ragazzi a Napoli chiamavamo quel complesso e doloroso procedimento vaccinale “la bbona” che ti lasciava una cicatrice indelebile); anche se devo dire che dopo quasi 70 anni la mia è scomparsa; ne ho trovata una immagine in rete come potete vedere qui sotto; il miglioramento delle condizioni di vita e l’uso degli antibiotici ha consentito di ridurre la TBC ad un piccolo numero di casi in tutti i paesi ricchi e la vaccinazione oggi non è più obbligatoria.
Quanti di voi la hanno ancora visibile sul braccio sinistro?
Ma tutto ciò non è ancora avvenuto nei paesi poveri.
Nel 2023, si stima che 10,8 milioni di persone nel mondo si siano ammalate di tubercolosi (TBC), con 134 casi incidenti ogni 100.000 abitanti. Si stima che circa un quarto della popolazione mondiale (2 miliardi) sia stato infettato dai batteri della TBC, che però stanno lì nel corpo ad aspettare il momento opportuno per attaccare.
Un totale di 1,25 milioni di persone nel mondo sono morte a causa della TBC nel 2023, tra cui 161.000 persone affette da HIV.
Il maggior numero di casi di tubercolosi si è registrato nelle regioni del Sud-Est asiatico (45%), dell’Africa (24%) e del Pacifico occidentale (17%).
Impatto:
La tubercolosi rimane la principale causa di morte per malattia infettiva e colpisce in modo sproporzionato i Paesi a basso e medio reddito.
Negli ultimi mesi un giovane medico nato nella città dove vivo è stato premiato da Time come un dei medici più influenti al mondo proprio per la sua lotta senza quartiere alla TBC nel mondo povero con la messa a punto di una nuova terapia più breve ed efficace contro la malattia.
Il dottor Guglielmetti (per la sua attività si veda https://endtb.org/) ha dichiarato:
abbiamo proprio identificato tre nuove associazioni di farmaci – combinazioni di 4 o 5 farmaci, alcuni nuovi, altri più vecchi – che con un trattamento di 9 mesi permettono di avere degli ottimi risultati nel trattare la tubercolosi resistente alla rifampicina» e quindi aiutare le 410.000 persone colpite ogni anno da questo ceppo. E’ un trattamento «molto più corto» rispetto a quello storico di 18-24 mesi, e «funziona almeno altrettanto bene, sono tutti farmaci orali, non ci sono iniezioni». La Tbc, ha concluso Guglielmetti «è l’agente che causa più morti ogni anno, una media di 1,3 milioni e più di 10 milioni di casi. È un problema di sanità pubblica enorme, la pandemia più antica, e siamo lontanissimi dall’averla sconfitta»
«Le malattie infettive mi hanno sempre ispirato – spiega Guglielmetti – E’ molto soddisfacente trattarle, perché si riesce a vedere un risultato, si riesce a curare. Di solito con i pazienti si ottiene un risultato in fretta». Ma non sempre è così. Alcune sfide sono più complicate di quel che si pensi. C’è poi l’aspetto umanitario: «Queste sono proprio le malattie delle disuguaglianze, delle fasce più marginali delle società, che hanno poca visibilità e poco interesse da parte delle case farmaceutiche».
Come tutti gli altri batteri anche quello della tubercolosi è diventato resistente ai classici antibiotici del passato fra cui la rifampicina (anch’esso battericida ma agente sulla RNA polimerasi), ed è stato sostituito dai fluorochinoloni.
I fluorochinoloni sono una classe di antibiotici utilizzati per trattare specifiche infezioni batteriche. Questi farmaci agiscono inibendo la DNA-girasi e la topoisomerasi, enzimi essenziali per la replicazione del DNA batterico, causando la morte dei batteri. Alcuni esempi di fluorochinoloni includono ciprofloxacina, levofloxacina e moxifloxacina.
I fluorochinoloni interferiscono con l’attività enzimatica dei batteri, impedendo loro di replicare il loro DNA.
Questo impedimento porta alla morte delle cellule batteriche, eliminando l’infezione.
I fluorochinoloni possono avere effetti collaterali, come problemi gastrointestinali, reazioni cutanee e, in rari casi, problemi al tendine.
Dalla formula sotto riportata vedete che si tratta di un antibiotico che contiene un atomo di fluoro in catena, che gli conferisce le sue specifiche proprietà; questo è un caso in cui la forza superiore del legame C-F che rende così pericolosi altri composti come i PFAS si rivela un toccasana; questo è il fluoro organico che ci piace.
Come ho detto e scritto altre volte su queste pagine il legame CF. a causa della sua forza superiore è particolarmente stabile e per questo motivo, non è facilmente metabolizzato nell’ecosistema e dunque si accumula; in natura esistono poche decine di molecole (meno di 20 per quanto ne so) naturali contenenti il legame CF e sono tutte molecole presenti solo in limitati ambienti ecologici; noi furbissimi chimici umani invece abbiamo formulato MILIONI di molecole col legame CF, una percentuale significativa delle molecole sintetizzate dall’uomo, certamente perché abbiamo visto che proprio perché non è metabolizzato è inatteso, gli organismi non riescono a disfarsene e a difendersi; e ci siamo dimenticati del fatto banale che PROPRIO PER QUESTO essi composti si accumulano nell’ecosistema e dunque poi ritornano da noi, diventano pericolosi composti “per sempre”. Pur di ottenere un piccolo vantaggio momentaneo abbiamo saturato l’ambiente mondiale con alcune migliaia di tipi di molecole indistruttibili che oggi hanno invaso il nostro ecosistema e di cui dovremo continuare a liberarci per decenni o secoli.
Male, malissimo; ma il fluorochinolone è probabilmente un esempio ragionevole, sta alla stregua di quei pochi composti naturali fluoro-organicati, uno dei pochissimi utili da usare come quella ventina scarsa già presente in natura.
Un fluoro buono, un legame CF buono da riservare a casi delicati come alla TBC resistente; di molti altri casi quasi della totalità potremmo e DOVREMO fare a meno.
Vincenzo Balzani, Dipartimento di Chimica “Giacomo Ciamician”Università di Bologna
1. Introduzione
Si stima che in cielo ci siano 1023 stelle: per contarle tutte, una al secondo, ci vorrebbero tre milioni di miliardi di anni! Nell’immensità del Creato c’è un puntino: la Terra, una specie di astronave, grande se vista da molto vicino, che viaggia nell’infinità dell’Universo con un carico particolare, forse unico: gli esseri umani. È un’astronave del tutto speciale, che non potrà mai atterrare da nessuna parte, non potrà mai attraccare a nessun porto per far rifornimento. È la nostra casa comune. Dobbiamo viverci tutti assieme, bianchi, neri, gialli, uomini, donne, buoni e cattivi. E se qualcosa non funziona, dobbiamo ripararla da soli, senza neppure scendere.
La Terra appariva infinitamente grande ai pochi uomini che l’hanno abitata per migliaia e migliaia di anni come passeggeri passivi, dominati e impauriti dalle forze della Natura. Con il passare del tempo, il numero di uomini è molto aumentato (oggi, siamo più di otto miliardi) ed è aumentata fortemente anche la loro attività. Nell’ultimo secolo, in particolare negli ultimi cinquant’anni, l’uomo, con l’energia fornita dai combustibili fossili e con lo sviluppo della scienza e della tecnologia, ha modificato profondamente la Terra e continua a trasformarla sempre più velocemente [1]. Nel passato, era la Natura che scandiva le epoche, ma oggi, sotto vari aspetti, è l’uomo che vuole dominare la Natura, per cui gli scienziati hanno proposto di chiamare Antropocene l’epoca geologica presente [2].
I molti problemi della nostra epoca sono affrontati e discussi in modo semplice e chiaro nell’enciclica Laudato si’ di Papa Francesco [3], un piccolo, ma importantissimo libro che descrive la situazione in cui si trova la società umana nella nostra casa comune, la Terra. Per cogliere la grande importanza di questa enciclica ed il suo profondo significato teologico, politico e sociale verranno presi in esame i principali temi di cui si occupa. L’enciclica è articolata in 246 paragrafi. In questo commento utilizziamo numeri fra parentesi tonda per indicare i paragrafi in cui sono trattati gli argomenti discussi.
2. La crisi ambientale
Papa Francesco nell’enciclica ha denunciato, in modo fermo e deciso, tutti i danni causati dall’uso irresponsabile e dall’abuso dei beni comuni (2). Bisogna fermare il cambiamento climatico, non inquinare le acque, il suolo e l’aria, preservare la diversità biologica, custodire l’integrità della terra, salvaguardare le foreste e i mari. Per quanto riguarda, in particolare, il problema climatico, l’enciclica riporta in più punti le conclusioni degli scienziati [4]: il riscaldamento globale degli ultimi decenni è dovuto sostanzialmente ai gas serra (principalmente, CO2) generati dall’uso dei combustibili fossili (23); le previsioni catastrofiche non si possono guardare con disprezzo e ironia (161); gli stili di vita che contribuiscono al cambiamento climatico sono peccati (8); i Paesi che hanno tratto beneficio da un alto livello di industrializzazione, con un’enorme emissione di gas serra, hanno maggiore responsabilità e quindi devono contribuire alla soluzione dei problemi che hanno causato (170); molti di coloro che detengono più risorse e potere economico o politico cercano di mascherare i problemi o nasconderne i sintomi (26). Non ci sono parole più appropriate di queste per commentare il comportamento di alcune lobby industriali e di responsabili politici che hanno continuato per anni a negare o tentato di minimizzare i danni climatici causati dall’uso dei combustibili fossili, danni che poi sono emersi chiaramente negli anni successivi, come documentato dagli studi di molti scienziati [5].
3. ll problema energetico
Papa Francesco è in sintonia con quanto concordano gli scienziati [4,5] su come risolvere il problema energetico: il consumo di combustibili fossili deve diminuire senza indugio, ma la politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza della sfida (165); la transizione dall’uso dei combustibili fossili alle fonti energetiche rinnovabili non va ostacolata, ma accelerata (26); la penetrazione delle energie rinnovabili nei Paesi in via di sviluppo deve essere sostenuta con trasferimento di tecnologie, assistenza tecnica e aiuti finanziari (172).
Nell’enciclica il Papa ricorda spesso San Francesco d’Assisi, in particolare nei paragrafi (10), (11) e (12). Nel meraviglioso Cantico delle Creature [6] San Francesco loda il Signore per frate Sole, frate Vento, sor’Acqua e sora nostra madre Terra. Oggi sappiamo che l’energia del Sole (fotovoltaica), quella del vento (eolica) e quella dell’acqua (idroelettrica) sono le energie rinnovabili [5], sulle quali l’umanità può fare affidamento; la Terra è il luogo dove possiamo trovare, oltre ai diversi fructi con coloriti fiori et herba [6], anche gli elementi chimici con i quali costruire i congegni e le apparecchiature (pannelli fotovoltaici, pale eoliche, dighe, ecc.) che ci permettono di convertire le energie rinnovabili naturali nelle energie di uso finale: calore, elettricità, combustibili.
4. I limiti delle risorse ed i confini planetari
In un quadro di incrollabile speranza (244), papa Francesco sottolinea una forte preoccupazione: attraverso uno sfruttamento sconsiderato della Natura, l’uomo rischia di distruggerla e di essere a sua volta vittima di siffatta degradazione (4). Francesco sottolinea anche che, nonostante il ritmo di consumo, di spreco e di alterazione dell’ambiente abbia superato le possibilità del pianeta (161), ai centri di potere finanziari, economici e politici interessa solo estrarre dalla terra tutto quanto è possibile (106). Un esempio di questo comportamento l’abbiamo, purtroppo, anche qui in Italia. Il Governo, infatti, con il decreto Sblocca Italia e altri recenti provvedimenti [7], ha stabilito di facilitare e addirittura incoraggiare le attività di estrazione delle residue, marginali riserve di petrolio e gas del nostro Paese, mentre pone ostacoli allo sviluppo delle energie rinnovabili e non agisce per creare una cultura della sostenibilità ecologica e dell’economia circolare [8].
Purtroppo, anche alcuni scienziati sembrano pensare che sulla Terra ci sia una quantità illimitata di risorse e che, in ogni caso, gli effetti negativi delle manipolazioni della Natura possano essere facilmente arginati. Di qui si passa all’idea di una crescita infinita, che tanto entusiasma gli economisti (106) [9]. L’enciclica sottolinea che la logica “usa e getta” produce enormi quantità di rifiuti solo per il desiderio disordinato di consumare più di quello di cui realmente si ha bisogno (123), così che il ritmo di consumo e di spreco ha superato le capacità del pianeta (161). Papa Francesco ci ricorda anche che la spiritualità cristiana propone una crescita nella sobrietà, senza attaccarci a ciò che abbiamo, né rattristarci per ciò che non possediamo (222).
5. Inequità e disuguaglianze
Oltre a discutere il problema del troppo rapido consumo delle risorse e dei molti danni causati al pianeta, l’enciclica si occupa in modo molto chiaro dell’altra, addirittura più importante emergenza planetaria: quella delle inequità e delle sempre crescenti disuguaglianze. È un atto di gravissima inequità quando si pretende di ottenere importanti benefici facendo pagare al resto dell’umanità, presente e futura, gli altissimi costi del degrado ambientale (36). Non ci accorgiamo più che alcuni si trascinano in una miseria degradante, mentre altri non sanno nemmeno che farsene di ciò che possiedono (90). Queste e altre parole dell’enciclica ben si addicono a situazioni segnalate anche dai giornali, ma rapidamente dimenticate da tutti. Ad esempio, negli USA 42 milioni di persone ricevono contributi per vivere [10], mentre Tim Cook, CEO di Apple, ha goduto di uno stipendio di 74,6 milioni di dollari nel 2025 [11] e, in Italia, i 10 più ricchi guadagnano quanto 500.000 operai [12]. Dovremmo indignarci, dice Francesco, per le enormi disuguaglianze che esistono nei nostri paesi (90).
L’inequità, poi, non colpisce solo gli individui all’interno dello stesso Paese, ma è anche un problema internazionale: si è accumulato, infatti, un “debito ecologico” tra il Nord e il Sud del mondo, connesso all’uso sproporzionato delle risorse naturali da parte dei Paesi più industrializzati (51). L’enciclica dedica un’intera sezione all’inequità planetaria, sottolineando che il deterioramento dell’ambiente e quello della società colpiscono in modo particolare i più deboli del pianeta, miliardi di persone che sono ormai considerate un “danno collaterale” dai tanti professionisti, opinionisti, mezzi di comunicazione e centri di potere che non hanno contatto diretto con i problemi dei poveri (49): è la “cultura dello scarto” (22, 43).
Ne deriva che non ci sono due crisi separate, una ambientale e un’altra sociale, bensì una sola e complessa crisi socio-ambientale (139). Per risolverla, è necessario un approccio integrale: combattere la povertà, restituire la dignità agli esclusi e nello stesso tempo prendersi cura della Natura.
6. La scienza e la tecnica
L’enciclica [3] sottolinea i benefici portati dalla scienza e dalla tecnica, prodotti meravigliosi della creatività umana, che è un dono di Dio. Però, denuncia anche i rischi ai quali siamo esposti (102). La libertà che ci siamo presi per sviluppare la scienza e la tecnica ci ha portati in qualche modo a una situazione di schiavitù, tanto che la domanda non è più “cosa possiamo fare noi con la scienza e la tecnica”, ma “che cosa la scienza e la tecnica possono fare di noi” [13]. I prodotti della tecnica, infatti, non sono neutri, perché creano una trama che finisce per condizionare gli stili di vita e orientano le possibilità sociali nella direzione degli interessi di determinati gruppi di potere (107). Il mercato, ad esempio, tende a creare un meccanismo consumistico compulsivo per piazzare i suoi prodotti, così che le persone finiscono con l’essere travolte da un vortice di acquisti e spese superflue (203).
A questo proposito si può citare la continua crescita delle aziende del lusso e, come caso particolare, la produzione della Lamborghini Urus, definita “un’auto per la famiglia” [14] ed esaltata da alcuni come un atto straordinario di politica industriale e un esempio di innovazione e creatività. Con la sua mostruosa potenza di 600 CV e un costo (nel 2025) di circa 250.000 euro, Urus è, in realtà, unemblema del consumismo e un’icona di quelle disuguaglianze che molti politici dicono di voler ridurre. C’è una distanza abissale dal comportamento di Papa Francesco che non portava le tradizionali scarpette rosse dei papi e la croce d’oro, che andava da solo dall’ottico per farsi riparare gli occhiali, che girava per Roma con una Ford Focus e che, per gli spostamenti nel viaggio negli Stati Uniti, ha usato una Fiat 500 elettrica, invisibile in mezzo alle lussuose automobili del seguito. È vero che la produzione diauto di lusso crea posti di lavoro, ma è anche vero che si dovrebbe aumentare l’occupazione con innovazioni capaci di produrre cose più utili, nell’ambito di uno sviluppo responsabile e sostenibile. I progressi scientifici più straordinari, ricorda papa Francesco nell’enciclica, le prodezze tecniche più strabilianti e la crescita economica più prodigiosa, se non sono congiunte a un autentico progresso sociale e morale, si rivolgono, in definitiva, contro l’uomo (4).
Papa Francesco ha delineato anche una sua prospettiva antropologica, raccogliendo la sfida della complessità e rilanciando la necessità di abbracciare un pensiero complesso come condizione per la conversione ecologica: tutto è connesso, tutto è in relazione, per cui smarrire questa consapevolezza espone a gravi rischi (117). Agire in base a semplificazioni può portare, infatti, a errori colossali, come scatenare la follia di una guerra, anziché continuare laboriose trattative che consolidino la pace. La complessità ci sfida a pensare e agire per tessere, legare, unire; spesso, però, l’iper-specializzazione ci impedisce capire la complessità e il modo giusto di intervenire.
7. Una rivoluzione culturale
Secondo papa Francesco, è nostro dovere affrontare e risolvere la duplice crisi ambientale e sociale che stiamo attraversando. Come spesso accade in epoche che richiedono decisioni coraggiose, i più abbienti sono portati a pensare che le cose, poi, non stanno andando male e che, quindi, il pianeta potrà continuare a svolgere il suo ruolo per molto tempo. Questo significa, però, ignorare il problema delle disuguaglianze, che può essere risolto solo con profonde modifiche nell’organizzazione sociale, oltre che nel rapporto fra uomo e Natura (59, 209).
Un cambiamento nei nostri stili di vita potrebbe esercitare una sana pressione su coloro che detengono il potere politico ed economico (206). Ciò che sta accadendo ci pone, quindi, di fronte all’urgenza di mettere in atto una coraggiosa rivoluzione culturale. È indispensabile rallentare la marcia per guardare la realtà in modo più profondo e recuperare i valori e i grandi fini distrutti da una sfrenatezza megalomane (114); è necessario, anche, che ciascuno recuperi i diversi livelli dell’equilibrio ecologico: quello interiore con sé stesso, quello solidale con gli altri, quello naturale con tutti gli esseri viventi, quello spirituale con Dio (210).
8. La speranza
L’enciclica Laudato si’ [3] termina con un invito: Camminiamo cantando! Che le nostre lotte e le nostre preoccupazioni per questo pianeta non ci tolgano la gioia della speranza (244). Grazie a papa Francesco ci sono, in realtà, segnali che ci inducono a ben sperare:
la Natura ci sta inviando segnali sempre più pressanti sull’esistenza di problemi che dobbiamo risolvere (prima di tutto, il cambiamento climatico) e l’umanità comincia a capire la gravità della situazione in cui si trova il mondo;
energia, risorse e ambiente sono argomenti entrati nei programmi scolastici oltre che in quelli di alcuni partiti politici;
molti scienziati hanno assunto posizioni chiare e decise per arginare i danni inferti al pianeta dal cambiamento climatico e dal degrado ambientale e importanti istituzioni politiche internazionali (Unione Europea, ONU, IPCC, Union of Concerned Scientists) hanno cominciato a prendere decisioni appropriate per risolvere i problemi emersi;
numerose associazioni scientifiche (Earth Charter Iniziative, WWF, Greenpeace, Friends of the Earth, Global Footprint Network, Legambiente, energiaperlitalia.it, ecc.) stanno intraprendendo importanti campagne di sensibilizzazione;
la ricerca scientifica si sta impegnando per utilizzare al meglio l’energia solare e le altre energie rinnovabili, tanto che incominciano a comparire buone notizie; nel 2025, ad esempio, l’energia rinnovabile generata dal Sole, dal vento e dalle cadute d’acqua supererà la produzione di energia ottenuta dai combustibili fossili.
Papa Francesco [3] non ha perso occasione per ricordare che, se vogliamo custodire la casa comune e ridurre le disuguaglianze, è necessario utilizzare con cura e condividere le risorse e sviluppare con sapienza le conoscenze scientifiche e le innovazioni tecnologiche. Per far questo, bisogna sfruttare anche le preziose fonti di energia spirituale, proprie dell’uomo, che gli permettono di esercitare responsabilità, sobrietà, collaborazione, solidarietà, amicizia e saggezza. Speriamo che sorgano presto altri leader capaci, come ha fatto papa Francesco, di guardare lontano nello spazio, cioè all’interesse di tutti gli abitanti del pianeta, e nel tempo, cioè anche alle prossime generazioni.
9. L’enciclica Fratelli tutti
Nella più recente enciclica Fratelli tutti [15], papa Francesco spiega che la rivoluzione culturale, necessaria per giungere alla sostenibilità ecologica e sociale, non può compiersi con qualche parziale modifica del rapporto uomo-pianeta o delle relazioni fra le nazioni. Si tratta, invece, di cambiare radicalmente la base su cui poggiano le nostre culture: bisogna accettare e valutare positivamente le diversità, ammettere i propri limiti e riconoscere che siamo tutti figli di Dio, fratelli che nascono, vivono e muoiono nella stessa casa comune, il pianeta Terra. In altre parole, la necessaria rivoluzione culturale richiede che gli uomini e anche le nazioni passino dalla situazione di abitanti dello stesso pianeta, spesso in competizione commerciale o addirittura in guerra fra loro, a quella di fratelli che si amano, si stimano e si aiutano. Solo così si potrà giungere alla sostenibilità ecologica perché, solo così, il pianeta verrà custodito e non degradato e le sue risorse verranno condivise nella sobrietà. Si dovrà anche attuare una saggia politica per ridurre le disuguaglianze mediante lo sviluppo dei servizi comuni (scuola, sanità, trasporti, ecc.) e un sistema economico basato su tasse e sussidi mirati ad aiutare i più deboli, perché ogni persona vale e non va dimenticata. La consapevolezza che in un mondo globalizzato nessuno è autosufficiente deve spingerci a intraprendere collaborazioni proficue fra le nazioni e a sostenere con forza la pace.
10. Papa Leone XIV
Il nuovo pontefice Leone XIV, appena eletto, ha fatto capire che procederà nella strada aperta dal suo predecessore, dedicandosi con particolare impegno al problema della pace. Infatti, quando si è affacciato alla Loggia centrale della basilica di San Pietro, per impartire la benedizione urbi et orbi, ha iniziato con l’invocazione pasquale della pace: La pace del Cristo risorto, una pace disarmata e disarmante, umile e perseverante. Ha poi aggiunto: Vogliamo essere una Chiesa sinodale, una Chiesa che cammina, una Chiesa che cerca sempre la pace, che cerca sempre la carità, che cerca sempre di essere vicino specialmente a coloro che soffrono.Il giorno seguente, Leone XIV ha presieduto, da pontefice, la sua prima celebrazione eucaristica con il collegio cardinalizio e, nell’omelia, ha ricordato l’urgenza per la Chiesa di agire,perché la mancanza di fede porta spesso con sé drammi quali la perdita del senso della vita, l’oblio della misericordia, la violazione della dignità della persona nelle sue forme più drammatiche, la crisi della famiglia e tante altre ferite di cui la nostra società soffre.
Recentemente, in preparazione della Cop30, papa Leone XIV ha inviato un videomessaggio [16] ai Rettori delle 200 università di Nord, Sud, Centro America e Penisola Iberica. In sintonia con la Laudato si’, li ha incoraggiati a essere costruttori di ponti, lavorando per la giustizia ecologica, sociale e ambientale.
Bibliografia
[1] W. Steffen, P.J. Crutzen, J.R. McNeil: Are Humans Now Overwhelming the Great Forces of Nature? Ambio, 2007, 36, 614.
[2] P. J. Crutzen: Geology of mankind-The Anthropocene, Nature, 2002, 23, 415.
[3] Papa Francesco: Laudato si’ – Lettera enciclica sulla cura della casa comune, Paoline editoriale Libri, Milano, 2015.
[4] (a) N. Armaroli, V. Balzani: Energia oggi e domani. Prospettive, sfide, speranze, Bononia University Press, Bologna, 2004; (b) J. Rockstrom, et al., A safe operating space for humanity, Nature, 2009, 461, 472; (c) N. Armaroli, V. Balzani: Energy for a Sustainable World – From the Oil Age to a Sun-Powered Future, Wiley-VCH, Weinheim, 2011; (d) N. Armaroli, V. Balzani, N. Serpone: Powering Planet Earth, Energy solutions for the future, Wiley-VCH, Weinheim, 2013; (e) V. Balzani, M. Venturi: Energia, Risorse, Ambiente, Zanichelli, Bologna, 2014; (f) L. Lombroso, Ciao fossili – Cambiamenti limatici, edizioni Artestampa, Modena, 2015.
(5) (a) V. Balzani: Salvare il Pianeta per salvare noi stessi: energie rinnovabili, economia circolare, sobrietà, Lu::CE edizioni, Massa, 2020; (b) M.Z. Jacobson: 100% clean, renewable energy and storage for everything, Cambridge University Press, Cambridge, 2021; (c) F.M. Butera: Affrontare la complessità per governare la transizione ecologica, Edizioni Ambiente, Milano, 2021; (d) N. Armaroli: Un mondo in crisi, Dedalo, Bari, 2022;(e) L. Becchetti, C. Becchetti, F. Naso: Rinnovabili subito, Donzelli editore, Roma, 2022; (f) A. Tilche: Sette lezioni sulla transizione climatica, Dedalo, Bari, 2022; (g) F.M. Butera, Sole Vento Acqua, Manifesto Libri, Roma, 2023; (h) M.Z. Jacobson, No Miracles Needed, how today’s technology can save our climate and clean our air, Cambridge University Press, Cambridge, 2023;(i) M. Giusti: L’urgenza di agire, Lu::Ce edizioni, Massa, 2024; (l) N. Armaroli, V. Balzani: Energia per l’Astronave Terra, IV edizione, Zanichelli, 2024; (m) V. Balzani, E. Castellucci, La buona alleanza – Scienza e fede a difesa della casa comune, Libreria Editrice Vaticana, Città del Vaticano, 2024.
Ho più volte affermato e continuerò a ripeterlo che la transizione energetica necessaria per affrontare uno dei nostri problemi principali (ne abbiamo almeno 9, come si sa) non può limitarsi ad aumentare le nostre apparecchiature di conversione rinnovabile (FV ed eolico ed altre simili) ma deve considerare la variabilità sistemica di tali fonti con due strategie chiave; una di lungo periodo che consiste nella costruzione di una grande rete elettrica mondiale di scambio, che consenta alla Terra di essere alimentata da un continente all’altro come immaginato già nel 1938 da Buckminster Fuller e sul breve periodo, nell’attesa di tale rete, tramite lo sviluppo di una serie di accumuli energetici che consentano di far fronte alla variabilità giornaliera e stagionale delle rinnovabili.
Il primo obiettivo ha molti aspetti politici e dunque non può essere al momento realizzato non per limiti tecnici, ma per limiti politici; sarà risolto (ne sono convinto pienamente) con la affermazione di una società umana UNITA, ragionevolmente a carattere socialista (non vedo alternative ragionevoli); il secondo invece ha notevoli limiti tecnici in quanto non abbiamo ancora messo a punto una filiera produttiva adeguata.
Tuttavia su questo tema la ricerca è attiva e produce passi avanti.
Oggi vi parlo di un aspetto di questa ricerca: le batterie di Carnot.
Si tratta di un concetto per certi aspetti innovativo, per altri invece ben conosciuto e sul quale sono in corso vari grandi progetti.
In particolare è stato pubblicato un report nel 2023 ad opera della IEA, intitolato Task 36 – Final Report che potete trovare qui.
Al lavoro hanno partecipato ricercatori di molti paesi; in particolare il gruppo che ha definito cosa sia una batteria di Carnot era diretto dall’italiano Salvatore Vasta, CNR ITAE di Messina.
Vediamo cosa scrive questo sottogruppo:
Questa definizione può essere apprezzata meglio tramite questo grafico:
La definizione di batteria di Carnot è stata coniata nel 2018 , ma in realtà l’idea base è nata molto prima addirittura nel 1833 da John Ericsson, riscoperta un secolo dopo e brevettata da Laguerre (1936).
L’idea base è semplice, accumulare calore come risultato della produzione di energia elettrica da rinnovabili (trasformazione che come sapete ha una efficienza praticamente del 100% e poi dopo ore, settimane o nel caso migliore mesi recuperare quel calore come sorgente calda di una macchina termica con uno dei cicli tradizionali delegati a questo scopo (Brayton il ciclo ottimale per le turbine oppure Rankine, un ciclo classico che usa acqua come fluido).
Due parole sui metodi: in cosa accumulare calore?
In un fluido ad alta capacità termica, tipicamente acqua, o in un liquido a più alta temperatura, per esempio una miscela di sali fusi, oppure in un fluido che vada soggetto ad una trasformazione di fase, ed infine un processo termochimico che immagazzini l’energia nella forma chimica scelta; esistono ovviamente anche altre possibilità, ma queste sono le principali. Il metodo di trasformazione dell’energia elettrica in calore può avere perfino una efficienza più alta del 100% se si usa una pompa di calore alimentata dalla sorgente rinnovabile per pompare calore in un deposito opportuno a partire da una sorgente di stoccaggio naturale se disponibile (una termale ad esempio), oppure ci si può accontentare di un metodo come la resistenza elettrica che comunque arriva quasi al 100%.
La stima delle caratteristiche di questi sistemi deve rispondere ovviamente a due requisiti: alta densità energetica per unità di volume per abbassare il volume di accumulo necessario e possibilità di isolare il serbatoio riducendone le inevitabili perdite.
Lo scopo è sempre quello complessivo di massimizzare la cosiddetta efficienza di ciclo, roundtrip efficiency in inglese, e ancora la cosiddetta efficienza di seconda legge, che non esprime solo il rapporto fra le energie accumulate e fornite, ma tiene anche conto della qualità dell’energia.
Per fare questo si introduce il concetto di exergia, ossia una cosa introdotta per bypassare l’introduzione della sempre misteriosa entropia:
In termodinamica l’exergia di un sistema è la massima frazione di energia di prima specie (meccanica, elettrica, potenziale, cinetica, elettromagnetica, chimica) che può essere convertita in lavoro meccanico mediante macchina reversibile.
Terminerei questo post con due considerazioni; la prima è quella di come si stima l’efficienza REALE di una macchina termica e la seconda un caso concreto di batteria di Carnot.
Come noto il ciclo di Carnot (costituito da due isoterme e due adiabatiche) è il ciclo termodinamico che assicura il maggiore rendimento possibile in sede ideale tra le due temperature estreme del ciclo. Il rendimento sarà:
Nel 1873 Reitlinger dimostrò che tutte le macchine operanti nel medesimo intervallo di temperature e funzionanti con cicli costituiti da due isoterme e da altre due trasformazioni omologhe rigenerative sono in grado di realizzare il medesimo rendimento del ciclo di Carnot. Assumendo quindi un ciclo con due trasformazioni isoterme alla massima e alla minima temperatura realizzando le altre due trasformazioni mediante isocore, politropiche o isobare rigenerative si otterrà il rendimento massimo ideale. Se si operano due isobare si avrà il ciclo di Ericsson (1853), con due isocore il ciclo di Stirling (1816), con due politropiche il ciclo di Reitlinger (1873).
Ora si tenga presente prima di proseguire che il rendimento ideale è solo il massimo ottenibile in modalità “reversibile”, che è una modalità in cui il tempo non conta nulla, è infinito, si parla di energia MA non di potenza, una macchina che lavorasse reversibilmente fornirebbe energia in modo estremamente efficiente ma a potenza nulla!!
E cosa ce ne faremmo?
Una macchina per fornire potenza e non solo energia DEVE dissipare calore.
Le cose reali sono distanti dalla reversibilità e le macchine termiche reali forniscono potenza finita. Esiste una branca che però i chimici non insegnano, (a volte lo fanno sia pur raramente gli ingegneri) che è denominata “termodinamica a tempo finito”, in cui il tempo viene introdotto e la dissipazione accettata; se si lavora con coefficienti lineari di trasmissione del calore e si cerca la massima potenza si arriva ad un principio molto elegante, il principio di Curzon e Ahlborn; l’efficienza massima reale di una macchina termica è
Dunque questo è un caso perfetto per usare il concetto di termodinamica a tempo finito e conseguentemente la stima di Courzon e Ahlborn.
Qui sotto invece lo schema usato da uno dei tentativi di usare una batteria di Carnot efficace usando come accumulo una miscela di sali.
HITEC® è un sale per il trasferimento di calore registrato da Coastal Chemical che fornisce un mezzo di trasferimento di calore economico ed efficiente tra il vapore e il riscaldamento diretto. HITEC® appena preparato è un solido granulare bianco; una volta fuso, è di colore giallo pallido. HITEC® è una miscela eutettica di sali inorganici solubili in acqua di nitrato di potassio, nitrito di sodio e nitrato di sodio. È un mezzo di trasferimento del calore per il riscaldamento e il raffreddamento tra 300-1100°F (149-593°C), utilizzato nelle operazioni di processo, come il mantenimento della temperatura del reattore, la distillazione ad alta temperatura, il preriscaldamento del reagente e lo stampaggio rotazionale.
Quali sono le performances attese?
Carica. Il sale liquido stoccato nel serbatoio freddo a circa 250°C (482°F) viene pompato attraverso un riscaldatore elettrico che lo riscalda a 427°C (800°F) per essere stoccato nel serbatoio caldo. A questa temperatura, l’acciaio al carbonio a basso costo è adatto per i recipienti e le tubazioni.
Stoccaggio. Il sale è conservato in serbatoi di stoccaggio isolati, con perdite di calore tipicamente inferiori a 1°C al giorno. Questo tipo di serbatoio è stato utilizzato per decenni dall’industria dell’energia solare a concentrazione (CSP) negli Stati Uniti, in Spagna e in Nord Africa.
L’LSCC (Liquid Salt Combined Cycle) utilizza in genere un sale eutettico a basso punto di congelamento (142°C/288°F), come il sale Hitec®, per fornire mesi di standby senza il rischio di congelamento nei serbatoi. In questo modo si riduce anche la necessità di utilizzare il tracciamento del calore su tubazioni e valvole.
Dal punto di vista pratico un tale tipo di impianto assicura decine di MW per una intera giornata, dunque siamo in un intervallo al confine fra accumuli di lungo e breve termine ma tutto con tecnologie già esistenti e con efficienze di roundtrip che vanno dal 60 al 100%.
Insomma le batterie di Carnot sono un metodo di accumulo da considerare con grande attenzione.
Ricordo sempre con grande interesse ed un po’di nostalgia un progetto scientifico sul packaging alimentare a cui lavoravo da giovane e dedicato al controllo del rilascio da parte dei contenitori di composti che potevano danneggiare l’alimento contenuto rendendolo nocivo al consumatore. Una grande realtà industriale del tempo aveva supportato una mia idea, dotare le scatole di carne di un elettrodo sensore capace di individuare la variata composizione dell’alimento a seguito del rilascio dal contenitore.
La ricerca si concentrò sulla ottimizzazione del materiale del contenitore ai fini del non rilascio entro limiti temporali fissati dalla strategia industriale e sulla scelta del migliore elettrodo sensore. La ricerca andò avanti e poi si fermò per le difficoltà ad ottenere risultati che potessero sostenere da parte dell’industria il cambio delle tradizionali scatolette del tempo. Da allora molto tempo è trascorso ed il packaging alimentare è divenuto un tema prioritario.
L’attenzione crescente del settore dei materiali per l’imballaggio alimentare è in continua evoluzione per affrontare e rispondere alle nuove sfide della società. I consumatori richiedono sempre più alimenti di qualità superiore e più sicuri. Inoltre, negli ultimi anni, si è sviluppata la preoccupazione per l’impatto negativo sull’ambiente dovuto alla non biodegradabilità delle plastiche convenzionali. Soddisfare tutte queste esigenze richiede lo sviluppo di materiali nuovi, sicuri e sostenibili. Pertanto, in linea con la recente “Strategia dal produttore al consumatore” pubblicata dalla Commissione Europea in materia di imballaggi alimentari, si prevede la revisione della legislazione vigente “per migliorare la sicurezza alimentare e la salute pubblica, in particolare riducendo l’uso di sostanze chimiche pericolose” e sostenere l’uso di soluzioni di imballaggio innovative e sostenibili che utilizzino materiali ecocompatibili.
Queste azioni sono necessarie per raggiungere l’obiettivo della strategia di “creare un sistema alimentare equo, sano e rispettoso dell’ambiente“, come parte centrale del Green Deal europeo (Commissione Europea, 2020 ). I materiali di origine biologica e/o biodegradabili vengono promossi come sostituti dei materiali a base di petrolio per applicazioni di imballaggio alimentare. La loro sicurezza deve essere valutata poiché componenti del materiale possono essere rilasciati negli alimenti e potrebbero avere un impatto negativo sulla salute dei consumatori.
L’identificazione delle sostanze chimiche che migrano dai materiali di imballaggio è un compito estremamente difficile, poiché solitamente la composizione chimica delle formulazioni utilizzate nella produzione di questi materiali non è completamente nota. Inoltre, composti sconosciuti come prodotti di degradazione, impurità, prodotti di reazione, ecc. possono essere presenti anche nel prodotto finale e migrare nell’alimento, con conseguente esposizione dei consumatori.
Per affrontare questo compito impegnativo, si stanno applicando metodologie non mirate che utilizzano la spettrometria di massa ad alta risoluzione.
L’IoT (Internet of Things) sta rivoluzionando la produzione e distribuzione dei prodotti, aprendo la strada a un futuro sempre più connesso – industria del packaging inclusa – con vendite globali stimate per 2,5 miliardi di dollari entro il 2025. Quando un grado avanzato di tecnologia viene applicato al packaging, si è soliti parlare di “smart packaging” o imballaggio intelligente. Con questo termine ci si riferisce a quei sistemi di confezionamento caratterizzati da funzioni e servizi evoluti che superano il semplice scopo di contenere dei prodotti. Si tratta di vere e proprie soluzioni tecnologiche, che rendono il packaging più attivo e in grado di dialogare con l’ambiente per essere sempre più efficiente per produttori e consumatori.
Il concetto di imballaggio intelligente deriva da quello più ampio di “functional packaging”, che viene trattato a livello europeo nel Regolamento CE 450 / 2009. Questo tipo di soluzioni viene classificato in tre diverse macrocategorie:
Imballaggi attivi: dotati di materiali tecnologici che interagiscono con il prodotto e intervengono in modo diretto su fattori come luce, ossigeno e umidità, a favore della qualità di prodotti e della loro durabilità;
Imballaggi intelligenti: capaci di comunicare grazie ad indicatori e sensori posti all’interno o all’esterno della confezione per fornire informazioni e dettagli sullo stato del prodotto;
Imballaggi connessi: integrano tecnologie come codici QR o tag RFID, che consentono di interagire con il prodotto, migliorando notevolmente l’esperienza di utilizzo da parte del consumatore.
Nell’elaborazione dei sistemi attivi vengono utilizzati materiali nuovi e sostenibili. Le ultime tendenze nella tecnologia del packaging attivo riguardano lo sviluppo di nanomateriali con proprietà migliorate, l’applicazione della nanotecnologia per l’incapsulamento di principi attivi e lo sviluppo di nanosistemi come vettori di composti bioattivi.
James Herriot, veterinario britannico, nel suo libro “Cose sagge e meravigliose”, ricorda la sua prima sera nella caserma della RAF dove si era arruolato volontario durante la seconda guerra mondiale.
“Dopo quella prima giornata tumultuosa, mi chiusi in uno dei bagni piastrellati in verde e mi insaponai con una saponetta nuova, d’una marca famosa, messa nella mia valigia da Helen. In seguito non mi è più stato possibile servirmi di quel sapone. I profumi sono troppo evocativi e un solo lieve effluvio di quello di cui parlo è sufficiente per riportarmi all’improvviso alla prima notte lontano da mia moglie e allo stato d’animo di allora. Una sofferenza sorda e vuota che non si è mai dileguata del tutto.”(J. Herriot in Cose sagge e meravigliose, p 9)
Che un particolare profumo o odore sia evocativo di ricordi, è esperienza credo comune a molti.
Profumo e odore sono sinonimi solo dal punto di vista grammaticale. In realtà il primo si utilizza con accezione positiva. Il secondo oltre ad essere il riconoscimento di una certa molecola da parte dei nostri chemiocettori nasali, spesso assume una connotazione ambivalente. Io ad esempio apprezzo l’odore dei tartufi, ma molte persone lo definiscono nauseante.
Sono nipote di cercatori del pregiato fungo sotterraneo, e quindi l’aroma che emana per me è certamente piacevole ed evocativo.
Perché i tartufi hanno un aroma e da dove deriva?
I tartufi sono funghi sotterranei con i corpi fruttiferi sotto la superficie del suolo, il che impedisce loro di disperdere le spore attraverso l’aria e il vento. Per questo hanno sviluppato aromi per attirare animali che mangiano i corpi fruttiferi e successivamente attraverso le loro feci disperdono le spore diffondendo il tartufo in nuovi ambienti.
Indubbiamente i tartufi emanano molecole odorifere che sono il risultato di una lunghissima selezione naturale. Molto meno nota è l’origine di questi aromi e come questi sono più o meno diversi secondo i luoghi nei quali i tartufi della stessa specie botanica sono cresciuti.
La flora microbica che si trova nei tartufi è differenziata e composta soprattutto da batteri e secondo recenti ricerche l’aroma più diffuso nei tartufi, il dimetilsolfuro, è di origine mista fungina (tartufo) e batterica.
I mammiferi, dei quali l’uomo fa parte, localizzano i tartufi principalmente con l’aroma del dimetilsolfuro.
Ad oggi, il numero di sostanze volatili identificate in varie specie di tartufi è di circa duecento e solo una piccola parte di questi sono responsabili di ciò che gli esseri umani percepiscono come l’odore del tartufo.
Ma i miei ricordi olfattivi non si fermano qui. Durante i miei soggiorni estivi nel Monferrato c’erano altri odori e profumi che mi attiravano e incuriosivano.
Durante il conferimento delle uve alla cantina sociale, l’odore di mosto si spandeva nell’aria.
Da bambino rimanevo incantato a osservare la fila di trattori ( e anche di qualche ormai raro tiro di una coppia di buoi), che trainavano i carri carichi di grappoli, spesso ancora con le ruote in legno, e attendevano il turno per lo scarico dell’uva.
Anche nel mosto il campionario delle molecole è vario: acqua, zuccheri, acidi, sali minerali, sostanze azotate, polifenoli, sostanze pectiche, vitamine, residui della pigiatura e lieviti. L’addestramento olfattivo che Primo Levi incoraggiava si è sviluppato in me probabilmente in quegli anni. E conseguentemente ha stimolato la voglia di sapere di più. Essermi avvicinato alla chimica nasce anche da queste ormai remote esperienze sensoriali.
Si ritiene che gli esseri umani riescano a percepire circa 10 000 odori differenti, ma l’olfatto non è il più sviluppato dei nostri sensi, ed effettivamente molti animali riescono a superarci con le loro capacità olfattive. Eppure oltre alla passione per la depurazione, io ho lasciato il settore dei prodotti vernicianti anche per la difficoltà a sopportare l’odore delle vernici. Non posso certo paragonarmi al protagonista del romanzo di Patrick Suskind “Il profumo”, di Jean-Baptiste Grenouille, dotato di un olfatto sovrumano.
Ma ancora oggi mi piace addestrare l’olfatto e percepisco con piacere alcuni odori. In particolare quelli delle cotture di birra della famosa Birreria liberty di Induno Olona, quando passo nelle vicinanze dello stabilimento. Gli aromi di alcune piante, in particolare quello del genepì e della lavanda, mi ricordano immediatamente le estati dell’altro mio luogo del cuore, la Val Chisone e le escursioni in montagna.
Un cespuglio di genepì (Artemisia), Alpi Orobie.
Avere una propensione per i profumi e gli odori mi è anche servito nel mio lavoro. Le lamentele per le molestie olfattive non sono rare quando si lavora nel settore della depurazione, e in qualche caso si è potuto dimostrare l’estraneità dell’impianto a questi fenomeni. Specialmente nei periodi di concimazione dei campi, quando il dito ci veniva puntato contro mentre non eravamo noi i responsabili dei cattivi odori.
“Mi lasciò in mano un cartoccio con dentro un buon mezzo chilo di zucchero, disse che sarebbe tornato l’indomani, salutò e se ne andò: non prese l’ascensore, scese tranquillamente a piedi 4 rampe di scale. Doveva essere un uomo senza angosce e senza fretta. Ne sciolsi un po’ in acqua distillata: la soluzione era torbida, c’era certamente qualche cosa che non andava. Pesai un grammo di zucchero nel crogiolo di platino per incenerirlo sulla fiamma: si levò nell’aria polluta del laboratorio l’odore domestico ed infantile dello zucchero bruciato, ma subito dopo la fiamma si fece livida e si percepì un odore ben diverso, metallico, agliaceo, inorganico guai se un chimico non avesse naso.” (P. Levi, Arsenico, in Opere complete, vol. I, p. 886).
I prodotti plastici apprezzati per i loro bassi costi e per la loro durevolezza sono divenuti indispensabili nella società moderna. L’uso pervasivo della plastica ha però prodotto una grave crisi ambientale con una previsione di arrivare a 800 milioni di tonnellate consumati nel 2050. La degradazione degli scarti e rifiuti plastici attraverso processi chimici, fisici e biologici genera micro e nano plastiche che minacciano ecosistema e salute dei suoi abitanti. Le microplastiche sono state ritrovate nell’ambiente marino, nelle acque superficiali, perfino in regioni remote, come quelle artiche. Allarmanti recenti studi hanno riportato evidenze di nano-plastiche in tessuti umani, inclusa la placenta il fegato, i reni, il sangue evidenziando i relativi effetti tossici.
I rischi ambientali ed igienico sanitari posti dalle microplastiche sono divenuti un problema di assoluta primaria importanza. Le microplastiche attaccano l’ecosistema marino alterando fonti alimentari e cicli biogeochimici e l’ingestione di microplastiche da parte degli organismi marini porta al loro bioaccumulo.
Da un punto di vista della salute umana le nano-plastiche penetrano nelle cellule attraverso meccanismi come la endocitosi, la fagocitosi, la diffusione passiva inducendo lo stress ossidativo, cioè quello stato patologico derivato da un eccesso di radicali liberi nell’organismo non contrastato dalle difese endogene antiossidanti con conseguenti danni a RNA, DNA, proteine, grassi, da correlare a patologie anche gravi come i tumori, i disordini neurologici, l’invecchiamento precoce.
Ad oggi i meccanismi con cui si passa dallo stress ossidativo a queste patologie non é però noto soprattutto a lunga scadenza ed in condizioni di interazioni multisistemiche. I recenti progressi nell’analisi bibliometrica forniscono preziosi strumenti per sintetizzare i risultati delle ricerche sul tema ed identificare i gap culturali da coprire in certi settori. Mappando sistematicamente i risultati delle ricerche su micro e nano-plastiche si può così collegare quanto manca in termini di conoscenza con quanto invece si conosce, seguendo la progressiva copertura del gap.
Cosa sappiamo sulle nano-plastiche e il loro effetto sull’uomo e sull’ambiente? La recente pubblicazione della serie “Future Brief”, numero 27, promossa dalla DG Ambiente della Commissione europea, prova a fare il punto sullo stato della ricerca e delle conoscenze in materia di nanoparticelle plastiche, quale crescente preoccupazione per l’ambiente e per l’uomo. Per tirare in estrema sintesi le somme, il report Nanoplastics: state of knowledge and environmental and human health impacts risponde alla domanda come segue: conosciamo così poco le nano-plastiche da non poterne prevedere una regolamentazione specifica, ma ne sappiamo abbastanza da poter provare che esistono e che l’uomo le sta ingerendo e inalando a concentrazioni incalcolabili.
Dalla ricerca qui presentata emerge chiaramente che l’intero ciclo di vita della plastica – dalla “culla” alla “tomba” – non è completo quando non possiamo più vedere la plastica: la plastica continua ad avere effetti ambientali ben oltre il momento in cui diventa invisibile. Il mancato controllo di questi inquinanti invisibili, che già permeano l’ambiente terrestre, atmosferico, acquatico e biologico, contribuisce a un pericolo crescente, di cui potremmo comprendere appieno le proporzioni solo quando sarà troppo tardi.
In questi tempi in cui i frastuoni di oltre 50 guerre sparse nel pianeta si fanno sentire ed il più forte vuole schiacciare il più debole, a dispetto del diritto internazionale, cade il 50esimo anniversario della fine della guerra del Vietnam con la conquista di Saigon il 30 aprile 1975. Questa guerra è stata la più cruenta, lunga (durò quasi 20 anni) e devastante combattuta dalla fine della seconda guerra mondiale con tre milioni di morti fra militari e civili da parte vietnamita e 60.000 da parte americana. Furono proprio le proporzioni del massacro, la volontà del più forte di prevalere sul più debole che hanno favorito la nascita di movimenti di protesta e pacifisti nel mondo occidentale. Ma ora è giunto il momento dopo 50 anni di chiedersi quale eredità abbia lasciato questa guerra. Tralasciamo la lezione che bisogna trarne dal punto di vista geopolitico e focalizziamoci su quello che è più consono alla nostra formazione, l’impatto sull’ambiente e sulla salute della popolazione L’ambiente è sempre uscito sconvolto dagli eventi bellici ed i teatri dei conflitti mostrano i danni inferti profondi anche a molti anni di distanza; e non ci stiamo riferendo a guerre combattute con armi nucleari, che ovviamente comporterebbero la scomparsa delle maggior parte delle forme di vita sulla Terra. Le Alpi portano a più di un secolo di distanza i segni della grande guerra o basta andare nelle Ardenne, per vedere ancora la devastazione dell’offensiva tedesca che si risolse con la decisiva vittoria degli alleati nella seconda guerra mondiale. E nel Vietnam? Se in questa guerra non sono state utilizzate armi chimiche al fine di uccidere militari e civili direttamente, come i gas nervini, le armi chimiche scelte furono gli erbicidi, oltre ad un numero cospicuo di “agrofarmaci”. Se quindi il danno alla salute umana non era intenzionale, almeno in linea principio, lo era il danno all’ambiente. Lo sforzo dell’esercito americano di denudare circa 2 milioni di ettari di foresta di mangrovia e 200.000 ettari di terreni agricoli era stato progettato per negare ai VietCong e alle truppe nordvietnamite cibo e copertura protettiva (figura 1a). All’epoca gli erbicidi venivano definiti, non con il loro nome chimico, ma con il colore usato per contrassegnare i barili. Una mezza dozzina di formulazioni, furono identificate come Agente blu (per danneggiare le coltivazioni), Agente Rosa, Agente Bianco o come soprattutto Agente Arancio, il più usato defoliante che quindi divenne il più famoso (Figura 1b).
Figura 1 (sopra, a) Una zona irrorata con erbicidi in Vietnam (sotto, b) un barile di colore arancio usato nella guerra
Questo agente era una miscela al 50% di due erbicidi, della famiglia degli erbicidi clorurati, disponibili in commercio, l’acido 2,4-diclorofenossiacetico e l’acido 2,4,5-triclorofenossiacetico (2,4,5-T) (figura 2).
Figura 2 Struttura dell’acido 2,4-diclorofenossiacetico (in alto) e l’acido 2,4,5-triclorofenossiacetico (2,4,5-T) (in basso)
Questi erbicidi erano presenti sul mercato da diversi decenni e prodotti da varie multinazionali come la Dow Chemical e la Monsanto. In Italia il 2,4,5-T era prodotto dalla tristemente famosa Icmesa di Meda, del gruppo Givaudan controllato da Hoffman La Roche, responsabile del disastro di Seveso. Il 2,4,5-T era stato sviluppato negli anni quaranta, sintetizzato dalla reazione del 2,4,5-triclorofenolo (TCP) e l’acido cloroacetico. Il 2,4,5-triclorofenolo (per la sintesi vedere nota) ad alta temperatura, ma al di sotto degli 800°C, forma 2,3,7,8-tetraclorodibenzo-p-diossina (TCDD) secondo la reazione riportata nella nota, per cui l’erbicida è contaminato da questa diossina, che oggi viene chiamata anche diossina di Seveso in quanto fuoriuscita dall’Icmesa nel 1976. Negli anni sessanta si credeva che i defolianti fossero innocui per l’uomo, anche se in realtà le imprese produttrici avevano già prove della sua tossicità per la presenza della diossina, i cui effetti non erano ancora del tutto noti. Alla fine degli anni ’60, esperimenti di laboratorio dimostrarono che il 2,4,5-T poteva causare anomalie e nati morti nei topi, e ci furono segnalazioni di difetti alla nascita nelle aree irrorate del Vietnam. Nel 1971, quattro anni prima della fine della guerra gli Stati Uniti abbandonarono la loro decennale campagna di irrorazione a seguito delle crescenti condanne internazionali e le preoccupazioni per la sicurezza. La concentrazione di diossina, stabilita successivamente all’uso del agente arancio, nei fusti era molto variabile da 6,2 a 14,3 ppm, con una media di 13,25 ppm a seconda delle ditte produttrici. Oggi, c’è un ampio consenso sul fatto che queste concentrazioni di diossina pongono seri rischi per la salute di coloro che sono direttamente esposti, compresi i cittadini e i soldati vietnamiti, nonché i membri delle forze armate degli Stati Uniti e di altri paesi che l’hanno aiutata durante la guerra: Corea del Sud, Australia e Nuova Zelanda.
Negli Stati Uniti nel 1992, il Dipartimento degli Affari dei Veterani chiese all’Istituto di Medicina, oggi parte del NASEM, di rivedere la letteratura scientifica e fornire aggiornamenti biennali. L’ultimo di questi rapporti, Veterani e Agente Arancio, è apparso nel 2018 e ha identificato ben 19 tumori con prove “sufficienti” di un’associazione con l’esposizione agli erbicidi. Nel 2011 il Congresso degli Stati Uniti ha introdotto una legge a favore dei veterani americani e dei loro discendenti, colpiti dalla cloracne e da altre patologie. Secondo una sentenza della Corte Suprema di Seul (Corea del Sud) nel 2013 la Monsanto doveva rimborsare le spese per cure mediche a 39 veterani sudcoreani della guerra del Vietnam, avendo ammesso che la causa della cloracne dei militari è strettamente legata al loro contatto diretto con l’agente arancio.
Ma gli studi sulla tossicità della diossina hanno in gran parte lasciato aperta una delle domande più visibili e controverse che circondano l’Agente Arancio: se i composti rappresentano rischi non solo per coloro che sono stati direttamente esposti, ma per i loro figli. La preoccupazione per le generazioni future è stata provocata, in gran parte, dalla capacità di resistenza della TCDD. A differenza dell’erbicida stesso, che si decompone in poche ore o giorni, il TCDD può sopravvivere fino a 3 anni in un terreno esposto alla luce solare. Se lisciviato nei sedimenti di fiumi o stagni, può avere un’emivita di oltre 100 anni, un tempo più che sufficiente per essere raccolto da pesci, anatre e altri animali di cui le persone si nutrono, risalendo la catena alimentare e bioaccumulandosi nei tessuti adiposi a seguito della sua idrofobicità. Inoltre la diossina può essere anche inalata con la polvere contaminata e assorbita attraverso la pelle. Una volta nel corpo umano, la diossina può depositarsi nel seno e in altri tessuti adiposi e avere un’emivita da 7 a 11 anni. Può anche contaminare il latte materno ed essere trasmesso ai bambini che allattano. Dagli anni ’70, numerosi studi sugli animali hanno scoperto che i feti esposti alla diossina possono mostrare una vasta gamma di difetti alla nascita e problemi di sviluppo, suggerendo che un impatto sui feti umani è biologicamente plausibile. Ma documentarlo nel Vietnam si è rivelato difficile in quanto non è stato possibile condurre indagini scientifiche accurate.
Ora la maggior parte dei 101 milioni di abitanti sono nati dopo il 1971 e quindi lo studio potrebbe indirizzarsi verso i figli delle persone contaminate. I dati non sono disponibili per pure ragioni politiche da parte americana, ma anche paradossalmente vietnamita. Nel primo caso perché se si fosse dimostrato ciò che ci aspettava che l’esposizione agli erbicidi fosse collegata a difetti alla nascita – ci si sarebbe potuti aspettare che gli Stati Uniti pagassero un risarcimento ai bambini vietnamiti. In alternativa, se non fosse stato trovato alcun collegamento, ciò avrebbe potuto mettere in imbarazzo il governo vietnamita, che ha a lungo evidenziato i difetti alla nascita come il danno più importante dell’Agente Arancio. Recentemente Science ha fatto il punto della situazione sugli studi sulla propagazione alle future generazioni degli effetti della diossina.
Un unico studio sul latte materno è in corso ma è improbabile che lo studio fornisca una risposta definitiva alla domanda sui difetti alla nascita, in quanto la coorte esaminata è troppo piccola per indagare sulle anomalie congenite. Da alcuni studi precedenti in particolare, è stato scoperto che un alto livello di diossina nel latte materno – un proxy per l’esposizione fetale – è associato a una crescita fisica più lenta e a un ritardo nello sviluppo neurologico nei loro figli. I ragazzi mostrano difficoltà di apprendimento, ad esempio, mentre le ragazze mostrano disturbo da deficit di attenzione, iperattività e autismo. I documenti “forniscono una forte prova” che vivere vicino a siti contaminati dall’Agente Arancio può provocare un elevato carico corporeo di diossina che è associato a disturbi comportamentali nei bambini. Ora bisognerebbe continuare a seguire i bambini mentre invecchiano. Ciò potrebbe rivelare collegamenti tra l’esposizione alla diossina e i tumori e altre malattie che si manifestano nel tempo durante la vita. Si tratta di stabilire se l’esposizione abbia causato cambiamenti biologici fondamentali nelle persone che possono essere tramandati di generazione in generazione. Gli scienziati e i funzionari vietnamiti sostengono di vedere tali effetti multigenerazionali che provocano difetti alla nascita diverse generazioni dopo l’esposizione. E sebbene gli autori del rapporto NASEM del 2018 abbiano concluso che c’erano “prove inadeguate o insufficienti” degli effetti epigenetici, hanno fortemente incoraggiato ulteriori studi sulla questione. Cristina Giuliani, biologa antropologa dell’Università di Bologna, e colleghi della Hue University of Medicine and Pharmacy e dell’Università della California (UC), Riverside, si sono concentrati su un meccanismo epigenetico basato sulla metilazione del DNA e su come influisce sull’espressione di un particolare gene, il CYP1A1. Ebbene gli scienziati hanno concluso che la prole di genitori vietnamiti esposti all’Agente Arancio condivideva una firma distintiva di metilazione del DNA CYP1A1 che non è stata osservata nei figli di genitori senza esposizione, ciò non dimostra sperimentalmente che l’esposizione alla diossina sia trasmessa ai discendenti. E non affronta la questione se eventuali cambiamenti di questo gene siano dannosi, benefici o neutri. Ottenere risultati più certi su questi problemi, richiederebbe studi epigenetici che confrontino diverse generazioni di popolazioni esposte e non esposte.
Al di là di questi studi, che non chiariscono gli effetti sulle generazioni future, per quanto riguarda gli effetti a lungo termine della diossina, il mancato studio del caso vietnamita potrebbe essere un’occasione persa dalla scienza per saperne di più. Bisogna inoltre tener conto che per ragioni anche anagrafiche la popolazione direttamente esposta sta diminuendo. Dal punto di vista ambientale resta la devastazione di territori dove è presente la diossina; all’epoca, i critici della tattica coniarono un nuovo termine – “ecocidio” – per descrivere la distruzione diffusa. Nel 1983, 12 anni dopo la fine della campagna di erbicidi, Science riferì che gli scienziati vietnamiti che partecipavano a una conferenza a Ho Chi Minh City (il nuovo nome che ha assunto l’ex-capitale del Sud Vietnam, Saigon) avevano scoperto che molte foreste montane irrorate, che gli abitanti dei villaggi cercavano di convertire all’agricoltura, erano “inadatte alla coltivazione, ed il terreno si era coperto di “un’erba dalle radici profonde”. Un altro studio ha trovato solo 24 specie di uccelli e cinque mammiferi in una striscia di foresta pesantemente irrorata a terra; al contrario, due aree vicine indisturbate che ospitavano 145 e 170 tipi di uccelli e 30 e 55 specie di mammiferi. Anche in questo ambito a più di 50 anni dopo la fine dell’irrorazione, si sa poco del suo impatto ecologico a lungo termine ancora perché il Vietnam ha ora problemi di ambientali più urgenti, come l’inquinamento atmosferico sempre più grave da varie fonti, tra cui la combustione diffusa di rifiuti di plastica. Ai danni della guerra si stanno sommando i danni di uno “sviluppo” caotico, senza regole e senza rispetto. Il futuro per il Vietnam potrebbe essere dal punto di vista ambientale ancora più fosco. Nel paese c’è un’abbondanza di riserve minerarie di terre rare (stime del 2024 dell’USGS seconde solo alla Cina) e il suo sfruttamento, che per adesso non è ancora elevato. Gli Stati Uniti, già dall’era Biden, sono interessati a diversificare l’approvvigionamento per cui si prospetta una collaborazione con il governo vietnamita. Se questo evento è da considerarsi positivo, non lo è certamente per ulteriori studi sugli effetti della diossina nell’agente arancio durante la guerra in quanto è facile immaginare che sarà ancora maggiore interesse da parte dei due governi di stendere un velo di silenzio definitivo sui danni ambientali ed umani.
NOTA
Il (2,4,5-triclorofenolo) TCP è prodotto a partire da 1,2,4,5-tetraclorobenzene e idrossido di sodio in glicole etilenico e xilene a 170-180 °C. Questa reazione è fortemente esotermica a pressione atmosferica. In questa reazione si genera come sottoprodotto una piccola quantità di 2,3,7,8-tetraclorodibenzo-p-diossina (TCDD) a seguito di eliminazione di due anioni cloruro
Per chi vuole approfondire:
Stellman J.M. et. al. The extent and patterns of usage of Agent Orange and other herbicides in Vietnam Nature 2003, 422, 681-689.
Normile D. The fog of war Science2025, 388, 350-353.
La fumata nera e la fumata bianca (Figura 1) sono due segnali di fumo adoperati dai cardinali riuniti in conclave per comunicare all’esterno l’esito degli scrutini per l’elezione del nuovo papa, servendosi della combustione prodotta per mezzo di una stufa installata nella Cappella Sistina.
Figura 1 Fumata Bianca in alto e nera in basso
Nella millenaria storia del papato questa tradizione è relativamente recente anche rispetto all’istituzione del conclave nel XII secolo. Quando si rese necessaria una forma di comunicazione, fra coloro che erano isolati ed il popolo romano, in attesa della nomina del suo vescovo (all’epoca anche capo di stato), per tutto il XIX secolo, Il fumo che fuoriusciva dal camino della cappella Sistina, stava ad indicare solo la mancata elezione a seguito della combustione delle schede elettorali. Solo dal 1914 la fumata bianca sta indicare l’elezione del pontefice. Ma come vengono generate la fumata bianca o nera?
Il metodo utilizzato nel XX secolo era basato sulla combustione di paglia umida e pece, che talvolta dava luogo a fumate grigie poco chiare. Pertanto a partire dal conclave del 2005 in luogo della combustione delle schede si utilizzano ben precise reazioni che permettono inequivocabilmente di individuare se la fumata è bianca o nera.
Per ottenere la fumata bianca i reagenti sono il clorato di potassio KClO3, lattosio (C₁₂H₂₂O₁₁) e la colofonia. La colofonia è una resina vegetale gialla, solida, trasparente che deve il suo nome alla città greca della Ionia Colofone (Figura 2).
Figura 2 La colofònia*
E’ ottenuta dal residuo della distillazione delle trementine che generano le conifere per proteggersi dagli agenti patogeni. La colofonia è composta essenzialmente da acidi resinici i quali sono costituiti per circa il 90% da acido abietico (C20H30O2) (Figura 3) un diterpenoide, mentre il rimanente 10% è una miscela di acido diidroabietico (C20H32O2), cioè dove uno dei due doppi legami è idrogenato e acido deidroabietico (C20H28O2) dove è presente un terzo doppio legame.
Figura 3 Da sinistra a destra Le Strutture dell’acido abietico, dell’acido diidroabietico e dell’acido deidroabietico
La reazione è una reazione redox. Come si intuisce il clorato è l’agente ossidante che genera l’ossigeno secondo la reazione, ad una temperatura a circa 400 °C:
2 KClO3 → 2 KCl + 3 O2
L’ossigeno ossiderà il lattosio con reazione esotermica e l’acido abietico. La presenza del lattosio è richiesta perché produce nella reazione di ossidazione una quantità considerevole di acqua, mentre l’ossidazione dell’acido abietico genera particelle solide che sospese nell’aria, riflettono la luce e facilitano la condensazione delle particelle di acqua, generando il caratteristico colore bianco del fumo.
Per ottenere la fumata nera, si utilizza una miscela di perclorato di potassio, antracene e zolfo. Il perclorato di potassio KClO4, di cui si è ampiamente discusso in un precedente post, ha lo stesso compito del clorato cioè generare ossigeno. Ma rispetto al clorato è più stabile termicamente e si decompone a temperature più alte (oltre 500 °C), con una cinetica più lenta:
KClO4 → KCl + 2O2
Questo comportamento rende la combustione più controllata.
L’antracene, un idrocarburo policiclico aromatico, e lo zolfo fungono da combustibili. L’antracene, presente nel catrame di carbone, produce una grande quantità di particelle di carbonio incombusto nella forma allotropica di grafite (quella stessa che osserviamo uscire dalle marmitte soprattutto degli autocarri che hanno una combustione inefficiente del gasolio) che danno origine a un fumo denso e nero. Pertanto la reazione produce non solo diossido di carbonio, ma anche grafite secondo la reazione:
C14H10 + O2→ C + CO2 + H2O
Come osservate la reazione non è bilanciata in quanto le proporzioni fra grafite e diossido di carbonio dipendono dalla rapidità della reazione di produzione e dalla disponibilità dell’ossigeno. Infatti se la reazione fosse troppo rapida, rischierebbe di consumare tutto il combustibile ossidandolo completamente a diossido di carbonio cioè la reazione di ossidazione non si fermerebbe ad ossidare il carbonio a grafite, non producendo le particelle nere, ma tutto il carbonio assumerebbe lo stato di ossidazione +4 in luogo dello zero della grafite. Lo zolfo ossidandosi invece forma diossido di zolfo, che contribuisce ad aumentare la densità e l’opacità del fumo.
Nota
L’acido abietico deriva da un diterpene. I diterpeni sono una classe di terpeni composti da quattro unità isopreniche, spesso con formula molecolare C20H32. L’acido abietico deriva per ossidazione all’aria o per azione del citocromo P450 dal abietadiene (appunto un diterpene), che a sua volta è prodotto dal copalil pirofosfato (CPP), a sua volta derivato dal geranilgeranil pirofosfato (GGPP), precursore di molti diterpenoidi.
Figura 4 La biosintesi dell’acido abietico a partire dal geranilgeranil pirofosfato (GGPP) (1) attraverso copalil pirofosfato (CPP) (2) e l’abietadiene (3)
NdA. La colofònia è anche nota in commercio col nome di pece greca, resina per violino (violin rosin), resina della gomma (essudato delle incisioni su alberi vivi di Pinus palustris e Pinus caribaea) e tallolio. Come additivo alimentare ha il codice E915.
Il blackout verificatosi in Spagna e Portogallo alle 12:30 ora locale (Madrid) di lunedì 28 aprile ha causato che in pochi istanti gran parte della rete elettrica di Spagna e Portogallo sia collassata, causando l’interruzione dell’alimentazione su quasi tutto il territorio.
E’ un evento importante da capire ed analizzare ma anche da integrare nella visione della transizione della rete elettrica mondiale a cui stiamo andando incontro.
Per capire di più queste cose possiamo guardare anche ad un altro fenomeno che gran parte di noi NON conosce: specie in primavera ed estate ci sono momenti in cui l’energia elettrica non costa nulla sul mercato elettrico, ma noi utenti finali continuiamo a pagarla; come mai?
Questo dato potete cercarvelo da soli sulla pagina del GSE, il gestore della rete elettrica nazionale: questo qui sotto è il prezzo della energia elettrica del 1 maggio 2025 in Italia, il PUN, ossia il prezzo Unico nazionale che i gestori dei nostri servizi pagano ai produttori sul cosiddetto borsino elettrico e che diventa poi parte del prezzo della corrente che noi paghiamo:
Come vedete per il 1 maggio 2025 per circa 6 ore il prezzo della corrente elettrica è previsto a ZERO:
Non è strano né isolato; nell’ultimo mese la situazione è stata questa:
Nei giorni di bel tempo (a centro giornata) o di vento forte il prezzo crolla, perché in quel momento la offerta sul mercato SUPERA la domanda; per qualche ora che diventano decine di ore durante l’anno intero (si veda l’immagine successiva); ma attenzione non siamo NOI utenti finali che paghiamo zero l’energia; noi continueremo a pagarla secondo il nostro contratto; la pagheranno zero le società che comprano dai produttori e ci rivendono l’energia elettrica finale; in quel momento il loro profitto sarà massimo, ma il nostro vantaggio per quel ben di dio che arriva dal Sole sarà nullo.
Quando poi il sole o il vento vanno giù occorre usare i fossili e allora il prezzo scarta verso i 100 e più euro a megawattora o 0.12-0.16 euro a kilowattora.
Ovviamente il nostro prezzo finale non potrebbe essere zero perché comunque dobbiamo pagare il servizio di trasporto della energia e i servizi generali di funzionamento e gestione del venditore nei nostri riguardi (chessò la pagina web tramite la quale interagiamo col suo sito). Ma rimane che il nostro prezzo finale non viene in genere avvantaggiato da questo fenomeno del costo zero.
I due fenomeni che abbiamo citato, il blackout iberico e la vistosa mancanza di risparmio sul prezzo legata alle rinnovabili hanno la stessa origine; il mercato elettrico o borsino elettrico ed in genere il sistema elettrico non è organizzato per il bene comune, per gestire collettivamente la risorsa elettricità, ma per massimizzare i profitti dei produttori e venditori di energia elettrica; il mercato ha ormai da molti decenni terminato il suo ruolo di allocatore neutrale ed efficiente delle risorse per diventare un meccanismo di difesa di interessi corporativi.
Avevo già avuto modo di raccontare cosa combina il mercato elettrico italiano con la storia del CIP6* che raccontai anni fa (rifacendomi al lavoro sempre da ricordare di Leonardo Libero) in vari post, dedicati alla storia dell’energia elettrica in Italia (erano 5 pubblicati ormai più di 10 anni fa su questo blog).
Quali sono gli aspetti di ammodernamento che servono sicuramente ma mancano in Spagna ed altrove in Europa e nel mondo?
Integrazione estesa della rete elettrica che serva a scambiare maggiori quantità di elettricità riducendo gli effetti della relativa imprevedibilità delle rinnovabili; al limite questo vuol dire UNA sola rete elettrica mondiale come proposto già nel 1938 da Buckminster-Fuller
In attesa di una tale rete unica sviluppare accumuli locali di grande entità basati sull’eccesso di produzione delle rinnovabili specie del FV nelle giornate estive con accumulo sotto forma di idrogeno, metano o ammoniaca da bruciare e recuperare in situ e stoccare per le future esigenze, dunque sviluppo di un sistema di idrolizzatori, reattori chimici da idrogeno ad ammoniaca o metano, serbatoi per accumuli, reti di trasporto gas e centrali di combustione che funzionino poche ore l’anno, non basate dunque sul principio di redditività economica
Consentire all’utente finale di pagare i consumi sulla base della produzione in tempo reale non invece a prezzi costanti che favoriscono il produttore o il distributore
Quello che queste mancanze denunciano è che le forze produttive, in particolare la trasformazione di energia, confliggono con la nostra organizzazione economica basata sul criterio del massimo profitto privato, e non invece sul benessere collettivo.
Occorre cambiare questa situazione al più presto se no la nostra specie diventerà una di quelle che scompaiono ben prima dei fatidici 5 milioni di anni medi: noi giovani scimmie intelligenti (in realtà mica tanto) ne abbiamo solo 300mila.
PS a post scritto leggo su Le Scienze che in Cina (un paese che viene spesso indicato come il nemico autocratico del libero occidente) mandano SMS agli utenti per invitarli a ridurre i consumi se ci sono problemi di sottoproduzione o al contrario per approfittare dell’eccesso produttivo consumando al momento, rendendo in questo modo più “intelligente” il consumo della risorsa.
* Il CIP6 è una delibera del Comitato interministeriale dei prezzi adottata il 29 aprile 1992 (pubblicata sulla Gazzetta ufficiale n. 109 del 12 maggio 1992) a seguito della legge n. 9 del 1991, con cui sono stabiliti prezzi incentivati per l’energia elettrica prodotta con impianti alimentati da fonti rinnovabili e “assimilate”. Il CIP6 è il contributo che abbiamo pagato per decenni per sviluppare le rinnovabili, ma in realtà usato per bruciare rifiuti e oli pesanti tecnicamente “assimilati” alle rinnovabili, uno scandalo enorme, costato decine di miliardi di euro.
Bandar Abbas è una delle maggiori città iraniane e il suo porto è il principale porto dell’Iran, situato sullo stretto di Hormuz, nella parte più stretta e critica del Golfo Persico, est della penisola arabica (attenzione a non confonderlo, come capita spesso a me, col Mar Rosso, che è dal lato ovest della penisola Arabica).
Shahid Rajaee, una delle due metà del porto, è una grande struttura per le spedizioni di container, che copre 2.400 ettari. Gestisce 70 milioni di tonnellate di merci all’anno, tra cui petrolio e trasporti generali. Dispone di quasi 500.000 metri quadrati di magazzini e 35 posti di ormeggio.
Sabato 26 aprile vi si è verificata una enorme esplosione che ha provocato almeno 18 morti e 750 feriti con distruzione di vetri fino a chilometri dall’origine ed una altissima colonna di fumo.
L’autorevole sito della BBC riporta un filmato registrato casualmente dalla telecamera di un guidatore distante.
Se ne trovano in rete anche altri a minore distanza.
Il video è privo di sonoro, ma mostra un dato importante per comprendere la dinamica degli eventi; inizia con una colonna di fumo già in atto, SEGUITA solo dopo qualche secondo dalla gigantesca esplosione.
Si tratta quindi verosimilmente di un incendio iniziale a cui è succeduta l’esplosione.
Questo serve a distinguerne l’origine; non si è trattato di un attacco missilistico, ma più probabilmente di un incendio, che può certo verificarsi casualmente in un grande porto come quello di Bandar Abbas (ma che potrebbe anche essere il risultato di un attacco con droni o comunque di un sabotaggio) che ha fatto in seguito esplodere sostanze ivi presenti.
Incendio fortuito o sabotaggio o attacco deliberato non sono ovviamente identici e potrebbero avere effetto sui colloqui attualmente in corso fra USA ed Iran sull’accordo per lo sviluppo del nucleare che sono ripresi da poco tempo.
Negli ultimi mesi le notizie giornalistiche riportano che nel porto iraniano sono state sbarcate migliaia di tonnellate di perclorato di sodio, provenienti dalla Cina. Le autorità iraniane hanno escluso qualunque implicazione con l’industria del petrolio.
Il perclorato di sodio NON è di per sé un buon esplosivo, anzi non può definirsi nemmeno DI PER SE un esplosivo, ma può esplodere in determinate condizioni che esamineremo fra un momento; esso viene usato per produrre una sostanza usata nei missili a combustibile solido: il perclorato di ammonio (di cui abbiamo parlato in passato) od anche per produrre miscele esplosive se per esempio viene mescolato a sostanze organiche o a zolfo.
Dunque questa esplosione rallenterà la produzione di razzi e missili, come lo Zolfaghar, che l’Iran esporta verso la Russia ed usa in altri teatri bellici.
Il perclorato di sodio è un composto di formula NaClO4, il sale sodico dell’acido perclorico, che si presenta come un solido cristallino incolore ed inodore. È un ossidante forte (il cloro ha numero di ossidazione +7) e può essere utilizzato, come tale o modificato, come comburente in miscele propulsive o esplosive. In sostanza gioca il ruolo che può giocare l’ossigeno. Notate la differenza che sussiste fra il perclorato di sodio e quello di ammonio, in cui la presenza dell’azoto nel suo stato più ridotto lo trasforma in un composto INTRINSECAMENTE esplosivo, capace di una reazione di auto-ossidoriduzione.
E’ estremamente solubile in acqua (oltre 2kg/l) e presenta proprietà igroscopiche; è stato usato come elettrolita per la costruzione di batterie agli ioni di sodio (invece che di litio come intercalante in elettrodo).
Un ossidante forte implica che esso non possa da solo dar luogo ad un esplosivo; in realtà abbiamo affrontato questo tema già in passato in vari post. Un esplosivo infatti deve avere una di queste proprietà: contenere un ossidante ed un riducente od essere formato da una miscela di sostanze ciascuna dotata di una delle due proprietà, anche eventualmente sfruttando la presenza dell’ossigeno atmosferico.
Il perclorato di sodio da solo è invece un forte ossidante, la presenza di ossigeno non lo aiuta a reagire; anzi se lo si riscalda oltre i 400°C si decompone in acido cloridrico ed ossigeno, ma non esplode.
Esplode se e solo se lo mescoliamo con un riducente che gli ceda i suoi elettroni, dunque una sostanza organica o un metallo, meglio se finemente suddiviso.
Comunque la definizione come esplosivo del perclorato di sodio puro è ancora discussa in letteratura (si vedano i documenti in bibliografia) in rapporto al suo comportamento se finemente suddiviso ed esposto ad una fiamma.
Può aiutarci a capire meglio la situazione un articolo scritto da chimici italiani: in cui si analizza l’esplosione di una miscela di sostanze ciascuna delle quali di per se non è esplosiva ma che messe insieme in modo inopportuno diventano una sorgente di esplosione. Per esempio stoccare il materiale senza superfici di separazione è uno dei fattori di rischio. Non tener conto del potenziale di reazione reciproca è un altro. Ovviamente non sappiamo nulla della effettiva situazione di Bandar Abbas, ma non crediamo sia stata poi così diversa da altri casi che abbiamo analizzato come l’esplosione nel porto di Beirut o nel porto cinese di Tianjin, che pure abbiamo cercato di analizzare in passato o perfino nella moderne fabbriche tedesche.
Probabilmente una cosa simile è successa anche a Bandar Abbas; una insufficiente gestione del rischio, spinta dal ritmo incalzante ed assurdo della produzione moderna (bellica o meno non fa differenza) ha certamente potuto provocare l’esplosione, non sappiamo se la cosa sia stata fortuita o sia stata aiutata opportunamente da qualche nemico dell’Iran.
Certo rispettare le norme di sicurezza rende più difficile anche ad un ipotetico nemico di intervenire.
Secondo un articolo pubblicato sul NYT di oggi, domenica 27, i morti sono diventati 25 e i feriti oltre 1100; si tratta dunque di una grande incidente chimico o di un atto bellico non trascurabile. Vedremo nei prossimi giorni.
NdA Di passaggio ricordo qua che una miscela esplosiva analoga si può ottenere facilmente ed aiuta a capire il problema che pongo della impossibilità per il perclorato DA SOLO di esplodere; da ragazzi si raccoglievano facilmente il clorato di potassio (che si usa come disinfettante della gola) e lo zolfo in eccesso nelle cantine (e che serve per fare lo “zolfarello” al vino bianco, bruciarci zolfo vicino per produrre anidride solforosa per impedirne l’acidificazione); la miscela di clorato di potassio e zolfo se sottoposta a compressione (tipicamente fra due pietre) produce una blanda esplosione; attenzione non riproducete questo processo da soli se non ne comprendete le caratteristiche, potreste farvi male. Una tradizione del genere da veri monelli si trova in varie regioni italiane.
È stato detto e scritto più volte. Se tutta la superficie coltivabile della Terra fosse divisa fra gli 8 miliardi di persone e passa che la abitano a ciascuno spetterebbe un fazzoletto che dovrebbe rappresentare la superficie dalla quale ottenere le risorse per vivere. Purtroppo, fatti i conti, si è visto che così non è.
Però anziché puntare solo ad aumentare la quantità di risorse ottenibili dal proprio fazzoletto gli uomini dei Paesi più forti hanno deciso di appropriarsi dei fazzoletti dei cittadini dei Paesi più deboli. Così la societá globale si è indirizzata verso una visione polarizzata in cui coesistono cittadini che dispongono di 8 fazzoletti e cittadini che possono usufruire solo di frazioni del proprio fazzoletto.
Per combattere la fame nel mondo ci sono tre strade tecniche l’aumento della produzione con fertilizzanti, l’aumento della capacità nutrizionale con modificazioni genetiche delle colture alimentari, la protezione della salute dei vegetali con equilibrata adozione di fitofarmaci; ed una etica, utilizzare contro la fame nel mondo le risorse alimentari che vengono colpevolmente indirizzate verso la produzione di proteine animali venendo incontro a richieste da parte di stili di vita le cui conseguenze sul piano ambientale ed igienico sanitario sono ben note.
Tutte queste strade trovano però per ragioni diverse opposizione le prime da parte della componente ambientalista della società civile, le seconde da parte dei grandi produttori di carne. Ovviamente questo non significa che le strade tecniche siano state abbandonate, ma di certo la intensità con cui vengono perseguite non corrisponde ai criteri di emergenza che a volte la fame nel mondo richiederebbe.
Ora però una nuova denuncia si aggiunge a creare allarme: l’agricoltura 2.0 e 4.0 potrebbe con le innovazioni tecniche e scientifiche che la caratterizzano contribuire ad una nuova fase dello sviluppo agricolo con ovvie ricadute anche sul problema alimentare. Cementificazione e abbandono della terra costringono l’Italia ad acquisire all’estero il 40% di mais, soia e grano; ed ora si aggiunge il problema dei dazi americani.
I terreni agricoli persi nell’ultimo secolo ammontano al 33% con valori delle % importate dei prodotti consumati che per carne e grano raggiungono il 60%. Le ragioni di questo abbandono sono molteplici a partire dall’emergenza siccità dovuta ai cambiamenti climatici ed alla irrazionale gestione degli invasi per la raccolta dell’acqua piovana. Altre ragioni vanno ricercate nella diffusione di specie selvatiche, nelle difficoltà gestionali in relazione ai limiti burocratici europei, nella concorrenza da parte delle importazioni da Paesi come Turchia e Canada dove si coltiva con tecniche non consentite in Italia per l’uso indiscriminato del glifosato.
La mancanza di reciprocità pesa peraltro anche sulla possibilità di accordi bilaterali. A questo quadro negativo fanno riscontro alcune situazioni favorevoli: l’innovazione tecnologica con la robotizzazione agricola, le applicazioni all’agricoltura dell’intelligenza artificiale, il nuovo approccio dell’agricoltura rigenerativa. Questa sfrutta la presenza nel terreno dei microorganismi preziosi per la sua qualità. Così il suolo viene continuamente rigenerato acquisendo resilienza e fertilità, sostituendo l’aratura tradizionale, che a causa della grande profondità coinvolta, comporta una modificazione strutturale del terreno che finisce per nuocere alla resa del terreno rispetto alle colture su di esso impiantate.
«Il rapporto che lega un uomo alla sua professione è simile a quello che lo lega al suo paese; è altrettanto complesso, spesso ambivalente, ed in generale viene compreso appieno solo quando si spezza: con l’esilio o l’emigrazione nel caso del paese d’origine, con il pensionamento nel caso del mestiere» (P. Levi, Ex-chimico, in Opere complete, vol. I, p. 810).
E’ da molto tempo che rifletto su quanto esprime Primo Levi in questo brano.
Il mio pensionamento dovrebbe (il condizionale in questo caso è d’obbligo e ha anche una funzione scaramantica) concretizzarsi nell’ottobre del prossimo anno. Dei canonici 42 anni e 10 mesi di contribuzione utile per arrivarci, 40 sono stati interamente dedicati al lavoro da chimico tout court.
Dal 2022 mi sto invece occupando della gestione degli approvvigionamenti, sempre per il settore dei laboratori dell’azienda unica di gestione del ciclo idrico, che è stata costituta con la fusione di varie altre aziende che operavano sul territorio provinciale di Varese.
Le variazioni e ricollocazioni, sono situazioni che ogni modifica aziendale normalmente comporta, e che possono essere occasioni di crescita anche in età “matura”, e in ogni caso sono incombenze che nei laboratori si devono affrontare.
Ma nei primi tempi ho provato una sensazione molto forte di nostalgia, quasi di perdita. Ho lavorato sul campo, alternandomi tra parte di gestione, e parte di controllo analitico del ciclo idrico per un trentennio. Ho lavorato per il settore gestione rifiuti, e nel settore dei prodotti vernicianti. Ho cercato di crescere professionalmente sempre, spinto dagli obblighi dell’iscrizione all’ordine professionale, ma soprattutto per soddisfare la mia curiosità personale.
Mi sono sempre riconosciuto nella definizione di chi praticava la “chimica modesta”, termine coniato da Giorgio Nebbia, in cui mi sono sempre riconosciuto.
Nel momento di passaggio al nuovo incarico mi ritornava in mente un altro brano di Primo Levi, riferito agli errori che scatenano l’impolmonimento della vernice antiruggine.
“ Me lo raffiguravo, il tapino , sullo sfondo di quegli anni difficili: non più giovane, poiché i giovani erano militari; forse braccato dai fascisti, o magari anche fascista ricercato dai partigiani; certamente anche frustrato perchè l’analista è mestiere di giovani.” (P. Levi, Cromo, in Opere complete, vol. I, p. 874).
Col passare del tempo ho maturato un altro tipo di atteggiamento, anche perchè gestire gli acquisti di un laboratorio prevede di avere delle conoscenze tecniche e di saper fare le valutazioni appropriate, rispetto alla qualità di cosa deve essere fornito. Questo aspetto mi mette ogni giorno a confronto con ragazzi più giovani, in uno scambio che accresce sia me che loro. Qualcuno mi chiede consigli, e io mi rendo disponibile Mi rimane la nostalgia per la parte del lavoro sul campo, ovvero negli impianti di trattamento, ma questo lo gestisco stimolando la mia curiosità innata.
Mi sono anche convinto che in realtà non si appenda mai realmente “il camice al chiodo”. Cambiano alcune cose, altre restano invariate. Ragiono come un chimico, continuo a guardare istintivamente ogni impianto di depurazione, o di digestione anaerobica che vedo. Nel caso di richieste che provengano dai colleghi della sezione amministrativa, spiego sempre con molta dovizia di particolari cosa sia ad esempio un gascromatografo, termine che letto per esempio su una fattura, possa far sobbalzare qualcuno sulla sedia quando ne legge il prezzo.
La vita è fatta di cambiamenti continui, che occorre accogliere ed accettare. Ma se sei un chimico, tale rimani. Anche quando il caos di persone in un centro commerciale, ti porta a pensare al movimento caotico delle molecole dei gas.
Siamo chimici, cioè cacciatori, diceva Primo Levi e lo rimaniamo per tutta la vita.
Questa immagine è un regalo di pensionamento di un amico di redazione.
In un precedente post abbiamo smitizzato il riciclo della plastica da idrocarburi; in particolare il polietilene ed il polipropilene sono difficili da scomporre in monomeri o in frammenti riutilizzabili per produrre nuovamente della plastica secondaria identica a quella primaria a causa della stabilità dei legami carbonio-carbonio. Sarebbe pertanto auspicabile una riduzione e riuso di queste forme di plastica, in primo luogo per il monouso. Laddove non fosse possibile il riuso, per mantenere l’integrità e la salubrità degli alimenti oppure per usi sanitari e non essendo la plastica attuale riciclabile, né attualmente smaltibile se non con costi economici ed ambientali difficilmente sostenibili, cosa bisognerebbe fare? Ci sono alternative?
Molti colleghi ricercatori in tutto il mondo, ma anche in Italia, sono meritoriamente ed attivamente impegnati nella ricerca per produrre polimeri a partire da sostanze naturali e soprattutto da scarti alimentari essendo importante non utilizzare materia prodotta specificamente per il suo impatto ambientale. Accanto alla materia prima, bisogna immediatamente individuare anche il destino del polimero dopo l’uso.
Oggi la plastica prodotta da idrocarburi, come sintetizzato nella figura 1, è solo in minima parte riutilizzata per plastica e comunque nella maggior parte dei casi, diversa da quella originaria. Uno dei tre metodi, il chimico, che potrebbe rigenerare una materia secondaria analoga alla primaria, è stato ben analizzato in un articolo apparso di recente [1] e citato in altri post.
Figura 1 Schema che in proporzione mostra come attualmente solo una limitatissima parte della plastica venga effettivamente riciclata e comunque per un materiale differente rispetto a quello primario.
Il metodo chimico si basa sulla decomposizione termica attraverso la pirolisi o il cracking a vapore. Questi processi ad alta intensità energetica convertono solo una piccola parte del materiale nei suoi elementi costitutivi di base, principalmente utilizzabili come combustibili, e generano notevoli emissioni di CO2. La plastica alternativa, per essere sostenibile, deve essere compostabile; ma in questo caso si porrebbe comunque il problema della produzione della materia prima che avrebbe il suo notevole impatto ambientale, qualora fosse prodotta su terreni agricoli. Sarebbe ancora più desiderabile che la plastica fosse effettivamente scomponibile in monomeri o frammenti che ne permettessero una nuova formulazione. In questo caso la plastica secondaria dovrebbe avere proprietà, per quanto possibile, equiparabili a quella attualmente in uso. Fino ad oggi alternative, che rispondessero a queste richieste e che fossero economicamente compatibili, non si sono ancora registrate. Negli ultimi anni, però, è stata proposta un’alternativa interessante basata su un materiale a base poliestere con proprietà simili a quelle del polietilene ad alta densità (HDPE), ottenuto utilizzando la condensazione a stadi di acidi dicarbossilici e dioli [2].
Un recente articolo riporta un progresso significativo attraverso materiali che rispecchiano le proprietà desiderabili del polietilene, consentendo allo stesso tempo la completa scomposizione dei loro componenti di partenza in condizioni blande [3]. In particolare gli autori della ricerca presentano un percorso semplificato attraverso la polimerizzazione deidrogenativa, utilizzando catalizzatori di manganese che vanno a sostituire metalli ben più rari e costosi come rutenio e palladio. L’uso di manganese rende questo processo commercialmente più praticabile, essendo questo metallo più abbondante e meno costoso nonostante sia considerato fra gli elementi critici per la transizione ecologica perché presente nelle batterie per le auto elettriche. Il sistema consente la polimerizzazione diretta di dioli bioderivati da oli o microalghe a 18 atomi di carbonio senza un preciso controllo stechiometrico, formando legami esterei con idrogeno gassoso come unico sottoprodotto (Figura 2a).
Figura 2 Panoramica del riciclaggio catalitico a circuito chiuso di materiali PE-like con proprietà regolabili dalla polimerizzazione di materiali lineari e ramificati a base biologica quali i dioli. a, I monomeri lineari e ramificati sintetizzati dalla bioraffinazione di oli vegetali o di microalghe. b, Approccio diretto con polimerizzazione a circuito chiuso e il riciclo a base biologica di materiali PE-like con proprietà meccaniche altamente regolabili da dioli lineari e ramificati a catena lunga utilizzando un complesso di Mn.(copyright Nature)
Questo sistema rappresenta un progresso significativo. In condizioni ottimizzate, in presenza del catalizzatore e di una base (KOtBu) a 130 °C, il sistema raggiunge pesi molecolari fino a 185 kDa, paragonabili ai polietileni commerciali. Lo stesso catalizzatore può successivamente mediare la depolimerizzazione controllata a temperature moderate, offrendo una soluzione elegante sia per la formazione che per il riciclaggio del polimero.
La versatilità di questo approccio deriva dalla sua capacità di incorporare monomeri di dioli sia lineari che ramificati (Figura 2b). I componenti lineari forniscono cristallinità e resistenza meccanica, mentre i segmenti ramificati consentono la regolazione di proprietà come l’elasticità e l’adesione alle superfici.
Con un contenuto di ramificazione inferiore al 20%, i polimeri presentano un impacchettamento di cristalli ortorombici simile al polietilene convenzionale. Queste regioni cristalline consentono un efficiente impacchettamento della catena che conferisce elevata resistenza chimica e rigidità. Variando sistematicamente il contenuto di monomeri ramificati dal 3% all’80%, i ricercatori hanno modificato la cristallinità dal 44% a ad una struttura completamente amorfa, rispecchiando il comportamento osservato nel polietilene lineare a bassa densità (LDPE) commerciale. Questa modularità consente la produzione di materiali che vanno dai termoplastici rigidi (simili al polietilene ad alta densità, HDPE) agli elastomeri flessibili. L’incorporazione dello zolfo attraverso i gruppi tioetere nei segmenti ramificati rivela un’altra caratteristica utile di questi materiali: la forte adesione alle superfici metalliche come l’acciaio inossidabile, eguagliando le prestazioni degli adesivi commerciali. Questa forza adesiva, notevolmente assente nelle varianti senza gruppi tioetere, dimostra come la progettazione molecolare strategica possa conferire funzionalità aggiuntive oltre alle proprietà convenzionali del polietilene.
La caratteristica più distintiva del sistema è la sua efficiente riciclabilità chimica. Lo stesso catalizzatore al manganese consente la depolimerizzazione selettiva attraverso l’idrogenazione, raggiungendo tassi di recupero del monomero fino al 99% anche in presenza di plastiche e additivi commerciali. I monomeri recuperati sono stati ripolimerizzati con successo e rese elevate ottenendo un materiale con le stesse proprietà di resistenza alla trazione, allungamento alla rottura e tenacità paragonabili a quelli del campione vergine. Gli autori hanno verificato queste proprietà per altri due cicli aggiuntivi.
Un altro aspetto particolarmente rilevante da sottolineare che i contaminanti comuni presenti nella raccolta della plastica, come il polietilene tereftalato (PET), rimangono intatti, consentendo una separazione semplice mentre viene condotta la reazione di depolimerizzazione completa a 110 °C. Per cui i monomeri recuperati possono essere isolati attraverso la cristallizzazione e ripolimerizzati senza perdita di proprietà, dimostrando un vero riciclo a circuito chiuso, qualora questo materiale fosse mescolato a rifiuti misti. Oggi questa situazione è il collo di bottiglia particolarmente critico nelle attuali infrastrutture di riciclaggio della plastica. Il processo si adatta a materiali colorati e vari additivi, suggerendo una potenziale fattibilità industriale, anche se, per adesso, non si è andati oltre alla produzione di 30 g di polimero.
Di fronte a questi risultati, sembrerebbe di aver trovato una valida soluzione ai problemi.
In realtà restano sicuramente alcune problematiche. Per la ricerca futura si presenta la necessità di ridurre i carichi dei catalizzatori mantenendo alti i pesi molecolari; il che rappresenta una sfida chiave per la redditività economica. Inoltre lo sviluppo di catalizzatori ancora più attivi e di sistemi di leganti più semplici, che operino a temperature più basse, potrebbe migliorare ulteriormente le proprietà. Il lavoro futuro dovrebbe concentrarsi sull’ottimizzazione della ri-polimerizzazione per mantenere pesi molecolari costanti su più dei tre cicli, testati dagli autori della ricerca e sull’espansione degli studi sulla sensibilità all’umidità e sulle prestazioni a lungo termine con additivi commerciali.
Guardando al futuro, con l’avanzare della ricerca, sarà fondamentale espandere questo approccio ad altre classi di monomeri, soprattutto che derivino da prodotti di scarto, mantenendo l’equilibrio tra lavorabilità, prestazioni e riciclabilità. L’integrazione con l’infrastruttura di riciclaggio esistente presenta sia sfide che opportunità, in particolare per quanto riguarda i sistemi di recupero dei catalizzatori e la scalabilità dei processi di depolimerizzazione selettiva.
[1] Garcia-Gutiérrez P. et al. Environmental and economic assessment of plastic waste recycling and energy recovery pathways in the EU Resources, Conservation & Recycling2025, 215, 108099
Chi ha letto i miei precedenti interventi su questo tema sa come la penso: non è ragionevole sostenere allo stesso tempo la medicina personalizzata e la sperimentazione animale.
Se è vero che ogni patologia va trattata in funzione del paziente, vista la variabilità del genere umano, come si può trasferire il risultato delle ricerche da una specie ad un’altra? Si possono ammettere specifiche eccezioni in particolari branche della medicina, ma non un’accettazione in termini generali. Sul tema sono intervenuti scienziati e politici che ne hanno affrontato gli aspetti tecnici, etici e legislativi. Ora un nuovo elemento viene a contribuire al tema: mi riferisco all’Intelligenza Artificiale.
L’intelligenza artificiale può salvare milioni di vite degli animali impiegati nella ricerca biomedica per gli esperimenti in laboratorio. Ne è convinta Arti Ahluwalia, professoressa di Bioingegneria all’Università di Pisa e per anni direttrice del Centro di Ricerca “E. Piaggio”, specializzato in automazione, robotica e bioingegneria dove ancora oggi continua a svolgere le sue ricerche.
Un tema particolarmente caro alla ricercatrice, che l’ha spinta a fondare il Centro 3R, il centro interuniversitario italiano per la promozione dei principi della raccomandazione/direttiva dell’UE volta a ridurre, sostituire, affinare l’utilizzo degli animali nella sperimentazione scientifica. L’intelligenza artificiale accelera l’analisi dei big data e dei marcatori, riducendo la necessità di esperimenti sugli animali, fino a simulare processi biologici complessi attraverso modelli computazionali avanzati senza bisogno di sperimentazione in vitro.
Quello della sperimentazione animale non è d’altra parte il solo contributo dell’AI alla ricerca biomedica, tenuto conto del suo contributo a livello ambientale e nella promozione dell’economia circolare, visti i modelli basati sull’AI che riducono sprechi e migliorano l’efficienza. In pratical’intelligenza artificiale può essere impiegata per creare modelli più realistici della fisiologia e della patofisiologia umana. Poiché gli esseri umani presentano un’enorme variabilità individuale—dovuta a fattori genetici, stile di vita, abitudini e condizioni ambientali—le risposte biologiche possono variare significativamente da persona a persona.
Al contrario, negli esperimenti di laboratorio sugli animali, i soggetti appartengono spesso allo stesso ceppo genetico, seguono diete standardizzate e vivono in ambienti controllati e uniformi. Questa omogeneità limita la possibilità di rappresentare la complessità e la diversità biologica umana. L’intelligenza artificiale, invece, grazie alla sua capacità di elaborare enormi quantità di dati, permette di sviluppare modelli personalizzati che tengono conto delle specificità individuali. Questo approccio potrebbe essere fondamentale per superare il problema della scarsa trasferibilità dei dati ottenuti dalla sperimentazione animale.
Recentemente in questo blog è stato meritoriamente riportato un intervento su un report del JRC della commissione europea sul riciclaggio della plastica. In quel report, analizzando i tre metodi attualmente disponibili per riciclare la plastica utilizzata, per gli imballaggi monouso, si metteva in evidenza come il riciclaggio meccanico poteva essere superiore agli altri metodi, ma soprattutto all’incenerimento. La domanda potrebbe essere a questo punto, ma la plastica è davvero riciclabile?
Lungi da noi voler demonizzare la plastica verso la quale da chimici, e soprattutto da chimici italiani, siamo debitori avendo a partire dagli cinquanta e sessanta contribuito al boom economico e finanziato la nostra attività di ricerca. Inoltre il nuovo materiale ha trovato un numero infinito di applicazioni che ha migliorato le condizioni sanitarie, la vita di tutti i giorni, ma anche, può sembrare paradossale, l’ambiente (riduzione della deforestazione, dell’uso di energia proveniente dai combustili fossili ecc.). Ed allora bisogna focalizzarsi sull’uso della plastica monouso che rappresenta oltre il 50% di quella prodotta ed è l’unica che attualmente secondo la legislazione è sottoposta a processi di riciclaggio. La crescente sensibilità ambientale nel mondo, almeno quello occidentale, ha comportato da parte delle imprese, attraverso messaggi rassicuranti, la promozione del loro prodotto garantendo la sua riciclabilità oppure l’uso in percentuale di plastica riciclata. La realtà purtroppo è lontana dal messaggio idilliaco diffuso.
Nel mese di settembre dello scorso anno è stato contestato alla Exxon-Mobil dalla procura della California la pubblicità menzognera (https://www.bbc.com/news/articles/cp8elg6ezlko), in quanto solo il 15% della plastica prodotta era effettivamente riciclata, mentre il resto distrutta in inceneritori oppure avviata in discarica. Ma non solo negli Stati Uniti si presenta il problema del riciclaggio e della pubblicità menzognera. Trovandomi in Francia per oltre un mese ho riscontrato che le stesse problematiche sono state evidenziate da un’inchiesta condotta dal canale televisivo pubblico France 5. Partendo da un proclama del presidente Macron che nel 2019 poneva ottimisticamente come obiettivo per il 2025 il 100% di riciclaggio della plastica degli imballaggi utilizzati in Francia, gli autori dell’inchiesta hanno seguito un camion adibito alla raccolta differenziata (figura 1) ed il percorso dei rifiuti nella filiera degli stabilimenti attraverso la quale passava.
Figura 1Manifesto in cui si promuove in Francia la raccolta differenziata e il riciclaggio dei materiali
Ebbene, dopo essere stata separata dalla raccolta dall’altro materiale in un primo stabilimento (figura 2) posto a 200 Km di distanza (con energia sprecata e relative emissioni di CO2) solo il 70% veniva inviato in successivo stabilimento ad altri 200 km di distanza, dove, invece di essere riciclata, la maggior parte veniva avviata alla produzione di CSS (Combustible de Substitution Solide) quello che altrimenti in Italia chiamiamo CdR (combustibile da rifiuto).
Figura 2Linee di uno stabilimento per la separazione del multimateriale
Questo combustile poi finiva in un cementificio provocando emissioni di polveri per 30 mg/m3 ben superiori ai 10 mg/m3 consentiti agli inceneritori (cioè la raccolta differenziata della plastica alla fine provocava maggiori emissioni di CO2 e maggiori produzioni di polveri!). Solo una piccola frazione veniva avviata verso un paese africano (con alta emissione di CO2) dove poi, a seguito di trattamento meccanico, venivano prodotti nuovi manufatti. A questo punto l’inchiesta facendo un po’ di calcoli arrivava a stabilire che solo il 3% della plastica raccolta in Francia in modo differenziato veniva effettivamente riciclata in manufatti, che non erano identici a quelli iniziali.
Cioè la filiera della plastica non comporta la produzione di un materiale secondario identico a quello primario. Inoltre laddove era possibile separare il solo PET, solo una piccola percentuale poteva essere aggiunta a PET vergine per rifare una bottiglia per la presenza di additivi e per accorciamento delle catene polimeriche durante i processi di riciclaggio.
Per cui, paradossalmente qualora tutto il PET fosse riutilizzato dovendo aggiungere sempre materia vergine bisognerebbe aumentare progressivamente il numero di bottiglie prodotte, alimentando la domanda…! Insomma la conclusione, anche in Francia, era che il riciclaggio era una finzione menzognera, per pulire la coscienza di chi era invogliato ad utilizzare la plastica monouso.
Questo è un messaggio duro da recepire poi anche in Italia dove la filiera degli imballaggi continua ad essere presentata come un asse portante dell’economia. Prima di giungere alla terza R di Lisbona, che è l’unica alla quale ci sembra di essere affezionati anche in Italia, bisogna prima adoperarsi per le prime due R.
Ridurre e riusare.
In alcune aree della Germania si cerca di attuare la seconda R, per quanto riguarda le bottiglie di PET raccolte nei supermercati e riutilizzate una volta lavate e sterilizzate. Forse è questa la via che si dovrebbe prendere anche se, a mio avviso, non priva di qualche problematica. Il multiuso negli imballaggi potrebbe comportare un rilascio di monomeri o nanoplastiche nel contenuto? Allora forse laddove è possibile bisognerebbe utilizzare per molti prodotti e soprattutto per tutti i non alimentari la filiera della distribuzione senza packaging ed utilizzare negli altri casi, per garantire la salubrità degli alimenti, degli imballaggi compostabili.
Il JRC (Joint Research Centre) della Commissione europea ha recentemente pubblicato uno studio, intitolato “Environmental and economic assessment of plastic waste recycling and energy recovery pathways in the EU”,
L’abstract del report (pubblicato sotto forma di articolo su Resources, Conservation & Recycling 215 (2025) 108099 recita
Le tecnologie di riciclaggio fisico e chimico sono considerate fondamentali per aumentare il riciclaggio della plastica, anche se i loro potenziali impatti ambientali ed economici non sono ancora del tutto compresi. Questo studio fornisce una valutazione ambientale ed economica comparativa del riciclo dei rifiuti plastici (meccanico, fisico, chimico) e del recupero energetico, utilizzando dati primari integrati da informazioni esterne. I nostri risultati suggeriscono che, ai fini della mitigazione dei cambiamenti climatici, il riciclaggio fisico o chimico costituisce un’alternativa migliore per il trattamento dei rifiuti plastici attualmente inviati al recupero energetico o alla discarica. Questa preferenza non vale per altre categorie di impatto, dato l’attuale mix energetico dell’UE, ma è probabile che si applichi in un futuro sistema energetico europeo più pulito. Non è stato possibile stabilire una classifica chiara tra riciclo meccanico, fisico e chimico, poiché le loro prestazioni ambientali dipendono dalla specifica frazione di rifiuti plastici trattata. Lo stesso vale per i costi. I risultati di questo studio possono essere utilizzati per supportare i responsabili politici e le imprese nel loro processo decisionale, stabilendo se il riciclaggio (meccanico, fisico, chimico) o il recupero energetico dei rifiuti di plastica siano la soluzione preferita da un punto di vista ambientale ed economico
Il report esamina e confronta tre tipologie di riciclo dei rifiuti in plastica (meccanico, fisico, chimico) e recupero energetico nei termovalorizzatori*.
La certezza che emerge è come dal punto di vista della mitigazione dei cambiamenti climatici riciclo fisico e chimico siano un’alternativa sicuramente migliore per il trattamento dei rifiuti in plastica attualmente inviati all’incenerimento o conferiti in discarica.
Non è possibile, invece, stabilire una classifica chiara tra riciclo meccanico, fisico e chimico, poiché le loro prestazioni ambientali dipendono dalla specifica frazione di rifiuti plastici trattata.
Tuttavia, considerando anche gli altri impatti ambientali, il riciclo meccanico è il più efficiente in termini di risparmio di risorse fossili e il metodo più sicuro dal punto di vista della tossicità ambientale. Lo stesso vale per i costi: l’unico studio a riguardo è stato fatto in Danimarca e sostiene che il riciclo meccanico avanzato, cioè con le più moderne tecnologie, è stato il solo scenario a garantire un risparmio economico, seguito da riciclo chimico e meccanico convenzionale.
Il riciclo energetico, ossia l’incenerimento come abbiamo già detto più volte invece da una parte recupera solo una piccola parte dell’energia grigia immagazzinata nel materiale (da un quarto ad un terzo, alla faccia della valorizzazione) ed inoltre data la bassa vita media dei manufatti in plastica corrisponde ad una combustione ritardata di petrolio e gas naturale con enormi effetti climatici INELIMINABILI e che superano di gran lunga i potenziali effetti ambientali che si possono minimizzare se la gestione del termovalorizzatore fosse accorta e prudente.
In sostanza il report europeo costituisce una valutazione negativa della termovalorizzazione come metodo standard di riciclo dei materiali plastici.
*Per riciclo meccanico si intende la separazione e triturazione del materiale di partenza, per riciclo fisico si intende la dissoluzione in un solvente, per riciclo chimico si intende la reazione con reagenti opportuni che siano in grado di estrarre i monomeri dal polimero ed infine per recupero energetico si intende la combustione dei polimeri per ridurli a composti elementari ricavandone la massima energia possibile od anche un trattamento di gasificazione (riscaldamento in ambiente anossico) in grado di estrarre molecole piccole riciclabili o ulteriormente combustibili.
I giornali di questi giorni informano il pubblico della scoperta di un nuovo “rivoluzionario” antibiotico, la lariocidina B, un peptide prodotto da un batterio denominato Paenibacillus sp. M2.
La scoperta è stata comunicata con un articolo pubblicato su Nature, scritto da Manoj Jangra e Dmitrii Y. Travin. e dai loro collaboratori, che lavorano in università e centri di ricerca canadesi ed USA.
Scrivono gli autori nell’abstract:
I peptidi lazo (molecole biologicamente attive con un ripiegamento a nodi strutturalmente vincolato) sono prodotti naturali che appartengono alla classe dei peptidi sintetizzati a livello ribosomiale e modificati a livello post-traduzionale. I peptidi lazo agiscono su diversi batteri, ma nessuno è stato segnalato per inibire il ribosoma, uno dei principali bersagli di bersaglio degli antibiotici nella cellula batterica. Qui riportiamo l’identificazione e la caratterizzazione dell’antibiotico lazo peptidico lariocidina e del suo derivato ciclizzato internamente lariocidina B, prodotto da Paenibacillus sp. M2, che ha un’attività ad ampio spettro contro una serie di batteri patogeni . Dimostriamo che le lariocidine inibiscono la crescita batterica legandosi al ribosoma e interferendo con la sintesi proteica. Dati strutturali, genetici e biochimici dimostrano che le lariocidine si legano a un sito unico nella piccola subunità ribosomiale, dove interagiscono con l’RNA ribosomiale 16S e l’aminoacil-tRNA, inibendo la traslocazione e inducendo una codifica errata. La lariocidina non è influenzata dai comuni meccanismi di resistenza, ha una bassa propensione a generare resistenza spontanea, non mostra tossicità per le cellule umane e ha una potente attività in vivo in un modello murino di infezione da Acinetobacter baumannii. La nostra identificazione di peptidi lazo mirati al ribosoma apre nuove strade verso la scoperta di inibitori alternativi della sintesi proteica e offre un’impalcatura chimica nuova per lo sviluppo di farmaci antibatterici tanto necessari.
Per non confondersi nella comprensione e nella eventuale ricerca di letteratura o sui giornali considerate che il termine inglese lasso corrisponde a quello italiano lazo, entrambi riferentisi alla corda avvolta ad anello usata per catturare gli animali; si tratta infatti di peptidi che hanno una forma ad anello ed una coda. La scoperta di queste sostanze è iniziata nei primi anni 90 ed ha avuto una vera e propria esplosione, come si vede dal grafico sottostante, nel secondo decennio di questo secolo.
Si tratta di una scoperta importante che prevedibilmente porterà ad un futuro Nobel.
Capiamo meglio cosa sono i peptidi lazo.
Anzitutto i peptidi sono una classe estremamente varia di strutture e molecole, costituite da una breve sequenza di amminoacidi e differenziate dalle proteine essenzialmente per le dimensioni, ma che ne conservano la eccezionale variabilità strutturale; in fondo le proteine sono quelle che supportano la infinita varietà di forme della vita che vediamo sulla Terra, ne costituiscono l’infrastruttura, la maschera, lo scudo, il motore, ogni macchina o dispositivo, dunque possiamo pensare ai peptidi come ad attrezzi.
Proprio per questo Hegemann e collaboratori nel 2015 scrivevano nel lavoro da cui ho tratto l’immagine precedente:
I prodotti naturali di origine peptidica rappresentano spesso una ricca fonte di composti di rilevanza medica. La sintesi di tali polipeptidi in natura è avviata dalla decifrazione del codice genetico sul ribosoma durante il processo di traduzione oppure è guidata da processi indipendenti dal ribosoma. In quest’ultimo caso, i peptidi bioattivi altamente modificati sono assemblati da enzimi multimodulari denominati peptidi sintetasi nonribosomiali (NRPS) che agiscono come proteine-template per generare peptidi chimicamente diversi. D’altra parte, la strategia ribosoma-dipendente, pur basandosi strettamente sui 20-22 aminoacidi proteinogenici, genera diversità strutturale attraverso un’ampia modificazione post-traduzionale. Questa strategia sembra essere altamente distribuita in tutti i regni della vita. Un esempio è rappresentato dai peptidi lazo, una classe emergente di peptidi assemblati e modificati post-traslazionalmente a livello ribosomiale (RiPP) provenienti da batteri e descritti per la prima volta nel 1991.
La struttura dei peptidi lazo:
I peptidi lazo sono una famiglia che stiamo da poco studiando di peptidi sintetizzati nei ribosomi ma che possono essere modificati dopo la traduzione da enzimi batterici.
Essi contengono da 15 a 24 residui di amminoacido e condividono una topologia che coinvolge un anello ed una coda (come descritto sempre nell’immagine precedente); l’anello è un cosiddetto anello macrolattamico N-terminale comprendente da 7 a 9 residui in cui la coda C-terminale è intrappolata irreversibilmente (ricordiamo che ogni amminoacido e dunque ogni peptide ha un terminale N (-NH2) ed un terminale C (-COOH)).
L’intrappolamento della coda coinvolge amminoacidi voluminosi situati nella coda sotto e sopra l’anello e/o ponti disolfuro che collegano l’anello e la coda.
Quanti tipi se ne conoscono?
I peptidi lazo si suddividono in tre sottotipi a seconda dell’assenza (classe II) o della presenza di uno (classe III) o di due ponti disolfuro (classe I). La topologia del lazo corrisponde a strutture compatte e stabili sia nei confronti della degradazione da proteasi che verso le condizioni chimico-fisiche di denaturazione.
A cosa servono?
I peptidi lazo sono generalmente antagonisti dei recettori, inibitori enzimatici e/o agenti antibatterici o antivirali (anti-HIV). L’impalcatura del lazo e le attività biologiche associate mostrate dai peptidi del lazo su diversi bersagli chiave li hanno resi, dal momento della loro scoperta, molecole promettenti con un alto potenziale terapeutico.
Come si producono?
Il meccanismo di biosintesi dei peptidi lazo è di grande interesse biotecnologico, soprattutto perché tali strutture altamente compatte e stabili si sono finora rivelate inaccessibili per sola sintesi peptidica. I peptidi del lazo sono prodotti da un precursore lineare LasA, che subisce un processo di maturazione che coinvolge diversi passaggi, in particolare la scissione del peptide leader e la ciclizzazione (indicata sempre in figura).
Queste modificazioni post-traduzionali sono assicurate da un apposito complesso enzimatico, composto da una proteasi e una sintetasi denominato lazo-sintetasi.
Oltre al più noto lazo-peptide, il Microcin J25, prodotto da Escherichia coli AY25, sono stati isolati solo alcune decine di peptidi di lazo, ampiamente distribuiti però tra Proteobacteria e Actinobacteria.
Come si poteva prevedere la scoperta della lariocidina B non giunge inaspettata; sono parecchi decenni che non si scopre una classe nuova di antibiotici e sappiamo che occorrono molti decenni di sforzi PUBBLICI (notate le provenienze degli autori) per passare dalla scoperta all’applicazione pratica, che giunge a fagiolo a causa della crisi della resistenza antibiotica; oggi ci sono batteri resistenti a TUTTI gli antibiotici conosciuti, che a causa della nostra stupidità ci stanno riportando all’epoca pre-penicillina.
Badate!
La stupidità non è casuale ma dipende dal mercato, dalla logica del produrre sempre più, dell’usare gli antibiotici anche quando non servono, ma solo per fare profitti, nell’uso umano ed animale rendendo INUTILI le scoperte ed il lavoro sperimentale.
Non credo questa nuova classe di antibiotici possa saltare l’ostacolo; non ci sono motivi tecnici per ritenere che questa classe di antibiotici non soffrirà MAI di resistenze; non si tratta SOLO di scoprire una nuova pallottola magica ma di usarla CON CRITERIO impedendo alla fame di profitto di intaccare le nuove armi che abbiamo trovato; usarlo quando serve, non in tutti i casi non con lo scopo di fare soldi, ma di salvare vite; altrimenti la resistenza antibiotica potrà fare comunque decine di milioni di morti nei prossimi decenni; ne ha già fatti si stima oltre 4 milioni finora.
Non possiamo continuare a socializzare le perdite e privatizzare i profitti, dobbiamo interrompere questa assurda catena storica, altrimenti la scienza chimica si rovescia nel suo contrario, diventando un’arma di distruzione di massa.
Da leggere anche
Yanyan Li • Séverine Zirah • Sylvie Rebuffat Lasso Peptides. Bacterial Strategies to Make and Maintain Bioactive Entangled Scaffolds Springer 2015.
NdA Il nome inglese lasso-peptides dipende semplicemente dal fatto che il lazo messicano è diventato lasso in inglese, ma si tratta sempre di una corda a cappio usata per catturare gli animali.
Gli allarmi sui PFAS continuano a scuotere la comunità scientifica. L’ultimo riguarda i Vigili del Fuoco: i PFAS possono essere presenti negli equipaggiamenti (tute, maschere) e nelle schiume antincendio.
Gli effetti di questi composti sono molteplici: regressione del metabolismo e del trasporto dei lipidi e di altri processi correlati allo sviluppo ovarico, alla produzione di estrogeni, all’ovulazione, al funzionamento fisiologico del sistema riproduttivo femminile; sovraregolazione di un gene coinvolto nello sviluppo di vari tipi di cancro; tossicità sul sistema immunitario; stress infiammatorio ed ossidativo; aumento della concentrazione di colesterolo e trigliceridi nel sangue; cambiamenti nella sensibilità degli ormoni tiroidei periferici; responsabilità della omeostasi tiroidea; osteoporosi giovanile (anche a bassi livelli di concentrazione).
A fronte di un allarme così articolato e dettagliato, malgrado molti si siano mossi, quanti possono dire di avere ottenuto risultati concreti a seguito delle loro azioni?
I sindacati che per primi si erano mossi hanno poi subito quello che possiamo brutalmente chiamare il ricatto occupazionale, anche comprensibilmente.
La politica, coinvolta indirettamente dalla gestione Solvay e Montedison (ricordiamo entrambe coinvolte nella questione a causa dell’impianto di Spinetta Marengo), ha gestito obtorto collo le prime indagini epidemiologiche, ma certo non ha impresso alla sua azione l’accelerazione che l’emergenza meritava.
L’azione dei magistrati che avevano avuto nel 2009 il coraggio di incriminare la Solvay è stata ridimensionata successivamente: reati di blanda colposità, non obbligo al risarcimento alla vittima, non obbligo alla bonifica, fino all’ipotesi di patteggiamento.
Anche gli avvocati ai quali la querelle ha portato vantaggi economici molto sostanziosi non sono tuttavia riusciti ad ottenere risarcimenti pubblici, neanche con azioni collettive in sede civile, per singoli e per l’ambiente, giustificando questo mancato successo con la difficoltà di censire una massa di persone lese e con la mancata collaborazione dei medici legali.
Infine gli strumenti di comunicazione, in un caso denunciati dalla Procura per i contatti con la Solvay, ma piuttosto teneri rispetto a una denunzia più energica e coraggiosa adeguata a quanto stava avvenendo.
Per quanto riguarda le storie specifiche ai numerosi post pubblicati su questo blog sul tema pfas rintracciabili mettendo nel search in alto a destra di questa pagina il termine PFAS e ai link seguenti:
In queste serate, pre-primaverili è ancora possibile osservare Marte, dopo che, nel mese di gennaio, era visibile nella costellazione dei Gemelli per tutta la notte, essendo in una posizione del cielo opposta a quella del Sole. Anche l’occhio inesperto riesce a cogliere la sua luce rossa, fra le più luminose nel cielo, e che si riesce a distinguere dalle altre stelle, essendo fissa e non baluginante. A seguito della turbolenza atmosferica, infatti la luce dei pianeti appare fissa in quanto, anche se appaiono puntiformi, non lo sono, essendo incommensurabilmente più vicini a noi rispetto alle stelle.
Ma perché il pianeta Marte è rosso? La caratteristica tonalità rossa di Marte è stata a lungo attribuita all’ematite (Fe2O3), uno dei minerali di Ferro presenti anche sulla Terra, anzi il minerale di Ferro più sfruttato, insieme alla magnetite (Fe3O4 o Fe2+Fe3+2O4), dall’industria siderurgica per il suo alto contenuto in Ferro (oltre il 70%). Questo minerale, che sulla Terra si trova in molte rocce effusive, si genera anche per via sedimentaria per diagenesi della limonite(2Fe2O3·3H2O) e si forma in condizioni atmosferiche secche. Una nuova ricerca pubblicata recentemente attribuisce il colore rosso alla ferridrite [1]. La Ferridrite è un ossiidrossido di Ferro (III) che si forma in condizioni ossidanti in presenza di acqua che è coordinata al metallo per cui il minerale ha una formula Fe2O3×0.5 H2O con una composizione cristallina non ben definita. Questo minerale è di natura metastabile essendo un precursore di minerali con composizione cristallina più definita come l’ematite e la goethite (α-Fe3+O(OH)). Tuttavia, la sua trasformazione è generalmente bloccata da impurità di altri composti adsorbiti sulla sua superficie, ad esempio la silice, poiché la maggior parte delle ferridriti naturali sono silicee. La ferridrite si trova anche nel nucleo della proteina ferritina di molti organismi viventi, che immagazzinano il ferro intracellulare [2].
Ora questa nuova ipotesi suggerisce di conseguenza la presenza di acqua in un passato marziano.
Per testare questa ipotesi sono stati incrociati i dati delle analisi dei rover presenti sul pianeta, con le analisi di laboratorio effettuate mediante spettroscopia visibile e vicino infrarosso. Per svolgere queste analisi i ricercatori hanno provato a riprodurre la polvere marziana utilizzando una miscela di ferridrite e basalto, una roccia vulcanica abbondante su Marte. Questa miscela, piuttosto rara sulla Terra è stata recuperata alle isole Azzorre.
Le rocce sono state macinate per abbinare i grani a quelli ritrovati su Marte di dimensioni nanometriche e sono state caratterizzate utilizzando la diffrazione a raggi X e la spettroscopia in riflettanza.
Incrociando gli spettri con le misurazioni a livello superficiale dei rover tra cui Curiosity, Pathfinder e Opportunity, hanno scoperto che la ferridrite, piuttosto che l’ematite, forniva la migliore corrispondenza (Figura 1).
Figura 1: a) Tonalità ocra nelle regioni di tonalità chiara di Marte b) Miscela iperfine (< 1 µm) di ferridrite-basalto (rapporto 1:2) acquisita in condizioni ambientali in un piatto campione c) confronto di uno spettro orbitale di polvere marziana con lo spettro della miscela ferridrite-basalto. Il forte aumento della riflettanza vicino a 0,5 µm è dovuto alla presenza di ferro (III) e al suo assorbimento di transizione a coppie di elettroni, che domina la gamma UV e si estende nelle lunghezze d’onda del blu. (Nature@copyright)
Tuttavia, sembra improbabile che la polvere marziana possa essere ridotta ad un unico spettro, data la probabile variabilità naturale essendo la polvere su Marte, come sulla Terra, generalmente una combinazione di più componenti chimici. L’analisi della regione visibile e infrarossa da sola probabilmente non fornisce una dimensione di dati sufficienti per risolvere completamente l’enigma.
I set di dati dei rover rientrano in una categoria simile a quella della strumentazione Perseverance (https://it.wikipedia.org/wiki/Perseverance_(rover)), che non è realmente progettata per analizzare le informazioni mineralogiche sulla polvere marziana. La terza serie di esperimenti condotti sono esperimenti di disidratazione. Simulando le condizioni marziane hanno esaminato se la ferridrite si sarebbe ricristallizzata in ematite. In particolare è stato verificato che, non solo la ferridrite era stabile, ma perdeva anche un po’ d’acqua in superficie, ma non perdeva l’acqua legata covalentemente.
La conferma definitiva dei composti dietro l’iconico colore di Marte dovrà attendere fino a quando i campioni raccolti dal rover Perseverance non saranno riportati sulla Terra. Una conferma della natura della Ferridrite sarebbe una prova notevole che avvalorerebbe la presenza dell’acqua nel passato geologico di Marte. Inoltre avere i campioni di polvere marziana fornirebbe importanti informazioni su come i minerali evolvono in condizioni drasticamente diverse da quelle della Terra, colmando le lacune critiche nella comprensione dell’evoluzione della superficie planetaria.
La preoccupazione dei consumatori per il crescente numero di composti allertati come pericolosi per la salute eppure presenti in molte delle comuni attività, unita alla sensibilizzazione verso prodotti che provengano dalle risorse rinnovabili più che da quelle fossili, ha prodotto un cambiamento del mercato. Questo era già stato considerato una conseguenza dell’applicazione del REACH e dei prodotti già presenti in commercio, ma non in grado per le proprietà di tossicità, stabilità e bio-accumulabilità di ottenere la certificazione REACH da parte dell’Agenzia Europea per le sostanze chimiche.
Sono queste le basi della chimica verde e sostenibile dei beni di consumo. Una preoccupazione riguarda il passaggio dalla vecchia alla nuova fase che fa prevedere lo smaltimento in contemporanea di molti composti potenzialmente ecotossici; un’altra quanto il crescente numero di composti smaltiti nell’ambiente possa concorrere alla bioresistenza dei batteri.
C’e poi la perturbazione commerciale innescata dall’esigenza di trovare dei prodotti alternativi a quanti, non avendo ottenuto la certificazione REACH, saranno costretti in tempi e modi regolamentati ad essere sostituiti
A queste preoccupazioni se ne aggiungono anche altre più strettamente correlate agli avanzamenti della ricerca. Così in relazione a questi già si parla di un aggiornamento del REACH che consideri come proprietà base dei composti chimici per valutare il loro rispetto del regolamento non solo tossicità, stabilità e bioaccumulabilitá, come avviene oggi, ma anche la loro capacità di penetrare il corpo umano mediante assorbimento, inalazione, ingestione o altra via.
Le capacità di superare le barriere protettive del nostro corpo sono chiaramente elementi che incidono significativamente sull’entità del rischio chimico e potrebbero divenire elementi base per ottenere la certificazione REACH.
Per oltre tre secoli la comunicazione scientifica è stata gestita dalle società scientifiche non solo per la selezione degli articoli, ma anche per la stampa e la distribuzione delle riviste. Alla metà del secolo scorso hanno fatto il loro ingresso in questo campo gli editori di riviste scientifiche ed il loro ruolo si è sempre più affermato negli anni.
Successivamente l’avvento della rivoluzione digitale ha avuto un enorme impatto sia nel mondo della comunicazione scientifica che in quello della valutazione della ricerca. Alla fine del secolo scorso si pensò di utilizzare per la valutazione della ricerca di Università e di altre istituzioni scientifiche, fino ad allora effettuata da peer review ad opera di esperti del settore attraverso una procedura ritenuta lenta e costosa, un approccio quantitativo alternativo basato sui parametri bibliometrici, che presentava anche il vantaggio di apparire più “oggettivo” in quanto eliminava il bias insito in ogni giudizio personale. Le nuove norme hanno prodotto un drastico cambiamento della politica dei dipartimenti e dei centri di ricerca che, per adeguarsi ai nuovi criteri di valutazione, tendono a pubblicare pochi avori, anche a molti nomi, su riviste di interesse generale con indice di impatto (IF) molto alto. Questo ha causato uno scarso interesse dei ricercatori a pubblicare su prestigiose riviste di settore producendo una drastica diminuzione del loro IF. Nel campo della chimica organica possiamo citare Tetrahedron, Tetrahedron Letters, J. of Organic Chemistry, European J. of Organic Chemistry, Organic & Biomolecular Chemistry e molte altre.
L’approccio bibliometrico, nato per la valutazione delle istituzioni scientifiche, è stato esteso alla valutazione di singoli candidati per il reclutamento o la promozione di ricercatori. Gli effetti della valutazione bibliometrica sulla politica degli enti di ricerca sono in contrasto con l’interesse dei giovani ricercatori che vengono valutati positivamente sulla base di un alto numero di pubblicazioni e di citazioni. Inoltre nei lavori con molti autori, in cui spesso il primo nome e/o l’autore di riferimento è un senior scientist, non è facile enucleare il contributo originale del candidato. Questo ha portato alla frammentazione nella pubblicazione dei risultati della ricerca ed alla affermazione dei cosiddetti “predatory journals”.
L’avvento di editori con interessi commerciali ha prodotto negli anni ’90 un notevole aumento del costo delle riviste che ha costretto le biblioteche a disdire molti abbonamenti. Questa crisi ha dato origine al cosiddetto “Open Access (OA) movement” con lo scopo di mantenere la proprietà intellettuale degli autori ed al tempo stesso rendere disponibili sul web i risultati delle loro ricerche. Da qui l’affermarsi delle riviste open access. Esistono diversi tipi di open access. Green OA: gli autori possono archiviare un preprint dell’articolo; Gold OA: oggi il più comune, in cui gli autori, o le loro istituzioni, pagano un Article Processing Charge (APC); Platinum o Diamond OA: in cui sono gratuite sia la pubblicazione da parte degli autori, che la consultazione on line.
I vantaggi del libero accesso sono tuttavia bilanciati dal fatto che il costo del gold OA è abbastanza alto, eccezion fatta per le riviste “top” della American chemical Society (i. e. Central Science) e della Royal Society of Chemistry (i. e. Chemical Science) che sono platinum open access. Gli autori possono includere il costo delle APC nelle richieste di finanziamento, ma molti programmi (Horizon 2020 e molti altri) richiedono che i risultati delle ricerche finanziate vengano pubblicati su riviste openaccess, per cui la maggior parte delle risorse va alle spese di pubblicazione, a danno di quelle necessarie per svolgere la ricerca (reagenti, apparecchiature, partecipazione a congressi, etc.).
A parte i due casi citati, le riviste platinum open access sono rare, spesso non recensite nel web of science e quindi poco consultate. Un esempio forse unico nel campo della chimica organica è Arkivoc (http://www.arkat-usa.org/). La sua fondazione risale al 2000 ed è stata possibile grazie ad una consistente elargizione liberale da parte del prof. Alan Roy Katritzky, scienziato di fama internazionale, che ha portato alla nascita di ARKAT. Gli obiettivi di questa fondazione sono chiaramente riportati:
”ARKAT provides accessibility free of charge for philanthropic reasons to address certain inequalities in the scientific marketplace. The escalating subscription costs of established scientific journals makes it increasinglydifficult for researchers to access primary chemical literature……The contraction of library budgets at universities has led to the disappearance of many second and some first rank journals…….. Consequently, a great deal of sound research work is probably wasted because it can only be published, if at all, in a journal of very limited distribution. This is a tragedy since discoveries which could potentially benefit mankind do not come to light”
Degna di nota è la profetica intuizione del Prof. Katritzky ed apprezzabile la sua generosità volta a favorire i giovani ricercatori, specialmente quelli che operano in aree meno fortunate del pianeta, e la libera circolazione di articoli consultabili gratuitamente dalla comunità scientifica nel campo della chimica organica. Seguendo questo esempio nel 2020 la Accademia Gioenia di Catania – una istituzione scientifica che oltre alla chimica comprende discipline come matematica, fisica, scienze della vita, scienze della terra, ingegneria, scienze applicate, storia e filosofia della scienza – ha deciso di istituire una rivista platinum open access on line che si basa interamente sul contributo volontario dei soci.
* Professore ordinario di Chimica Organica UniCt dal 1990 al 2017, socio della Societa’ Chimica Italiana e Fellow della Royal Society of Chemistry; è stato Presidente della Sezione Sicilia della SCI ed attualmente è Segretario Generale dell’Accademia Gioenia di Catania.