June Monica Brooomhead Lindsey (1922-2021), un’altra donna dimenticata nella storia del DNA

In evidenza

Rinaldo Cervellati

La sua scoperta della struttura dell’adenina e della guanina è stata una parte fondamentale per risolvere il rebus della doppia elica del DNA, ma i suoi contributi sono quasi dimenticati.

June Broomhead (sposata Lindsey) è nata il 7 giugno 1922 da June Broomhead in un piccolo villaggio fuori Doncaster, nel Regno Unito. Alla sua scuola femminile, eccelleva nelle materie scientifiche. Tutti i suoi compagni di classe preferirono andare a Oxford e studiare i classici e argomenti del genere.

June Broomhead Lindsey in gioventù

Lindsey voleva studiare fisica. Qualcuno, forse sua madre Florence Broomhead, l’ha convinta a provare per Cambridge, un’università con esami di ammissione notoriamente difficili. “Anche la madre era una donna in anticipo sui tempi”, afferma la figlia di June, Jane Lindsey (una biostatistica presso la TH Chan School of Public Health di Harvard negli USA): “Suppongo che abbia instillato quel senso di indipendenza in mia madre, che l’ha portata a fare domanda a Cambridge per il suo talento“.

Dopo aver frequentato corsi di latino per soddisfare i requisiti di ammissione all’università, ha ricevuto un’offerta per studiare fisica a Cambridge con una borsa di studio completa.

Tuttavia, quando concluse la dissertazione nel 1944, ricevette un diploma, ma non una laurea completa. Prima del 1948, infatti, alle donne di Cambridge non era permesso ricevere lauree, un punto di vista antifemminista che l’università avrebbe impiegato 50 anni per correggere. Nel 1998, Lindsey e altre 900 donne l’avrebbero finalmente ricevuta in una sfarzosa cerimonia di laurea.

Durante gli ultimi anni della seconda guerra mondiale, Lindsey ha dovuto lasciare Cambridge e fare come le era stato detto. Ciò significava insegnare scienze in una scuola femminile, compensando la carenza di insegnanti di scienze che prestavano servizio nelle forze armate. Ma Lindsey tornò presto a Cambridge come ricercatrice per il dottorato. Fu convinta non solo perché le piaceva la fisica, ma perché lavorare con altri fisici dava più significato alla scienza, come scrisse all’epoca.

Nel 1945, Lindsey si unì al gruppo di cristallografia a raggi X di W.H. Taylor (1905-1984) presso il Cavendish Laboratory. Il dipartimento ospitava i più grandi nomi della cristallografia e di attrezzature all’avanguardia. Sotto la guida del pioniere della cristallografia Lawrence Bragg (1890-1971, Premio Nobel Fisica 1915), gli scienziati hanno puntato i raggi X su tutti i tipi di cristalli inorganici e organici. Ma la comprensione degli elementi costitutivi della vita – proteine ​​e DNA – era al centro dei loro sforzi.

June Lindsey e colleghi al Cavendish Laboratory

Incoraggiata dal successo di Dorothy Hodgkin (1910-1994)[1] e Kathleen Lonsdale (1903-1971)[2], Lindsey decise che la cristallografia sembrava essere un argomento in cui le donne potevano prosperare. Nel 2019 ha ricordato:”Fui messa in una stanza con due uomini e mi sono state date le sostanze su cui lavorare – e ovviamente si trattava di adenina e guanina”.

Nel corso di quattro anni, si assunse l’arduo compito di coltivare cristalli di adenina cloridrato emiidrato e guanina cloridrato monoidrato, ispezionarne le facce e gli assi, disponendoli con cura nel fascio di raggi X ed esponendoli per giorni o settimane per ottenere un modello di diffrazione: una foto con uno schema che mostrava un modello regolare di macchie.

Dovevo identificare da dove provenivano quelle macchie nel cristallo, quali piani stanno disperdendo i raggi X. Dovevo misurare l’intensità relativa di questi punti.” A quei tempi, l’unico modo per farlo davvero era a occhio, creando una specie di film cinematografico.

Fatto ciò, Lindsey dovette dedurre la struttura della molecola attraverso una serie di trasformazioni matematiche. Lindsey ricorda: “Stavo un sacco di tempo seduta alla scrivania  facendo questi noiosi calcoli“. In assenza di computer digitali, infatti, trascorreva ore a calcolare le trasformate di Fourier con le strisce di Beevers-Lipson[3]. Per prima cosa avrebbe ottenuto una mappa di Patterson[4], in cui i picchi rappresentano i vettori tra gli atomi. “L’intera arte consiste nel capire quale tipo di modello darà origine a quell’insieme di vettori. Una volta scelto un modello, torni indietro e stabilisci quali dovrebbero essere tutte le fasi, quindi si ricalcolano di nuovo le mappe, mostrando infine la struttura effettiva.”

June Lindsey (da: The Globe and Mail)

Dal punto di vista odierno, quando la maggior parte del calcolo e dell’elaborazione viene eseguita dai computer, “è difficile apprezzare quanto fosse dura e ripetitiva la cristallografia”, scrive il chimico e storico degli strumenti Andrea Sella, “potevano volerci mesi o forse un anno”.

Tuttavia, Lindsey ha definito il laboratorio “un luogo felice”. Dice la figlia Jane: “Penso che abbia trascorso il periodo migliore della sua vita”. Nonostante sia una delle sole quattro donne tra 100 uomini al Cavendish, Jane afferma che Lindsey “non ha mai percepito che ci fosse alcun tipo di discriminazione”.

Nel 1949, lo stesso anno in cui Lindsey terminò il suo dottorato di ricerca, Francis Crick arrivò al Cavendish. Quattro anni dopo, lui e James Watson avrebbero pubblicato la struttura a doppia elica del DNA e nel 1962 la coppia avrebbe condiviso un premio Nobel con Maurice Wilkins per la loro scoperta (v. https://ilblogdellasci.wordpress.com/2021/12/31/i-retroscena-del-nobel-rubato-a-rosalind-franklin/).

Ma alla fine degli anni ’40, il team sapeva poco della struttura del DNA a parte i componenti di base della molecola: uno scheletro zucchero-fosfato e quattro diverse basi azotate (adenina, timina, citosina, guanina) tutte presenti in quantità uguali. Ora si trovavano di fronte al puzzle di come “legare” quattro basi di dimensioni molto diverse tra due filamenti di zucchero-fosfato paralleli senza che la struttura dorsale si gonfiasse e si deformasse.

È qui che entrano in gioco le strutture a nucleobase di Lindsey, pubblicate in due studi nel 1948 [1]. “Chiunque stesse lavorando sul DNA, cercando strutture, usava praticamente quelle di June“, afferma Alex MacKenzie, professore di pediatria e scrittore a Ottawa (CAN). Secondo il libro dello storico della scienza Robert Olby, The Path to the Double Helix, finalmente Watson ha capito consultando la tesi di Lindsey: “Lì, con suo stupore, ha trovato uno schema regolare di legami idrogeno tra le basi di adenina e guanina proprio il giusto ordine di distanza per alloggiare all’interno della sua doppia elica“, scrive Olby.

Poiché gli atomi di idrogeno erano – e sono tuttora – notoriamente difficili da rilevare mediante la cristallografia a raggi X, Lindsey si era spinta molto a lungo per descrivere i legami a idrogeno intermolecolari tra le coppie di ciascuna base azotata. Da ciò, aveva dedotto le posizioni degli atomi di idrogeno di ogni molecola e molto probabilmente la forma tautomerica.

Watson ha avuto l’idea “meravigliosamente semplice” che le catene di DNA contenessero coppie di basi simili, secondo lo storico della scienza Horace Freeland Judson nel suo libro L’ottavo giorno della creazione. L’accoppiamento di basi consentirebbe anche a una molecola di DNA di decomprimersi e fornirebbe un meccanismo per copiare le informazioni genetiche.

L’idea si è rivelata un po’ troppo semplice: ora sappiamo che le basi non formano coppie simili ma piuttosto coppie purina-pirimidina. Ma è stato un passo importante nella giusta direzione. Sebbene le opere di Lindsey non siano citate nell’influente articolo su Nature del 1953 di Watson e Crick, la coppia ha discusso del suo contributo in un articolo pubblicato dalla Royal Society un anno dopo.

Nonostante abbia lavorato nello stesso edificio di Crick per un anno, Lindsey non ricordava di aver mai parlato con lui direttamente. “Non avevo importanza, ero una donna noiosa“, ha detto. “Se volevano informazioni sul mio lavoro, dovevano andare dal mio collega Bill Cochran“.

Dopo aver terminato il dottorato, Lindsey si trasferì a Oxford, dove ha lavorato con Dorothy Hodgkin sulla struttura della vitamina B12. Ammirava molto Hodgkin, ma a volte trovava frustrante lavorare con lei:  “passavo mesi e mesi a fare questi calcoli elaborati per arrivare al punto in cui poteva iniziare a cercare di capire la struttura fisica, e Hodgkin entrava, guardava l’immagine e capiva“.

Nel 1951, Lindsey si trasferì in Canada per raggiungere il marito George Lindsey[5]. Ha trovato lavoro presso il Consiglio Nazionale delle Ricerche (NRC) a Ottawa, ma poiché era una donna, non è stata assunta come ricercatrice. “Doveva timbrare il cartellino all’ingresso – qualcosa che i suoi colleghi maschi che erano classificati come scienziati non dovevano fare – e aveva uno stipendio abissalmente basso”, dice la figlia Jane.

Al NRC, ha risolto le strutture di importanti farmaci, codeina e morfina. Tuttavia, ha deciso di non pubblicare i suoi risultati su quest’ultimo medicinale quando ha scoperto che Hodgkin aveva incaricato uno degli studenti del suo gruppo di Oxford di lavorare sulla morfina per la sua tesi di dottorato. Preferiva invece che lo studente utilizzasse e si basasse sui suoi risultati.

“Poi ero determinata ad avere figli e non volevo rimanere alla NRC”, ha ricordato Lindsey nel 2019. “Né credevo che se hai bambini piccoli, dovresti avere un lavoro a tempo pieno”. Lindsey non è mai tornata alla ricerca scientifica. “Penso che a volte fosse dispiaciuta di aver lasciato la sua carriera.[Il suo periodo di ricerca] è stato un periodo molto felice della sua vita”, afferma Jane. “L’importanza del suo lavoro potrebbe, ironia della sorte, non essere nota a June come lo sarebbe stata per molte persone”, sostiene MacKenzie.

June Lindsey a 96 anni

Il 4 novembre 2021, June Lindsey è morta all’età di 99 anni. Anche se il suo nome manca da molti libri di storia della scienza, ora potrebbe ricevere un piccolo riconoscimento poiché il Newnham College, il college di Cambridge dove ha studiato come studentessa universitaria, sta valutando l’installazione di una targa in suo onore. Potrebbe anche avere un cameo in un prossimo film biografico su Rosalind Franklin (v. https://ilblogdellasci.wordpress.com/2017/11/27/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-rosalind-franklin-1920-1958/).

“Mi piacerebbe, in definitiva, che fosse conosciuta, per non parlare di targhe e premi”, ha detto MacKenzie in un’intervista per il giornale Ottawa Citizen. “Solo se, quando si parla della doppia elica, la gente fosse consapevole del suo contributo.”

Bibliografia

[1] J.M. Broomhead, The structures of Pyrimidines and Purines. II. A Determination of the structure of Adenine Hydrochloride by x-Ray Methods., Acta Cryst., 1948, 1, 324-329.

*Tradotto e adattato da Katrina Krämer, June Lindsey, another forgotten woman in the story of DNA., Chemistry World, 13 December 2021, e da Elizabeth Payne, Obituary:’Unsung hero’ of science laid the ground work for epic DNA discovery., Ottawa Citizen, November 18, 2021.


[1] Dorothy Mary Crowfoot Hodgkin (maggio 1910 – luglio 1994) è stata una chimica britannica, premio Nobel per la chimica 1964, ha avanzato la tecnica della cristallografia a raggi X per determinare la struttura delle biomolecole, che divenne essenziale per la biologia strutturale.

[2] Dame Kathleen Lonsdale (1903 – 1971) è stata una pacifista, riformatrice carceraria e cristallografa irlandese. Ha dimostrato, nel 1929, che l’anello benzenico è piatto utilizzando metodi di diffrazione dei raggi X. Fu la prima ad utilizzare i metodi spettrali di Fourier mentre risolveva la struttura dell’esaclorobenzene nel 1931.

[3] Le strisce di Beevers-Lipson erano un aiuto computazionale per i cristallografi nel calcolo delle trasformate di Fourier per determinare la struttura dei cristalli dai dati cristallografici, consentendo la creazione di modelli per molecole complesse. Sono state utilizzate dagli anni ’30 fino all’avvento dei computer con una potenza sufficiente che furono disponibili negli anni ’60.

[4] La funzione (o mappa) di Patterson viene utilizzata per risolvere il problema della fase nella cristallografia a raggi X. È stata introdotta nel 1935 da Arthur Lindo Patterson mentre era ricercatore in visita al MIT. È essenzialmente la trasformata di Fourier delle intensità piuttosto che i fattori di struttura. Le posizioni dei picchi nella funzione di Patterson sono i vettori della distanza interatomica e le altezze dei picchi sono proporzionali al prodotto del numero di elettroni negli atomi interessati.

[5]ll canadese George Lindsey, incontrato al Cavendish Laboratory quando entrambi stavano lavorando a un dottorato di ricerca. George stava studiando fisica nucleare. Un erudito, svolse lavori di difesa militare durante la Guerra Fredda.

Origine di molecole organiche in meteoriti provenienti da Marte

In evidenza

Diego Tesauro

Molte missioni sono attualmente in corso per l’esplorazione del pianeta Marte. Diversi robot sono sulla superficie del pianeta rosso per conoscerne la superficie. La Mars Science Lab dal 2011 con il rover Curiosity sta esplorando il suolo marziano, la missione successiva Mars 2020 con il rover Perseverance ha come obiettivi primari studiare l’abitabilità di Marte, investigare il suo passato e cercare tracce di eventuale vita biologica. Anche la Cina è presente con gli stessi scopi con la missione Tianwen-1. A queste missioni sono demandate molte delle risposte per organizzare una missione umana su Marte, ma anche per conoscere se in passato sia mai esistita qualche forma di vita e come essa si sia sviluppata. Eppure per avere maggiori conoscenze si affiancano ancora l’analisi dei campioni di meteoriti arrivati sulla Terra a seguito di impatti su Marte. Fra tutte le migliaia di meteoriti trovate sulla Terra ad oggi ne sono stati identificati 323 secondo la International Society of Meteoritics and Planetary Science [1]. I meteoriti sono raggruppati in 3 sottogruppi: shergottitinakhliti e chassigniti. Gli shergottiti sono rocce magmatiche di formazione recente (circa 180 milioni di anni) che, in base ai minerali che contengono e alla dimensioni dei cristalli, sono basaltiche, olivino-Phyric e Lherzolitiche. Le nakhliti sono anche esse rocce magmatiche ricche di augite, minerale della famiglia dei pirosseni, con cristalli di olivina formatesi a partire da magma basaltico circa 1,3 miliardi di anni fa. Simile età hanno anche le chassigniti . A questa classificazione sfugge il più famoso dei meteoriti ALH 84001 (Figura 1)., il quale presenta un tipo di roccia diverso dagli altri meteoriti marziani, composto prevalentemente da ortopirosseni del gruppo degli inosilicati.

Questo meteorite fu ritrovato in Antartide nel 1984 da ricercatori statunitensi impegnati nel progetto ANSMET. Si suppone che, in base alle ipotesi sull’origine di rocce extraterrestri, il frammento si sia formato a seguito di un catastrofico impatto meteorico su Marte durante il periodo Archeano, circa 4 miliardi di anni fa. Circa 15 milioni di anni fa, in conseguenza di un altro impatto meteorico, il frammento è fuggito alla gravità marziana per arrivare sulla Terra, approssimativamente 13’000 anni fa. Le datazioni sono state individuate mediante tecniche radiometriche basate sul decadimento del Samario in Neodimio (147Sm decade nell’isotopo radiogenico 143Nd messo in relazione con 144 Nd), sul decadimento del Rubidio in Stronzio (87Rb decade nel  87Sr la cui abbondanza è messa in relazione con l’isotopo 86Sr di origine nucleosintetica stellare), del Potassio in Argon (40K decade in 40Ar) e con il metodo del 14C. Al momento della scoperta pesava 1931 g [2].

Figura 1. IL meteorite ALH84001

Dal 1996 questo meteorite è al centro dell’attenzione mediatica poiché, come fu riportato in un articolo pubblicato da David McKay della NASA su Science, sembrava che potesse contenere tracce di vita marziana [3]. In particolare le possibili tracce di vita antica in ALH 84001 potevano essere in globuli carbonati arrotondati brunastri e chiari costituiti dai minerali carbonatici: siderite (carbonato di ferro, brunastro) e magnesite (carbonato di magnesio, trasparente), formati dopo la solidificazione del meteorite. Tre prove furono addotte: (1) la somiglianza dei grani minerali con alcuni prodotti dai batteri della Terra; (2) idrocarburi policiclici aromatici (IPA) che sarebbero potuti provenire da organismi decomposti; e (3) alcune formazioni che, per la loro morfologia, si riteneva potessero essere batteri fossili (Figura 2). Queste strutture, con un diametro compreso tra i 20 e 100 nanometri, erano simili a quelle dei nanobatteri terrestri, ma un ordine di grandezza più piccole di qualsiasi forma di vita cellulare conosciuta.  La notizia trovò vasta eco sui mass media di tutto il mondo; fu persino annunciata ufficialmente dal presidente degli USA dell’epoca  Bill Clinton che parlò di “una scoperta potenzialmente epocale”.

Figura 2 Immagine di microscopia elettronica dei globuli che mostrano una struttura a catena morfologicamente simile ad organismi di natura biologica (Immagine NASA)

Ma già l’anno seguente Becker et al. esaminarono gli IPA in un altro meteorite di origine marziana uno shergottite antartico EETA79001 [4]. Molti degli stessi IPA, rilevati nei globuli di carbonato di ALH84001, sono presenti sia nelle condriti carboniose delle Colline Antartiche di Allan, sia nella matrice che nella componente carbonatica di EETA79001.  Gli scienziati conclusero che Il carbonato è un efficace spazzino di IPA nell’acqua di disgelo del ghiaccio antartico.  La presenza segnalata di L-aminoacidi, di apparente origine terrestre, nel materiale EETA79001 suggerisce che questo meteorite sia contaminato con sostanze organiche terrestri probabilmente anche esse derivate dall’acqua di disgelo che era filtrata attraverso il meteorite. Quindi gli IPA osservati sia in ALH84001 che in EETA79001 derivano da un delivery esogeno di sostanze organiche su Marte o da IPA extraterrestri e terrestri presenti nell’acqua di disgelo o, più probabilmente, da un mix di queste fonti. Pertanto conclusero che gli IPA non siano biomarcatori utili nella ricerca di vita estinta o esistente su Marte.

Inoltre lo stesso gruppo ritrovò tracce di glicina, serina ed alanina successivamente, anche se non uniformemente distribuite [5]. Questi amminoacidi sembrarono essere di origine terrestre e simili a quelli del ghiaccio nella zona dell’Antartide di Allan Hills, anche se non si può escludere la possibilità che piccole quantità di alcuni amminoacidi come la D-alanina si siano conservate nel meteorite.

Il dibattito e gli studi su questo meteorite sono proseguiti negli anni e quasi 200 lavori in 25 anni dal 1994 al 2017 sono stati pubblicati sull’origine e la composizione chimica di ALH84001.  

Una recentissima pubblicazione nei giorni scorsi sembra concludere definitamente questa vicenda dimostrando la formazione delle molecole organiche ritrovate a seguito di reazioni di Serpentinizzazione e Carbonatazione avvenuta su Marte [6].  La Serpentinizzazione è un sintesi abiotica organica nella quale una roccia basaltica come l’olivina (ortosilicato di magnesio e ferro), reagisce con una soluzione acquosa producendo minerali del serpentino, magnetite, e idrogeno secondo le due reazioni:

3Fe2SiO4+2H2O → 2Fe3O4+3SiO2+2H2

3Mg2SiO4+ SiO2 +2H2O → 2Mg3Si2O5(OH)4

L’idrogeno prodotto in questa reazione è poi disponibile per ridurre gli ossidi di carbonio acquosi in metano (via reazione di Sabatier o via reazione reverse water-shift) come pure in altri composti organici come acido formico e formaldeide. Il monossido di carbonio e l’idrogeno possono anche reagire via reazioni Fischer-Tropsch per produrre alcani ed altre molecole organiche, includendo composti organici azotati. I composti organici si trovano nella porzione di campione nella quale la magnetite coesiste con la fase talc-like, indicando che le reazioni della serpentinizzazione marziana è responsabile della reazione di formazione dei composti organici. Inoltre mostrano la presenza di magnetite in un’area contenente solo silicio amorfo, carbonati e carbonio organico indice di formazione della sostanza organica a seguito della reazione di carbonizzazione. Inoltre non è stato rilevato materiale organico in fessure o fessure al di fuori di tali assemblaggi minerali; pertanto, vengono scartate fonti esterne di materiale organico formato o trasportato nel campione da altre zone su Marte. Si può concludere che le molecole organiche si sono formate in situ durante le interazioni dell’acqua sulla roccia. Quindi questi due meccanismi potenzialmente distinti di sintesi organica abiotica operavano sul primo Marte durante il tardo periodo noachiano. Vengono scartate precedenti ipotesi, come processi biogenici, e decomposizione termica di siderite. Questi risultati fanno luce sulla formazione dei composti organici su Marte e forniscono elementi sulle prime reazioni di formazioni di composti organici anche per quanto riguarda la Terra.

Bibliografia

1) https://www.lpi.usra.edu/meteor/metbull.php

2)  https://www.lpi.usra.edu/lpi/meteorites/The_Meteorite.shtml

3) David S. Mckay et al.  Search for Past Life on Mars: Possible Relic Biogenic Activity in Martian Meteorite ALH84001 Science 1996, 273(5277), 924-930. DOI: 10.1126/science.273.5277.924.

2) Becker L., et al. Polycyclic aromatic hydrocarbons (PAHs) in Antarctic Martian meteorites, carbonaceous chondrites, and polar ice. Geochimica et Cosmochimica Acta, 1997, 61, 475-481. https://doi.org/10.1016/S0016-7037(96)00400-0

3) J. L.  Bada et al. A Search for Endogenous Amino Acids in Martian Meteorite ALH84001. Science 1998, 279, 362-365. DOI:10.1126/science.279.5349.362

4) A. Steele,  et. al “Organic synthesis associated with serpentinization and carbonation on early Mars” Science 2022, 375(6577), 172-177.  DOI: 10.1126/science.abg7905

Il grafene può sostituire indio e stagno.

In evidenza

Claudio Della Volpe

L'indio è elencato dall'American Chemical Society come uno dei nove elementi “in via di estinzione” con una limitata abbondanza di circa 250 × 10–9% nella crosta terrestre.
Tuttavia, a causa della mancanza di una valida sostituzione, l'ossido di indio-stagno (ITO) è ancora il materiale preferito per molte applicazioni che richiedono elettrodi conduttivi trasparenti.

Una breve nota su come funziona ITO. L’ossido di indio-stagno (più precisamente ossido di indio drogato con stagno, soprattutto noto con l’acronimo ITO, dall’inglese Indium tin oxide) è una soluzione solida di ossido di indio In2O3 e ossido di stagno (IV) (SnO2), tipicamente in percentuale in peso intorno al 90% In2O3 e 10% SnO2. Esso è elettricamente conduttore e anche trasparente alla luce visibile; come mai?

Gli atomi In+3 nella struttura cubica tipo bixbyite nel In2O3 sono sostituiti con atomi di stagno. Lo stagno forma così un legame interstiziale con l’ossigeno ed esiste sia sotto forma di SnO che SnO2, presentando quindi rispettivamente una valenza +2 e +4. Questi stati di valenza hanno una diretta connessione con la conduttività finale dell’ITO.

Infatti lo stato di valenza più basso (+2) risulta in una netta riduzione nella concentrazione di ioni ossigeno negativi necessari a bilanciare le cariche positive (ce ne vorranno solo due invece di tre ogni coppia di atomi di indio sostituiti); la buca creatasi nella rete di ioni negativi consente la diffusione di questi ioni e dunque parte almeno della conducibilità elettrica (conducibilità ionica). Dall’altro lato una predominanza dello stato SnO2 si comporta come un donatore di tipo n (n sta per negativo) fornendo elettroni alla banda conduttiva (conducibilità elettrica). Dunque nell’ossido di indio-stagno sia lo stagno sostitutivo che la lacuna di ossigeno contribuiscono all’alta conduttività e il materiale potrebbe essere rappresentato come In2-xSnxO3-2x.

L’alta trasmittanza ottica delle pellicole di ITO è anche essa la diretta conseguenza dell’essere un semiconduttore la cui band-gap come si dice, ossia la differenza di energia fra banda di valenza e di conduzione è generalmente maggiore di 3,75 eV. Questo valore corrisponde alla finestra dell’ultravioletto (ma si sposta a più basse lunghezze d’onda con l’aumento della concentrazione di portatori di carica) lasciando libero il visibile.

Dunque ITO è un semiconduttore un po’ particolare e molto usato proprio per queste particolarità. Esso viene depositato su vetri normali in ragione di 20-150nm consentendogli di rimanere trasparente ma di acquisire conduzione elettrica; questo gli consente di essere usato sia nell’industria elettronica che in quella delle costruzioni (le grandi vetrate isolanti sono in pratica “gabbie di Faraday” per gli IR in entrata ed uscita anche se sono costituite di materiali leggermente diversi perché il film è ossido di stagno dopato con fluoro in ragione del diverso bandgap; fateci caso negli edifici con vetrate isolanti spesso il cellulare non riceve!!)

Gli autori del lavoro che presentiamo, membri della Queen Mary University e della Paragraf Limited, affermano: “A causa della sua importanza e scarsità, ci sono stati molti tentativi di sostituire ITO, ma fino ad ora nessun materiale è stato trovato con prestazioni paragonabili in un dispositivo elettronico o ottico“.

Il nostro lavoro è il primo al mondo a dimostrare che il grafene può sostituire ITO in un dispositivo elettronico/ottico. Abbiamo dimostrato che un OLED al grafene ha prestazioni identiche a un ITO-OLED. Gli ITO-OLED sono ampiamente utilizzati come schermi a contatto sui nostri telefoni cellulari.

Sfruttando il grafene monostrato di alta qualità depositato direttamente su un substrato trasparente utilizzando un sistema di deposizione di vapore chimico metallo-organico (MOCVD) disponibile in commercio, sono stati sviluppati diodi organici a emissione di luce (OLED) a base di grafene senza l'uso di catalizzatori metallici. 
Il grafene viene modellato utilizzando la fotolitografia e la sua conduttività è migliorata drogandolo con acido nitrico prima della deposizione dello stack OLED. Le prestazioni ottiche ed elettriche degli OLED a base di grafene fabbricati sono identiche a quelle dei dispositivi di controllo con anodi ITO convenzionali.
https://phys.org/news/2022-01-graphene-rare-metal-mobile-screens.html?deviceType=desktop

DOI: 10.1002/adom.202101675  Adv. Optical Mater. 2021, 2101675

2101675 (1 of 8)  Wafer-Scale Graphene Anodes Replace Indium Tin Oxide in Organic Light-Emitting Diodes  Zhichao Weng, Sebastian C. Dixon, Lok Yi Lee, Colin J. Humphreys,* Ivor Guiney, Oliver Fenwick, and William P. Gillin

Nell’arco di pochi anni dalla scoperta del grafene si sono sviluppati ormai metodi a basso costo per produrlo in ingenti quantità, in dimensioni macroscopiche ed usarlo in comuni applicazioni. Questo almeno in teoria consente di risparmiare elementi rari e difficili da estrarre.

Si tratta certamente di una scoperta molto utile e che crediamo potrebbe avere notevoli applicazioni anche nel campo energetico perché i materiali ITO sono usati in numerose applicazioni che hanno a che fare col risparmio energetico e la conversione dell’energia (es.: vetrate isolanti e celle fotovoltaiche).

La ricerca scientifica fra speranze e timori

In evidenza

Vincenzo Balzani

Le persone vedono la ricerca scientifica in modo ambiguo, con sentimenti che vanno dalle più grandi speranze ai più profondi timori. Le speranze riguardano la possibilità che essa possa risolvere i problemi che affliggono il mondo, cioè che ci permetta di avere cibo sufficiente, farmaci per vincere le malattie e per vivere più a lungo, energia per alleviare la fatica e vivere in modo più confortevole e, infine, che protegga l’ambiente e ci difenda dalle catastrofi naturali.

Dall’altro lato ci sono i timori che nascono dalla convinzione che la ricerca scientifica possa diventare un potere pericoloso, spesso occulto, nelle mani di una minoranza di persone. Nel nostro mondo occidentale, forse, i timori prevalgono sulle speranze.

Consideriamo un esempio recente per trarne qualche spunto di riflessione. L’attuale pandemia COVID-19 sembra aver risvegliato l’interesse delle persone per gli scienziati che vengono continuamente interpellati. La diversità delle loro opinioni spesso disorienta la gente che vorrebbe certezze, rapide e immutabili; queste, però, non sono le caratteristiche della scienza, particolarmente nel caso di fenomeni nuovi come la presente pandemia. E’ proprio il confronto fra opinioni diverse che permette alla scienza di progredire e di trovare soluzioni, via via perfettibili, nei confronti dei problemi che si presentano.

È emblematico che in questo periodo abbia attirato l’attenzione dei mezzi di comunicazione un lavoro apparso su un sito on-line in cui gli autori formulavano l’ipotesi che il corona virus fosse stato creato intenzionalmente in un laboratorio. Questa è proprio la notizia che certe persone volevano sentire, per poi incolpare gli scienziati di complottare contro la società. Il fatto che quel lavoro sia stato ritirato dopo breve tempo dai suoi stessi autori è stato visto, da alcune persone, non come chiara indicazione del suo scarso valore scientifico, ma come dimostrazione che c’é una trama volta alla copertura della “vera verità”. Accusando scienza e scienziati, queste persone si sono sentite sollevate dalla responsabilità che, invece, ciascuno di noi ha per quanto è avvenuto. Infatti, studi scientifici seri indicano che il virus è passato da animali selvatici all’uomo a causa del nostro attuale e dissennato comportamento nei confronti del pianeta. I virus sono, in qualche modo, “profughi” della distruzione ambientale causata dalla aggressività dell’uomo. Stavano bene nelle foreste e nei corpi di alcuni animali, abbiamo offerto loro l’occasione di venire a moltiplicarsi nei nostri corpi.

Il COVID-19 ha messo in evidenza ancora una volta quanto sia importante fornire al cittadino basi scientifiche che lo aiutino a capire come funziona il mondo, a comprendere il lavoro degli scienziati e a comportarsi in maniera responsabile nei confronti del pianeta e delle future generazioni. Ha anche messo in evidenza quanto sia importante che la divulgazione scientifica sia seria, senza trionfalismi e al tempo stesso senza eccessivi allarmismi.

.

I due colpevoli: Elizabeth Holmes e Charles Lieber.

In evidenza

Claudio Della Volpe

Nelle scorse settimane due casi si sono imposti all’attenzione della pubblica opinione mondiale in tema di scienza e applicazioni, entrambi negli USA ed entrambi hanno visto la condanna pesante in termini giudiziari di personalità osannate fino a poco tempo prima.

Si tratta di due casi relativamente diversi fra di loro in quanto a contenuto, ma che possono entrambi aiutarci non solo a riflettere sul mondo americano della ricerca, ma anche a comprendere meglio i meccanismi che in generale collegano la scienza ed il mondo economico e politico.

Entrambi questi casi hanno avuto grande risonanza anche su importanti riviste come Nature, ma molto meno sui giornali specie nostrani per i quali la Scienza è fondamentalmente spettacolo, non un mondo complesso da analizzare criticamente.

Racconto in breve entrambe le storie.

Adattato dal racconto della CNN e di Oca sapiens:

Dopo aver abbandonato nel 2004 la Stanford University, dove era studentessa di Ingegneria Chimica, Elizabeth Holmes, ispirata dalla sua stessa paura degli aghi, avvia un’azienda (NdA:la Theranos) all’età di 19 anni, con la missione di creare un’alternativa più economica ed efficiente a un esame del sangue tradizionale. La Theranos promette ai pazienti la possibilità di testare condizioni come il cancro e il diabete con poche gocce di sangue, attirando così centinaia di milioni di dollari in finanziamenti, da un consiglio di personaggi politici ben noti e partner chiave di vendita al dettaglio (fra di essi: Murdoch, Henry Kissinger, George Shultz (il segretario di Stato di Reagan), William Perry, il generale James “Mad Dog” Mattis.

Per oltre 10 anni le diagnosi della start-up miliardaria sono rimaste credibili, portando il valore della startup Theranos a quasi 10 miliardi di dollari, fino al 2015 (quando ricevette l’approvazione FDA per il test sull’Herpes) e alle domande scomode del biochimico Eleftherios Diamandis e all’inchiesta di John Carreyrou per il Wall Street Journal. Nell’articolo, Carreyrou scriveva, usando le testimonianze di alcuni dipendenti della startup, che la macchina innovativa per fare analisi a partire da una singola goccia di sangue – chiamata Edison, dal nome dell’inventore americano Thomas Edison – semplicemente non funzionava.

Diamandis scrive: La storia ha avuto un impatto negativo sulle nostre amicizie di lunga data e sui rapporti con molte persone, tra cui la dirigenza e molti membri dell'American Association for Clinical Chemistry (AACC), alcuni dei quali sono stati nominati consulenti esperti nel consiglio di Theranos. Alcuni editoriali che abbiamo scritto su Theranos sono stati sottoposti a Clinical Chemistry e ad altre riviste ma non hanno ottenuto un'elevata priorità per la pubblicazione. In un'occasione, il nostro lavoro è stato etichettato come "gossip", più adatto a un giornale scandalistico che a una pubblicazione scientifica di alto livello. Retrospettivamente, crediamo che un certo numero di importanti riviste di medicina di laboratorio, tra cui Clinical Chemistry, abbiano apparentemente giudicato grossolanamente la nuova tecnologia finora segreta che Theranos sosteneva di aver sviluppato. Le ragioni di questo errore di valutazione rimangono speculative.

 Holmes e il suo ex socio in affari, Ramesh “Sunny” Balwani, sono stati accusati nel 2018 dal governo degli Stati Uniti di molteplici accuse di frode telematica e cospirazione per commettere frodi telematiche.

Il processo si è tenuto negli ultimi mesi del 2021; i due sono stati ritenuti colpevoli di alcuni degli 11 capi di imputazione, essenzialmente di truffa nei confronti degli investitori: di cospirazione per frodare investitori e di frode telematica legati a investitori specifici. È stata dichiarata non colpevole di tre ulteriori accuse riguardanti la frode di pazienti e un’accusa di cospirazione per frodare i pazienti. La giuria non ha emesso alcun verdetto su tre delle accuse relative alla frode agli investitori. Holmes rischia fino a 20 anni di carcere e una multa di $ 250.000 più la restituzione di ogni frode.

Anche la storia di Charles Lieber inizia molti anni prima. Lieber è un famoso scienziato, oltre 400 pubblicazioni, 50 brevetti, vincitore di innumerevoli premi internazionali, direttore del Dipartimento di Chimica e Chimica Biologica di Harvard. Il suo settore è quello al confine fra Chimica, Biologia, Elettronica, nanomateriali e nanoscienza per applicazioni potenzialmente rivoluzionarie. E il suo scopo dichiarato è vincere un Nobel.

(ripreso e modificato da https://www.ilpost.it/2021/12/22/charles-lieber-condanna-cina/  )

Nel 2012 (sotto il presidente Obama che fu presidente dal 2009 al 2017) Lieber firma un contratto con le autorità cinesi di tre anni che gli garantiva uno stipendio mensile fino a 50mila dollari, cioè circa 44mila euro, oltre a un bonus da 158mila dollari e un finanziamento da 1,5 milioni di dollari per aprire un laboratorio a Wuhan, Cina. I procuratori dell’accusa hanno anche fatto notare che Lieber riceveva parte del suo stipendio in una valigetta piena di contanti, e che sia nel 2013 sia nel 2014 nella sua dichiarazione dei redditi non compaiono né il suo salario dall’università di Wuhan né l’indicazione di un conto aperto in una banca cinese.

La cosa rimane sotto copertura fino a quando diventa presidente Trump e attiva la cosiddetta China Initiative, una serie di dispositivi di legge e di attività che hanno lo scopo dichiarato di evitare che informazioni e competenze potenzialmente strategiche finiscano nelle mani della Cina.

Nell’ambito di questa operazione Lieber viene interrogato nel 2018 e nega i suoi rapporti con l’università di Wuhan ed anche i soldi ricevuti.

Harvard University professor Charles Lieber leaves federal court, Tuesday, Dec. 14, 2021, in Boston. Lieber is charged with hiding his ties to a Chinese-run recruitment program. His trial is the latest bellwether in the U.S. Justice Department’s controversial effort to crackdown on economic espionage by China. (AP Photo/Michael Dwyer)

La cosa viene scoperta e Lieber diventa il bersaglio di un attacco senza precedenti e di una causa che lo ha visto soccombere su alcuni dei capi di imputazione, che però sono fondamentalmente che egli abbia mentito sui suoi rapporti con i cinesi non che abbia passato segreti scientifici o militari o che abbia evaso il fisco (non finora perlomeno).

Dunque Lieber è stato condannato per cose che esulano da China Initiative, allo scopo si pensa di dare una lezione a tutti i suoi colleghi. Circa il 10% dei lavori pubblicati da americani sono insieme a cinesi; e China Initiative ha contribuito a far condannare decine di ricercatori di origine cinese, con un chiaro intento politico; e ha ridotto la voglia di collaborare fra gli scienziati dei due paesi; il tutto sta avvenendo in un quadro che oggi vede ancora un presidente democratico.

Ci sono state varie dichiarazioni di solidarietà con Lieber, ma Lieber è stato condannato per aver mentito al suo governo, non altro.

Cosa ci insegnano queste due storie?

Ci insegnano due cose: anzitutto anche gli scienziati sono umani, sono come tutti gli altri uomini, hanno i medesimi desideri di arricchimento che vengono da una cultura basata sul denaro e, secondo, che, al di là della onestà personale, la scienza che è oggi la PRINCIPALE forza produttiva del pianeta è frenata dai rapporti sociali che abbiamo. Il desiderio di guadagnare tanto e i conflitti politici ed economici fra diversi paesi rallentano ed impediscono quei rapporti e scambi che sono necessari per far crescere la scienza stessa, si trasformano in conformismo.

Conclusione: per far crescere veramente la Scienza (con la S maiuscola) ci vogliono rapporti umani diversi; anche la pandemia con la incapacità di vincere i legami dei brevetti perfino in una condizione di enorme difficoltà umana, dimostra che questa organizzazione sociale basata sul mercato e il denaro e la crescita infinita è un vero legaccio, un vero intoppo per il nostro sviluppo di specie. Abbiamo bisogno di una politica “di specie” che ci riaffratelli per quello che siamo: una piccola scimmia priva di pelo abbandonata su una piccola astronave in viaggio in uno spazio infinito.

https://edition.cnn.com/2022/01/03/tech/elizabeth-holmes-verdict/index.html

https://www.ilpost.it/2021/12/22/charles-lieber-condanna-cina/

https://www.degruyter.com/document/doi/10.1515/cclm-2021-0994/html#j_cclm-2021-0994_ref_014

Tassonomia e caffè.

In evidenza

Luigi Campanella, già Presidente SCI

Molto si muove sull’energia purtroppo con una permanente incertezza fra dichiarazioni ed atti concreti. Prima della pausa di fine d’anno la Commissione Europea ha stabilito il Ranking delle fonti di energia sostenibili ai fini delle precedenze negli investimenti finanziari. In questo Ranking troviamo anche il nucleare ritenuto importante per ridurre l’effetto serra.

Nel Consiglio Europeo, dove siedono i rappresentanti degli Stati membri si è anche sbloccato il primo atto delegato sul tema tassonomia, documento che ricomprende le attività che danno un contributo sostanziale alla mitigazione ed all’adattamento ai cambiamenti climatici, tenuto finora fermo proprio a causa del braccio di ferro sull’inserimento del nucleare ed anche del gas come fonti utili alla transizione verde.

Il presidente della Commissione Ambiente del Parlamento Europeo ha illustrato la formulazione di compromesso: ok alle centrali a gas se sostituiscono un impianto a carbone e se emettono meno di 270 g di CO2 per kilowattora in media ed a quelle nucleari previa presentazione di misure per ridurre i rischi ambientali delle scorie.

Anche nel nostro Paese intorno alle energie alternative si sta sviluppando il dialogo fra ricerca ed economia. Cito l’esempio recente di SNAM che ha ottenuto buoni ritorni sul mercato dopo la promulgazione del piano di sviluppo nel campo energie alternative.

In particolare è l’idrogeno verde il settore sul quale si sono registrati ritorni di immagine e soprattutto di valore commerciale e di mercato.

SNAM dichiara di puntare ad un abbattimento totale della produzione di CO2 negli anni 2040 e porta a sostegno della serietà del suo impegno alcune situazioni dell’azienda; innanzitutto il fatto di essere già leader in Europa per differenti indici

– la riduzione delle emissioni dei fornitori 

– il peso della finanza green nel 2025 dentro il suo funding

– il dato degli investimenti nella transizione ecologica, 8 miliardi, cioè il 30% del valore delle opportunita 

– gli investimenti entro il 2040 e non ultimo 

– il partenariato industriale con De Nora la cui vivacità è dimostrata dalle joint venture internazionali firmate, (in particolare quella al 35% con un’azienda tedesca la Uhde ChlorineEngineers), dai solidi rapporti con il sistema bancario e dal ricco patrimonio brevettuale

I campi principali di intervento della De Nora che ne agevolano la corsa alle quotazioni in borsa sono le tecnologie elettrochimiche applicate al trattamento delle acque, ma che possono essere strategiche rispetto alla produzione di idrogeno verde, in relazione ai materiali elettrodici di cui De Nora è innovativa produttrice.

Il nodo è però un altro: quanto la ricerca dell’immagine e del ritorno di mercato resti documentazione e dichiarazioni a scapito di una chiarezza operativa con tempi e scadenze non tanto riferite ai traguardi finali ma agli step di avvicinamento ad essi.

Un altro nodo è il futuro della Sardegna. SNAM vuole metanizzarla, mentre Enel vorrebbe sviluppare in Sardegna le rinnovabili e la rete elettrica. E’ uno scontro decisivo. Quanto al cane a sei zampe, da alcuni anni la pubblicità di ENI mostra l’evoluzione del cane, attraverso varie fasi e vari colori: nero, giallo, blu, tricolore, bianco, fino al verde :già questa evoluzione di facciata -ENI publicizza ora anche ENI Cafè-alimenta dubbi circa la sua corrispondenza ad un’evoluzione programmatica ed operativa.

Chimico e ingegnere.

In evidenza

Danilo Tassi*

 Indubbiamente gli anni passati sui banchi e negli eventuali laboratori all’Università, plasmano gli studenti in modo diverso da Facoltà a Facoltà.

Vi sarà capitato di sentir ripetere spesso da un Avvocato “Dove sta scritto?”, magari parlando del più e del meno. Per un avvocato infatti la verità non è quella che percepisce, ma quella desunta da un Codice o da una sentenza pregressa. Se non è scritto non è dimostrato!

Molto meno spesso avrete sentito pronunciare numeri da un Medico. Generalmente il Medico esprime valutazioni qualitative: “Molto, poco, abbastanza, quanto basta, il tempo necessario e così via”. Pochi numeri e molti pareri.

Al contrario un Ingegnere tende a dare una misura a tutto, a calcolare ogni cosa e magari valutare spesso l’aspetto strutturale.

Mai ad un Ingegnere sareste riusciti a far dichiarare morto il Covid alla vigilia della seconda ondata pandemica. Un Ingegnere ed in genere chi ha solide basi scientifiche, dà molta importanza ai numeri e ai dati di cui dispone. Se non ne ha a sufficienza sceglie di non esprimersi.

Anche non esprimere un parere è di per sé un parere: vuol dire che non si hanno abbastanza dati, e derogare da questo principio rivela scarso rigore scientifico.

Oltre agli Avvocati, i Medici e gli Ingegneri, anche i Geologi o gli Economisti o altri laureati sono distinguibili fra loro dal modo di esprimersi.

E un Chimico come si riconosce? Dal comportamento: basta dargli in mano qualcosa di sconosciuto ed il Chimico, dopo averla guardata, magari anche controluce, se la porterà al naso. Il Chimico cerca di capire cosa c’è dentro. Non è solo questione di farci un’analisi, ma di cercar di capire quel che non si vede da fuori.

È chiaro che questa descrizione quasi caricaturale delle diverse sensibilità dei nostri laureati non è generalizzabile perché esistono Medici che conoscono bene la matematica ed Ingegneri che conoscono la chimica meglio di un Chimico, ma queste conoscenze non nascono solo dall’istruzione universitaria, bensì da approfondimenti successivi alla laurea.

I Professionisti laureati.

Finita l’Università ogni Laureato, con il suo imprinting dato dagli studi che ha fatto, entra in una specie di Corporazione che gli consente di lavorare per quel che ha studiato e che impedisce per legge agli altri di farlo. Un Avvocato compie a volte atti puramente burocratici che quasi tutti potrebbero fare, ma che per legge sono di sua esclusiva competenza; un Perito chimico, che conosce l’Analitica strumentale altrettanto bene di un Dottore in Chimica, non può firmare le analisi; senza essere Farmacista non si possono leggere le ricette e consegnare le relative medicine; un Geometra non può firmare alcune pratiche alla sua portata, ma che sono prerogativa dell’Ingegnere; un Infermiere non può sostituire il medico neppure in operazioni elementari, tant’è  che un Assessore regionale dell’Emilia Romagna, Medico, è stato radiato dal suo Ordine per aver consentito la presenza di soli infermieri nelle ambulanze.

Ogni Corporazione difende i propri aderenti da invasioni di campo aliene, ma questo comportamento rende difficoltosa l’osmosi del “sapere” fra una Corporazione e l’altra cosicché si perdono potenziali sinergie che potrebbero migliorare notevolmente il lavoro di entrambe le parti interessate a tutto vantaggio della Collettività.

Ogni componente di una Corporazione diffida del sapere degli altri professionisti e tende a non confrontarsi con loro, anche perché si sentirebbe o darebbe l’impressione di essere, meno competente.

L’Ingegnere ed il Chimico.

Lasciando da parte gli esempi della Medicina, dove alcuni comportamenti rasentano una vera e propria liturgia e degli altri casi citati, esaminiamo quel che succede fra un Ingegnere ed un Chimico, in particolare un Chimico Industriale.

L’Ingegnere ha dalla sua tutta una legislazione, una prassi ed una solidarietà professionale che ne fanno l’indiscusso dominatore nel campo delle costruzioni ed è un bene che sia così perché solo ad Ingegneria se ne studia ad alti livelli la scienza, ma ci sono culture che possono, anzi devono, esprimersi durante l’attività della progettazione. Per esempio la cultura chimica che gli Ingegneri possiedono in genere molto più marginalmente di un Chimico vero e proprio. Vediamo qualche esempio di vita vissuta fra cantieri e fabbriche.

L’acqua della pampa argentina.

Ero in Argentina, qualche decennio fa, in un paesotto di 20.000 abitanti, nella pampa sconfinatamente piatta: Venado Tuerto. Non ci sono fiumi nella pampa perché, in assenza di pendenze, non saprebbero dove andare. Ci sono solo stagni e laghetti visibili quando piove e che scompaiono man mano che l’acqua viene assorbita dal suolo od evapora.

A Venado Tuerto, come in molta parte della pampa argentina, i pascoli, i campi e tutto ciò che si vede, poggiano su un acquifero costituito da uno strato di sabbia, ghiaia, terriccio spesso quasi 200 metri sotto al quale inizia uno strato di argille impermeabili. La falda acquifera, alimentata dalle piogge, si sposta verso il mare con movimento lentissimo: è praticamente ferma.

Non essendoci pendenze non ci sono fogne perché persino la fogna più piatta ha pur sempre bisogno di una anche minima pendenza per poter funzionare, ma in quella zona della pampa non c’è possibilità di alcuna pendenza ed il fiume più vicino dista 170 chilometri. In pratica, sotto il profilo del bilancio idrico, quel paesotto era un sistema quasi del tutto chiuso. Per risolvere il problema degli scarichi fognari qualche progettista a digiuno di chimica puntò sui pozzi disperdenti. In pratica gli scarichi fognari venivano lasciati percolare nell’acquifero puntando sul fatto che, prima di arrivare alla profondità di emungimento dei pozzi per l’acqua potabile, l’acqua di fogna si sarebbe in qualche modo depurata. Così è successo per decenni e Venado Tuerto alimentava il suo acquedotto con acqua presa a  -150 metri mentre gli scarichi erano praticamente a piano campagna; in quei 150  metri l’acqua di fogna, percolando nall’acquifero, perdeva i solidi sospesi, le sostanze organiche venivano digerite da microorganismi, i solfati ed i fosfati precipitavano a composti insolubili e l’Azoto, prima o poi diventava gassoso. Infatti, come ogni Chimico sa anche “ad orecchio”, i sistemi chimici evolvono spontaneamente verso composti meno solubili, meno dissociati e più volatili. Questo concetto per un Chimico fa parte perfino dell’inconscio perché deriva da dimostrazioni termodinamiche o da esperienze nei laboratori di analitica inculcate da più di un esame.

A differenza dell’Ingegnere un chimico si sarebbe anche chiesto che fine avrebbero fatto i cloruri perché, a parte quelli del primo gruppo in Chimica analitica qualitativa (da escludere per ovvie ragioni), i cloruri sono tutti solubili.

Per quanto attiene la precipitazione dei metalli durante la percolazione nell’acquifero si può fare lo stesso ragionamento: molti vengono insolubilizzati, ma alcuni ed in primo luogo il Sodio, restano in soluzione.

In pratica ad ogni giro l’acqua di Venado Tuerto, che era praticamente sempre quella, si arricchiva di Sodio e di cloruri i quali sono molto reattivi e piano piano ha cominciato a portare in soluzione elementi contenuti nelle rocce dell’acquifero, come l’Arsenico, che l’acqua iniziale non riusciva a sciogliere: all’aumentare della salinità aumentava anche la concentrazione di Arsenico nell’acqua potabile ed i casi di patologie ad esso collegate erano ormai non tollerabili.

Chiamato a suggerire una soluzione, alla mia domanda del perché di una scelta così sciagurata come i pozzi disperdenti l’Ingegnere capo del comune mi rispose che anche le autorità mediche non avevano trovato da eccepire circa la soluzione adottata dall’Ufficio tecnico comunale. Infatti per decenni il sistema ha funzionato: cercavano germi patogeni e controllavano la carica batterica, senza neppur sospettare quel che li aspettava. Evidentemente a Venado Tuerto scarseggiavano i Chimici o erano inascoltati: un loro coinvolgimento avrebbe evitato parecchi guai sia agli ingegneri sia ai medici, ma soprattutto agli abitanti. Bastava considerare l’evoluzione dell’indice di SAR o qualcosa di simile per prevedere quel che sarebbe successo nel tempo alle rocce dell’acquifero, ma nessuno ha avuto la sensibilità scientifica necessaria.

Uno zuccherificio molesto ed una discarica pericolosa.

Un altro esempio di scarsa collaborazione fra il Chimico pratico di industria e l’Ingegnere mi è capitato in Italia, in uno zuccherificio vicino ad una città del nord.

Accanto allo zuccherificio erano stati costruiti una decina di grossi bacini destinati a contenerne gli scarichi idrici prodotti durante i tre mesi della campagna bieticola. Tali scarichi venivano poi per tutto l’anno inviati al depuratore biologico delle acque reflue; in questo modo era sufficiente dimensionare l’impianto di depurazione sulla portata media annuale anziché quella trimestrale: quattro volte più piccolo.

In uno zuccherificio lo zucchero contenuto nelle barbabietole viene estratto con acqua calda e per facilitarne l’estrazione le barbabietole stesse vengono preventivamente ridotte in listarelle. Dopo l’estrazione il sugo zuccherino viene inviato alle lavorazioni successive mentre quel che resta delle listarelle costituisce le cosiddette “polpe”, cioè pezzetti di bietola esausta che venivano una volta impiegate per l’alimentazione del bestiame, ma che, a causa del loro scarso potere nutritivo, sono state progressivamente abbandonate, diventando quindi un rifiuto da smaltire.

Poiché ogni smaltimento ha un costo, il direttore di stabilimento pensò bene di buttare le polpe nelle vasche di polmonazione ancora vuote, contando sul fatto che il sole estivo le avrebbe fatte seccare prima del riempimento con gli scarichi idrici.

Così successe, ma quando si cominciarono ad inviare gli scarichi idrici sopra le polpe essiccate, queste ultime andarono in putrefazione e presero ad emanare un fetore avvertibile a chilometri di distanza. L’aggiunta di calce, che al tempo consigliai, ha tamponato temporaneamente il fenomeno della puzza, ma ormai la frittata era fatta. Anche in questo caso un professionista dotato di un minimo di cultura chimica avrebbe previsto quanto sarebbe successo bagnando le polpe essiccate, ma i chimici nello zuccherificio sono in genere tutti nel laboratorio analisi bietole e le scelte di processo demandate al capofabbrica, in questo caso un Ingegnere meccanico.

In un caso simile mi imbattei quando la Società per la quale allora lavoravo propose di trattare i Rifiuti Solidi Urbani di una grossa città del sud con calce, prima dell’interramento in discarica. Il progettista, in questo caso, ahimè, un Ingegnere chimico, contava sul fatto che questo pretrattamento con calce avrebbe permesso lo smaltimento in discarica, vietato al rifiuto tal quale, e che la sterilizzazione dovuta all’azione della calce, avrebbe reso inerte il rifiuto per sempre. Invano cercai di spiegare che prima o poi la forte alcalinizzazione sarebbe stata neutralizzata e che la CO2  prodotta avrebbe vieppiù consumato calce e risuscitato la putrefazione della sostanza organica. Non fui ascoltato, anzi trattato quasi da saputello menagramo, ma sto aspettando che si verifichi quanto avevo previsto. È solo questione di tempo perché nella “pancia” della discarica è presente un sistema chimico estremamente complesso nel quale avvengono le più disparate reazioni le quali inesorabilmente tendono a smussare le eccessive acidità o alcalinità ed a ripristinare il decorso naturale della decomposizione delle molecole organiche più grandi in sostanze a sempre minor peso molecolare.

Calcestruzzo armato, ma indifeso.

L’ultimo esempio riguarda un’isola del Mediterraneo dove è stato costruito, intorno al 2010, l’impianto di depurazione degli scarichi fognari. Si tratta di un impianto che, sfruttando sempre l’attività dei cosiddetti fanghi attivi, utilizza però un sistema chiamato “biofiltrazione”, una complicazione impiantistica utile più che altro alle grosse ditte costruttrici le quali possono brevettare queste tecniche mettendo fuori gioco la concorrenza.

In quell’isola non facevo più il Chimico, ma ero Amministratore Unico della Società di scopo costituita per l’esecuzione dei lavori in JV con un socio non italiano.

Le strutture dell’impianto erano quasi tutte di calcestruzzo armato, materiale che ho sempre guardato con sospetto. Anche prima del ponte Morandi. Il sospetto deriva dal fatto che, per una ragione o per l’altra, un’opera in c.a. ha sempre qualche difetto perché per una buona riuscita devono essere eseguite alla perfezione troppe operazioni. Oltre ad una buona progettazione si deve utilizzare cemento adatto all’impiego che se ne fa, si devono dosare nella giusta quantità i componenti della malta (il mix design), si deve utilizzare acqua con pochi sali disciolti, si deve usare ferro adatto per le armature le quali devono essere distanziate dalla cassaforma, i ferri devono essere ben legati, il getto vibrato per evitare la formazione dei vespai, ma non troppo per evitare la stratificazione nella malta, dopo il getto si devono evitare temperature troppo rigide o troppo alte, il getto va bagnato per evitare che si surriscaldi . . .: è praticamente impossibile che tutti i 290 muratori impiegati in quel cantiere come subappaltatori non abbiano “velocizzato” qualche operazione, magari d’accordo con il caposquadra-padroncino e che tutti abbiano preso le necessarie precauzioni circa la qualità dell’acqua e del cemento. Neppure una Direzione Lavori poliziesca avrebbe potuto evitarlo completamente.

Fatto sta che dopo qualche tempo dalla posa, una piattaforma di c.a. la quale era destinata ad essere sempre sommersa, mostrava evidenti segni di corrosione. Informato del problema, ho metaforicamente indossato di nuovo il mio vecchio camice ed ho fatto segretamente eseguire un’analisi chimica sul calcestruzzo dalla quale è emerso che era stato usato cemento con pochissimi ossidi di Ferro e di Alluminio. Questi ultimi sono quelli che rendono “idraulico” il cemento, cioè lo rendono più adatto alla presa in presenza di acqua. La quasi totale assenza di Ferro e Alluminio rendeva il cemento usato più simile ad un legante aereo che non ad un legante idraulico e quindi la piattaforma deteriorata non era adatta all’uso sott’acqua. Naturalmente non resi pubblica la cosa perché il subappaltatore che aveva usato cemento inadatto, era di nostra competenza in quanto costruttori delle opere civili, ma evitai comunque di perdere altro tempo a scervellarmi circa l’origine del problema, cosa che non fecero i nostri soci stranieri ai quali, per interesse di parte, non potei essere di alcun aiuto. Sarebbe bastata da parte loro una conoscenza, anche superficiale, dell’esistenza dell’Indice di Idraulicità dei cementi.

Un auspicabile ritorno al passato.

Questi esempi, che fra i tanti ho citato, dimostrano, secondo me, la necessità di avere una professionalità che faccia da cuscinetto fra il Chimico e l’Ingegnere chimico: il primo conosce meglio la Chimica ed il secondo è pur sempre un Ingegnere portato a valutare più l’aspetto strutturale che quello chimico.

Questa esigenza era stata avvertita cento anni fa dall’Ingegner Toso Montanari il quale rese possibile la fondazione a Bologna della Scuola superiore di Chimica Industriale che doveva appunto sfornare tecnici con una preparazione intermedia fra la Chimica e l’Ingegneria chimica, fra la conoscenza scientifica e quella tecnica in campo chimico. Chi usciva da quella Scuola poteva indifferentemente svolgere la professione di Ingegnere o di Chimico perché le materie ingegneristiche, come ha ben relazionato il Ch.mo Prof. Ferruccio Trifirò in occasione del centenario della Scuola, erano lì insegnate agli studenti in modo ben più approfondito di quanto non lo siano ora nella Facoltà di Chimica Industriale.

Purtroppo fra le due anime della Scuola, quella chimica e quella ingegneristica, prevalse quella chimica e così la Facoltà di Chimica Industriale, erede della primigenia Scuola, divenne simile a quella di Chimica a Scienze, magari con una maggior propensione alla Chimica Organica per la quale divenne un punto di riferimento internazionale. Ma non era questo l’auspicio iniziale.

Sono fermamente convinto che sarebbe tempo di riesumare l’intuizione dell’Ing. Toso Montanari e di ripristinare una Facoltà di Chimica Industriale, sulla traccia della centenaria Scuola superiore di Chimica Industriale, nella quale lo studio del Disegno, della Fisica tecnica, di Meccanica e macchine, della Termodinamica industriale e degli Impianti chimici sia più approfondito di adesso.

Il recente cambiamento nell’Ordine professionale dei Chimici che ci ha ridotti ad Operatori Sanitari dipendenti dal Ministero della salute, è vissuto come un’onta da chi, come me, ha passato cinquant’anni a progettare, realizzare e gestire Impianti chimici con grandi soddisfazioni professionali, come dimostrano anche i pochi esempi che ho sopra descritto.

*Danilo Tassi, Chimico industriale.

Nato a Brisighella (1947), laureato nel febbraio 1972 in Chimica Industriale a Bologna discutendo una tesi poi pubblicata, Danilo Tassi è stato prima ricercatore e poi progettista e direttore tecnico di grandi impianti industriali e di depurazione sia nel settore pubblico che privato ed ha anche pubblicato lavori su temi relativi al trattamento delle acque.

Chimici (o meglio: alchimisti) all’Inferno

In evidenza

Luciano Celi

Sulla fine di questo anno appena trascorso che, con discrezione, ha celebrato i settecento anni dalla morte del Sommo Poeta, vale la pena di ripercorrere, almeno a volo d’uccello, quel canto della Commedia – corrispondente alla cerchia di Malebolge – dedicato ai “falsatori”. Come mai accanto a Ulisse troviamo gli alchimisti – “falsatori”, appunto, “di materia” e padri di quella disciplina che, meno esoterica, divenne la chimica che conosciamo – ce lo spiega, con dovizia di dettagli, quel grande esegeta che fu Vittorio Sermonti. Secondo un’interpretazione piuttosto unanime infatti, Dante crea una sorta di tassonomia trasversale che raccoglie insieme categorie all’apparenza disparate come, appunto l’Ulisse che ben conosciamo (reo di aver istigato i suoi a seguirlo nell’ultimo viaggio oltre le Colonne d’Ercole), i seminatori di zizzania e costoro che sembrano avere il potere di mutare la materia. La spiegazione di Sermonti, che per noi si fa “meta-Virgilio”, cui volentieri stiamo dietro e senza la quale il Poema (che ingloba in sé così tanti e disparati registri giustapposti – cultura ‘alta’ e ‘bassa’, prestiti da greco, latino e provenzale accanto a termini che arrivano dalle parlate regionali[1], miti classici ed eventi di personaggi minori coevi al poeta ) ci risulterebbe a tratti caotico e incomprensibile.

Insomma, Dante e Virgilio hanno appena lasciato il cerchio di Malebolge più splatter che possiamo immaginare: le persone che hanno alle spalle e con cui il poeta ha scambiato brevi battute – tra i quali niente meno che il profeta Maometto – sono letteralmente divise in due, aperte a fil di spada da un diavolo esecutore della volontà divina (perché in questo poema tutto è congegno divino, compreso l’Inferno) per la ferrea (e veterotestamentaria, verrebbe da dire) legge del contrappasso. Costoro sono artefici di scisma storici (l’Islam e il suo “derivato” sciita) e quindi vengono letteralmente scissi, costretti a trattenere con le mani le interiora mentre si rivolgono ai due poeti-pellegrini. Raccapricciante.

Con questo raccapriccio la discesa verso Cocito prosegue appunto per incontrare altre anime dannate, quelle dei “falsadori” o “falsatori di materia” per mezzo dell’alchìmia. Anche qui il contrappasso non ha bisogno di spiegazioni: hanno mutato la materia e i loro corpi vengono mutati, contraffatti in eterno e infatti si presentano ai due viaggiatori come ricoperti da orribili croste, bolle e piaghe che suppurano. Ma c’è un problema: perché condannare costoro? Di quale colpa così grave si sono macchiati?

Proviamo a seguire il filo del ragionamento che il nostro meta-Virgilio Sermonti propone. In via di principio – dice Sermonti – l’«alchimia naturalis», l’insieme cioè delle procedure chimiche intese all’estrazione laboratoriale di metalli nobili da minerale grezzo, era legittimata dalla dottrina di Tommaso d’Aquino, tanto più che il suo maestro – Alberto Magno, eruditissimo in materia – aveva scrupolosamente descritto e decantato la «coppellazione», capitale fra quelle procedure.

Condannate, viceversa, erano le pratiche finalizzate ad adulterare per lucro la struttura chimica dei metalli nobili, che Tommaso stesso rubricava come «alchimia sophistica». E qui, aggiungiamo noi, si intravvede il lume morale della condanna estendersi all’indietro – almeno fino al terzetto dei filosofi che hanno fondato il pensiero Occidentale (Socrate, Platone, Aristotele).  Costoro infatti non solo distinguevano tra filosofi e sofisti (quindi tra filosofia e sofistica), ma dichiaravano nobile la prima condannando senza appello la seconda, come arte indirizzata a cumulare denari e non a conoscere la verità. Insomma i sofisti, imparentati con quelli che adesso potrebbero essere mutatis mutandis i nostri avvocati, non erano visti molto di buon occhio, così, come sembra, non lo fosse neppure questa forma di alchimia, che spedisce dritti all’Inferno – e anche piuttosto vicino a Lucifero – coloro che la praticavano.

Ma come si arriva fin qui? In via di fatto gli oscuri rituali del laboratorio alchimistico e l’indecifrabile codice ermetico che li occultava, non tardarono ad attirare la diffidenza degli inquisitori di Santa Romana Chiesa, per modo che, sul finire del Duecento – ricordiamo che dall’area arabo-ispanica l’alchimia si era diffusa nell’Occidente cristiano in pochi decenni – riprovazioni, interdetti e roghi ecclesiastici cominceranno a interessare l’intera categoria e il nome stesso di alchimista. Suggestione estemporanea – che suggestione è e rimane, perché di certo non sappiamo se sia lecito calarla nella realtà storica cui abbiamo appena fatto cenno – è quella della celebre “terza legge” di Clarke, secondo la quale «qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia», dove qui “tecnologia” può essere però sinonimo di scienza o anche solo di tecnica. Tanto bastava per insospettire le gerarchie ecclesiastiche, in un’epoca di “facili piromanie” che si estenderanno fino almeno a Galileo.

Sia come sia: la bolla papale che proibisce l’esercizio alchemico sotto qualsiasi forma arriva solo nel 1317, ma la Commedia, lo sappiamo, è un viaggio (retrodatato) che ha inizio nell’anno 1300 e per la precisione la notte del Venerdì Santo. Benché quindi la scomunica ufficiale arrivi appunto solo diversi anni dopo, il fatto che gli alchimisti ben prima finissero per essere sospettati di connivenza con il demonio, prova l’efficacia delle loro operazioni clandestine. Insomma, bruciandoli vivi, la Chiesa si adopera in realtà a purificare la cristianità da una setta diabolica di manipolatori del mondo minerale, non a sgomberarla da qualche ciarlatano.

Ma Dante? Di tutto questo cosa ne pensava Dante? – che, non dimentichiamolo, era un cristiano osservante, così come lo fu Galileo. Seguiamo ancora Sermonti-Virgilio.

In mezzo al mare di ipotesi che si sono fatte in 700 anni una cosa parrebbe certa: che la condanna alla scabbia eterna perpetui la sentenza capitale emessa dai tribunali ecclesiastici. Certezza minima, per altro non facile da conciliare con la frequente constatazione che, tanto nelle sue radici fisiche (che rimontano alla dottrina aristotelica dei metalli), quanto nelle copiose e variegate ramificazioni cosmologiche e antropologiche (derivate dalla simbologia meta-sperimentale degli Arabi), il magistero alchemico, o «ars regia», complemento terrestre del sapere astrologico e di altre matematiche celesti, occupa nell’universo speculativo e fantastico del più grande poeta cristiano uno spazio non marginale.

Dilatarlo a lume di naso, sull’onda dell’esoterismo di massa che imperversa di questi tempi, non costa e non vale nulla. Ma anche tentare di definire tale magistero alchemico e suoi addentellati con inequivoca precisione, richiederebbe una vita, e non è detto che la nostra basterebbe, se non è detto che sia bastata a lui, Dante, la sua.

Ci basti questo scorcio d’Inferno a ricordarci che la “canoscenza” degli alchimisti, così prossimi a Ulisse in quella avventura che la conoscenza è, fu pericolosa allora tanto quanto, se ben adoperata, è salvifica nell’oggi pandemico che viviamo.


[1] Ricordate il “fatti non foste a viver come bruti, ma per seguir virtute e canoscenza”? Quel “canoscenza” è un “meridionalismo” che ancora oggi si sente, con inflessioni diverse, un po’ dappertutto sotto Roma.

Nuove strategie di reazione per gli acidi carbossilici

In evidenza

Rinaldo Cervellati

Gli acidi carbossilici alifatici, catene idrocarburiche con all’estremità un gruppo carbossile (−COOH), sono dappertutto. Il più noto è l’acido acetico (CH3−COOH) presente nell’aceto. Il sale sodico o potassico di un acido carbossilico a lunga catena è l’acido stearico, costituente di un sapone (figura 1).

Fig.1. Due rappresentazioni del sale sodico dell’acido stearico

Ma sfortunatamente, non sono molto utili ai chimici sintetici, infatti la catena satura ha solo due atomi di carbonio che possono reagire: quello nel gruppo carbossilico e quello adiacente. Leigh K. Boerner ci informa che Jin-Quan Yu e colleghi di Scripps Research e Bristol Myers Squibb hanno progettato una reazione che raddoppia il numero di carboni reattivi in ​​queste molecole a quattro, trasformando le molecole in versatili blocchi sintetici [1]. Il gruppo di ricerca ha pubblicato di poter eseguire una deidrogenazione in una fase che attacca selettivamente il legame C–H a due atomi di carbonio lontano dal gruppo carbossilico invece del carbonio adiacente tradizionalmente più reattivo, con un catalizzatore di palladio e uno dei due ligandi piridina-piridone [2].

Questa reazione conduce a composti con doppi legami reattivi che i chimici possono utilizzare per costruire una pletora di strutture cicliche e acicliche, inclusi farmaci e altri composti bioattivi.

Un esempio è riportato in figura 2, dove si parte da un acido 4-cicloesilbutanoico per arrivare al 4-cicloesil−α,β-butenoico:

Fig. 2. Trasformazione di un acido carbossilico in acido α,β-insaturo

I chimici hanno a lungo sognato di usare gli acidi alifatici, componenti dei grassi contenuti in molti saponi, come reagente chimico, dice Jin-Quan Yu, coordinatore della ricerca. Il gruppo ha sintetizzato oltre 80 composti in due varianti della reazione, ciascuna utilizzando un diverso ligando. Il primo, con un ligando piridina-piridone più semplice, produce selettivamente acidi carbossilici α,β-insaturi (in figura). L’altro ligando, con un gruppo isometilico a ponte tra gli anelli piridinico e piridone, dà -alchiliden butenolidi. I ricercatori hanno anche incorporato il gruppo butenolide in composti più complessi, come un precursore del farmaco Seratrodast, una cura per l’asma.

I doppi legami, che sono più reattivi dei singoli legami, sono il punto di partenza per molte reazioni sintetiche organiche. Afferma Yu: “una volta creato un doppio legame, ora sei connesso a tutte queste reazioni”.

Jin-Quan Yu

I ricercatori possono quindi aggiungere gruppi funzionali attraverso questo nuovo doppio legame, consentendo l’accesso a quattro atomi di carbonio sulla molecola: il carbossile più i successivi tre atomi di carbonio sulla catena.

Yu ha lavorato su questa reazione per 20 anni e afferma:“ora posso dire che questa non è fantascienza, è tutto vero”.

Sostiene Manuel van Gemmeren, un chimico organico dell’Università di Münster (Germania): “Questa ricerca rappresenta un enorme passo avanti nella reattività degli acidi carbossilici liberi”.

E Nuno Maulide, un chimico organico dell’Università di Vienna, dice: “Il design dei due ligandi è intelligente e la capacità di selezionare tra acidi carbossilici e altri carbonili nella molecola è insolita e molto utile”.

I butenolidi sono elementi costitutivi efficaci per la sintesi di molecole bioattive e Julian G. West, un chimico organico della Rice University (USA), afferma: “E questa reazione rapida e selettiva per assemblarli potrebbe essere un punto di svolta per molte sintesi“.

Bibliografia

[1] Leigh Krietsch Boerner, Transforming soap into drugs.,Chem. & Eng on line, Nov. 12, 2021.

[2] Zhen Wang et al., Ligand-controlled divergent dehydrogenative reactions of carboxylic acids via C–H activation., Science, 2021, DOI: 10.1126/science.abl3939

Caffè “speciali”.

In evidenza

Claudio Della Volpe

Già in un precedente post dell’amico Gianfranco Scorrano si è ricordato un bell’articolo pubblicato anni fa su J.Chem. Educ. a firma di Marino Petracco della Illycaffè che costituisce certamente ancora un punto di riferimento per chi voglia entrare nel fantastico mondo della chimica del caffè.

A questo aggiungerei anche un secondo articolo raccontato da me più recentemente sempre su queste pagine e dedicato alla modellazione matematica dell’estrazione del caffè espresso; con questa compagnia si può affrontare un tema che va evolvendo meno nella letteratura ma più nella pratica socioeconomica e nella vita di ogni giorno: come sta cambiando il mercato del caffè ed anche la pratica del fare il caffè, il cosidetto specialty coffee (difficile da tradurre esattamente in italiano), ma anche le nuove macchinette del caffè.

Ma il caffè merita tanta attenzione da parte della chimica? Direi proprio di si.

Il caffè viene conteggiato a sacchi da 60kg di semi, di cui si è arrivati a produrne oltre 160milioni e di cui oltre 110 milioni vengono esportati; in effetti i sacchi pesano dai 45 ai 70kg, ma nelle statistiche si considerano da 60kg, sacchi di iuta che di per se non sono il massimo per contenere e trasportare il caffè, già seccato (bianco di solito, ma anche verde). Questi sacchi hanno a loro volta una storia, nel senso che oggi il caffè viaggia spesso in sacchi con una anima di plastica o perfino sottovuoto per conservarne le proprietà organolettiche ed impedirne la variazione o il degrado. Coffee - Wikipedia

Si tratta di quasi 10milioni di tonnellate (10 miliardi di chili, più un chilo a testa) all’anno, prodotte essenzialmente in paesi come Brasile, Vietnam, Indonesia e Colombia, nella fascia tropicale.

Distribuzione geografica della coltivazione del caffè: (r) specie robusta, (a) specie arabica, (m) entrambe

Si dice che il suo valore come merce scambiata sul mercato mondiale sia secondo solo al petrolio, ma comunque si tratta dunque di una merce molto importante che decide le sorti di almeno 25 milioni di produttori nella fascia tropicale del pianeta.

I semi vengono raccolti a mano, quasi sempre da donne, su piccoli alberi della famiglia delle Rubiaceae, del genere Coffea che sono di due specie essenzialmente C. Arabica e C. Canephora o Robusta che si differenziano per una composizione leggermente diversa del seme finale, oltre che per la diversa resistenza ad aspetti climatici. Arabica, meno adattabile alle variazioni climatiche, acquisisce un sapore più delicato, ha un minore contenuto di caffeina e una minore acidità (l’acido del caffè è l’acido clorogenico).

Robusta è quella tendenzialmente dominante come prodotto, ha un sapore più aspro ed è più facile da coltivare. Al momento si dividono il mercato mondiale. Pagato attualmente circa un dollaro a libra al produttore viene rivenduto poi ad almeno 2-3 dollari a libbra nei sacchi ed arriva tostato e macinato nei nostri supermarket ad almeno 10-12 euro al kilo.

Ovviamente anche qui l’effetto covid ha sballato completamente il mercato, questi erano i valori di qualche anno fa.

Il frutto è di un rosso vivace e contiene due bacche che a maturazione sono bianche o anche ancora verdi. Le bacche vengono essiccate al sole e i due semi interni sono la merce esportata.(in realtà esistono almeno due metodi diversi di essiccazione, washed in acqua e natural al sole e le loro varianti)

Anche questi semi da soli possono essere consumati in vario modo; originariamente pare venissero mangiati e ci sono varie leggende sulla scoperta delle proprietà del caffè; culturalmente siamo nel mondo arabo; Mokha è una città yemenita, una volta principale porto sul mar Rosso e i turchi sono stati i primi consumatori sociali di caffè in locali, che sono poi diventati anche i nostri.

La varietà climatica che caratterizza le aree di produzione del caffè è all’origine delle diverse tecniche di coltivazione. In generale, si distinguono le “piantagioni in ombra” dalle “piantagioni al sole”. Nelle prime, tipiche della policoltura tradizionale, il caffè viene coltivato in appezzamenti di superficie inferiore ai dieci ettari e in forma semi-intensiva. Solitamente tale produzione viene praticata nelle zone collinari e montuose dell’America Centrale e del Sud (ad esclusione del Brasile) da piccoli coltivatori che vendono il raccolto agli esportatori locali, a volte con l’intermediazione di cooperative. L’esportatore, che a sua volta rivende il caffè ai trader internazionali, agisce nei confronti del produttore da monopsonista (ossia un solo compratore a fronte di molti venditori con una inevitabile compressione dei guadagni dei produttori): il compratore è price-maker, mentre il produttore ha un potere quasi nullo di contrattazione e deve subire il prezzo che gli viene imposto. In tale contesto, la ridotta dimensione non avvantaggia di certo i piccoli produttori che hanno uno scarsissimo potere contrattuale.
Le piantagioni al sole, invece, sono realizzate su grandi estensioni di terreno (tipiche del Vietnam e del Brasile) e con processi per quanto possibile automatizzati e, come tali, in grado di offrire una maggiore redditività per ettaro coltivato. In Brasile, ad esempio, i grandi latifondisti coltivano il caffè in vaste piantagioni a produzione intensiva, gestendo le varie fasi della catena del valore fino alla vendita del caffè verde alle società esportatrici che operano nei porti di imbarco.

https://agriregionieuropa.univpm.it/it/content/article/31/15/dinamiche-del-mercato-internazionale-del-caffe

Questa descrizione ci fa capire meglio cosa c’è dietro al mercato del caffè ed alle colonnine che vediamo in alcuni supermercati che cercano di vendere caffè “altro”.

Le piante sono soggette a varie malattie tipicamente fungine (la ruggine del caffè) che sono tenute sotto controllo con antifungini, e che colpiscono di più la Arabica; il cambiamento climatico antropogenico modificherà certamente il mercato in futuro.

Il passo successivo è la tostatura, che però non avviene per forza nei paesi di origine ed è fortemente condizionato dai modi di consumare il caffè.

Il caffè è una bevanda ottenuta con una numerosa serie di diversi modi di estrarre i componenti dei semi tostati, denominati a quel punto chicchi, abbastanza acida e con un forte contenuto di caffeina. Questi due aspetti condizionano fortemente i modi di consumarla.

La caffeina, che le piante sintetizzano contro insetti ed artropodi, nell’uomo genera eccitabilità; è un alcaloide naturale presente nelle piante di caffè, cacao, , cola, guaranà e mate e nelle bevande da esse ottenute e viene eliminata con una cinetica del primo ordine: è metabolizzata nel fegato dal sistema enzimatico citocromo P450 ossidasi, dove viene convertita in tre dimetilxantine, che contribuiscono a potenziare l’effetto della caffeina (che è la stessa molecola che si trova in the e cacao):

Nel caffè verde non ancora tostato la concentrazione di caffeina è maggiore; mentre la tostatura produce reazioni di Maillard con la formazione di nuovi prodotti prima non presenti.

C’è una straordinaria varietà di tecniche di preparazione utilizzate tradizionalmente nei diversi paesi, si va dal caffè bollito, caffè turco, caffè percolato e caffè sottovuoto a metodi di infusione (caffè filtro a goccia e caffettiera Napoletana, per gravità) e i metodi a pressione italiani (Moka ed espresso) a cui si sono aggiunti in tempi recenti i metodi basati sulle cartucce metalliche o plastiche, eventualmente molto meglio la cialda di carta. I metodi basati sulla capsula metallica o plastica, tutti basati sull’idea di “conservare “ l’aroma del caffè devo dire che li considero assurdi perché hanno trasformato in un residuo ingestibile un materiale prezioso che può essere invece facilmente usato come una utile aggiunta organica al terreno; i miei fondi di caffè fanno da molti anni e in gran maggioranza questa fine: li raccolgo dalla moka e li metto nell’orto; usare i contenitori di alluminio o di altro materiale rende i fondi del caffè un materiale complicatissimo da smaltire: che assurdità consumista e anche un po’ scema!

Abbasso le cialde metalliche! Il caffè macinato anche al grezzo si può tranquillamente conservare in un contenitore ermetico col tappo anche in frigorifero, come fa mia cognata Franca, per ridurre ogni perdita di aroma e metterlo in caffettiera usando un apposito dosatore di plastica, che personalmente uso da decenni, sempre lo stesso.

Al contrario le cialde metalliche sono un aggravio incomprensibile e del tutto di marketing, una boiatina commerciale che si maschera da qualità.

Comunque sia l’uso delle cialde è una aggravante ambientale. Ovviamente non tutti sarebbero d’accordo con me e del problema cialde ne abbiamo già parlato.

Del tutto diverso il discorso dello specialty coffee.

Qua il discorso si fa complesso; l’idea di base è sapere cosa si consuma e poterlo controllare il più possibile; mettere bocca sulla filiera del caffè insomma, ma anche sui modi in cui le operazioni lo trasformano, operazioni che nel tempo sono sempre più sfuggite al nostro controllo.

Ricordo benissimo quando ero un ragazzino ormai più di 60 anni fa a Napoli. Il caffè si comprava verde e si tostava sul fuoco con un dispositivo che era una pentola di ferro con un lungo manico per non scottarsi ed una manopola per ruotare i chicchi mentre erano sul fuoco; era un modo primitivo certo, ma che ti consentiva di operare direttamente sia come acquirente che come trasformatore.

Poi venne il momento che si compravano i chicchi tostati e si macinavano a casa; anche qui la macinazione era una operazione che si faceva a mano, ambitissima da noi ragazzini; poi si passò ad un macinacaffè elettrico che fu uno dei primi elettrodomestici in quel di Napoli.

Quanti ricordi! Dal fatto che il colore del caffè tostato era basilare per la scelta; troppo tostato, troppo scuro, maschera il sapore e tende ad abbassare la qualità perché permette di recuperare chicchi in stato non proprio perfetto (abbiamo visto che il trasporto può influire sulla qualità). Il colore dovrebbe essere giudicato sul chicco non sulla polvere, perché la polvere tende a sembrare più scura a causa delle dimensioni dei granellini che più sono piccoli più trattengono la luce per riflessione ed assorbimento; pensate al “nero” dei metalli; il “nero” di platino è semplicemente platino molto rugoso che sembra nero ma è lucentissimo a livello micro; idem con qualunque polvere che fa l’effetto assorbimento, come le superfici dei panelli FV insomma.

Fra gli elementi che influiscono partiamo dall’umidità; il caffè inizialmente ne contiene un 11-12%, ma tende ad assorbirne dall’ambiente se troppo umido; poi c’è il problema della miscelazione che tende a mediare tutti i caratteri compresi i difetti; se ci fate caso si tratta sempre di “miscela” di caffè; e in quella parolina, miscela, c’è tutto il trucco non necessariamente chiaro e favorevole al consumatore.

Lo “specialty coffee” tende proprio a chiarire meglio tutti questi passaggi e a fare del caffè finale un prodotto di cui si sa cosa è esattamente, prima di tutto scegliendo un luogo di provenienza (come è coltivato all’ombra o al sole? e dove?) e poi il trattamento, dall’essiccazione, al trasporto, alla conservazione e alla tostatura finale.

Dietro a questo c’è un problema di costi e di prezzi; oggi noi tendiamo a pagare la tazzina al bar un euro circa; è troppo o è molto e chi ci guadagna? E’ un argomento complesso e non mi azzardo ad entrare in questa terra incognita. Comunque anche a 20 euro al kilo (ma anche al supermercato le miscele costano meno) nel costo della tazzina i 5-7 grammi di caffè iniziali dell’espresso contano 10-14 centesimi. Il grosso sono la rendita fondiaria (il fitto del locale) e il lavoro; e qua casca anche l’asino ossia il “nero” (lavoro nero) che è così comune nelle piccole imprese (nero che si confonde col nero eccessivo del caffè troppo tostato).

D’altronde è anche vero che non è detto che la cultura del caffè a Napoli garantisca un caffè migliore di quello di altre città, casomai nordeuropee, dove il caffè si fa in modo del tutto diverso, i costi generali sono più alti e soprattutto le procedure di trasporto, conservazione, arrostimento ed estrazione, etc sono del tutto diverse; diciamo che è bene che se ne parli.

Una critica che vorrei fare a me stesso, prima di tutto, è l’uso dello zucchero nel caffè; che razza di bevanda è una bevanda nella quale per rendere il sapore sopportabile occorre mettere tanto zucchero, un cucchiaino di zucchero da 3-4 g anche in una tazzina di caffè lungo da 30-40ml corrisponde ad una concentrazione che azzera ogni contributo del caffè, è una sorta di ammazzacaffè; in questo ancora una volta mia sorella, figlia e moglie che han deciso da tempo per il caffè amaro mi danno una lezione di gusto e anche di buon senso.

Per apprezzare il caffè occorre berlo amaro e se no cambiare miscela o modo di farlo.

Voi che ne pensate?

Per approfondire i vari aspetti oltre le citazioni contenute nell’articolo consiglio questi link che ho consultato:

https://www.intechopen.com/chapters/71528

https://pages.uoregon.edu/chendon/coffee_literature/

https://sca.coffee/research/protocols-best-practices

https://it.wikipedia.org/wiki/Caff%C3%A8

http://www.coffeeresearch.org/science/sourmain.htm

Un approccio storico al trattamento delle acque

In evidenza

Mauro Icardi

A metà del XIX secolo, nel pieno della seconda rivoluzione industriale le grandi città cominciano ad attrarre decine di migliaia di persone, che abbandonano le campagne e si trasferiscono in città per lavorare nelle fabbriche. Non vi è pianificazione urbanistica, non vi sono interventi pubblici di mitigazione dei problemi sociali. Questo darà origine a crisi di tipo sanitario.

Nel 1858 in Inghilterra a causa di condizioni climatiche particolari, e di un periodo di forte siccità avviene un gravissimo inquinamento del Tamigi. Il fiume diventa una fogna e l’odore che si sprigiona è talmente forte, che il fenomeno sarà ricordato dalle cronache come “La grande puzza di Londra”.

Non ci sarà però solo un problema di forti molestie olfattive, ma anche lo scoppio di un’epidemia di colera.

Le relazioni commerciali tra la Gran Bretagna e l’India attraverso i trasporti via mare, saranno il meccanismo attraverso il quale il colera si diffonderà dall’India all’Europa nel 1831.

Ed è immediato ravvisare l’analogia con quanto accade oggi con la pandemia di Covid-19. I patogeni viaggiano assieme alle merci e ai passeggeri. Navi mercantili in passato, aerei oggi.

Non essendo ancora nota la modalità di trasmissione del colera (si pensava che si diffondesse per via aerobica, e non per ingestione di acqua o alimenti contaminati) non sì capi subito l’importanza di munirsi di adeguati sistemi di fognatura. Non siamo abituati a pensarlo, ma nella Londra di metà ottocento i cittadini più poveri si approvvigionavano di acqua proprio dal Tamigi.

Il sistema fognario della città era parziale e incompleto, e l’acqua corrente nelle case era un beneficio di cui potevano godere solo i cittadini ricchi.

Si diede quindi  inizio alla realizzazione di un sistema fognario più efficiente. L’ingegner Joseph Bazalgette progettò e diresse la costruzione di un sistema di fognature, che allontanasse le acque reflue, convogliandole a valle di Londra. Un primo passo che migliorò in parte le condizioni igieniche. Londra a metà ottocento aveva una popolazione di circa due milioni e mezzo di abitanti. Questo primo intervento fece calare anche l’incidenza di malattie quali il tifo. E le fognature che realizzò, sono ancora funzionanti.

Anche in altre città europee come Parigi e Amburgo si darà avvio a lavori di costruzione di reti acquedottistiche e fognarie. Il maggiore impulso si avrà negli anni tra il 1850 e il 1870, quando saranno i governi e le municipalità, a stanziare i fondi per questo tipo di costruzioni. Già in quel periodo esisteva un problema di gestione dei beni comuni. La gestione dell’acqua era spesso affidata ad aziende private. Allora come oggi il problema era che il privato spesso era restio a investire per la realizzazione di qualcosa che non avrebbe avuto un ritorno economico immediato. Una situazione che ancora oggi è al centro di dibattiti molto accesi.

Non credo sia inutile ricordare questa vicenda storica. E’ stata l’inizio di un percorso che ha portato in seguito  alle costruzioni dei primi impianti centralizzati per il trattamento delle acque reflue.

Tutta sembra originare dagli odori. La tecnica di depurazione a fanghi attivi tradizionale, nasce a seguito della necessità di diminuire l’odore dei reflui fognari. Fornendo aria a un liquame, questo viene colonizzato da una serie di microrganismi (batteri, protozoi, amebe).  Una tecnica ormai matura, durata sostanzialmente per un secolo (il brevetto presentato alla società inglese di chimica industriale, risale al 1914).

Il principio ispiratore, in altre parole l’utilizzo di biomassa per riprodurre in tempi e spazi limitati il fenomeno naturale di autodepurazione dei corsi d’acqua, non sparisce. Sarà supportato avrà dell’ausilio di altre tecniche. Filtri a membrana, adsorbimento, utilizzo di prodotti ossidanti.

Ne ho scritto diverse volte. Potrebbe sembrare che non ci possa essere altro da dire, se non seguire l’evoluzione delle nuove tecniche, darne conto. Basta per esempio leggere sull’Almanacco della scienza del CNR.  La sperimentazione di polimeri che riescono a trattenere per meccanismo di chelazione metalli tossici come l’arsenico, ma anche inquinanti emergenti di origine organica.

Viviamo un momento difficile. La pandemia ha fatto emergere comportamenti incomprensibili e istintivi. Recuperare invece un sano atteggiamento che ci porta a vedere la realtà, senza timori e paure è una condizione sempre più necessaria, e non rimandabile. E mentre scienza e tecnologia ci danno risposte a problemi concreti, io credo che le scienze umane dovranno collaborare per capire il perché di questa deriva irrazionale.

Un filo rosso ci deve congiungere con il passato. Per esempio ricordando i nomi di Filippo Pacini che si occupò di studiare il colera in Italia, del medico inglese John Snow che identificò l’origine dell’epidemia di colera nella fontana di Broad Street a Londra, proprio durante il fenomeno della grande puzza.

L’approccio di tipo storico alla gestione delle acque, può essere un modo per farne capire l’importanza.

http://www.almanacco.cnr.it/reader/cw_usr_view_articolo.html?id_articolo=11977&giornale=11947

Fotochimica per la depurazione dell’acqua.

In evidenza

Luigi Campanella, già Presidente SCI

La fotochimica sta vivendo una fase molto proficua con il numero sia dei lavori che dei team coinvolti in continua crescita.

Un settore che in particolare si fa continuamente leggere nei giornali scientifici e nei siti web di scienza e ricerca è quello della fotodegradazione applicata per rimuovere dalle matrici ambientali alcuni pericolosi composti smaltiti impropriamente.

Recenti esempi di queste applicazioni riguardano la fotodegradazione dei residui di farmaci dalle acque reflue. L’abuso di farmaci da parte dei cittadini ha comportato che con uno smaltimento improprio le acque di tutti i grandi fiumi europei hanno moltiplicato per 50 (in 30-40 anni) la loro concentrazione in residui di farmaci obbligando ad interventi correttivi anche in relazione alle raccomandazioni che in questo senso vengono dall’UE, visto che questi residui sfuggono agli impianti di depurazione e si riversano nei sistemi idrici.

 Un’altra classe di inquinanti a cui la fotodegradazione viene applicata con successo per rimuoverli è rappresentata dai composti fenolici, tossici per la salute umana ed animale, interferenti endocrini e cancerogeni persistenti, provenienti dalle acque reflue delle industrie chimiche che operano nei settori farmaceutico, agro-chimico, petrolchimico e cartario. La rimozione dei composti fenolici mediante fotodegradazione è considerata una tecnica ecofriendly per la generazione di acqua pulita. Una recente ricerca, per sperimentare nuovi e più efficienti catalizzatori, ha messo a punto un materiale a base di nano fibre composite contenenti poliacrilonitrile, nanotubi di carbonio e biossido di titanio ed ottenute mediante processi di elettrofilatura, attivo con luce UV.

Al di là dell’efficienza di valore competitivo, se non superiore, il nuovo sistema presenta il grande vantaggio che, al contrario dei catalizzatori, sotto forma di polvere micrometrica, alla fine del processo può essere recuperato, trattandosi di fibra, e riutilizzato.

La concorrenza più significativa alla fotodegradazione per la rimozione di composti indesiderati è probabilmente rappresentata dall’impiego di enzimi immobilizzati in un materiale simile alla sabbia descritto in due progetti europei PFS e De Pharm.

L’enzima può essere scelto di volta in volta in funzione del composto da degradare con i vantaggi che non viene richiesta energia supplementare e che, essendo gli enzimi catene amminoacidiche, si tratta di composti stabili e degradabili, rispettosi dell’ambiente ed a ridotto impatto ambientale, se confrontati ad altre installazioni per scopi simili.

Il risvolto negativo della medaglia di questi progressi è rappresentato dalle emissioni di gas serra che caratterizzano gli impianti di trattamento delle acque, in particolare metano e protossido di azoto, quest’ultimo è il terzo gas ad effetto serra come importanza dopo CO2 e  CH4. Si tratta di un gas che può persistere in atmosfera per 100 anni e più e che contribuisce per il 7% al riscaldamento climatico. I recenti accordi di Parigi hanno stabilito che queste emissioni da parte degli impianti di trattamento delle acque debbano essere ridotti e questa richiesta non ha una facile risposta per la mancanza di tecnologie capaci di risolvere un problema di per sé complesso. Recenti ricerche hanno evidenziato come la fase di aerazione sia quella cruciale richiedendo, ai fini della riduzione di protossido emesso, una gestione molto efficace. In effetti anche la fase anossica può dare il suo contributo: regolando la fonte esterna di carbonio si possono ottenere buoni risultati, da qui l’aggiunta intermittente delle acque reflue in entrata nel corso delle fasi anossiche consigliata ai fini della riduzione delle emissioni dall’impianto.

Water 2021, 13, 210. https://doi.org/10.3390/w13020210  Minimization of N2O Emission through Intermittent Aeration in a Sequencing Batch Reactor (SBR): Main Behavior and Mechanism

https://doi.org/10.1016/j.jenvman.2020.111563

I retroscena del Nobel “rubato” a Rosalind Franklin

In evidenza

Rinaldo Cervellati

Di Rosalind Franklin (morta di cancro giovanissima, a soli 37 anni) ho pubblicato di recente una biografia su Chimica al femminile (R. Cervellati, Aracne, Roma, 2019, pp. 267-278), ma sulla sua incredibile storia è stato scritto di recente un corposo volume: The Secret of Life, di Howard Markel[1] (W.W Norton Co., 2021 pp. 565), che ci racconta esattamente, fra l’altro, come alla scienziata inglese di origine ebraica fu sottratta la famosa “fotografia 51” che mostrava la doppia elica del DNA.

The Secret of Life di Howard Markel

Il Premio Nobel per la medicina, per la scoperta della struttura del DNA, fu assegnato nel 1962 a James Watson, Maurice Wilkins e Francis Crick.

Watson una volta disse che la sua strada per il Premio Nobel iniziò a Napoli, in Italia. A una conferenza del 1951 incontrò Maurice Wilkins, il biofisico con cui lui e Francis Crick condivisero il Nobel. Durante l’incontro con Wilkins “si rese conto per la prima volta che il DNA poteva essere solubile”, avrebbe detto Watson. “Così la mia vita è cambiata”.

Questo è un bell’aneddoto per i libri di testo di scienze. Ma c’è “un primo atto pacchiano di questa operetta”, prosegue Howard Markel, sul dramma dietro le quinte della famosa scoperta.

A quel tempo, Watson era un arrogante e goffo ventiduenne, che lavorava come borsista post-dottorato presso l’Università di Copenaghen. Il direttore del laboratorio di biologia, Herman Kalckar, invitò Watson e un’altra collega del laboratorio, Barbara Wright, ad accompagnarlo alla conferenza di Napoli. Il fiducioso e competitivo Watson non pensava molto al lavoro di Wright. Era “piuttosto inesatto”, disse. Ma Watson fu lieto di essere invitato al viaggio. “Dovrebbe essere piuttosto eccitante”, scrisse ai suoi genitori.

Watson era annoiato dalla maggior parte delle presentazioni alla conferenza. Ma si riprese quando Wilkins  proiettò immagini del DNA, ottenute con la cristallografia a raggi X. Le nuove immagini  mostravano che la molecola doveva avere una struttura cristallina. Watson in seguito ha cercato di fare amicizia con Wilkins a un cocktail party ma Wilkins, socialmente imbarazzato, fece del suo meglio per evitare il presuntuoso americano. Watson pensò di avere un’altra possibilità quando vide Wilkins che chiacchierava con sua sorella, che si era unita a Watson a Napoli. Ma quando Watson si avvicinò a loro, Wilkins scivolò via.

Tuttavia, l’incontro di Watson con Wilkins ha cementato il suo futuro. Era determinato a scoprire la precisa struttura molecolare del DNA. Sapeva di avere poche possibilità di unirsi a Wilkins nel suo laboratorio al King’s College dell’Università di Londra, principalmente perché a Wilkins non piaceva. Watson decise di unirsi all’altro importante laboratorio di biologia che studiava le strutture molecolari. Al Cavendish Laboratory Biophysics Unit di Cambridge, Watson ha incontrato Crick, intellettualmente inarrestabile, e in due anni il duo ha costruito il primo modello della struttura del DNA. Il loro modello ha mostrato al mondo come il DNA funzionasse plasmando il corso della vita.

In The Secret of Life, Markel si diverte a spiegare il retroscena del primo incontro tra Watson e Wilkins. Ha scoperto che Kalckar aveva una relazione con Wright e voleva mantenere segreti i loro appuntamenti. Watson fu invitato a Napoli “ per fornire copertura alla relazione del suo capo con Wright”, sostiene Markel in una recente intervista. Nel libro, Markel scrive, “non si può fare a meno di sorridere al paradosso che il dipanarsi della doppia elica del DNA è iniziato con l’accoppiamento di Kalckar e Wright”. Questo tocco di spirito aiuta a definire il tono di The Secret of Life. Markel ha messo nel suo libro tutti i membri del King’s College e del Cavendish Lab che hanno tramato a favore della loro ricerca. Watson è chiaramente lo Iago del cast. Sebbene Watson non induca il suo capo a uccidere sua moglie, commette l’”assassinio” del personaggio Rosalind Franklin. In particolare il libro di Watson del 1968, The Double Helix, “l’ha davvero colpito”: il ritratto che Watson fa di Franklin come una furiosa teppista che un giorno “nella sua rabbia cieca” lo avrebbe colpito per averla interrotta costituiva una scena che ha vissuto nell’infamia per anni.

Rosalind Franklin, chimico e matematico, nata a Londra, si  spinse a perfezionare la cristallografia a raggi X. Il processo per individuare gli atomi che costituiscono un cristallo è faticosamente lento. I cristallografi prendono centinaia di immagini fotografiche del cristallo e applicano formule matematiche complesse per determinarne la forma e le dimensioni finali, informandoli sugli atomi coinvolti. Dopo che Franklin, straordinariamente meticolosa e paziente, si fece un nome nella cristallografia, è stata assunta per decostruire il DNA al King’s College. Wilkins sentiva che il DNA era il suo dominio e Franklin era considerata sua assistente, non una scienziata indipendente con la sua mente e i suoi metodi.

Rosalind Franklin

Wilkins e Franklin non sono mai andati d’accordo. Markel amplifica il coro dei loro colleghi sul perché. Watson incolpava Franklin per aver rifiutato di accettare il suo ruolo di assistente di Wilkins. In The Double Helix, scrisse, con la condiscendenza che gocciolava dalla sua penna, il vero problema era “Rosy”. Altri dicono che Wilkins era geloso di Franklin, intimidito da lei, risentito nei suoi confronti per aver corretto la sua scienza in pubblico, o, come scrisse Crick, Wilkins “era innamorato di Franklin”, aggiungendo: “E Rosalind lo odiava davvero… o perché era stupido, che era una cosa che le dava sempre fastidio, oppure succedeva qualcos’altro tra loro”. In ogni caso, ha detto Crick, è stato un “affare di amore-odio tra di loro”.

Markel offre un ritratto sfaccettato di Franklin. Cita una lettera di Mary Fraser, un biofisico del King’s College, che ha scritto che Franklin non voleva mischiarsi con nessuno in laboratorio. Wilkins era “alto, tranquillo, gentile, un brillante sperimentatore che normalmente non avrebbe mai litigato, anche se poteva essere testardo”. Nel frattempo, il “modo di Franklin era piuttosto brusco e tutti si chiudevano e ovviamente non la conoscevano mai. Non poteva essere disturbata dalle chiacchiere sociali: era una noia e una perdita di tempo”. Franklin “era troppo ossessiva e prendeva tutto troppo sul personale: se avesse suggerito a Wilkins che era necessario un aiuto con il problema, sarebbe andato tutto bene, ma lei non voleva alcun aiuto”.

Markel ha detto che gran parte della sua ispirazione per scrivere The Secret of Life sono state le sue due figlie, Samantha, 16 anni, e Bess, 21, che da tempo lo incalzavano a scrivere di Franklin. “Non sono appassionate di scienza”, ma erano a conoscenza della vicenda Franklin. L’interpretazione di Samantha e Bess della storia è che Franklin non è mai stata presa sul serio dai suoi compagni di laboratorio maschi, è stata costantemente oggetto dei loro pettegolezzi sessisti e il suo lavoro è stato rubato da loro. Continuavo a dire loro: “Beh, aspettate ragazze. Dovete leggere i dati, dovete guardare i fatti, non potete presumere. Non è così che facciamo le cose. E poi, quando ho approfondito la ricerca, è stato sorprendente. Era tipo “Wow, questo è molto peggio di quanto pensassimo.”

Markel non è il primo a riportare uno dei peggiori episodi di questa drammatica vicenda: Wilkins, all’insaputa di Franklin, è entrato nel suo archivio e ha recuperato una stampa fotografica, creata da esperimenti progettati da Franklin, e l’ha mostrata a Watson. La stampa, la cosiddetta “Foto 51”, ha rivelato che il DNA aveva una forma tridimensionale con struttura a doppia elica.

La “Foto 51” scattata da Franklin e rubatale dal cassetto.

Watson in The Double Helix ha scritto: “Nell’istante in cui ho visto l’immagine, la mia bocca si è aperta e il mio polso ha iniziato ad accelerare”.

Il famoso incidente è stato riportato da Horace Judson nel suo libro del 1979 The Eighth Day of Creation, e presentato con un ricco contesto dalla defunta biografa, Brenda Maddox, nel suo libro del 2002, Rosalind Franklin: The Dark Lady of DNA. È stato discusso in interviste e libri dalla maggior parte dei protagonisti e dei personaggi secondari, tra cui Raymond Gosling, uno studente di dottorato che ha lavorato con Franklin.  Ha fornito una chiave drammatica che ha portato a girare, nel 2015, il film Photograph 51, con Nicole Kidman nel ruolo di Franklin.

Markel riconosce l’effetto Rashomon[2] dell’incidente, confermato da molte fonti (le note a piè di pagina in tutto il libro sono molto approfondite), ma lui stesso non vede alcuna ambiguità morale in esso: “Non esisteva uno standard etico per cui bisognasse richiedere espressamente l’autorizzazione di Franklin. quindi il fatto che Wilkins mostrò la Foto 51 a Watson rimane una delle più eclatanti fregature nella storia della scienza”.

La fotografia rubata è stato solo il primo reato contro Franklin. Max Perutz, direttore di un’unità di ricerca sulla biofisica di Cambridge, che ha riunito i laboratori che lavorano su progetti simili, ha mostrato un rapporto analitico sul DNA di Franklin e Gosling a Watson e Crick, sempre senza il permesso di Franklin. L’articolo ha innescato una reazione a catena nel cervello di Crick, scrive Markel, e gli ha permesso di comprendere la struttura del DNA, con due catene portanti che giravano a spirale attorno al nucleo interno della molecola, i nucleotidi accoppiati. In The Double Helix, Watson ha scritto che il fondamento logico dietro la struttura della doppia elica nasce dall’idea che i fenomeni biologici sono generalmente in coppia. “Questa è solo una sciocchezza”, ha detto in seguito Crick in un’intervista. Crick ha ammesso che lui e Watson “avevano bisogno di un indizio per arrivare a quel punto, e l’indizio erano i dati di Rosalind Franklin”.

Crick, nel racconto di Markel, è il più simpatico del duo. Franklin, sulla trentina, ha sviluppato un cancro alle ovaie, “dovuto probabilmente alla massiccia esposizione alle radiazioni che ha sperimentato durante il suo lavoro in laboratorio”, scrive Markel, che è anche medico. Markel osserva che il trattamento del cancro negli anni ’50 era “simile alla medicina medievale” e descrive gli effetti delle procedure su Franklin con inflessibile chiarezza, esponendo le profondità della sua sofferenza. Durante alcuni dei suoi momenti più difficili, Franklin è convalescente con Crick e sua moglie Odile nella loro casa a Cambridge. La sorella di Franklin, Jenifer Glynn, che Markel ha intervistato, ha detto che Franklin non nutriva risentimento contro Crick e Watson. Morì nel 1958 all’età di 37 anni. Crick in seguito disse ad Anne Sayre, un’amica e biografa di Franklin, che Franklin avrebbe risolto la struttura del DNA; “con Rosalind era solo questione di tempo.”

Dato il rispetto di Crick per Franklin, il crimine finale compiuto da lui e Watson contro di lei è esasperante. Con “manipolazioni sinistre”, scrive Markel, Crick e Watson hanno manovrato per omettere una citazione formale dei dati di Franklin nel loro articolo su Nature del 1953, spiegando la loro costruzione del modello a doppia elica. Quando loro e Wilkins vinsero il Premio Nobel per la Medicina e Fisiologia nel 1962, né Crick né Watson menzionarono Franklin nelle loro lezioni  Nobel; Wilkins ha solo detto che “ha dato un prezioso contributo all’analisi a raggi X”.

Markel ha esaminato le nomination per il Nobel del 1962 presso l’Accademia reale svedese delle scienze da “alcuni degli scienziati più affermati e ben informati dell’epoca”. Nessuno di loro ha menzionato Franklin. In effetti, non era eleggibile per il premio, che non viene assegnato postumo. Markel, tuttavia, ha portato alla luce un rapporto di 14 pagine per il Nobel per la chimica del 1960 di Arne Westgren, un professore di chimica esperto negli studi cristallografici del DNA e delle proteine. Westgren ha scritto che Crick e Watson hanno prodotto un’ipotesi ingegnosa, ma quelli che meritano più credito per aver decifrato la molecola del DNA sono Wilkins, Franklin e Gosling. Una ricompensa per Crick e Watson che hanno scavalcato quei tre “non sarebbe degna di considerazione”, ha scritto Westgren, aggiungendo che se Franklin fosse sopravvissuta “avrebbe potuto rivendicare la sua parte del premio”. Chiaramente, il verdetto del comitato per il Premio Nobel non è cambiato.

Nel 2018, Markel ha intervistato Watson. La sua reputazione pubblica era pessima a causa del razzismo nei suoi ripetuti commenti secondo cui i neri geneticamente possedevano un’intelligenza inferiore ai bianchi. In The Secret of Life, Markel mostra che il razzismo di Watson è sempre stato parte del suo personaggio. Quando Watson era a Napoli nel 1951, scrisse ai suoi genitori: “L’intera città può essere descritta come una baraccopoli e le persone sono miseramente povere, vivono in baracche che rendono la sezione negra di Chicago quasi piacevole in confronto”.

Markel ha chiesto al novantenne Watson se, in un mondo perfetto, e se Franklin fosse stata viva nel 1962, non avrebbe meritato di condividere con lui il premio Nobel? “Si è alzato lentamente dalla sedia e, con un dito puntato direttamente su di me, ha pronunciato dall’alto: Di solito non vinci il Premio Nobel per i dati che non puoi interpretare.”  Markel ha insistito sulla domanda, dicendo che nemmeno Wilkins nel 1953 poteva interpretare i dati. Watson, ridacchiando, ha risposto: “Volevamo che anche Maurice prendesse il Nobel, perché piaceva a tutti… “.

Markel ha detto che aveva familiarità con l’ego e le gelosie che dilagano nella produzione della scienza. Il processo è stato praticamente sempre immerso nella politica. “C’è sempre competizione, lotte interne e cattivi comportamenti, e potrei parlarti della mia carriera, dove l’ho visto accadere”. Ha fatto un esempio. Negli anni 2000, stava lavorando all’analisi delle malattie infettive, in particolare il virus dell’influenza aviaria H5N1, con i funzionari del Centro per le Malattie Infettive (CDC). In un documento del 2007, ha coniato un termine per indicare la riduzione delle infezioni implementando azioni per consentire alle persone di mantenere una distanza di sicurezza l’una dall’altra, l’ormai onnipresente “appiattire la curva”. Mentre Markel stava accumulando i dati e aiutando a progettare misure sociali, mi ha detto: “Tutti dicevano: ‘Sbrigati, sbrigati, dobbiamo ottenere i dati, dobbiamo farlo.’ Capisco la dinamica in gioco”.

Tuttavia, come ha fatto Markel a spiegare come Watson e il più simpatico Crick abbiano commesso l’eclatante peccato di seppellire il ruolo di Franklin nel decifrare il codice biologico della vita? “Avevano tutto l’interesse nell’abbellire la storia”, scrive Markel. “Volevano controllare la storia raccontando la loro”.

All’inizio di The Secret of Life, Markel scrive: “Sepolta sotto strati di interpretazione, spiegazioni e offuscamento, la scoperta della struttura molecolare del DNA è uno dei misteri più complicati nella storia della scienza”. Alla fine del libro, mi ha fatto piacere sentire di aver capito chi l’aveva fatto.

*Tradotto e adattato da Kevin Berger, One of the Most Egregious Ripoffs in the History of Science, Nautilus, October 20, 2021.


[1] Howard Markel è medico e professore di storia della medicina all’Università del Michigan, autore di libri di saggistica che scorrono come romanzi.

[2] L’effetto Rashomon è un termine utilizzato per descrivere una situazione di cui gli individui coinvolti danno interpretazioni o descrizioni contraddittorie, dimostrandosi dei testimoni inaffidabili.

Donne e scienza nel Covid

In evidenza

Luigi Campanella, già Presidente SCI

Abbiamo più volte parlato in questo blog del ruolo fondamentale della donna nel progresso scientifico. A queste preziose figure a cui ci siamo riferiti è da sempre andato il nostro augurio di conquistare la visibilità e lo spazio che meritano. Ormai i grandi giornali scientifici da Nature a Science come anche i mass media tornano spesso a parlare della donna nella scienza e sempre più si consolida l’idea che se quantitativamente ancora la distanza da coprire per l’equiparazione, a partire dalle iscrizioni alle facoltà universitarie STEM è lunga, qualitativamente il gap si sta saldando con preziosi contributi nei campi più disparati delle Scienze dallo Spazio all’Immunologia, dalla Robotica all’Ambiente.

Oggi, in questa prospettiva, mi fa piacere parlare di una scienziata meno nota al grande pubblico, ma che con riferimento alla pandemia merita la massima attenzione. Parlo della vincitrice 2021 dell’Ambrogino d’Oro Valentina Massa prof.ass.to di Biologia Applicata all’Università di Milano e biologa dell’Ospedale Sacco che ha contribuito a risolvere un problema del nostro tempo correlato alla pandemia, quello della diagnosi sicura, di massa e non invasiva.

https://lastatalenews.unimi.it/covid-19-maggio-test-salivare-statale-per-screening-scolastici

http://www.diss.unimi.it/ecm/home/aggiornamenti-e-archivi/tutte-le-notizie/content/ambrogino-doro-a-valentina-massa.0000.UNIMIDIRE-95026

Queste caratteristiche non sono presenti insieme e la proposta del test salivare messa a punto dalla prof.ssa Massa appare particolarmente interessante anche in relazione al coinvolgimento nella procedura vaccinale della fascia di età più bassa, a partire dai bambini di 5 anni.

Il test consiste nel tenere in bocca un cotton-fioc che funziona come un tampone, ma con l’affidabilità del molecolare (95% di accuratezza) maggiore del genetico, ed oggi utilizzato da ragazzi e bambini nelle scuole sentinelle di tutta Italia.

Il test ribattezzato “dei lecca-lecca” ha dovuto aspettare alcuni mesi prima di essere inserito nei protocolli nazionali e regionali.

Il test molecolare su campione nasofaringeo e orofaringeo rappresenta il gold-standard internazionale per la diagnosi di COVID-19 in termini di sensibilità e specificità. La metodica di real-time RT-PCR (Reverse-Transcription-Polymerase-Chain-Reaction), che è quella più diffusa fra i test molecolari, permette, attraverso l’amplificazione dei geni virali maggiormente espressi, di rilevare la presenza del genoma virale oltre che in soggetti sintomatici, anche in presenza di bassa carica virale, spesso presintomatici o asintomatici. Il campione di saliva può essere considerato un’opzione per il rilevamento dell’infezione da SARS-CoV-2 qualora non sia possibile ottenere tamponi oro/nasofaringei: nei sintomatici il test deve essere eseguito entro i primi 5 giorni dall’inizio dei sintomi. Negli asintomatici il test può essere considerato un’opzione al tampone nasofaringeo, per chi è sottoposto ripetutamente a screening per motivi professionali.

Il test può anche essere utilizzato per aumentare l’accettabilità di test ripetuti come nel caso di anziani e disabili. L’uso della saliva per la diagnosi di infezione da SARS-CoV-2 prevede un metodo di raccolta non invasivo, tuttavia per ottenere un campione adeguato sono necessarie alcune accortezze: la saliva deve essere raccolta a digiuno, senza aver fumato, lavato i denti, bevuto, usato gomma da masticare e preferibilmente di mattina.

Il cambiamento climatico “implicito”.

In evidenza

Claudio Della Volpe

Oggi abbiamo dei, sia pure deboli, movimenti no-vax; fanno tanto rumore, ma in fondo mettono in piazza poche persone anche se ne influenzano molte di più, se ancora oggi nel nostro paese oltre 6 milioni di persone adulte non sono vaccinate contro il COVID-19.

Ma a me fan paura di più i futuri movimenti che definisco no-cox; cosa sono, direte voi, i no-cox?

Sono quelli che negano l’effetto della CO2, dei gas serra sul cambiamento climatico; a questo punto voi obietterete: ma sono una minima parte, non fanno manifestazioni, almeno al momento. Certo risponderò io, adesso, ma ne faranno molte più dopo il 2050 quando ragionevolmente avremo (o meglio avrete, io ho 71 anni e non ci sarò più) realizzato in gran parte la transizione energetica. A questo punto potreste sbarrare gli occhi e considerarmi un po’ matto, ma vi assicuro che non lo sono.

Mi rendo conto che devo spiegarmi meglio, se no sono oscuro.

Oggi tutti i giornali sono pieni dei titoli riguardanti le discussioni sul clima, gli accordi internazionali sulla riduzione dei gas serra e sostengono che non occorre superare il limite di 2°C o meglio 1.5°C di aumento per evitare le peggiori catastrofi, ma pochi chiariscono cosa significa esattamente.

Vuol dire che se nel 2050 riusciremo ad arrivare al pareggio fra gas serra emessi ed assorbiti vedremo dal 2051 una riduzione delle temperature?

Nella mente del lettore c’è questa consapevolezza, ma in realtà le cose NON stanno così.

Anche dopo che avremo bloccato la produzione diretta di gas serra di origine antropica il clima non tornerà allo stato precedente o anche se ci tornerà lo farà con una lentezza enorme, tipica di un sistema enorme e complesso, dotato di meccanismi di retroazione a volte non ben conosciuti o comunque difficili da comprendere. Ragionevolmente anche in assenza di produzione diretta di gas serra avremo sia ulteriore aumento di gas serra in atmosfera che aumento ulteriore delle temperature, fusione dei ghiacciai, variazione del pH oceanico. Probabilmente alla fine rimarrà per decenni o secoli su un livello più alto di temperatura media. Ma come è possibile tutto ciò?

La ragione di fondo sta in una cosa che è stata raccontata in un bel libro scritto molti anni fa da un nostro collega di Siena, Enzo Tiezzi, “Tempi storici e tempi biologici”, la cui lezione di base era che la scala temporale della società umana è molto più breve di quella della nostra ecosfera, che viaggia su tempi molto più lunghi; si tratta di un comportamento tipico di quelli che chiamiamo “sistemi complessi”. Grazie ai meccanismi interni di retroazione tali sistemi tendono a resistere alle modifiche e si adattano ad esse con un ritardo che dipende dal caso specifico.

La scienza del clima ha accettato questa idea nei suoi modelli e chiama questo fenomeno con un termine inglese “climate commitment” introdotto dall’IPCC nel 1995, che è stato tradotto male in italiano, con l’aggettivo indotto; vedete per esempio sulla pagina dell’INGV: https://ingvambiente.com/2021/03/18/perche-mantenere-il-riscaldamento-globale-sotto-1-5c/

Però, mi duole dirlo, questo aggettivo “indotto” è ben lontano da una corretta resa del termine inglese commitment, tanto è vero che in wikipedia italiana non c’è una pagina dedicata, ma c’è in quella inglese; e cosa dice? traduco:

Climate commitment describes the fact that climate reacts with a delay to influencing factors (“climate forcings“) such as the presence of greenhouse gases. Climate commitment studies attempt to assess the amount of future global warming that is “committed” under the assumption of some constant level of forcings.

L’impegno climatico descrive il fatto che il clima reagisce con ritardo a fattori di influenza (“forzanti climatici”) come la presenza di gas serra. Gli studi sull’impegno climatico tentano di valutare la quantità di riscaldamento globale futuro che viene “impegnato” nell’ipotesi di un livello costante di forzanti.

Commitment significa letteralmente impegno, con due componenti di significato. È qualcosa che dura a lungo e che vi obbliga lo vogliate o meno; voi come chiamereste un giuramento per la vita, chessò sposarsi o meglio fare un figlio? Ecco questi sono atti che implicano un impegno a lungo termine, un commitment, che vi legano in modi complessi e di cui non vi rendete conto subito e da cui non potete schiodarvi qualunque cosa facciate. Beh ovviamente potete divorziare, ma ci metterete anni a rifarvi una vita, una decina diciamo, e liberarvi di un figlio non è possibile; se siete genitori lo sarete per sempre, dai vostri figli non potete nemmeno divorziare.

E lo stesso vale per il clima. Non c’è un pianeta B.

Non c’è un termine esattamente corrispondente a “commitment” in italiano ed ecco perché la scelta di tradurlo con l’aggettivo “indotto” è secondo me sbagliata; indotto non rende bene nessuno dei due aspetti che dicevo prima: né la durata, né l’obbligatorietà. Il cambiamento climatico è SEMPRE indotto.

Al limite si potrebbe dire “implicito”, ma perderemmo l’aspetto della lunga durata.

Approfondiamo qualcuno degli effetti “impliciti”.

Anzitutto è da dire che ci sono effetti “impliciti” ma anche contraddittori: se smetto di bruciare fossili elimino per esempio il particolato, ma il particolato ha un ruolo misto, in parte riflette (solfati ad esempio) ed in parte assorbe (black carbon) la luce solare; quale vincerà?

Se smetto di accumulare gas serra in atmosfera è vero che la pressione parziale diminuisce, ma dato il ritardo nell’aumento della temperatura oceanica, quando la temperatura dell’oceano profondo aumenterà, la solubilità dei gas diminuirà; questo contrasto fra pressione parziale e temperatura è un’altra incertezza che non aiuta nella prevedibilità.

https://doi.org/10.1016/j.quascirev.2016.12.021

Dunque non è banale prevedere cosa succederà a causa del ritardo nella reazione del sistema climatico; alcuni ricercatori comunque ci hanno provato costruendo dei complessi modelli climatici e la loro conclusione (si vedano gli articoli citati in fondo) è la seguente:

  1. Tutti coloro che han provato a calcolare questi effetti “impliciti “e“ritardati” dovuti all’accumulo di gas serra in atmosfera concludono che l’effetto complessivo aumenterà il valore del salto termico anche successivamente al momento in cui si interromperà la produzione netta di gas serra
  2. La stima del salto termico successivo dipende dai dettagli del modello, ma non è inferiore ad un ulteriore mezzo grado; ecco dunque perché il famoso “grado e mezzo” in realtà corrisponderà ad almeno 2°C finali a regime
  3. Secondo i calcoli più recenti, che tengono conto del cosiddetto “pattern effect”, ossia della disuniformità della temperatura terrestre che è maggiore all’equatore e dei diversi tempi di assorbimento del calore da parte dell’oceano profondo l’effetto sarà maggiore e si potrebbe arrivare ad un salto ulteriore di 1.3-1.5°C al 2100; dunque stiamo parlando di quasi 3°C complessivi di aumento.
  4. I principali meccanismi di commitment sono: ritardo nel riscaldamento oceanico (l’oceano si rimescola in 10mila anni); emissione di altri gas serra (metano, protossido di azoto) a causa della fusione del permafrost e del riscaldamento oceanico; perdita di albedo (dovuta alla fusione della criosfera); ma ce ne sono anche altri seppure di minore peso.

Allora immaginatevi cosa succederà nel 2050: se avremo fatto i compiti a casa, cambiato modalità di produrre e consumare le risorse energetiche con gran sforzo e costi sociali non indifferenti, alla fine i gas serra e la temperatura media continueranno ad aumentare per un  po’ (decenni o secoli) ed ecco che qualcuno comincerà a dire: è un complotto, l’aumento c’è (sarà inevitabile vederlo con mari aumentati, cuneo salino in val Padana, insetti strani che portano malattie pazzesche, l’agricoltura in crisi e tenete presenti che secondo alcuni calcoli dell’ENEA alcune città italiane saranno invase dall’acqua entro il 2100, Venezia e Napoli, guardatevi le mappe),  ma non c’entrano i gas serra, è il Sole, oppure è un complotto degli extraterrestri, è un complotto dei banchieri, lo fanno per ridurci il salario, rivogliamo le auto fossili, siamo peccatori, e così via; 

i “no-cox” sono questo, una possibile reazione di incredulità al modello che la scienza faticosamente, e anche contraddittoriamente, cerca di costruire di un sistema complesso. I climatologi riceveranno telefonate minatorie come i virologi adesso e qualcuno si prenderà almeno una testata.

Per stare sul leggero.

Voi che ne pensate?

Riferimenti.

1) Geophysical research letters vol. 28, 8, p 1535-1538, 15 april 2001

2) SCIENCE VOL 307 18 MARCH 2005 p.1770  

3) SCIENCE  18 MARCH 2005 VOL 307  p. 1766

4) NATURE COMMUNICATIONS | (2019)10:101 | https://doi.org/10.1038/s41467-018-07999-w

5) Nature Climate Change | VOL 11 | FEbRUARY 2021 | 132–136 |

6) http://dx.doi.org/10.1016/j.quascirev.2016.12.021 Quaternary Science Reviews 158 (2017) 29e43

Scienza sul balcone.

In evidenza

Luigi Campanella, già Presidente SCI

La Citizen Science è sostanzialmente rappresentata dalla collaborazione fra ricercatori e cittadini per raccogliere dati sperimentali e si basa sulla messa a disposizione dei cittadini di strumentazioni ed esperienze montate dai ricercatori, ma che sulla base della suddetta collaborazione consentono di raccogliere una maggiore quantità di dati così contribuendo, attraverso l’ analisi critica di questi, a trasformare il mero dato analitico in strumento di conoscenza ed in guida agli interventi. Il coinvolgimento dei cittadini permette di avere una notevole quantità di dati ed il confronto costante con gli esperti preposti a supervisionare il lavoro in modo da avere risultati affidabili e non diffondere fake-news. Un bell’esempio di Citizen Science è Scienza sul Balcone nata in questo periodo pandemico grazie all’impegno del CNR. Scopo del progetto era invitare tutti i cittadini, in Italia e nel mondo, a divenire scienziati, sia pure per un giorno, condividendo obbiettivi, procedure e metodologie tipiche del mondo della ricerca. Nel periodo di lockdown nel chiuso delle nostre case, mentre tutto sembrava fermarsi, obbligandoci a riflettere su quanto è normale nella vita di tutti i giorni e ad osservare con una nuova prospettiva, molte persone si sono incontrate dai loro balconi per condividere azioni che facevano sentire più uniti.

Scienza sul balcone è nata proprio in quel periodo con questa prospettiva: invitare i cittadini a condividere dai balconi delle loro case l’esperienza di condurre una ricerca scientifica tutti insieme. Le misure effettuate rappresentano un significativo bacino di dati, ma il loro valore è ben superiore, rappresentato dalla condivisione di metodi e procedure del metodo scientifico, dall’invito ad essere curiosi, a provare e riprovare, magari a sbagliare, secondo il dettato di Galileo Galilei. Un punto chiave della Citizen Science è la disponibilità della componente scientifica: il cittadino deve percepire un sentimento di fiducia nel suo contributo.

Nel caso di Scienza sul Balcone l’oggetto della Ricerca e stata l’illuminazione artificiale: si tratta di un grande passo in avanti consentito dalla tecnologia, ma accanto agli indubbi ovvii vantaggi ad essa sono anche collegati alcune limitazioni: ad esempio a causa di essa non si può più vedere la bellezza del cielo stellato, flora e fauna possono essere danneggiate, gli stili di vita possono essere alterati rispetto al naturale da questa luce intrusiva. Scienza al balcone ha voluto proprio misurare la illuminazione intrusiva e si comprende da questo punto di vista come ogni casa diventi un laboratorio e chi vi dimora un potenziale ricercatore.

Io credo che anche la chimica dovrebbe e potrebbe presentare progetti di citizen science, ad esempio innaffiare le piante con l’acqua piovana per valutarne gli eventuali contenuti tossici per l’ecosistema  o anche, come è già stato fatto, misurare l’annerimento di un lenzuolo bianco esposto all’ambiente per valutare il livello di concentrazione del particolato atmosferico o anche fotografare le superfici lapidee e raccoglier e le immagini per avere indicazioni sul fenomeno delle croste nere sui monumenti.

Basta pensare ai tanti aspetti della nostra vita ai quali la chimica partecipa attivamente per realizzare progetti di citizen science. Nella SCI il GI SCI Cultura, la Divisione di Didattica, il Gruppo Senior, lo stesso blog in primis, ma tutti gli organi periferici sono chiamati a impiegare questo efficace strumento di collegamento fra la scienza e la società civile

L’edificio del laboratorio di Van ‘t Hoff punto di riferimento storico della chimica.

In evidenza

Rinaldo Cervellati

Questa informazione ci è fornita da Katrina Krämer, su Chemistry World del 30 novembre scorso [1]. Ma perché Jacobus Henricus van’t Hoff è così importante per i fondamenti della chimica moderna? Vediamolo in breve [2].

Jacobus Henricus van ’t Hoff (Rotterdam, 1852Berlino, 1911) fu uno dei fondatori della Chimica Fisica (figura 1).

Fig 1. Jacobus Henricus van ’t Hoff.

L’atto di nascita di questa nuova branca della Chimica può riferirsi al 1887, anno in cui van ‘t Hoff fondò, con F.W. Ostwald[1], il primo giornale di chimica fisica, lo Zeitschrift für Physikalische Chemie.

Van ’t Hoff studiò chimica pratica al Politecnico di Delft (Olanda), poi acquisì gli strumenti matematici necessari alla realizzazione del suo progetto chimico-fisico all’Università di Leida e quelli della conoscenza chimica a Bonn con F.A. Kekulé[2] negli anni 187273 e a Parigi con C.A. Wurtz[3] nel 1874. In questo stesso anno conseguì il dottorato di ricerca a Utrecht.

Prima di completare la tesi di dottorato pubblicò (a sue spese) un fascicoletto di tredici pagine dal titolo: “Proposta per l’estensione delle formule oggi in uso in chimica allo spazio“. In esso van ‘t Hoff proponeva le rivoluzionarie idee sulla concezione delle molecole come oggetti con struttura e forma tridimensionale e propose modelli di molecole organiche in cui gli atomi attorno a ciascun atomo di carbonio avevano una geometria spaziale tetraedrica[4]. Nasceva così la stereochimica.

Di fondamentale importanza le ricerche di van’t Hoff sulla termodinamica delle reazioni chimiche, che lo condussero alla famosa equazione nota come isoterma (o isocora), poi detta di van ’t Hoff. Studi sperimentali sull’effetto della temperatura sulla costante di equilibrio lo portarono a proporre l’equazione matematica per la dipendenza della Keq da T, anche essa nota come equazione di van ’t Hoff.

Un capolavoro di questo grande chimico riguarda la termodinamica delle soluzioni diluite, assimilate alle miscele gassose. La sua equazione per la pressione osmotica di una soluzione diluita, ΠV = nRT, evidenziò inequivocabilmente l’analogia con l’equazione di stato del gas ideale: PV = nRT. In questo contesto mostrò che da misure di pressione osmotica Π poteva essere determinato il peso molecolare di una sostanza disciolta in un opportuno solvente nel 1886. Van ‘t Hoff estese poi nel 1887 questo metodo alle soluzioni di elettroliti in base alla teoria della dissociazione elettrolitica di Svante Arrhenius[5].

Dal 1877 al 1891, van ‘t Hoff condusse esperimenti innovativi in un piccolo spazio, compresa la scoperta delle leggi della dinamica chimica e della pressione osmotica. Van ‘t Hoff non era entusiasta dello spazio quando l’Università di Amsterdam glielo diede. Tuttavia, è stato in questo laboratorio che ha condotto il suo lavoro pionieristico sull’affinità chimica, l’equilibrio, la cinetica e la termodinamica. Nel 1884 pubblicò il suo influente libro Studies in Chemical Dynamics [3], che avrebbe gettato le basi per la chimica fisica come disciplina.

Dopo che il suo lavoro fece scalpore a livello internazionale, van ‘t Hoff ricevette un’offerta per un posto in un’università in Germania. L’Università di Amsterdam riuscì a convincerlo a restare, almeno per un po’, costruendogli un nuovo laboratorio (Figura 2).

Fig.2 Il laboratorio di Van ’t Hoff nel 1890 circa

Tuttavia nel 1895 si trasferì in un’università a Berlino, dove lavorò fino alla sua morte nel 1911.

Per queste scoperte gli fu conferito il Nobel per la Chimica (il primo Nobel per la Chimica) nel 1901 “per la scoperta delle leggi della dinamica chimica e della pressione osmotica nelle soluzioni”.

Van ’t Hoff si dedicò anche a ricerche di chimica fisica applicata, con contributi significativi alla Chimica Industriale, alla Fisiologia e alla Geologia. Van’t Hoff non fu soltanto un abile sperimentatore e un eccellente teorico, fu anche un didatta fuori del comune: Professore di Chimica all’Università di Amsterdam (1878-1895) poi a Berlino (1896-1911), le sue lezioni, corredate da esempi tratti da ricerche originali si trovano in: Leçons de chimie physique [4].

Nel 1901, anno dell’attribuzione del Nobel, fu invitato a tenere una serie di conferenze all’Università di Chicago, raccolte nel volume Physical Chemistry in the Service of the Sciences, [5].  Nella prefazione, van ’t Hoff dichiara in sostanza che … sono dedicate a un pubblico più vasto in modo tale che possano essere comprese anche dai non addetti ai lavori…[2]

Il suo laboratorio di Amsterdam fu distrutto da un incendio nel 1987 e successivamente demolito.

Non rimane nulla del laboratorio originale di van ‘t Hoff, che la Reale Società Chimica Olandese ha destinato a spazio espositivo con una targa di riferimento che ricorda ai visitatori la storia di un grande della chimica [1].

Bibliografia

[1] K. Krämer, Van ’t Hoff’s Amsterdam lab becomes historic chemical landmark. Chemistry World, 30 November 2021.

[2] R. Cervellati, La conferenza di J.H. van ’t Hoff a Chicago (14 giugno 1901), in Atti del XV Convegno Nazionale di Storia e Fondamenti della Chimica, 2013 Accademia Nazionale della Scienze detta dei XL, pp.197-209.

[3] J.H. van ’t Hoff, Etudes de dynamique chimiques., Amsterdam, 1 vol. di 214 pp.

[4] J.H. van ’t Hoff, Leçons de chimie physique., A. Hermann, Paris 1898 1 vol. di 263 pp.

[5] J.H. van ’t Hoff, Pysical Chemistry in the Service of the Sciences., University of Chicago Press, vol. XVIII, 1903 1 vol. di 126 pp.


[1] Friedrich Wilhelm Ostwald (1853 – 1932) è stato un chimico e filosofo tedesco. È considerato uno dei fondatori della chimica fisica con Jacobus Henricus van ‘t Hoff.  Premio Nobel per la chimica 1909.

[2] Friedrich August Kekulé von Stradonitz (1829–1896) è stato un chimico tedesco. Il suo nome è associato alla definizione della struttura del benzene e dei composti aromatici in generale basata sulla risonanza.

[3] Charles Adolphe Wurtz (1817–1884) è stato un chimico francese alsaziano. È ricordato soprattutto per la sua decennale difesa della teoria atomica e per le idee sulle strutture dei composti chimici, contro le opinioni scettiche dei chimici dell’epoca.

[4] Questa idea fu suggerita indipendentemente nello stesso periodo dal chimico francese J.A. Le Bel (1847-1930).

[5] Svante Arrhenius (1859-1927) è stato un co-fondatore della chimica fisica. Premio Nobel per la chimica 1903. E’ stato il primo a utilizzare i principi della chimica fisica per stimare la misura in cui gli aumenti dell’anidride carbonica atmosferica sono responsabili dell’aumento della temperatura superficiale della Terra.

La nostra impronta.

In evidenza

Luigi Campanella, già Presidente SCI

Parliamo spesso di effetto serra e di come contrastarlo. Ci addoloriamo giustamente per i ritardi con cui la politica affronta questo problema. Tutto molto giusto, ma credo che si debba cominciare a pensare a quanto ciascuno di noi può fare al di là delle giuste preoccupate lamentele.

Io credo che dobbiamo partire da una prima importante considerazione: è vero l’effetto serra parte dai combustibili fossili, dalle politiche ambientali molto pigre, da insediamenti pirata, da servizi al territorio inadeguati, ma è anche vero che l’effetto serra comincia dalle nostre case, dai nostri comportamenti, dal nostro mancato rispetto delle norme.

Auto, servizi, telefonate, alimentazione: tutte fonti di cambiamenti climatici che quindi riguardano la vita di tutti i giorni. La Terra ha lavorato nei millenni come sistema chiuso: tanto consuma tanto produce. Si pensi alle piante che emettono anidride carbonica, ma sono in grado di assorbirla attraverso la fotosintesi clorofilliana. Lo stesso bilanciamento vale per gli Oceani sia pure a valori più bassi (circa 330 miliardi di tonn rispetto agli oltre 400 relativi al sistema vegetale). Poi però arriva l’uomo ed il bilanciamento salta: l’IPCC, l’organismo dell’ONU che studia i cambiamenti climatici stima in 29 miliardi di tonnellate la CO2messa in circolo dall’uomo, dei quali il 60% sanate dalla terra, ma del rimanente 40%, c’è da chiedersi che fine faccia. Ed allora ecco alcuni numeri che ci aiutano a capire:1,7 kg di CO2 sono prodotti ogni 10 km percorsi in auto, viaggiando in aereo se ne emettono 2,5 kg ogni 10 km di volo. 34 kg di CO2 sono prodotti per ogni paio di jeans che indossiamo, 3 per una t-shirt, 25 per un paio di sneakers. Il sistema alimentare contribuisce per il 30% alla produzione di gas serra. Anche azzerando tutti i combustibili fossili se non si interviene sui regimi alimentari il traguardo di limitare a 1,5  gradi centigradi l’aumento della temperatura non potrà essere raggiunto. Si pensi che una bistecca di manzo è stata valutata in produzione di CO2 da 5 a 15 kg,una bottiglia di vino vale 1,7 kg di CO2, un’ora al giorno di cellulare costa 63 kg di CO2, un SMS produce 19 g di CO2 che divengono 50 se alleghiamo un file Anche vedere un video su You-Tube ha il suo costo, ovviamente inferiore a quello delle visioni in presenza con annesso viaggio, ma anche indicatore di come e di quanto la rete delle comunicazioni consumi.

Stimolato da questi dati mi sono connesso col sito www.footprintcalculator.org per calcolare la mia impronta carbonica. È uscito fuori alla fine un valore di circa 12 tonn di CO2 l’anno. Se tutti facessero come me purtroppo ci vorrebbero 4 terre  per bilanciare. Il messaggio non deve però essere di rinunciare agli straordinari strumenti di qualità della vita che la tecnologia ci mette a disposizione. La proposta non può né deve essere tornare all’uomo della pietra, ma al tempo stesso responsabilizzarsi rispetto ad un problema globale può aiutare a sviluppare una cultura del risparmio e del riciclo da cui non credo si possa prescindere.

 L’effetto serra dell’acqua.

In evidenza

Claudio Della Volpe

Uno dei comuni errori che fanno i commentatori negazionisti dell’effetto serra è che dato che l’effetto serra generato dal vapore acqueo è il principale motore dell’effetto serra terrestre non ci sia necessità di controllare il tasso di CO2 atmosferico, ma invece al massimo quello dell’acqua.

Questo errore, che ancora torna ogni tanto, si può presentare anche come legittimo dubbio da parte di chi non abbia mai approfondito la questione e dunque vale la pena di spenderci un post, anche perché in giro non si trovano molti commenti in merito.

L’effetto serra è un meccanismo semplice, ma delicato che consente alla biosfera terrestre di avere una temperatura media ben 33°C superiore a quella possibile grazie alla sola irradiazione solare.

http://climateknowledge.org/figures/Rood_Climate_Change_AOSS480_Documents/Kiehl_Trenberth_Radiative_Balance_BAMS_1997.pdf

La radiazione in uscita dal pianeta, che è essenzialmente nell’infrarosso, attorno a 10micron di lunghezza d’onda, viene riassorbita da alcuni componenti atmosferici : acqua, CO2, ozono, metano, N2O, fluorocarburi e tutte le molecole capaci di assorbire bene l’infrarosso e ritorna in parte verso il suolo; questo rallentamento nel processo di equilibrio radiativo fra Terra e spazio remoto aumenta la temperatura al suolo.

La parte del leone la fanno quei gas che sono più concentrati (maggiore pressione parziale), che sono migliori assorbitori IR (più alto coefficiente di estinzione, ε) e che hanno vita media più lunga in  atmosfera (non c’è un simbolo specifico per la vita media delle molecole in aria).

Ovviamente l’acqua è il primo attore e su questo non ci piove, se mi passate il gioco di parole.

Alla temperatura media terrestre la tensione di vapore dell’acqua è circa 1700 pascal, ossia l’acqua può costituire poco meno del 2% dell’atmosfera, 1.7% per la precisione, mentre per esempio la CO2 ne costituisce solo lo 0.04%, equivalenti a 40 pascal (erano 28 nel 1750).

Ricordo che la pressione atmosferica equivale a 101325 pascal; la  CO2  è a 400ppm sono 0.4 parti per mille e dunque 0.04%.

Tensione di vapore dell’acqua.

Eppure vi dico qui che nonostante la pressione parziale della CO2 sia oltre 40 volte più bassa di quella dell’acqua non è l’acqua il gas critico per il “riscaldamento globale” ma la CO2; con questa espressione non si indica l’effetto serra come tale ma la sua variazione in crescita verificatasi negli ultimi 250 anni.

Come si spiega questo apparente paradosso? L’acqua è di gran lunga di più ma la conclusione dell’IPCC è che la sua presenza è meno critica di quella della CO2 e degli altri gas serra che sono ancor meno. Quanto contano gli altri parametri: vita media in atmosfera e coefficiente di assorbimento? C’è qualche altro fattore?

Beh un fattore che non abbiamo ancora nominato è che l’acqua è, fra tutti i gas serra, l’unico condensabile facilmente. Ossia l’acqua agisce come gas serra in qualità di vapore d’acqua, ma nelle condizioni tipiche della biosfera è un liquido, con una tensione di vapore saturo, ossia una pressione gassosa di equilibrio o massima che cresce con la temperatura; mentre tutti gli altri sono gas, veri e propri, ossia non è  possibile condensarli nelle condizioni tipiche dell’atmosfera terrestre; se pensate per esempio alla stratosfera, dove volano gli aerei intercontinentali, lì vapor d’acqua quasi non ce n’è  perché la temperatura tipica è -50°C (e la pressione di vapore è bassissima e questo è il motivo per cui l’acqua immessa da noi in stratosfera per esempio con i motori dei jet è un gas serra antropogenico anche se poco importante); ma tutti gli altri gas ci sono e la CO2 fa la parte del leone. Nelle condizioni anche più estreme di atmosfera e biosfera l’acqua è l’unico gas serra “condensabile”; se superate la sua tensione di vapore, ossia la massima pressione o se volete concentrazione relativa alla temperatura, l’acqua condensa e forma le nuvole, una parte basica del nostro paesaggio e che fra l’altro hanno un ruolo importante perché le nuvole di goccioline d’acqua riflettono la luce solare e riducono il suo effetto. (In effetti le nuvole assorbono anche la radiazione infrarossa dalla Terra; se ci fate caso le notti fredde sono anche col cielo pulito, mentre se il cielo è coperto la temperatura non scende mai molto, perché la radiazione emessa dal suolo rimane intrappolata fra suolo e nuvole.)

Quale è la conseguenza di ciò? Semplicemente il vapor d’acqua ha una concentrazione che DIPENDE dalla temperatura ma che non può farla aumentare; se produciamo acqua in eccesso (e lo facciamo quando bruciamo i fossili) l’acqua in eccesso condensa (le famose scie di condensazione dei jet, il grosso dei nuvoloni emessi dagli impianti di combustione, etc. ) e al massimo aumenta la copertura nuvolosa, ossia aumenta la riflessione della luce solare, non l’effetto serra. D’altronde se assorbissimo acqua dall’atmosfera nella improbabile convinzione di ridurne l’effetto serra, altra acqua evaporerebbe dall’oceano che copre il 71% della superficie del pianeta e in poco tempo ripristinerebbe la sua concentrazione/pressione di equilibrio, dunque lavoro inutile .

Conclusione l’acqua è un gas serra ma non può aumentare la propria pressione se la temperatura media non è GIA’ aumentata. Non è una forzante climatica di per se, ma come si dice è un feedback, una conseguenza di retroazione, può dare il suo contributo solo dopo che i gas serra non condensabili hanno agito.

Torniamo all’argomento del potere relativo di assorbimento dei gas serra. Qui contano il loro coefficiente di assorbimento e la loro concentrazione, ossia in termini della legge di Lambert e Beer il coefficiente e e lo spessore ottico equivalente, l.

Gli spettri di assorbimento dei vari gas si sovrappongono così che non è banale anche trascurando altri aspetti calcolare il loro peso relativo; d’altra parte è più semplice calcolare l’effetto complessivo usando a tale scopo i numerosi programmi di calcolo che si trovano in rete.

Per stimare almeno grossolanamente i contributi dei vari gas si può fare in due modi: stimando l’effetto serra se si toglie quel certo gas (ci darebbe il valore minimo) o se al contrario si costruisce una atmosfera fatta solo di quel gas (ci darebbe il valore massimo). Il calcolo avrebbe un valore “istantaneo”, non ci direbbe molto del ruolo complessivo, ma sarebbe indicativo.

Nel primo caso l’effetto serra inteso come puro assorbimento radiativo, se togliamo l’acqua, diventa il 34% di quello effettivo, dunque per differenza l’acqua conterebbe il 66% del totale; se invece facciamo una atmosfera solo con acqua e nuvole allora l’assorbimento diventa l’85% dell’effettivo.

Il peso dell’acqua, a causa dell’incertezza dovuta alla sovrapposizione degli spettri sta dunque fra 66 e 85%; se facciamo la media aritmetica siamo al 75% del totale, numero che possiamo usare come stima grossolana.

L’acqua contribuisce ai tre quarti dell’effetto serra terrestre. Se ripetiamo lo stesso calcolo con la CO2 otteniamo come risultato 9% o 26%, in media stiamo al 17%. E rimane un 8% per tutti gli altri gas serra.

(questi calcoli si possono ottenere per esempio da https://www.giss.nasa.gov/tools/modelE/  oppure nella pagina di RealClimate citata in fondo)

La differenza è che se aggiungiamo CO2 o un altro gas serra non condensabile all’atmosfera quello rimane lì a lungo e non condensa, facendo aumentare di poco ma stabilmente la temperatura media, mentre se aggiungiamo l’acqua essa ritorna velocemente al suo valore di equilibrio (tensione di vapore) senza alcun effetto tangibile.

Stiamo ancora escludendo la vita media delle molecole in atmosfera, che è di qualche giorno/settimana per l’acqua mentre diventa dieci anni per il metano e fra 50 e 200 anni per la CO2. Quindi non solo non condensa ma continua ad agire per un tempo veramente significativo.

Se introducessimo esplicitamente la vita media delle molecole in atmosfera avremmo come risultato quel potere di riscaldamento relativo di solito calcolato su tempi di 20 o 100 anni e che viene spesso usato nelle discussioni sull’effetto serra (e che per l’acqua non viene nemmeno calcolato, tuttavia una stima c’è Steven C Sherwood et al 2018 Environ. Res. Lett. https://doi.org/10.1088/1748-9326/aae018 ed equivale ad 1/1000 di quello della CO2).

C’è un secondo punto da introdurre sull’acqua; l’acqua abbiamo detto non può forzare la temperatura ma solo adeguarsi ad essa; questo adeguamento è molto significativo però; se infatti consideriamo anche un solo grado di aumento della temperatura media la pressione parziale dell’acqua aumenta di circa il 7%; dunque consideriamo che se passiamo da 15° a 16°C medi arriviamo da 1700 ad oltre 1800 pascal, con un proporzionale incremento del ruolo dell’acqua nell’assorbimento della radiazione.

In conclusione è vero che l’acqua gioca un ruolo importante nell’effetto serra a regime, direi dominante, ma gioca un ruolo del tutto trascurabile nel farlo aumentare; l’acqua si adegua alle condizioni imposte dagli altri gas serra non condensabili, possiamo dimenticarcela completamente se il nostro scopo è di ridurre l’effetto serra in eccesso (ossia il cosiddetto riscaldamento globale), anche se dal calcolo totale evinciamo che le dobbiamo circa metà dell’incremento complessivo causato IN ORIGINE dai gas serra non condensabili che noi stessi abbiamo introdotto in atmosfera.

Da leggere:

https://www.sciencedirect.com/science/article/pii/S2405844018327415

https://history.aip.org/climate/co2.htm

https://www.realclimate.org/index.php/archives/2005/04/water-vapour-feedback-or-forcing/JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D20106, doi:10.1029/2010JD014287, 2010    scaricabile da:

https://agupubs.onlinelibrary.wiley.com/doi/epdf/10.1029/2010JD014287

che contiene la seguente tabella, riferita al 1980 con il programma versione ultima di IPCC

Un reattore sperimentale converte il metano senza emettere CO2

In evidenza

Rinaldo Cervellati

Come ricordato in un precedente post, il metano (CH4) è il secondo importante “gas serra”. Nel 2017 il 40% circa delle sue emissioni era dovuto agli impianti di estrazione e lavorazione dei combustibili fossili. In particolare, i giacimenti petroliferi contengono molto gas naturale, ed è antieconomico trasportare questo gas dai siti di produzione lontani da dove può essere utilizzato. Quindi, il gas viene semplicemente sfiatato o bruciato, il che contribuisce enormemente al disastro ambientale. La Global Gas Flaring Reduction Partnership della Banca Mondiale riporta che oltre 140 miliardi di metri cubi di gas naturale sono stati bruciati nel 2020, causando circa 400 milioni di tonnellate di emissioni equivalenti di CO2 ogni anno, o circa l’1% delle emissioni umane di gas serra. La dispersione del gas è anche peggio, perché il metano ha un potenziale di riscaldamento globale più alto della CO2.

Nello stesso post si ricordava pure che nel recente vertice sul clima (COP26) tenutosi a Glasgow, più di 100 paesi si sono impegnati a ridurre le emissioni globali di metano del 30% rispetto ai livelli del 2020 entro il 2030. Allo stesso tempo, l’Agenzia per la protezione ambientale degli Stati Uniti ha emesso una proposta per ridurre le emissioni di metano dall’industria petrolifera e del gas, comprese le misure per eliminare la dispersione e ridurre il gas flaring[1]. Tuttavia, “catturare” il metano nell’atmosfera ossidandolo a CO2 si sta dimostrando un’impresa difficile, come evidenziato nel post.

Un gruppo di ricerca del Department of Chemical and Biomolecular Engineering (Università del Maryland, USA), coordinato dal Prof. Eric Wachsman e dalla collega Dongxia Liu, ha messo a punto un reattore sperimentale che mostra come il metano possa essere convertito in composti idrocarburici senza generare CO2[1]. Afferma Wachsman: “Convertendo il gas in un liquido, come ad esempio il benzene, diventa economico metterlo in un barile o in una conduttura e portarlo via”.

Per affrontare il problema, ricercatori e aziende stanno esplorando varie tecnologie che trasformano il metano in idrocarburi liquidi o solidi. Ad esempio, il metano può essere trasformato in gas di sintesi, una miscela di CO e H2, per la conversione in idrocarburi più pesanti mediante il processo Fischer-Tropsch[2]. Ma ciò comporta molteplici passaggi ad alta intensità energetica che richiedono infrastrutture costose e generano CO2. Il metano può anche essere trasformato in etilene e aromatici in una semplice reazione di accoppiamento ossidativo in un unico passaggio a temperature molto elevate e catalizzatori resistenti al coke[3] [2].

Per evitare questi inconvenienti, il nuovo reattore di Wachsman, Liu e collaboratori utilizza il processo chiamato conversione diretta non ossidativa del metano (DNMC).

Eric Wachsman (a sinistra) e Dongxia Liu (a destra)

Sviluppare il processo catalitico ha significato superare tre grandi sfide. Innanzitutto, rompere il primo legame carbonio-idrogeno nel metano richiede molta energia, quindi qualsiasi reattore DNMC ha bisogno di una forte fonte di calore. Anche così, l’equilibrio tra metano e prodotti offre bassi tassi di conversione. Infine, la reazione genera depositi carboniosi fuligginosi che disattivano rapidamente il catalizzatore.

Il reattore progettato dal gruppo dell’Università del Maryland risolve questi problemi unendo in modo intelligente materiali noti, un catalizzatore e una membrana ceramica. Contiene un tubo cavo di ossido di stronzio−cerio−zirconio poroso, ricoperto da una membrana di 25 µm di un materiale simile drogato con ioni europio permeabile all’idrogeno. Il tubo è riempito con un catalizzatore ferro-silice Il flusso di permeazione di idrogeno (H2) guida la conversione di CH4 rompendo un legame C-H nel metano, formando gruppi metilici che si combinano per produrre etilene, benzene, naftalene e altre molecole. L’ossigeno proveniente da un simulatore d’aria (miscela O2/He) all’esterno della membrana reagisce con l’H2 permeato fornendo calore per la reazione endotermica DNMC. Si ottiene il bilancio energetico tra il DNMC endotermico e la combustione esotermica di H2 sui lati opposti della membrana, dimostrando la fattibilità del funzionamento autotermico utilizzando una corrente s d’aria. L’idrogeno liberato dalla rottura del metano passa attraverso la membrana sotto forma di protoni ed elettroni, che incontrano un flusso d’aria e reagiscono con l’ossigeno per generare acqua e calore (figura 1).

Fig. 1 Schema del reattore progettato dal gruppo del Maryland. Copyright: X-MOL

L’aspirazione di idrogeno attraverso la membrana sposta l’equilibrio della reazione in modo che più metano venga convertito in prodotti. Nel frattempo, l’unione di idrogeno e ossigeno fornisce calore sufficiente per guidare la scissione del metano. E convenientemente, un po’ di ossigeno può permeare attraverso la membrana nel tubo di reazione, dove brucia tutto il carbonio depositato sul catalizzatore, producendo un po’ di CO ma non CO2.

I test preliminari su un reattore lungo 17 cm a 1030 °C hanno dato un tasso di conversione del metano di circa il 18% in 50 ore. Liu sostiene di aver recentemente raggiunto il 30% di rimozione di H2, e che fino ad ora le migliori prestazioni del reattore a membrana studiato sono state “solo circa il 15% di conversione del metano, con una disattivazione del catalizzatore molto rapida”.

Fondamentalmente, quasi il 97% degli atomi di carbonio coinvolti nella reazione DNMC sono stati incorporati nei prodotti anziché nei gas di scarico. In linea di principio, il metano non reagito potrebbe essere convogliato ad altri reattori, afferma Wachsman. Con Liu hanno fondato una società, Alchemity, per ampliare e commercializzare il reattore, dichiarando in [1] il conflitto di interesse.

Sebastian Wohlrab (Leibniz Institute for Catalysis, Mecklenburg, D), che ha lavorato sulla conversione catalitica del metano ma non è stato coinvolto nella ricerca, afferma: “La conversione del metano del reattore sembra molto buona” e che l’utilizzo di una membrana permeabile all’ossigeno è un modo “elegante” per risolvere il problema della disattivazione del catalizzatore. Tuttavia, Wohlrab sottolinea che la combustione dell’idrogeno può essere difficile da controllare, uno dei numerosi fattori che potrebbero rendere difficile l’ampliamento del reattore.

Commento del traduttore. La conversione del metano al 15% in condizioni ottimali mi sembra bassa e, d’accordo con Wohlrab, la combustione dell’idrogeno è difficile da controllare. Mi auguro che la società Alchemity riesca a migliorare il reattore o a produrne in serie in modo che il metano non convertito entri in un altro e così via.

*Tradotto e adattato da: Mark Peplow, Reactor converts methane to heavier hydrocarbons without forming CO₂, speciale per C&EN, 10 novembre 2021

Bibliografia

[1] M. Sakbodin et al., Direct Nonoxidative Methane Conversion in an Autothermal Hydrogen-Permeable Membrane Reactor., Advanced Energy Materials, 2021, DOI: 10.1002/aenm.202102782

[2] Xiaoguang Guo et al., Direct, Nonoxidative Conversion of Methane to Ethylene, Aromatics, and Hydrogen., Science., 2014, 344, 616-619.


[1] Il gas flaring (in italiano: combustione di gas) è una pratica che consiste nel bruciare senza recupero energetico il gas naturale in eccesso estratto insieme al petrolio

[2] Il processo Fischer-Tropsch è un processo chimico industriale utilizzato per produrre combustibili o oli sintetici a partire da miscele gassose di monossido di carbonio e idrogeno (“gas di sintesi”) in presenza di un catalizzatore.

[3] Il coke è un carbone artificiale ottenuto mediante un procedimento di riscaldamento del carbon fossile in assenza di aria a temperature superiori a 900°C.

Rileggendo “Il grande bisogno” di Rose George

In evidenza

Mauro Icardi

Non sono molti i saggi che parlano di depurazione delle acque reflue. Il tema è ovviamente molto approfondito nei testi universitari, o più in generale scolastici.

Questo libro  che ormai è forse introvabile, essendo stato pubblicato in Italia nel 2010, è forse l’unico che descrive con i toni del romanzo alcune realtà di cui sentiamo spesso parlare, ma non riusciamo a visualizzare con chiarezza.

Il Grande Bisogno, Bompiani 2010

La ragione è semplice. Siamo intorpiditi dall’abitudine. Assuefatti dalle comodità raggiunte e ritenute indispensabili.  Nei paesi occidentali la toilette è considerata una comodità irrinunciabile, oltre a un luogo tabù che ripara la nostra intimità da sguardi indiscreti.  A livello mondiale però non per tutti valgono le stesse regole. E in passato anche in Italia la situazione era molto diversa da quella di oggi.

Il censimento del 1931 in Italia rivelava che nei capoluoghi, su cento appartamenti, ottantotto non disponevano di un luogo appartato per avere intimità durante le funzioni fisiologiche e l’igiene personale.

In Italia tutto è cambiato in maniera velocissima dal secondo dopoguerra, durante il periodo che è stato chiamato miracolo economico italiano. Oggi in Italia per quanto riguarda le dotazioni di base, il 99,34% delle abitazioni dispone di un accesso privato ai servizi igienici interni con scarico, una percentuale superiore alla media dell’area dell’OCSE che è pari al 95,6%. E’ leggermente inferiore la percentuale in dati assoluti dei comuni serviti da impianti di depurazione che è pari al 95,7%.

Numeri incoraggianti, nonostante vi siano ancora quaranta comuni sprovvisti di servizio di fognatura, e più di un milione e mezzo di cittadini italiani risiedano in comuni privi di servizio di depurazione. I dati provengono dall’ultimo censimento delle acque reflue pubblicato dall’Istat  il 10 Dicembre del 2020,che ha elaborato i dati a tutto il 2018.

Non credo che molti conoscano la filiera di trattamento dell’acqua, che si fidino della sua qualità, che rinuncino a bere acqua in bottiglia. In Italia sempre da dati Istat nel 63% delle famiglie vi è almeno un membro che beve almeno un litro di acqua minerale al giorno.

Ho sempre pensato che ognuno sia ovviamente libero di scegliere come e cosa consumare, e allo stesso tempo mi sono molto spesso domandato che cosa portasse molte persone a preferire acqua in bottiglia.

Probabilmente ci sono paure, legate alle possibili contaminazioni che si ritiene possano esserci nelle acque destinate all’uso potabile. E che un martellamento pubblicitario incessante ci induca in qualche modo all’acquisto di acqua in bottiglia. Acqua che è trasportata su autocarri, che attraversano da un capo all’altro la penisola, contenuta di solito in bottiglie di plastica.

Mi chiedo anche quale sia il nostro rapporto con l’altra acqua, quella che scaricata dai nostri servizi igienici, finisce negli impianti di trattamento. Acqua reflua che per essere resa idonea a essere restituita ai nostri fiumi e laghi deve subire una serie di trattamenti. Perché l’acqua che ci è arrivata in casa, si è arricchita di molte sostanze. Che una volta rimosse dall’acqua finiscono nei fanghi. In ossequio al fatto che il postulato fondamentale di Lavoisier ci rammenta che “Nulla si crea, nulla si distrugge, tutto si trasforma”.

Un’acqua reflua urbana che arriva in un impianto può contenere molte tipologie d’inquinanti. Carta igienica, materiale fecale, urina, garze, residui di farmaci, di oli per il corpo, di prodotti di bellezza.

Spesso non si è consapevoli che anche le nostre azioni quotidiane hanno un impatto sull’ambiente. Per esempio le microplastiche sono contenute anche nelle creme esfolianti, e finiscono negli scarichi e successivamente nei fanghi.

Non sempre ci si fa caso, e la cosa è facilmente comprensibile. In fin dei conti quando l’acqua è stata scaricata, il suo destino non ci riguarda più. Le nostre comodità e il nostro benessere sono salvaguardate.

In Cina per prevenire questo tipo di inquinamento si stanno sperimentando wc che separano azoto e fosforo dalle urine, prima che finiscano in fognatura.

Se si legge, (o si rilegge come ho fatto io) il libro della George si possono fare delle riflessioni che ci ricordano che vivere nella parte ricca del mondo ci concede una vita che persone meno fortunate possono solo sognare.  Non siamo costretti a fare decine di chilometri a piedi per rifornirci di acqua potabile.               Non rischiamo di contrarre malattie dovute alla contaminazione oro fecale dell’acqua.

Non serve a nulla pensare che migliorare le condizioni igieniche sia un problema esclusivo dei paesi poveri.

Nei paesi ricchi in pratica quasi nessuno muore per problemi legati all’ingestione di acqua inquinata (anche se la vicenda legata ai PFAS ha ridimensionato questa sicurezza).

Tuttavia le malattie dei paesi poveri oggi viaggiano grazie ai voli internazionali.

Io penso che il primo passo che occorre fare per pensare di risolvere i problemi ambientali, sia iniziare a sostituire la parola “io”, con la parola  “noi”.

E’ questo richiede un grande sforzo di cambiamento, che riguarda ogni persona di questo pianeta.

Cop26 e l’Italia.

In evidenza

Luigi Campanella, già Presidente SCI

Pur con diverse criticità la COP26 ha rappresentato un piccolo passo in avanti con il passaggio dalla logica del prendiamo impegni a quella del manteniamo impegni, puntando a chiudere il gap fra parole ed azioni.

Il fatto che la gran parte dei Paesi punti ad obiettivi di neutralità climatica, rinunciando sia al carbone che al finanziamento alle fonti fossili rappresenta rispetto a COP25 un motivo di speranza.

Se poi dal mondo scendiamo in casa nostra l’allarme più serio riguarda la lentezza con cui procede la conversione alle rinnovabili.

Così ad esempio nel solare fra il 2017 ed il 2021 la Germania ha montato il necessario per quasi 8 terawattora, la Spagna quasi 7, la Francia quasi 4, l’Italia appena 0.4.

Negli.ultimi 5 anni il nostro Paese ha smesso di installare fotovoltaico. Per non parlare dell’eolico. È vero che i siti sufficientemente ventosi non sono molti, tutti lungo le creste appenniniche o al Sud,e sono già occupati, ma gli operatori proprio per questo chiedono da tempo la sostituzione degli impianti eolici più vecchi con quelli più efficienti a pale più larghe che catturano il vento più in alto e chiedono anche di dare il via alle prime centrali off-shore per le quali ci sono 39 progetti presentati da possibili investitori, di cui solo uno a Taranto è stato autorizzato.

Le ragioni di questo brusco rallentamento verso il rinnovabile sono  certamente i ritardi degli iter procedurali sia per motivi burocratici che paesaggistici e collegati al patrimonio artistico, anche nei casi in cui la valutazione di impatto ambientale è stata eseguita. I fondi europei legati alla transizione green fanno dell’Italia uno dei Paesi che dovrebbero essere più attrattivi (l’Italia in una recente classifica è stata promossa dal 14mo al 12mo posto al mondo come Paese dove si concentreranno i maggiori investimenti) rappresentano un’occasione da non perdere a patto che venga rispettato dal Governo l’impegno a semplificare le regole ed ad accelerare i tempi dei permessi. Il Governo ha programmi ambiziosi : vuole raggiungere i 95 gigawatt di capacità installata al 2030 rispetto ai 53 attuali, (NdB: attenti a non confondere potenza di picco e capacità installata) ma è necessario accelerare: alla velocità attuale il traguardo sarebbe raggiunto non nel 2030 ma nel 2048.

I fondi del PNRR sono una base solida per questa accelerazione: 4 miliardi di euro per l’incremento di capacità di Res (renewable energy sources) e 1,9 miliardi di euro per la produzione di biometano. L’Italia rispetto ai Paesi del G20 presenta una situazione di vantaggio rispetto a 3 dei goal, gli obbiettivi dell’agenda 2030, salute e benessere, energia pulita ed accessibile, consumo e produzione responsabili, mentre secondo una recente ricerca dell’ASVIS (Alleanza Italiana per lo Sviluppo Sostenibile) il nostro tallone di Achille è rappresentato dalla Vita sott’acqua

La COP26 di Glasgow sul cambiamento climatico: successo o fallimento?

In evidenza

Vincenzo Balzani

Questo articolo è stato pubblicato su Bo7 del 5 dicembre.

Il grande, ma non sempre sapiente, aumento dell’attività umana rischia di portare fuori equilibrio l’ecosistema Terra, creando una situazione di insostenibilità ecologica che si manifesta in molti modi, il più pericoloso dei quali è il cambiamento climatico causato essenzialmente dall’uso dei combustibili fossili. Questo è il tema che si è discusso nella recente COP26 tenutasi a Glasgow. Sui risultati della conferenza sono stati espressi giudizi sia positivi che negativi, forse tutti esagerati se si considera cosa sono, in realtà, queste COP (Conferenza delle Parti) che si susseguono, ormai, di anno in anno: un lodevole tentativo di far discutere democraticamente sul cambiamento climatico chi è più interessato al problema (le Parti, appunto). Qualcuno ha definito le COP come una specie di assemblea di condominio della nostra Casa Comune, il pianeta Terra. Un condominio particolare e complicato, non solo perché i condomini sono molto numerosi (le 193 nazioni aderenti all’ONU), ma soprattutto perché sono molto diversi fra loro: grandi come la Cina, piccoli come l’isola Barbados, ricchi come il Qatar, poveri come il Burundi. Si tratta, quindi, di una assemblea dove non ha senso votare dal momento che non si saprebbe su che criteri definire una maggioranza. Le decisioni, non vincolanti, avvengono col metodo del consenso, ricercando compromessi. Le varie nazioni manifestano buone intenzioni, promettono contributi volontari volti a contrastare il cambiamento climatico, prendono impegni, ma non è certo che li manterranno.

Il risultato più importante è stato l’accordo per limitare il riscaldamento globale sotto 1,5°C rispetto ai livelli pre-industriali. Si tratta di un obiettivo più ambizioso del limite di 2°C dell’Accordo di Parigi del 2015, ma quasi impossibile da raggiungere perché già oggi l’aumento è +1,1°C. Altro aspetto importante è che si siano stabiliti criteri di trasparenza sui modi in cui, entro il 2024, i vari stati dovranno documentare i progressi fatti nell’attuazione dei contributi volontari per raggiungere questo obiettivo. Nel documento finale compare decarbonizzazione, parola non presente nell’Accordo di Parigi. C’è un invito a tutti gli stati firmatari di tagliare entro il 2030 del 45% le emissioni di anidride carbonica rispetto al 2010 e di raggiungere zero emissioni nette intorno alla metà del secolo. Molte nazioni hanno assunto l’impegno ad accelerare l’istallazione delle fonti energetiche rinnovabili, eliminare i sussidi alle fonti fossili, proteggere e possibilmente estendere le foreste. 23 paesi si sono impegnati a dismettere il carbone per la produzione di energia elettrica, ma nel documento finale, su richiesta dell’India, le parole phase out (eliminazione) sono state sostituite da phase down (diminuzione). 109 nazioni, fra cui l’Italia, hanno riconosciuto la pericolosità del metano come gas serra e si sono impegnate a ridurne le emissioni del 30% entro il 2030. Un gruppo di stati ha presentato l’impegno a promuovere la mobilità elettrica, ma l’Italia non ha aderito.

Non si può parlare né di successo né di fallimento. Bisogna riconoscere, però, che si sono fatti progressi forse impensabili fino a qualche anno fa. Purtroppo, ancora insufficienti.

Termochimica come “farmaco”

In evidenza

Claudio Della Volpe

Riassunto. Le reazioni chimiche producono non solo nuovi materiali ma possono assorbire o cedere calore e questo si può sfruttare a vari scopi; per esempio bruciare la legna produce calore (e luce), ma anche la formazione della ruggine dal ferro produce calore,  e anche parecchio. Questa reazione di “arrugginimento” viene sfruttata in un prodotto che serve a ridurre, mediante il calore,  il dolore causato da alcuni disturbi reumatici. L’articolo spiega in dettaglio a cosa servono i vari componenti del “cerotto” autoriscaldante.

In questi giorni c’è una forte campagna pubblicitaria per un prodotto che promette di risolvere i dolori reumatici senza l’uso di sostanze anti-infiammatorie ma col solo calore.

Il marchio pubblicitario (e il brevetto) di questi “cerotti” riscaldanti (più propriamente dispositvi medici autoriscaldanti o fasce autoriscaldanti ) usa e getta è stato inventato attorno al 2000 da Procter & Gamble, che lo ha poi venduto a Wyeth nel 2008. Dopo la fusione fra questa ultima, Pfizer e GlaxoSmithKline (2009) il marchio è stato infine venduto nel 2020 ad Angelini, una azienda italiana di cui abbiamo anche parlato altrove.

Ovviamente ci si può porre due tipi di questioni a riguardo; la prima è se il prodotto funziona e l’altra: come funziona?

Un po’ di informazioni le trovate su wikipedia oppure  qua, un sito del produttore e poi vi citerò durante il post o in fondo una serie di lavori sui vari aspetti medici o chimici.

Ci sono due strategie “termiche”; una legata all’uso di pomate al mentolo che dà una sensazione di raffreddamento e l’altra invece questa del riscaldamento; un confronto puramente termico e circolatorio è fatto in questo lavoro.

Invece analisi dettagliate dell’efficacia del metodo sono riportate nei lavori citati in fondo.

Il risultato è che nei dolori lievi il metodo è più veloce ma col tempo potrebbe perdere efficacia rispetto al trattamento tradizionale. L’uso di questi “cerotti” o pomate fa cambiare la temperatura del corpo per qualche centimetro e stimola una più intensa o meno intensa circolazione del sangue.

Da sperimentare direi, per chi ha il mal di schiena. Comunque questo non è un blog di medicina, e confesso che sono più incuriosito dal meccanismo di funzionamento del prodotto; come si fa ad ottenere un aumento controllato e duraturo di temperatura tramite una reazione chimica? E quale reazione si usa?

Questo è il nostro terreno.

Il prodotto si presenta come una fascia di diversa geometria che contiene delle cellette con all’interno una miscela soffice che viene attivata con uno strappo che consente l’ingresso di aria e l’inizio di una reazione chimica, ragionevolmente di ossidazione.

Secondo le informazioni, che si trovano sulle FAQ del sito già citato, la composizione è la seguente e il ruolo dei materiali è scritto a fianco:

 Il ferro reagisce con l’ossigeno nell’aria per fornire calore. Questo processo è chiamato ossidazione del ferro (in pratica si forma la ruggine!).

• Il cloruro di sodio (sale) accelera la velocità di reazione tra ferro e ossigeno.

• Il tiosolfato di sodio controlla la generazione di idrogeno.

• L’acqua è necessaria anche per la reazione di ossidazione del ferro.

• Il carbone di legna permette alla polvere di ferro di avere una superficie di reazione all’interno dei dischi termici. La superficie di questo carbone è stata trattata (attivata) per avere proprietà speciali.

• Il poliacrilato di sodio controlla il livello di acqua presente nelle celle termiche.

Commentiamo un po’ questa descrizione che è (a mio parere) abbastanza precisa, eccetto che in un caso.

Anzitutto il funzionamento. Si tolgono delle linguette adesive e la penetrazione dell’aria inizia la reazione; questo è un metodo che si usa anche per le batterie zinco-aria primarie dei dispositivi acustici; l’aria contiene un 21% di ossigeno che è un reattivo potente, veloce e gratuito e lo trovate dappertutto. Questo è confermato da un problema che si può verificare in circostanze inusuali, ossia se usate questo dispositivo in un ambiente ad alta pressione di aria o addirittura ad alta concentrazione di ossigeno, la cosiddetta condizione iperbarica, a volte usata in determinati disturbi.

Da https://www.semanticscholar.org/paper/Air-activated-chemical-warming-devices%3A-effects-of-Raleigh-Rivard/54de6c7f4f67ba368e646f5142b84bc72978690d

Nella tabella vedete che la reazione con l’ossigeno si sviluppa in modo più potente se la pressione atmosferica aumenta o se la pressione parziale di ossigeno aumenta portando ad un incremento di temperatura molto elevato e potenzialmente pericoloso.

Il confronto è fatto fra tre tipi diversi di fasce riscaldanti che a questo punto sono da non usare (ma era ovvio) in queste condizioni; altre condizioni di rischio sono l’uso su soggetti anziani o particolarmente sensibili dove l’uso prolungato è controindicato.

Vediamo meglio cosa succede quando il ferro si ossida; la reazione è esotermica, fortemente esotermica, ne abbiamo parlato a proposito della pietra focaia e della produzione di scintille per accendere il fuoco. In quel caso l’innesco è meccanico, la formazione di una superficie di ferro puro calda, a causa della rottura istantanea, innesca una veloce reazione che si autosostenta e che produce luce e calore.

La entalpia di ossidazione del ferro è enorme: 824kJ/mole!! Produce in condizioni diverse le scintille che abbiamo usato per secoli per accendere il fuoco e anche il calore di questa fascia riscakldante.

Ma come avviene questa reazione nell’ambiente interno al dispositivo? Servono ossigeno ed acqua; possiamo usare la descrizione che ne fa Zanichelli in un bel testo per la scuola che trovate qua. Nella figura 1 è schematizzato il processo elettrochimico di ossidazione le cui reazioni sono diverse da quelle che avvengono nel caso delle scintille, anche se stati iniziali e finali sono gli stessi.

Vedete che serve l’acqua che normalmente è trattenuta nel poliacrilato di sodio; si forma una pila: il ferro si ossida a spese dell’ossigeno disciolto che si riduce e viaggia come ione idrossido verso un lato della superficie del metallo dove si accumula la ruggine; l’ossigeno si scioglie in acqua in ragione di alcuni milligrammi per litro  in funzione di temperatura e pressione; (è  quello che i pesci usano per respirare). Per capire meglio cosa succede si può fare un semplice esperimento schematizzato in figura 2; si prendono due provette con un chiodo di ferro o acciaio dentro, in una (a sinistra) si mette dell’acqua distillata e “disaerata”, ossia privata dell’aria disciolta (o tramite una pompa a vuoto o tramite bollitura) e nell’altra (a destra) dell’acqua non disaerata; si copre la superficie con olio per impedire all’ossigeno esterno di entrare e si aspetta. Si vede velocemente che in quella di sinistra non succede nulla mentre in quella di destra il chiodo si arrugginisce.

La provetta a sinistra rappresenta lo stato della cella del nostro prodotto prima di aprirla e la seconda dopo averla aperta. Dunque questa è la reazione che avviene; la temperatura sale velocemente e rimane alta durante la reazione che è catalizzata dalla presenza di carbone attivo, una superficie catalitica comunemente usata in molte altre occasioni grazie alla sua potenza catalitica, legata soprattutto alla conducibilità termica ed elettrica e alla elevata area superficiale (fino a 1500m2/g). Il carbone “attivo”, spesso usato come adsorbente intestinale, è carbone di legna dotato di struttura altamente porosa ed attivato chimicamente disidratando la superficie tramite acido fosforico o cloruro di zinco.

A cosa serve il sale? Il sale serve ad aumentare la conducibilità della soluzione di figura 1 in modo da trasferire le cariche più velocemente; in questo senso il sale accelera la reazione complessiva, anche se non è un tradizionale catalizzatore.

Rimane da capire a cosa serva il tiosolfato. Il tiosolfato, che vedete in figura, Na2S2O3,  

contiene lo zolfo a numero di ossidazione +2 ed il suo ruolo nella ossidazione o nella corrosione del ferro e dell’acciaio è stato ripetutamente discusso; potete leggere una review in italiano .

Nelle FAQ del prodotto (citate prima) è scritto che il suo ruolo è di bloccare lo sviluppo di idrogeno; leggendo la letteratura potete però trovare un ruolo più chiaro per questo prodotto che è descritto qui:

Il tiosolfato di sodio agisce da “spazzino” di ossigeno (scavenger). Gli scavenger di ossigeno sono agenti riducenti in quanto rimuovono l'ossigeno disciolto dall'acqua riducendo l'ossigeno molecolare a composti in cui l'ossigeno appare nello stato di ossidazione inferiore, cioè -2. L'ossigeno ridotto si combina quindi con un atomo, una molecola o uno ione accettore per formare un composto contenente ossigeno. L'agente riducente, per essere idoneo come deossigenatore, deve avere un calore esotermico di reazione con l'ossigeno e deve avere una ragionevole reattività a temperature più basse.

In sostanza, come scritto prima, il tiosolfato serve ad impedire che l’ossigeno penetrato in anticipo nella cella di reazione svolga il suo ruolo; è una sorta di aiuto per mantenere attivo il tutto, mentre la cella è chiusa, ma casomai non completamente sigillata. Garantisce il funzionamento della cella termica anche in presenza di inevitabili piccole perdite. Ecco su questo non sono d’accordo con la descrizione delle FAQ.

Ultima nota: ci sono rischi nell’uso di questo prodotto? Prima ho scritto che può essere dannoso se usato troppo a lungo in soggetti deboli ed anziani; è da dire che nel 2018 c’è stata una segnalazione di problemi di questo tipo che potete leggere qui.

Ma ovviamente si tratta di rischi minimi e legati o ad un difetto di produzione o ad un uso erroneo; in genere direi che la temperatura raggiunta non è superiore a quella di un bagno caldo.

Infine essendo un prodotto usa e getta come si smaltisce? Alla fine avrete una piccola quantità di sostanze: ruggine, carbone, acqua, poliacrilato e un residuo di tiosolfato, tutto dentro un contenitore di plastica; secondo il produttore si può smaltire nel residuo; è comunque fatto di plastica; ci sarebbe da approfondire meglio che fine fa il tutto.

La termochimica “farmacologica” non si ferma qui; in futuro analizzeremo altre sue applicazioni, casomai nel campo del freddo.

Lavori da consultare:

https://www.tandfonline.com/doi/abs/10.3810/psm.2014.11.2090

https://www.researchgate.net/publication/306049079_Continuous_Low-Level_Heat_Therapy_What_Works_What_Doesn%27t

https://pubmed.ncbi.nlm.nih.gov/17023239/

Il colorante ‘alchemico’ Blu di Prussia  : la sua storia e struttura chimica (parte 2)

In evidenza

Roberto Poeti

(la prima parte di questo post è stata pubblicata qui)

Le ipotesi sulla composizione e struttura del Blu di Prussia  prima della diffrazione a raggi X

Lo studio della composizione e struttura del colorante ha coinvolto diverse generazioni di chimici, a partire dal 1724, anno in cui venne rivelato il procedimento per la sua preparazione,  e proseguendo per circa 250 anni, i chimici hanno cercato di definire la composizione, la stechiometria, e struttura del Blu di Prussia. Eminenti scienziati come Priestley, Scheele, Berthollet, Gay-Lussac e Berzelius sono stati tra i ricercatori del settore. Nel 1782 Scheele isolò l’acido cianidrico mediante riscaldamento del Blu di Prussia con acido solforico diluito; Berthollet mostrò che l’acido prussico ( acido cianidrico) conteneva carbonio, idrogeno e azoto e che era assente l’ossigeno; nel 1811 Gay-Lussac determinò la composizione dell’ acido cianidrico arrivando alla conclusione che il blu di Prussia conteneva cianuro. Pochi anni dopo da quest’ultima scoperta, nel secondo volume del Dizionario di Chimica e Fisica Applicata alle Arti di Giovanni Pozzi del 1821, viene riportata   una lunga e dettagliata descrizione delle prove sperimentali di cui era stato oggetto il Blu di Prussia fino ad allora, nel tentativo di scoprirne il principio della sostanza colorante .  Tuttavia i risultati dell’enorme impegno sperimentale  sono relativi e ben riassunti da questa frase:

Risulta dai fatti riferiti che l’ azzurro di Berlino non solo è formato dall’ acido prussico e dal terzo ossido di ferro [ferroso ] ma che esso contiene costantemente una porzione del secondo ossido [ferrico]

La difficoltà di venire a capo sulla composizione del blu di Prussia risiedeva nella sua  natura di composto di coordinazione. Berzelius nel quarto volume del  Trattato di Chimica del 1838 considera sali doppi gli analoghi composti di coordinazione ferrocianuro e ferricianuro. Descrive preparazione e composizione della classe dei sali doppi formati dal  cianuro ferroso. Al  ferrocianuro di potassio e al ferrocianuro ferrico attribuisce le formule:

cianuro ferroso-potassico 2KCy2 + FeCy2

cianuro ferroso-ferrico (azzurro di Prussia) 2Fe2Cy23 + 3 FeCy2 

dove Cy è il radicale cianuro la cui formula è CN secondo Berzelius. La composizione dell’azzurro  di Prussia che risulta è corretta ( se si considera quella del blu insolubile come specificato più avanti ).  Una prova della proverbiale abilità analitica di Berzelius.

L’ostacolo che impedisce a Berzelius di  attribuire al  blu di Prussia la giusta formula è la sua teoria dualistica, derivata dalla elettrochimica,  che sta alla base della formazione di un composto. Il ferro, elemento positivo, non può essere un costituente di entrambe le parti in cui è diviso un composto, cioè la sua parte positiva e quella negativa.  Nella sua concezione di sale doppio il ferro, sia ferroso che ferrico , costituisce sempre la parte positiva e il radicale Cy la parte negativa. La concezione di Berzelius era in contrapposizione a  quella del chimico inglese Robert Porrett (1783-1868) che aveva mostrato, attraverso l’elettrolisi di una soluzione di  ferrocianuro di potassio, che il ferro  entrava a far parte  del radicale acido e migrava al polo positivo , mentre l’alcali si raccoglieva  al polo negativo.

La posizione invece di Gay-Lussac era coerente con la scoperta  di Porrett:

Io considero l’acido [ acido ferrocianico ]  come un vero idracido, il radicale  del quale è formato da un atomo di ferro e tre di cianogeno [cianogeno (CN)2 ,si ottieneFe (CN)6]

Liebig adottò la concezione di Gay-Lussac e nel suo Trattato di Chimica organica del 1840 così si esprime:

                           Costituzione delle doppie combinazioni di cianogeno e ferro

Supponiamo che queste combinazioni contengano un radicale composto, la cui composizione in 100 parti è la stessa di quelle del cianogeno, ma il peso atomico è tre volte maggiore; questo radicale è accoppiato con 1 equivalente di ferro e forma un acido bibasico nella sua combinazione con 2 equivalenti (4 atomi) d’idrogeno. Noi chiameremo il radicale ferrocianogeno e l’acido, acido ferrocianidrico; le combinazioni del radicale coi metalli corrispondenti ai gradi d’ossidazione inferiori saranno dei ferrocianuri , quelle che corrispondono ai gradi d’ ossidazione superiori saranno dei ferrocianidi.

I pesi atomici adottati si riferiscono all’ossigeno O = 100. Per peso atomico intende anche il peso molecolare.  Il simbolo di questo radicale acido è CfY.

Più avanti indica la composizione del blu di Prussia:

Se la formula con cui Liebig esprime il blu di Prussia la confrontiamo con quella che è oggi attribuita al pigmento nella sua forma insolubile ( vedi più avanti) troviamo una perfetta concordanza :

 Il radicale ferrocianogeno Cfy è equivalente a Fe (CN)6

allora   3Cfy + 2Fe2  equivale a  3[ (Fe CN)6)]+ 4Fe,  formula che è analoga a   Fe4[Fe(CN)6]3 che corrisponde a quella del blu di Prussia insolubile, come vedremo più avanti.  

La concezione di un radicale acido Fe (CN)6 non ha fatto  breccia facilmente nella comunità dei chimici se nel trattato elementare Chimica Organica di Ira Remsen ( l’inventore della saccarina) tradotto da Italo Giglioli  nel 1888 , riaffiora il concetto del sale doppio di Berzelius :

L’azzurro di Prussia è un cianuro complesso di ferro, rappresentato da    4 Fe(CN)3 · 3Fe(CN)2

Tuttavia nello stesso periodo Luigi Angelo Gabba nel suo trattato di Chimica Inorganica e Organica  del 1883 descrive in termini corretti il blu di Prussia :

Aggiungendo la soluzione di un sale ferrico alla soluzione del ferrocianuro potassico  si forma un precipitato di colore azzurro carico che ha la composizione:

 (Fe Cy6)3 (Fe2)2

e si chiama azzurro di Berlino. Il blu di Berlino sarebbe il sale ferrico dell’acido ferrocianidrico.

Il simbolo che compare Cy è il radicale cianogeno CN.

Se la costituzione del complesso Fe(CN)6 si sta affermando nella interpretazione dei ferricianuri e ferrocianuri e in particolare in quello del blu di Prussia, la sua formazione pone problemi nuovi in termini di teoria della valenza.

La struttura del radicale ferrocianogeno che troviamo nell’opera monumentale Enciclopedia di Chimica Scientifica e Industriale di Francesco Selmi, alla voce Cianici composti del secondo volume 1880, è un tentativo di spiegazione, alla luce del concetto di valenza, della struttura del blu di Prussia . Partendo dal presupposto che una struttura chimica è una rete di atomi tra loro connessi da legami secondo il criterio della valenza, viene condivisa  l’ipotesi di  Emil Erlenmeyer (1825-1909) secondo cui nei ferro e ferricianuri si ammette l’esistenza del tricianogeno.  L’ipotesi del tricianogeno è considerata una derivazione della struttura del dicianogeno: N ≡ C ─ C ≡ N

La valenza è quattro per il carbonio, mentre l’azoto può avere valenza tre o cinque. Questo comporta la possibilità di varie isomerie, alcune sono rappresentate nella figura. Un gruppo tricianogeno ha sempre una valenza tre. Il radicale ferrocianogeno Fe(CN)6 è rappresentato dalla  struttura seguente, insieme all’acido corrispondente (Az è il simbolo dell’azoto).

Nel ferrocianuro ferrico ( blu di Prussia o azzurro di Berlino) la struttura è rappresentata nel modo seguente:

I quattro atomi di FeIII fanno da ponte nel ferrocianuro ferrico, come si potrebbe facilmente vedere, tra i tre gruppi ferrocianogeni. Attraverso l’impiego del concetto di valenza, concepito come legami rigidamente diretti,   viene costruita una struttura coerente. Doveva ancora passare più di un decennio prima che  Alfred Werner esponesse la sua teoria sui composti di coordinazione.

Il Manuale di Chimica Tecnologica di Rudolf Von Wagner del 1898, citato precedentemente, al capitolo Composti del ferro, incluso ferrocianogeni , descrive le tecniche industriali utilizzate nella produzione del potassio ferrocianuro e del blu di Prussia  da cui si ottiene, ma non c’è nessun riferimento alla composizione e struttura del colorante.

Nel 1915 viene pubblicato un manuale La Chimica dei composti del Cianogeno di Herbert E. Williams molto dettagliato, il cui incipit alla voce  Ferrocianuri ferrici è:

Quando si aggiunge un sale ferrico ad una soluzione di un ferrocianuro, si ottiene un precipitato voluminoso di colore blu intenso, che varia per composizione e proprietà a seconda del metodo di preparazione e del particolare ferrocianuro utilizzato. L’esatta natura e costituzione di questi precipitati è ancora oggetto di molte discussioni.

Viene evidenziata la  difficoltà ad ottenere una composizione costante:

Il blu così ottenuto, quando lavato ed essiccato all’aria, contiene una proporzione molto considerevole di acqua di idratazione, o costituzione molto saldamente combinata, la maggior parte della quale viene trattenuta quando il composto viene riscaldato a 100 C°… Il ferrocianuro ferrico puro non può essere ottenuto dalla precipitazione di un ferrocianuro di metallo alcalino da parte di un sale ferrico, poiché il prodotto, anche se preparato e lavato con la massima cura, contiene sempre parte del metallo alcalino in combinazione… Di solito si presume che i composti blu contenenti metalli alcalini tra i limiti delle formule, Fe M’Fe(CN)6  e  Fe4 [Fe(CN)6]3, siano semplici miscele di questi due composti. È naturalmente vero che in molti casi il precipitato è una mera miscela meccanica di uno o più composti.

Questo breve excursus mostra quanto sia stato problematica la soluzione della composizione e di riflesso della struttura del blu di Prussia. La ragione è spiegata in una sintesi efficace da  Mike Ware nell’articolo Blu di Prussia: Pigmento degli artisti  e Spugna dei chimici:

Il ferrocianuro ferrico, o esacianoferrato (II) di ferro (III) come dobbiamo ora chiamarlo noi chimici, è famoso per due proprietà chimiche ben diverse: il suo colore, dovuto agli stati di ossidazione mista del ferro; e il suo carattere zeolitico, una conseguenza della struttura aperta del suo reticolo cristallino. (Le zeoliti appartengono a una famiglia complessa di minerali alluminosilicati di metalli alcalini porosi, ma l’aggettivo viene ora applicato a qualsiasi sostanza in grado di assorbire e intrappolare altre molecole o ioni nelle cavità del suo reticolo e agire come setaccio molecolare o scambiatore di ioni. ) La capacità del blu di Prussia di ospitare piccole molecole e ioni spiega perché i chimici impiegarono 200 anni per comprendere i dati analitici contraddittori presentati dalle diverse varietà di questa sostanza.

La struttura del blu di Prussia svelata con la diffrazione a raggi X

La prima ipotesi strutturale per il Blu di Prussia fu presentata da Keggin e Miles attraverso la diffrazione a raggi X di un campione in polvere. Infine, negli anni ’70  Ludi e altri hanno pubblicato una struttura dettagliata e hanno confermato la composizione come FeIII4 [FeII (CN)6] 3 · x H2O (x = 14-16), che è ora accettato come corretta, tramite diffrazione di un singolo cristallo. Questi campioni cristallini erano ottenuti  da H4FeII(CN)6 e FeCl3 in ambiente fortemente acido . Il prodotto che ne deriva viene anche chiamato blu di Prussia insolubile.

Un percorso di preparazione molto più rapido e semplice consiste nel mescolare semplicemente soluzioni di FeCl3 e K4Fe(CN)6 in ambiente acido,  che portano tuttavia  a un precipitato blu molto voluminoso o sospensione colloidale. A causa delle dimensioni estremamente ridotte delle particelle, tali campioni rapidamente precipitati possono incorporare o assorbire quantità significative e variabili di potassio, da qui la formula molto semplificata KFeIIIFeII(CN)6·x H2O (x = 1–5), per il cosiddetto blu di Prussia solubile.

Le due preparazioni, però, sono entrambe di prodotti insolubili, in senso stretto. La differenza tra i due sta semplicemente nella dimensione delle particelle: a seconda dei parametri sintetici, infatti, il PB può precipitare in massa o cristalli nanometrici. Nel secondo caso si può ottenere un colloide stabile (considerato impropriamente una soluzione). I blu preparati con i numerosi processi industriali  differiscono leggermente l’uno dall’altro nella composizione chimica e nelle proprietà fisiche, potendo variare tra la composizione del blu insolubile a quella del blu solubile. I risultati della diffrazione mostrano che in tutte le forme cristalline con cui si presenta il BP ha un reticolo cubico a facce centrate con ioni FeII e FeIII alternati collegati da anioni di cianuro  FeIII-N-C-FeII, una sequenza che rappresenta l’elemento essenziale della struttura polimerica tridimensionale. L’assegnazione degli stati di ossidazione, FeII in un ottaedro di carbonio, FeIII in un ambiente azoto-acqua (ferrocianuro ferrico) è stata stabilita senza ambiguità da una varietà di tecniche fisiche come spettroscopia infrarossa, fotoelettronica e Mossbauer. Nella forma “solubile” (Figura 1a), K+ è presente al centro della metà delle celle cubiche. Nel PB “insolubile”, invece, poiché il rapporto tra FeIII e FeII è 4:3, il 25% dei siti di FeII sono vacanti, lasciando quindi un quarto del FeIII coordinativamente insaturo. In questa forma di PB, le posizioni libere su FeIII sono occupate da molecole d’acqua (Figura 1b).

.

Figura 1. (a) rappresentazione della struttura del BP “solubile”,  KFeIIIFeII(CN)6, con metà dei centri delle celle cubiche occupate da K+. Colori: FeII giallo, FeIIImarrone, C grigio, N blu, K violetto; (b) Rappresentazione della struttura del BP “insolubile”, FeIII4 [FeII (CN)6]3, con le sfere di coordinazione di FeIII completate damolecole di acqua (O rosso, H bianco).

Nel blu di Prussia vi è la presenza di due stati di ossidazione dello stesso elemento FeIII e FeII che caratterizza i cosiddetti composti a valenza mista . La presenza di ferro in due stati di valenza è necessaria per colorare il composto. Questo perché gli atomi di ferro nel composto subiscono ossidazione e riduzione reciproca mediante il seguente processo:

Fe3+ + Fe2+ → Fe2+ + Fe3+

L’energia necessaria per promuovere questo trasferimento di carica è dell’ordine delle energie della luce rosso-gialla. Di conseguenza, il blu di Prussia assorbe molto fortemente la luce gialla e riflette un colore blu intenso. Il primo modello per la transizione elettronica responsabile del colore blu è stato proposto nel 1962 da Robin, utilizzando la teoria del campo dei ligandi.

Uno dei tanti impieghi del blu di Prussia

Il blu di Prussia stesso è atossico, non reattivo e insapore e può essere tranquillamente consumato in quantità di grammi senza effetti dannosi. Il metallo del gruppo I, il cesio, possiede un grande catione a carica singola, con un raggio di 181 p.m., che può essere assorbito e “imprigionato” dal blu di Prussia. Un radioisotopo di questo elemento causa serie preoccupazioni. Il prodotto di fissione, Cs137, formato nei reattori nucleari e nelle esplosioni nucleari, è un potente emettitore beta e gamma con un’emivita di 30 anni. Rimane nel corpo per 110 giorni o più, ed è quindi una potente radiotossina. Nell’aprile 1986 ci fu una disastrosa esplosione del reattore nucleare a Chernobyl che emise una nube radioattiva contenente Cs137, tra gli altri radioisotopi. La nuvola si è spostata verso ovest attraverso l’Europa, depositando pioggia radioattiva. Nel nord-ovest del Regno Unito, i pascoli montani della Cumbria e del Galles settentrionale erano particolarmente vulnerabili. Il cesio viene assorbito dall’erba che viene pascolata dalle pecore e quindi può passare nella catena alimentare umana. È stato trovato efficace nutrire con il blu di Prussia direttamente le pecore colpite e aumentare l’escrezione fecale del radioisotopo. Gli effetti di Chernobyl sono continuati. Nel 1992 si scoprì che anche branchi di renne migranti in Norvegia avevano assorbito Cs137 a causa di questo disastro, perché pascolano sui licheni e si cibano anche di funghi, entrambi i quali concentrano il cesio. Il blu di Prussia è stato quindi aggiunto al sale, di cui sono molto golosi questi animali nomadi, con effetti benefici.  Il blu di Prussia continua ad essere utilizzato per disintossicare il bestiame nelle regioni contaminate da Chernobyl in Bielorussia, Russia e Ucraina, e ha salvato le loro industrie agricole di produzione di latte e carne da enormi perdite.

Lo studio sul colorante continua

Il blu di Prussia continua ad essere oggetto di studio,  la sua facilità di sintesi in forma nanometrica e la sua biocompatibilità hanno reso PB un candidato ideale per la preparazione di nanomateriali di interesse in medicina e biomedicina.

Il grande interesse da parte della comunità accademica è dimostrato da un numero elevato di pubblicazioni dedicate al PB. Negli ultimi tre anni sono state pubblicate circa 20 recensioni all’anno sull’argomento “Blu di Prussia”. Recentemente, le applicazioni biomediche del PB sono state riviste in modo approfondito. Il PB in nanomedicina è utilizzato per l’imaging , la somministrazione di farmaci, la terapia fototermica e, come accennato in precedenza, l’applicazione classica come antidoto per l’avvelenamento da Cs e Tl.

Una nota

La composizione e la identificazione del gruppo ciano (nitrile) nel blu di Prussia  ha avuto  un impatto ancora più importante, perchè ha contribuito allo sviluppo di concetti fondanti la chimica della prima metà dell’ottocento. Di questa parte della storia ne parleremo in un altro articolo.

Bibliografia

  • Mike Ware, Prussian Blue: Artists’ Pigment and Chemists’ Sponge, JCE 2008
  • Katie Carr, Saints and sinner JohannKonrad Dippel, The Royal College of Surgeons of England Bulletin 2013
  • Alexander Kraft, On the discovery and history of Prussian  blue, Bull. Hist. Chem., Volume 33, Number 2, 2008
  • Andreas Ludi, Prussian blue, an inorganic evergreen, JCE 1981
  • M. Macquer, Examen chymique du bleu de Prusse, Mémoire de l’Académie Royale de sciences, 1752
  • M. Gay- Lussac, Note sur l’acide prussique,Annales de Chimie, 1811
  • M. Gay- Lussac, Recherches sur l’acide prussique, Annales de Chimie et de Physique, 1815
  • M. Gay- Lussac, Faits pour servir à L’histoir du bleu de Prusse, Annales de Chimie et de Physique, 1831
  • Carl Wilhelm Scheele, Essai sur le matiere colorante du blue de Prusse, Memoires de l’Academie Royale de Sciences de Stockholm, 1789
  • Giovanni Pozzi, Dizionario di chimica e fisica, Milano, 1821
  • J.R. Partington, A History of Chemisry, Macmillan, 1970
  • G.G.Berzelius, Trattato di Chimica, tomo 4, 1839
  • Herbert E. William,  The chemistry of cyanogen compound and their manifacture and estimation,  Philadelphia, P. Blakiston’s son & co. 1915
  • https://en.wikipedia.org/wiki/Potassium_ferrocyanide
  • Rodolf von Wagner, Manual of chemical technology , New York, Appleton 1897
  • https://en.wikipedia.org/wiki/Johann_Jacob_Diesbach
  • Francesco Selmi, Enciclopedia di Chimica scientifica e industriale, volume VII, 1880
  • Angelo Taglietti  , Piersandro Pallavicini  and Giacomo Dacarro , Prussian Blue and Its Analogs as Novel Nanostructured Antibacterial Materials, MDPI, 2021

Terapie basate su tRNA

In evidenza

Rinaldo Cervellati

Alltrna è l’ultima di un numero crescente di startup[1] con piani per lo sviluppo di terapie basate sull’utilizzo dell’RNA transfer, o RNA di trasporto (tRNA), una famiglia di molecole di RNA che svolgono un ruolo vitale nella costruzione delle proteine.

Come noto, il DNA (acido desossiribonucleico) è presente nel nucleo di tutte le cellule e contiene il patrimonio genetico degli organismi viventi; da esso dipende la formazione dell’RNA, e di conseguenza la sintesi delle proteine. L’RNA (acido ribonucleico) è presente sia nel nucleo sia nel citoplasma. Vi sono tre tipi di RNA comuni a tutti gli organismi cellulari: mRNA (RNA messaggero) che contiene l’informazione per la sintesi delle proteine; rRNA (RNA ribosomiale), che entra nella struttura di piccole particelle costituite da RNA e proteine (ribosomi); tRNA (RNA di trasporto) necessario per la traduzione nei ribosomi (figura 1).

Fig. 1 In colori blu e sabbia le due parti di un ribosoma unite da tRNA e mRNA

Alltrna (con sede a Cambridge, MA, USA), è stata lanciata con un impegno fino a 50 milioni di dollari da Flagship Pioneering, la società di investimenti che ha contribuito a fondare la società Moderna per le terapie con RNA messaggero nel 2010.

Sebbene il tRNA sia essenziale per la vita, questa molecola ha ricevuto scarso interesse dall’industria farmaceutica fino a poco tempo fa. L’mRNA è una molecola passiva che codifica le istruzioni per produrre proteine. Al contrario, il tRNA è una molecola attiva che aiuta a tradurre il codice dell’mRNA. Il tRNA legge tre lettere di un filamento di mRNA alla volta, un’unità chiamata codone, e trasferisce un amminoacido corrispondente al ribosoma, il “macchinario” per la produzione di proteine ​​delle cellule.

Alcuni scienziati (e alcuni investitori biotecnologici), inclusi i leader di Alltrna, pensano che maneggiare il tRNA potrebbe fornire un nuovo modo per curare le malattie in cui le mutazioni del mRNA inducono le cellule a produrre proteine ​​​​difettose. Lovisa Afzelius, Amministratore Delegato (CEO) e co-fondatore di Alltrna, afferma che la startup sta progettando un tRNA in grado di modificare le mutazioni dell’mRNA e trasferire l’amminoacido appropriato al ribosoma, ripristinando così la produzione di proteine ​​normali.

Alltrna si unisce ad almeno tre società che sviluppano molecole di tRNA ingegnerizzate per ripristinare la produzione di proteine ​​nelle malattie genetiche: ReCode Therapeutics è focalizzata sulla fibrosi cistica, Shape Therapeutics ha un programma per la sindrome di Rett (un disturbo dello sviluppo neurologico) e Tevard Biosciences sta lavorando su epilessie genetiche.

Tevard e Alltrna si concentrano esclusivamente sul tRNA. Theonie Anastassiadis, cofondatrice e responsabile dei processi di innovazione (CinO) di Alltrna, afferma che la startup spera anche di manipolare i rapporti dei diversi tRNA naturali presenti nelle cellule per controllare la traduzione e aumentare o ridurre la produzione di proteine. Un terzo programma Alltrna è incentrato su una classe di molecole poco conosciute chiamate frammenti derivati ​​dal tRNA, che sono coinvolte nei processi regolatori e implicate in molteplici malattie, compreso il cancro.

Fig. 2 Lovisa Afzelius e Theonie Anastassiadis rispettivamente Amministratore Delegato e Responsabile delle Innovazioni

Alltrna non sta rivelando su quali malattie si concentrerà o una tempistica per ottenere una terapia con tRNA in una sperimentazione clinica. Ma Afzelius afferma che l’azienda “si espanderà nelle nostre aree di applicabilità”.

Come le altre aziende che sviluppano terapie tRNA, Alltrna sostiene che può potenzialmente utilizzare una terapia tRNA per trattare diverse malattie causate da mutazioni mRNA simili o identiche. Afzelius si spinge fino a dire che un singolo medicinale tRNA potrebbe essere usato “per curare migliaia di malattie”.

Fondata nel 2018 e basandosi sull’esperienza decennale e sulla ricerca di Flagship sull’RNA, Alltrna costruirà una piattaforma attorno alla totalità della biologia del tRNA, sfruttandola come fonte di terapie programmabili per malattie sia rare che comuni che condividono mutazioni genetiche. Per approfondire la sua comprensione del linguaggio tRNA, la piattaforma di Alltrna incorpora una serie di strumenti AI/ML (Intelligenza Artificiale/Apprendimento Automatico). Questi strumenti consentiranno alla nuova società di integrare e digitalizzare i dati dei tRNA che hanno progettato negli ultimi tre anni, oltre a quelli futuri, per poi trasformarli in terapie programmabili.

Post tradotto e adattato da R. Cross: Alltrna launches with $50 million for tRNA therapies,C&EN news, October 9, 2021.


[1] In economia con il termine startup (impresa emergente) si identifica una nuova impresa nelle forme di un’organizzazione temporanea o una società di capitali in cerca di soluzioni organizzative e strategiche che siano ripetibili e possano crescere.

Il colorante ‘alchemico’ Blu di Prussia  : la sua storia e struttura chimica (Parte 1)

In evidenza

                                                                          

Il colorante ‘alchemico’ Blu di Prussia  : la sua storia e struttura chimica

Roberto Poeti

Come nasce e si afferma il colorante

La storia del colorante Blu di Prussia è iniziata intorno al 1705 presso il laboratorio di Johann Konrad Dippel a Berlino,  in cui oltre alla medicina egli praticava l’alchimia. Dippel, nato nel 1673 a Castello Frankenstein vicino Darmstadt in Germania,  è un personaggio complesso, problematico ,

ribelle per natura. Fu coinvolto in molte controversie pubbliche in cui  difendeva la posizione dei Pietisti, (corrente religiosa nata nella seconda metà del settecento in conflitto con il protestantesimo) rispetto ai Luterani ortodossi, in modo intemperante e impetuoso. Si procurò molti nemici in Europa al punto che passò sette anni in galera accusato di eresia. Stabilitosi a Giessen dove perseguì la sua ritrovata passione per l’alchimia,  credette nella propria capacità di trasmutare il piombo in oro. Comprò una piccola tenuta, a credito, dove avrebbe potuto lavorare in pace, ma dopo otto mesi di riscaldamento continuo, il suo crogiolo si ruppe. Pressato dalle richieste dei suoi creditori, fuggì da Giessen alla volta di Berlino. A Berlino rivolse i suoi sforzi nella creazione di un altro sogno alchemico, una “cura universale”. Dippel si interessò presto all’olio ottenuto dalla distillazione distruttiva di materia animale, tra cui cuoio, sangue, avorio e corna. L’olio nero prodotto venne conosciuto come Olio di Dippel. Questo olio era un distillato maleodorante che Dippel sosteneva si trattasse di una medicina universale, elisir di lunga vita, che poteva curare qualsiasi cosa, dal comune raffreddore all’epilessia.

Dippel e Frankenstein

 Ci sono molte voci che circondano la connessione di Dippel con il Frankenstein di Mary Shelley (1797- 1851). Queste derivano principalmente dal fatto che, essendo nato nell’omonimo Castello di Frankenstein, Dippel praticò l’alchimia e l’anatomia e si dice anche che abbia sperimentato il trasferimento di anime tra cadaveri. Resta da dimostrare se questo sia vero o meno, ma è certo che la nozione di “trasferimento dell’anima” era un argomento di conversazione popolare all’epoca e che Dippel si riferisce ad esso nei suoi scritti contemporanei in Malattia e Rimedi della Vita Carnale. Dippel parla del suo olio animale e della possibilità di usarlo per esorcizzare i demoni. Menziona anche l’idea di un imbuto utilizzato per trasferire un’anima da un cadavere all’altro.

Inoltre si dice che Mary Wollstonecraft Godwin abbia visitato il castello di Frankenstein con suo marito Percy Bysshe Shelley quando stava viaggiando lungo il Reno. È infatti possibile che mentre era lì abbia sentito storie sul famigerato Dippel dalla gente del posto e successivamente abbia basato il personaggio di Frankenstein su di lui, o almeno abbia usato i racconti locali come ispirazione per la sua scrittura. Dippel morì nel 1734, si pensò che avesse avuto un ictus, ma circolò anche l’ipotesi che potesse essere stato avvelenato. Il fatto che queste voci esistessero dimostra quanto Dippel fosse impopolare. Nel periodo tra il 1705 e il 1706 si trovava a lavorare nel laboratorio di Dippel un produttore svizzero di coloranti e pigmenti di nome Johann Jacob Diesbach. Di lui non abbiamo quasi nessuna notizia,  neppure la data di nascita e morte. È diventato famoso per aver prodotto insieme a Dippel il Blu di Prussia.

Una scoperta dovuta al caso

 La storia convenzionale dell’invenzione  è stata raccontata da Georg Ernst Stahl (1660-1734) a margine di un suo libro sulla teoria del flogisto che pubblicò nel 1731. È l’unico resoconto che ci è  pervenuto. Stahl non precisa la data della scoperta. Dippel stava preparando il cosiddetto olio animale distillando sangue animale a cui era aggiunta potassa. Allo stesso tempo  Diesbach stava cercando di produrre la lacca Fiorentina, un pigmento rosso basato sul rosso di cocciniglia. Usualmente lo otteneva per precipitazione di un estratto di cocciniglia ( prodotto bollendo gli insetti seccati di cocciniglia con acqua per estrarre l’acido carminico) con allume , solfato di ferro e potassa. Tuttavia non avendo più potassa a disposizione utilizzò quella di Dippel che era stata usata nella produzione del suo olio animale. Immaginiamo la sorpresa di Diesbach quando il colore che ottenne non era cremisi, ma blu. Noi ora sappiamo che l’olio animale consisteva di un miscela  di basi organiche azotate come il pirrolo ( dalle porfirine dell’emoglobina ) e diversi alchil cianuri ( o alchil nitrili) provenienti dalla degradazione termica di molecole contenenti legami C-N, come l’emoglobina. La formula del blu di Prussia (blu solubile) contiene nella sua struttura il gruppo ciano :   KFeIII[FeII(CN)6]. Per caso, l’olio di Dippel ha fornito l’ingrediente essenziale, ma allora sconosciuto, il cianuro, per consentire la scoperta fortuita di  Diesbach del blu di Prussia . Tutti i pittori da allora hanno avuto motivo di essere grati all’alchimista senza scrupoli Dippel. Il blu di Prussia non si trova in natura, quindi è stato il primo pigmento sintetico. Dippel e  Diesbach furono capaci di intuire la causa del fenomeno e di rendere  ripetibile il risultato ottenuto. Il blu di Prussia è stato menzionato per la prima volta nella letteratura scientifica nel primo numero della pubblicazione della Società Reale Prussiana delle Scienze,  “The Miscellanea Berolinensia ad incrementum Scientiarum” nel 1710.  La breve comunicazione anonima in latino dal titolo “Notitia Caerulei Berolinensis Nuper Inventi”, non ha rivelato quasi nulla della scoperta del blu di Prussia, né ha fornito un metodo per la preparazione del pigmento; piuttosto, era una sorta di pubblicità per il nuovo materiale, sotto gli auspici della nuova società scientifica.

Nonostante gli sforzi per nascondere il metodo di produzione del Blu di Prussia, è rimasto segreto solo per circa 20 anni. Nel 1724 John Woodward (1657-1728), un medico , naturalista, e  geologo pubblicò una procedura per la produzione di questo colore nelle Transazioni Filosofiche della Royal Society di Londra.  Il documento si basava su una lettera inviatagli dalla Germania dove era rivelata la procedura segreta, ma Woodward non pubblicò il nome dell’autore. In Francia Etienne-Francois Geoffroy (1672-1731) nel 1725 comunicò ai chimici francesi il segreto della produzione del Blu di Prussia.  In seguito, la produzione del Blu di Prussia iniziò in tutta Europa. Inizialmente il pigmento fu utilizzato  solo dai pittori e il primo dipinto dove venne impiegato è un’opera del celebre pittore olandese  Adriaen van der Werff (1659-1722).

Fino alla scoperta di Diesbach, il blu era un colore problematico per gli artisti: non esisteva un pigmento del tutto soddisfacente. Il colorante vegetale indaco (il guado degli antichi britannici) era piuttosto incline a sbiadire. Il pigmento permanente blu oltremare, realizzato con il minerale semiprezioso blu lapislazzuli, veniva estratto solo in Afghanistan ed era estremamente costoso. Anche altri blu, come lo smalt (è un vetro di colore blu intenso preparato includendo un composto di cobalto, tipicamente ossido di cobalto o carbonato di cobalto, in un vetro fuso.) e l’azzurrite (carbonato di rame(II) basico, 2CuCO3 ∙ Cu(OH)2, avevano i loro svantaggi. L’oltremare era così costoso che i clienti ne limitavano l’uso nei loro dipinti. Per la sua preziosità  il suo uso era riservato solo ai soggetti sacri, come le vesti delle figure religiose. L’arrivo del blu di Prussia ha trasformato l’atteggiamento degli artisti nei confronti del blu sulle loro tavolozze; possiamo vedere un esempio nell’improvviso sfogo di generosa applicazione del colore nell’opera della scuola impressionista francese.

Il blu di Prussia non è stato usato solo come pigmento per pittori ma fu presto applicato alla tintura dei tessuti, secondo i suggerimenti contenuti nel lavoro del chimico P. J. Macquer (1718-1784), condotto nel 1749 . Da allora le divise dell’esercito del Regno di Prussia furono colorate con il blu di Prussia.

Nel secondo volume  del Dizionario di Chimica e Fisica Applicata alle Arti di Giovanni Pozzi del 1821 alla voce Azzurro di Prussia viene decritto il procedimento che veniva utilizzato negli opifici per ottenere il pigmento. I passaggi del processo sono rimasti pressoché quelli degli scopritori  di un secolo prima :

Si fa bollire il sangue di bue fino a che si coaguli e quindi diventi secco. Le corna e le unghie all’opposto si fanno fondere ad un calore non troppo forte in modo che la massa si possa stendere come una poltiglia. Tosto che questa poltiglia è diventata fredda si può facilmente fare in polvere. Si mescolano esattamente di questo sangue seccato, oppure di questa massa di corno fatta in polvere cento libbre circa con cento libbre di potassa, e si mette la mescolanza a calcinare in un fornello. Nella prima ora si dà un fuoco debole: si rinforza però questo a poco a poco fino al punto che la massa diventi rovente. Essa innalza un fumo mescolato colla fiamma e tosto che ambedue cessano si leva la massa dal fornello e si lascia raffreddare. Si innaffia con 200 pinte di acqua bollente, si lascia in riposo per otto giorni almeno, e si agita giornalmente la massa. Poscia si filtra la lisciva con un panno doppio. Il fluido filtrato è la lisciva di sangue che deve essere considerata come la base del tutto. Quindi si sciolgono 25 libbre di vetriolo di ferro in una sufficiente quantità di acqua, la quale deve essere bollita per un quarto d’ ora colla latta. Allora si filtra il fluido con un panno doppio e si conserva caldo. Frattanto si sciolgono in un altro caldaio 100 libbre di allume, e si versa questa soluzione, dopo essere stata filtrata ancora calda nella soluzione di solfato di ferro, parimente calda. Vi si aggiunge poi tanta lisciva di sangue fino a che cessi l’ effervescenza, e non  succeda più precipitato. Allora si lascia in riposo la mescolanza, affinchè deponga; nel giorno susseguente si riporta sulle tele, e si lascia che l’ umidità ne sgoccioli. La massa che rimane sulla tela si porta di nuovo nei vasi: si riempiono questi del tutto d’ acqua e si divide nella medesima il deposito per mezzo dell’ agitazione. Si ripete quest’ operazione per cinque o sei volte onde renderla pura col lavamento il più che sia possibile. Si porta di nuovo sul filtro: si lascia che ne coli tutto il fluido e si lascia che il residuo si secchi su dè graticci, ma però all ombra.

La possibilità di produrre ferrocianuro di potassio dal 1825 consentì di ottenere direttamente il blu di Prussia mediante la reazione con sali ferrici. Sebbene il blu di Prussia sia stato prodotto subito dopo la scoperta di Dippel e Diesbach, tuttavia la produzione  non ha assunto una  dimensione industriale finché il ferrocianuro di potassio non fu separato per cristallizzazione dalla massa fusa ottenuta fondendo carbonato di potassio e materia animale. E il blu è stato prodotto partendo da questo composto, invece che dalla soluzione grezza della massa fusa. Nel Manuale di tecnologia Chimica di R. Von Wagner, ed. 1897, viene descritto il procedimento industriale. Partendo dal ferrocianuro si migliorava la qualità del colorante e la costanza delle sue caratteristiche .   

(continua)

Gas serra. Il metano.

In evidenza

Rinaldo Cervellati

* tratto e adattato da “Methane cuts could slow extreme climate change” (Katherine Bourzac, pubblicato il 24/10/2021 su C&N online) Il metano: la falsa soluzione per la transizione energetica, Ancler®

Molti scienziati concordano sul fatto che la riduzione delle emissioni di anidride carbonica (CO2) sia urgente e necessaria per rallentare i cambiamenti climatici (innalzamento del livello dei mari di oltre 3mm, siccità, caldo, incendi o tempeste senza precedenti, ecc.). Ma la CO2 che abbiamo già emesso rimarrà nell’atmosfera per centinaia di anni, quindi ci vorrà del tempo affinché la sua mitigazione mostri dei benefici sui cambiamenti climatici.

Le notizie non sono tutte disastrose, sostengono alcuni scienziati. Essi ritengono che si potrebbe rallentare il riscaldamento globale rivolgendo l’attenzione alla riduzione delle emissioni del secondo gas serra più importante, il metano.

Il metano è stato in qualche modo trascurato nelle discussioni sui cambiamenti climatici, ma ultimamente sta ricevendo maggiore attenzione, anche nel più recente rapporto scientifico dell’Intergovernmental Panel on Climate Change (IPCC) dell’ONU. Rob Jackson, scienziato del sistema terrestre nella Stanford University e presidente del Global Carbon Project[1], afferma che: “Per quanto sia difficile ridurre la CO2, non raggiungeremo i nostri target di temperatura affrontando solamente questo problema”.

Le emissioni di metano crescono ogni anno. Secondo il Global Carbon Project, alla fine del 2019, la concentrazione di metano nell’atmosfera era di 1.875 ppb, oltre 2,5 volte quella dell’epoca preindustriale. La figura 1 mostra un grafico dell’andamento delle medie mensili delle concentrazioni globali di metano nell’atmosfera dal 1980 al 2020.

Figura 1. Fonte: National Oceanic and Atmospheric Administration (NOAA), agenzia federale statunitense che si interessa di oceanografia, meteorologia e climatologia.

Parte del metano proviene da fonti naturali, in particolare dalle zone umide, dove i batteri si nutrono di carbonio organico ed emettono gas serra. Ma circa il 60% delle emissioni di metano proviene da fonti umane. L’industria dei combustibili fossili e l’agricoltura sono le due maggiori fonti antropogeniche di emissioni; la gestione dei rifiuti e altre attività fanno il resto (figura 2).

Figura 2. Le emissioni si basano sui numeri del 2017 compilati dal Global Carbon Project e convertiti in percentuali. Fonti: Global Carbon Project; ambiente. Res. Lett. 2020, [1]

La temperatura media globale è aumentata di circa 1,07 °C dal periodo 1850-1900 al periodo 2010-2019, secondo l’IPCC. Prima che venga sottratto l’effetto di raffreddamento di altre emissioni umane, come gli aerosol, le emissioni di metano da sole sono responsabili di circa mezzo grado di tale riscaldamento.

Un grado o mezzo grado potrebbe non sembrare molto, ma piccoli aumenti della temperatura globale media hanno grandi effetti sul clima, producendo eventi estremi come inondazioni e siccità più frequenti e più intensi. Ad esempio, secondo l’IPCC, un aumento della temperatura di 1 °C ha modificato la frequenza di fenomeni estremi come l’innalzamento delle temperature massime, portandoli da 1 a 2,8 volte ogni decennio. Se si aggiunge un altro mezzo grado di riscaldamento, questi eventi si verificheranno probabilmente 4,1 volte ogni decennio.

Implementando misure per ridurre le emissioni di metano, “possiamo rallentare il tasso di riscaldamento globale del 30%” nei prossimi decenni, afferma Ilissa Ocko, climatologo senior presso l’Environmental Defense Fund, un gruppo di ricerca e difesa ambientale senza scopo di lucro. “Questa è un’opportunità straordinaria. Stiamo cercando di sensibilizzare le persone sull’esistenza di questa possibilità”. La ricerca di Ocko suggerisce che adottare tutte le misure possibili per ridurre le emissioni di metano avrebbe un grande impatto: se fossero messe in atto oggi, il tasso medio di riscaldamento per decennio potrebbe essere rallentato del 30% nei prossimi decenni. E il pianeta eviterebbe un riscaldamento di 0,25 °C entro la fine di questo secolo [2].

La riduzione delle emissioni di metano apporterebbe un vantaggio immediato grazie alla chimica di questo gas. Il metano ha una forte influenza sul clima: ha 84 volte l’effetto riscaldante della CO2 nei primi 20 anni dopo l’emissione. E non dura a lungo: la sua vita media è di 12 anni. Nel tempo, si ossida per formare CO2 e acqua, oppure può partecipare a reazioni che generano ozono a livello del suolo. Poiché il metano è sia potente sia di breve durata, se le emissioni diminuiscono, l’attuale metano atmosferico può decomporsi e ridurre la pressione sul clima.

L’analisi di Ocko si è concentrata su strategie di mitigazione convenienti e attualmente disponibili senza fare affidamento su politiche come la tassa sul carbonio o cambiamenti comportamentali di massa, come le persone che passano a diete vegane.

Lena Höglund-Isaksson, economista ambientale presso l’International Institute for Applied Systems Analysis[2], concorda sul fatto che il settore dei combustibili fossili sia il luogo più conveniente per affrontare il problema del metano. Ha analizzato quanto diverse misure di mitigazione potrebbero ridurre le emissioni di metano entro il 2050. I programmi per rilevare e riparare le perdite dei gasdotti e maggiori sforzi per catturare le perdite di gas ridurrebbero le emissioni di metano associate alla produzione di petrolio del 92% [3].

Quindi, perché le aziende non eseguono queste semplici riparazioni che farebbero risparmiare denaro catturando il metano? Afferma Höglund-Isaksson: “I margini di profitto per petrolio e gas sono molto alti ed è più redditizio estendere la produzione e perforare nuovi pozzi piuttosto che contenere le perdite. Quello che manca sono gli incentivi politici”.

I responsabili politici hanno prestato maggiore attenzione al metano negli ultimi mesi. Il 17 settembre, gli Stati Uniti e l’Unione Europea si sono impegnati a ridurre le emissioni di metano di un terzo rispetto ai livelli del 2020 nel prossimo decennio. Altri sette paesi si sono uniti all’impegno, ma i maggiori emettitori di metano del mondo, Cina, India, Russia e Brasile, non l’hanno firmato.

Le attività antropiche causano circa il 60% delle emissioni di metano, le fonti naturali, in particolare le zone umide, forniscono il resto. Nel 2017, le emissioni totali di metano sono state di circa 596 milioni di tonnellate, di cui 364 milioni di tonnellate da emissioni umane (figura 2).

Individuare le perdite, anche quelle enormi chiamate “superemettitori”, non è così semplice come sembra. Da settembre a novembre 2019, il gruppo di Riley Duren e Daniel Cusworth, scienziati statunitensi, ha pilotato un aereo dotato di uno spettrometro a immagini sul bacino del Permiano, una zona comprendente il Texas e alcuni stati limitrofi, che è la regione produttrice di gas e petrolio più grande e in più rapida crescita negli USA. Lo studio dei ricercatori ha mostrato che, come in altre regioni petrolifere, molte sorgenti puntiformi a forte emissione del gas sono intermittenti, quindi se si guarda nel momento sbagliato queste non vengono rilevate [2].

I satelliti sono adatti a raccogliere questi dati, rilevando ogni giorno letture sensibili su vaste aree di terra. Una società privata chiamata GHGSat vende misurazioni satellitari delle emissioni di metano ai clienti, in particolare nel settore petrolifero, ma i suoi dati sono riservati. I satelliti del governo attualmente in orbita possono anche rilevare pennacchi di metano, ma solo se particolarmente grandi, e hanno una scarsa risoluzione spaziale.

Due nuovi progetti satellitari per il monitoraggio del metano mirano a fornire dati a risoluzione più elevata e a renderli disponibili al pubblico. Gli ingegneri che si occupano di questi progetti sperano che i loro sforzi incoraggino le compagnie petrolifere e del gas a riparare queste perdite.

I dati, resi disponibili al pubblico, potrebbero anche portare le compagnie petrolifere e del gas ad affrontare la pressione del mercato sulla base delle loro emissioni di metano. I clienti e gli azionisti delle utility del gas sono sempre più preoccupati per il cambiamento climatico. I servizi pubblici potrebbero esaminare un’azienda in base alle sue emissioni di metano prima di decidere di acquistare gas naturale da essa;  i governi potrebbero anche vietare le importazioni di gas naturale da fornitori con registrazioni di perdite.

Chiudere le perdite di metano nelle infrastrutture dei combustibili servirà per mitigare il riscaldamento globale a breve termine. Ma altre fonti di emissioni di metano devono ancora essere affrontate e non hanno soluzioni semplici come sigillare un tubo che perde. L’agricoltura, che rappresenta il 40% delle emissioni di metano di origine antropica, presenta una complessa sfida alla mitigazione. Il bestiame è un grande colpevole delle emissioni di metano. I bovini, come quelli mostrati in figura 3, sono una delle maggiori fonti di emissioni di metano e una delle più difficili da mitigare.

Figura 3. I bovini, come quelli di questo allevamento (98.000 animali) sono una fonte di emissioni di metano.

Euan Nisbet, uno scienziato della Terra presso l’Università di Londra, chiama il bestiame e altri ruminanti “zone umide che camminano” perché i batteri che vivono nelle viscere degli animali producono metano mentre digeriscono il cibo. Gli agricoltori potrebbero allevare bovini che producono carne e latte in modo più efficiente, così che il mondo possa ottenere la stessa quantità di cibo con meno animali che producono metano.

Per gli alimenti a base vegetale, la principale fonte di metano è il riso, afferma Atul K. Jain, scienziato dell’atmosfera presso l’Università dell’Illinois. I batteri che producono metano prosperano nelle risaie perennemente allagate. Afferma che l’adozione dell’irrigazione intermittente, in cui gli agricoltori drenano i loro campi tra le stagioni di crescita per eliminare le condizioni simili alle zone umide e uccidere quei batteri, potrebbe aiutare. Purtroppo le risaie che vengono periodicamente prosciugate devono essere trattate con  erbicidi, per avere un compromesso ambientale.

Ma alcune delle emissioni mondiali di metano semplicemente non sono sotto il diretto controllo umano.

Nisbet ha analizzato i rapporti degli isotopi di carbonio nel metano e ha riscontrato uno spostamento negli ultimi anni dal 13C più pesante, associato a fonti geologiche come i combustibili fossili, al 12C più leggero, associato a quelli biologici. Sospetta che questo mutamento sia dovuto al cambiamento climatico che alimenta la crescita delle zone umide ai tropici. Man mano che questa regione si riscalda e diventa più umida, fioriscono i batteri che producono metano.

E poi c’è la minaccia incombente contenuta nel permafrost artico. Sciogliendosi a causa del cambiamento climatico, e fornendo un ambiente umido e ricco di carbonio, potrebbe diventare sede di un gran numero di batteri che emettono metano. Gli scienziati non sono sicuri di quando ciò potrebbe accadere, ma Jackson del Global Carbon Project vorrebbe avere una polizza assicurativa contro questo rischio, proponendo di ridurre il più possibile le emissioni di metano di origine umana. Jackson propone un progetto controintuitivo: catturare il metano atmosferico e convertirlo in CO2, rilasciando nell’aria il gas serra più longevo ma meno potente. Questa ossidazione di massa del metano ridurrebbe di un sesto il potenziale di riscaldamento climatico dei gas dell’atmosfera [4]. I chimici ambientali riconoscono che la tecnologia per rimuovere il metano dall’atmosfera (tecnologia delle emissioni negative), è un obiettivo importante, ma vi sono ostacoli di base per farla funzionare. Infatti, finora, nessuno ha realizzato e testato un materiale in grado di catturare e ossidare il metano atmosferico, sebbene i calcoli teorici suggeriscano che sia possibile.

Matteo Cargnello, ingegnere chimico della Stanford University e coautore del lavoro di Jackson, afferma: “catturare il metano è una sfida più grande che catturare la CO2 a causa della sua chimica: in questo momento non esiste alcun materiale che sarebbe in grado di farlo.”

Il primo ostacolo è la concentrazione relativamente bassa, circa 2 ppm, di metano nell’atmosfera. È sufficiente per riscaldare in modo significativo il pianeta, ma abbastanza scarso per renderlo facilmente catturabile. Cargnello sostiene che invece di iniziare dall’aria aperta, le tecnologie di cattura del metano potrebbero funzionare in luoghi in cui il gas è più abbondante, come nelle stalle, nelle miniere di carbone e nelle infrastrutture dei combustibili fossili come le prese d’aria.

Ma non è ancora chiaro cosa bisogna usare per “catturare” il metano: è inerte, non polare e simmetrico, limitando i tipi di molecole che potrebbero legarsi o assorbire il gas.

Cargnello e Jackson hanno esplorato la letteratura scientifica alla ricerca di candidati che ossidano il metano e hanno determinato che le zeoliti con rame catalitico o ferro sono i materiali più promettenti. Le zeoliti sono materiali alluminosilicati porosi che possono contenere siti catalitici attivi. Ma un chimico delle zeoliti dice che non è sicuro che la termodinamica per ossidare il metano con le zeoliti funzionerà. Un tale materiale dovrebbe essere idrofobo, altrimenti l’acqua ostruirebbe tutti i siti per il metano. E tutte le zeoliti idrofobiche esistenti richiedono un grande apporto di energia per assorbire il gas serra. L’altro ostacolo è l’energia della reazione di ossidazione, ci vuole molta energia per avviarla. Mantenere basse le temperature durante la reazione di ossidazione sarebbe fondamentale, afferma un ingegnere chimico del California Institute of Technology.  In caso contrario si potrebbero generare accidentalmente ossidi di azoto, un inquinante atmosferico che può stimolare la formazione di smog e ozono.

Esistono zeoliti che possono eseguire la fase di ossidazione del metano a basse temperature, ma attivare i siti attivi catalitici contenenti rame o ferro prima che il trattamento del metano richieda temperature elevate è difficile. Inoltre, queste zeoliti tendono anche ad avere pochi siti attivi per unità di massa, il che condannerebbe il processo all’inefficienza.

Cargnello riassume il consenso chimico sull’approccio: la tecnologia delle emissioni negative per il metano è “potenzialmente incredibilmente impattante, ma le sfide sono chiare”. Queste sfide, e altre coinvolte nella mitigazione delle emissioni di metano, sono quelle che il mondo deve affrontare, sostiene Jackson. Non c’è modo di ridurre le emissioni di CO2. Ma il mondo deve fare i conti con altri gas serra per combattere il cambiamento climatico, non solo metano ma anche protossido di azoto, tra gli altri. E afferma: “Un approccio su un singolo gas non servirà a fermare i cambiamenti climatici”.

La prima settimana della 26a Conference of Parties (COP26) ha sorpreso molti osservatori di lunga data. Molti grandi nomi hanno fatto grandi annunci nei primi due giorni, a differenza degli anni precedenti, in cui le figure di più alto profilo sono arrivate verso la fine dell’incontro per fare una dichiarazione concordata. Questa volta, le promesse sono arrivate velocemente, come quella riguardante un accordo internazionale per contenere le emissioni di metano, guidato da Stati Uniti e Unione Europea, e rafforzato dalle nuove regole sul metano negli Stati Uniti [5] .

È un buon inizio, afferma il climatologo Tim Lenton: “È una leva in più che potrebbe davvero aiutarci a limitare il riscaldamento globale”.

Questa idea sta iniziando a prendere piede nei circoli politici e scientifici, sostiene Jackson: “Sono entusiasta di vedere più attenzione sul metano”.

Bibliografia

[1] R.B. Jackson et al. Increasing anthropogenic methane emissions arise equally from agricultural and fossil fuel sources., Environ. Res. Lett. 2020, 15, DOI: 10.1088/1748-9326/ab9ed2

[2] I. B. Ocko et al. Acting rapidly to deploy readily available methane mitigation measures by sector can immediately slow global warming. Environ. Res. Lett. 2021,16,

DOI: 10.1021/acs.estlett.1c00173

[3] L. Höglund-Isaksson et al. Technical potentials and costs for reducing global anthropogenic

methane emissions in the 2050 timeframe –results from the GAINS model., Environ. Res. Commun. 2020, 2, DOI: 10.1088/2515-7620/ab7457

[4] R.B. Jackson et al. Methane removal and atmospheric restoration., Nat. Sustain. 2019 2,436–438.

[5] E. Masood, J. Tollefson, COP26 climate pledges: What scientists think so far., Nature news, 5 November, 2021


[1] Il Global Carbon Project è un progetto di ricerca di Future Earth e un partner del World Climate Research Program. È stato formato per lavorare con la comunità scientifica internazionale al fine di stabilire una base di conoscenza comune e concordata per sostenere il dibattito politico e l’azione per rallentare e infine fermare l’aumento dei gas serra nell’atmosfera.

[2] l’International Institute for Applied Systems Analysis (IIASA) è un istituto di ricerca internazionale indipendente situato vicino a Vienna (Austria). Attraverso i suoi programmi e iniziative di ricerca, l’istituto conduce studi interdisciplinari orientati alla politica su questioni troppo grandi o complesse per essere risolte da un singolo paese come il cambiamento climatico, la sicurezza energetica e lo sviluppo sostenibile. I risultati delle ricerche IIASA sono messi a disposizione nei paesi di tutto il globo per aiutare a produrre politiche efficaci e basate sulla scienza che consentano di affrontare queste sfide.

La formazione dell’acqua.

In evidenza

Diego Tesauro

La presenza dell’acqua nell’universo è oggetto di ricerca ormai da oltre mezzo secolo da parte degli astrochimici sia nel sistema solare che sui pianeti dei sistemi extra solari negli ultimi venticinque anni. La molecola d’acqua fra i composti chimici è uno dei più semplici ed è presente nelle nebulose molecolari dalle quali si formano le stelle. Ma quando e come si è formata questa molecola?  Immediatamente dopo il Big Bang 13.8 miliardi di anni fa, l’universo era denso e caldo per cui sicuramente qualsiasi legame chimico non sarebbe stato stabile. Fu solo quando la temperatura, a seguito dell’espansione dell’universo, si abbassò intorno ai 4000 K che cominciarono le prime reazioni chimiche alla luce degli elementi all’epoca disponibili.  In queste condizioni la prima reazione che avvenne coinvolse l’idrogeno ionizzato e gli atomi neutri di elio che si combinano per formare l’idruro di elio (HeH+). La molecola fu osservata con spettrometro l’infrarosso GREAT a bordo dell’osservatorio Stratospheric Observatory for Infrared Astronomy (SOFIA) (https://it.wikipedia.org/wiki/Stratospheric_Observatory_for_Infrared_Astronomy) alcuni anni fa [1]. Per poter formarsi la molecola d’acqua, terza per abbondanza dopo H2 e CO nelle nebulose, bisogna aspettare epoche successive non essendo l’ossigeno presente dopo il Big Bang. La nucleosintesi di questo elemento avviene nei nuclei stellari e va a contaminare le nubi a seguito dell’esplosione delle supernove oppure di forti venti stellari. Pertanto ritrovare l’acqua in galassie remote consente anche di avere informazioni sull’epoca nella quale si sono formate le stelle. Recentemente gli astronomi hanno rilevato tracce di molecole d’acqua in una delle più antiche galassie, la galassia SPT0311-58 [2] (fig.1). Questa si trova a 12.88 miliardi di anni luce dalla Terra, il che significa che i telescopi la vedono come appariva solo 1 miliardo dopo il Bing Bang. Gli astronomi stimano che la galassia abbia quindi un età di soli 780 milioni di anni, si trova alla fine dell’epoca della reionizzazione, cioè di quel periodo nel quale il gas, inizialmente neutro, è stato  ionizzato dalla luce prodotta dalle prime stelle e galassie. L’osservazione è avvenuta con il radiotelescopio ALMA che a 5000 metri d’altitudine sull’arida piana di Chajnantor nel deserto di Atacama in Cile (uno dei luoghi più aridi della Terra, tale da essere la riserva più grande del nitro di Cile https://ilblogdellasci.wordpress.com/tag/nitro-del-chile/)- Sono proprie le condizioni del luogo che rendono possibili queste osservazioni. Poiché l’acqua è presente anche nell’atmosfera della Terra, gli osservatori costruiti in ambienti meno elevati e meno asciutti hanno più problemi nell’identificare l’origine delle emissioni provenienti dallo spazio. La sensibilità elevata e l’alta risoluzione angolare di ALMA, permettono di rivelare alla lunghezza d’onda di 1,64 millimetri, anche i deboli segnali dell’acqua nell’Universo locale. Questa scoperta implica che la formazione stellare sia iniziata abbastanza rapidamente dopo il Big Bang perché l’ossigeno possa esistere nell’universo dopo 1 miliardo di anni. Nello spazio aperto, gli atomi di idrogeno e ossigeno dovevano scontrarsi con un’energia sufficiente per legarsi chimicamente e formare acqua. Si potrebbe pensare che tutto ciò dovrebbe richiedere molto tempo; eppure esaminando la chimica delle giovani nubi molecolari, contenenti mille volte meno ossigeno del sole, con sorpresa, è stato scoperto che è presente tanto vapore acqueo quanto ne vediamo nella nostra galassia.

Fig. 1 Coppia di galassie Spt0311-58 osservate con Alma. Il contenuto di polvere (in rosso), acqua (in blu) e monossido di carbonio (osservato in tre diverse lunghezze d’onda e mostrato in tre sfumature di rosa/viola) nella. Nella colonna a destra, sono visibili i contributi individuali delle varie componenti.

Sebbene le nubi siano povere di ossigeno, c’è una spiegazione del motivo per il quale l’acqua si sia formata così facilmente nell’universo primordiale. L’universo allora era più caldo per la presenza della radiazione cosmica di fondo  che oggi è a soli 2,725 K.

Nelle nubi diffuse l’H2O si forma principalmente nelle reazioni in fase gassosa tramite sequenze ione-molecola [3]. La catena della reazione ione-molecola è innescata dalla ionizzazione dei raggi cosmici o dei raggi X di H e H2, che porta alla formazione di ioni H+ e H3+. Questi interagiscono con l’ossigeno atomico formando la specie OH+. Una serie di acquisizioni di protoni portano alla formazione di H3O+, che produce OH e H2O attraverso la ricombinazione dissociativa. Questo meccanismo di formazione non è generalmente molto efficiente e solo una piccola frazione dell’ossigeno viene convertita in acqua, il resto rimane in forma atomica o si congela sotto forma di ghiaccio d’acqua [4].

Alle temperature > 300 K, l’acqua si forma direttamente attraverso reazioni in cui si combinano atomi neutri O + H2 → OH + H, reazione seguita da OH + H2 → H2O + H. Questo cammino di reazione diviene particolarmente importante negli shocks, dove il gas si riscalda ad alte temperature, e può conseguentemente portare più ossigeno a formare H2O [5][6].

Queste recenti osservazioni mostrano come ancora i modelli delle fasi inziali del nostro universo debbano ancora essere affinati per poter aver una comprensione migliore delle sue prime fasi.

Bibliografia

[1] R. Güsten et al., Astrophysical detection of the helium hydride ion HeH+Nature, 2019, 568, 357–359 DOI: 10.1038/s41586-019-1090-x

[2] S. Jarugula et al. Molecular Line Observations in Two Dusty Star-forming Galaxies at z = 6.9 The Astrophysical Journal, 2021, 921:97 (26 pp)  https://doi.org/10.3847/1538-4357/ac21db

[3] E. Herbst, W. Klemperer The Formation and Depletion of Molecules in Dense Interstellar Clouds The Astrophysical Journal 1973, 185, 505-534. doi:10.1086/152436

[4] D. Hollenbach et al. Water, O2, and ice in molecular clouds The Astrophysical Journal 2009690, 1497-1521  doi:10.1088/0004-637X/690/2/149

[5] B. T. Draine et al. Magnetohydrodynamic shock waves in molecular cloud The Astrophysical Journal, 1983, 264, 485-507.

[6] M. J. Kaufman et al. Far-Infrared Water emission from magnetohydrodynamic  shock waves  The Astrophysical Journal 1996, 456, 611

La storia e la geografia delle emissioni di CO2.

In evidenza

Claudio Della Volpe

La recente fine di COP26 stimola riflessioni non solo sul sistema climatico ma soprattutto sul nostro modo di reagire al problema del GW (global warming, ossia riscaldamento globale, anche se non è solo riscaldamento, ma per esempio acidificazione dell’oceano).

Per fare questo mi pare doveroso capire come mai vari paesi reagiscano diversamente e apparentemente in modo deludente alla situazione; possiamo ricostruire grazie al lavoro di tanti scienziati e di vari gruppi ambientalisti la storia dell’accumulo di gas serra ed i dettagli geografici del processo: dove e quando e da chi i gas serra sono stati prodotti e perché; di solito si prende come limite storico di queste analisi il 1751 considerato come l’inizio della “rivoluzione-industriale”, quel processo storico complesso che ha portato alla crescita di importanza e poi al dominio delle merci e della loro produzione sopra qualunque altro modo di produrre e consumare (comunemente  detto capitalismo e ricordiamocelo, non è l’unico modo di produrre le cose) e lo ha fatto usando le tecnologie basate sulla combustione dei fossili, prima carbone, poi petrolio ed oggi gas “naturale”.

Personalmente credo che le cose siano più articolate e che il processo sia iniziato almeno secoli prima con le grandi scoperte geografiche (ne abbiamo parlato a proposito di antropocene ricordando lo “scambio colombiano” e le conseguenze di raffreddamento globale allora innescate), la distruzione dei beni comuni (per esempio le cosiddette enclosures, la recinzione dei terreni comuni (terre demaniali) a favore dei proprietari terrieri della borghesia mercantile avvenuta in Inghilterra tra il XIII ed il XIX secolo e che in varie forma continua ancora oggi attorno a noi, mascherata da altri nomi e processi soprattutto in Africa).

Quasi sempre si ricorda solo la tecnica e non la organizzazione sociale corrispondente, ma ricordiamo che le idee sulla macchina a vapore (pensiamo ad Erone, come raccontato dal grande Lucio Russo ne “La rivoluzione dimenticata” che vi consiglio di leggere se non l’avete già fatto) che ha rivoluzionato il mondo moderno esistevano fin dai tempi della cultura alessandrina insieme con una raffinata tecnologia metallurgica; se la cultura  che produsse la macchina di Antikytera e che conteneva anche le  conoscenze di Erone non arrivò ad usare il vapore, se non per scherzi ed applicazioni da ricchi, un peso lo aveva la struttura sociale dell’epoca basata sullo schiavismo, le macchine erano una curiosità o servivano per la guerra; dunque attenzione: tecnologia e struttura sociale sono connesse. E non lo sono nel senso meccanicistico che la tecnologia cresce indipendentemente e la società le tiene dietro, ma in modo più complesso, ossia tramite un processo di retroazione (feedback) che rende la tecnologia e la struttura sociale interdipendenti.

Ovviamente le cose sono più complesse di come le raccontiamo, i modelli non sono le cose, ma questo quadro può dare qualche idea di come si sia arrivati alla situazione odierna ed anche dei modi in cui i diversi paesi si comportano nel confronto globale delle COP (Conference of Parties, la modalità di confronto scelta dalla nostra società per risolvere problemi globali).

Ed anche, lasciatemelo dire, che il mondo delle merci e del mercato non può affrontare e risolvere il problema del GW e del rapporto uomo-natura in modalità sostenibile. Come l’agricoltura e la rivoluzione industriale hanno corrisposto ad un cambiamento sociale, così la sostenibilità ambientale necessita di una rivoluzione sociale ed economica.

Ma torniamo al tema gas serra. Nel grafico qui sotto vedete come si è evoluta la produzione di CO2 nella storia umana fin dal 1751. Si tratta di un grafico pubblicato qui; i dati sono tratti fa varie fonti: i dati del Carbon Budget Project presentato da Our World in Data, “Emissioni cumulative di CO2 per regione mondiale, 1751-2017. https://ourworldindata.org/grapher/cumulative-co2-emissions-region?stackMode=absolute. [dati 24 aprile 2020]

Emissioni previste per il 2018-19 sulla base del Global Carbon Budget 2019, di Pierre Friedlingstein, et al. (2019), Dati scientifici del sistema terrestre, 11, 1783-1838, 2019, DOI: 10.5194/essd-11-1783-2019.

L’idea base era espressa nel grafico di Frumhoff, Peter. (15 dicembre 2014) fatto sul riscaldamento globale: più della metà di tutto l’inquinamento industriale da CO2 è stato emesso dal 1988, Union of Concerned Scientists. https://blog.ucsusa.org/peter-frumhoff/global-warming-fact-co2-emissions-since-1988-764

Questo grafico fa capire cosa si intenda con “grande accelerazione” un  termine inventato per descrivere i processi ambientali e sociali avvenuti negli ultimi 30 anni e più in generale a partire dagli anni 60 del secolo scorso; quelle emissioni non contengono tutti i gas serra, ma ne contengono una gran parte e rendono esplicito che il processo di emissione non si è arrestato o ha rallentato nonostante la conoscenza della modifica dell’effetto serra sia ormai acquisizione universale almeno fin dal 1997.

La scienza ha idea di questo fenomeno da molto prima.

Il primo lavoro che ha sospettato questo processo non è nemmeno quello più famoso di Arrhenius, ma quello di un geochimico svedese che lo ispirò, Arvid Högbom, che nel 1894 scriveva** (in svedese, così che l’idea rimase confinata, ma fu raccolta da Arrhenius che immaginò, per primo, che l’effetto finale di queste gigantesche emissioni sarebbe stata l’aumento della temperatura terrestre; per correttezza diciamo che una intuizione la ebbe anche una donna ben 40 anni prima, Eunice Foots, nel 1856, ma come sappiamo le donne faticano ancora oggi a farsi sentire):

L'attuale produzione globale di carbon fossile è in cifre tonde di 500 milioni di tonnellate all'anno, o 1 tonnellata per km2 di superficie terrestre. Trasformata in CO2 questa quantità di carbone rappresenta circa la millesima parte della CO2 totale dell'aria».

Il lavoro di Högbom implicava emissioni globali di CO2 dalla combustione del carbone di circa 1,8 GtCO2 nel 1890. Nonostante fosse chiaramente piuttosto approssimativo, questo primo sforzo era notevolmente vicino alla stima contemporanea delle emissioni da carbone all’epoca, circa 1,3 GtCO2.

Sappiamo bene e lo abbiamo scritto ripetutamente che il fuoco era conosciuto prima di Homo Sapiens, da altri ominidi, in particolare da tutte le specie antenate di Homo sapiens che hanno usato il fuoco ed è stato usato per un milione di anni, ma la questione è la scala a cui la combustione è arrivata con la rivoluzione industriale, la quantità diventa qualità trasforma una locale ed innocua combustione in un problema geologico. 

Una serie storica originale basata sull’andamento delle varie stime successive di emissione è proposta in questo grafico di Robbie Andrew, che ha scoperto il contributo di Högbom.

 

Si tratta di un file gif , dunque una immagine che è un piccolo filmato, una sequenza ordinata di immagini automatiche; statelo a guardare per qualche secondo per avere un’idea di come si sono evolute le stime di emissione e dei contributi dei vari fossili. Molto istruttivo. 

Altre rappresentazioni del processo in termini storici possono contenere il contributo ai gas serra di altre parti della nostra produzione, oltre la pura combustione di fossili; per esempio dal sito https://www.carbonbrief.org/analysis-which-countries-are-historically-responsible-for-climate-change

Questa immagine riporta il confronto fra l’emissione combustiva pura e semplice e i processi agricoli, il cui valore assoluto cresce significativamente mentre cresce quello delle combustioni vere e proprie. Se fate caso il valore anno per anno delle emissioni “land” è in media il doppio alla fine del processo, uno dei portati della cosiddetta “rivoluzione verde” che, pur non risolvendo il problema della fame, ha accresciuto la produzione agricola ma ha anche raddoppiato l’emissione di gas serra, e alterato in modo irreversibile il ciclo di azoto e fosforo accrescendo le cosiddette “dead zones”, le zone di ipossia oceaniche in tutte le coste dei continenti.

Le fonti dati sono incluse nell’immagine, che come vedete copre un intervallo di tempo inferiore al precedente, anche a causa della difficoltà di reperire i dati necessari.

Anche qui si conferma che il processo di emissione non ha visto soste dal principio e che anzi c’è stata perfino una crescita dopo il 2000; il picchetto verde che vedete poco prima del 2000 corrisponde agli incendi indonesiani del 1997 che diedero il loro contributo terribile.

Dunque possiamo concludere che il processo di emissione di gas serra da combustione è stato crescente, è legato sia alla produzione agricola che a quella industriale e che finora non è stato fatto alcun serio tentativo di interromperne gli effetti.

Vediamo dove, in quali aree geografiche il processo è avvenuto; ovviamente qua la situazione è complessa in quanto nel corso di quasi tre secoli i confini delle aree politiche sono cambiati continuamente, ci sono stati gli effetti del colonialismo e dunque alcune zone hanno emesso a vantaggio di altre ed infine anche oggi il commercio globale rende complesso attribuire a ciascuna area l’emissione di CO2 legata alla sua propria popolazione. Per non parlare delle quantità pro-capite. Questi dati che vi mostro adesso fanno capire perché alcuni paesi oggi grandi emettitori si rifiutino di aderire a politiche che non tengano conto degli effetti del passato; tenete presente che le quantità emesse da un certo paese in passato possono essere state più piccole di oggi, ma non solo hanno consentito a quel paese di crescere in ricchezza, ma hanno avuto effetti per un tempo maggiore; data la durata dei gas serra in atmosfera (in particolare della CO2), l’emissione in un certo momento impegna il futuro per un tempo rilevante e dunque chi ha emesso prima non solo ha acquisito un vantaggio economico competitivo, ma ha anche avuto effetti per un tempo maggiore sull’assorbimento di radiazione.

Vediamo qui un modo di rappresentare i valori per alcuni paesi riportato su https://www.carbonbrief.org/analysis-which-countries-are-historically-responsible-for-climate-change

Interessante notare che alcuni paesi come il nostro non abbiamo un contributo significativo da parte della voce land; qui le incertezze vengono anche dalle fonti, che comunque sono elencate; i paesi che esportano legno per esempio o che usano metodi estrattivi molto distruttivi come il Canada o la Tailandia vedono al contrario un enorme contributo per questo uso della terra.

Ed infine un grafico che mostra, in modo forse più evidente, il confronto fra le grandi aree mondiali nella produzione di CO2, (mancano i dati su altri gas serra per il modo in cui sono calcolati) ma il confronto fa risaltare però ancora una volta che certi paesi sono grandissimi produttori di CO2 STORICI. Gli USA e l’UE hanno prodotto dall’origine oltre il 20% l’uno del totale e lo hanno fatto anche quando nessun altro lo faceva guadagnando non solo un enorme vantaggio economico competitivo, ma facendo pesare per un maggior tempo l’emissione che dunque vale di più, non solo in proporzione alla quantità emessa ma anche alla durata dell’emissione e dunque del suo effetto climatico complessivo. Anche se un paese come la Cina emette di più adesso, in totale ha emesso meno della metà degli USA, per esempio ed inoltre c’è un altro grafico che ci dice che in parte almeno sta emettendo per altri paesi, dato che vende ad essi quelle merci, una sorta di esternalizzazione delle emissioni.

Comunque è chiaro che questi sono grafici suggestivi ma incompleti, per esempio in quasi tutti manca il metano, ma fanno capire bene la ragione delle polemiche e delle difficoltà che rendono difficile il cammino delle COP ed anche il nostro cammino come società

https://mailchi.mp/3afaa2f62894/energy-bulletin-weekly-60394?e=163e64760c

Da https://www.carbonbrief.org/analysis-which-countries-are-historically-responsible-for-climate-change

** “On the probability of secular changes in the level of atmospheric CO2” (original title: “Om sannolikheten för sekulära förändringar i atmosfärens kolsyrehalt”) pubblicato nel  1894 in Svensk Kemisk Tidskrift (Swedish Chemistry Journal). Per una analisi accurate di questo si veda qui: https://folk.universitetetioslo.no/roberan/t/EarlyEstimates1.shtml

La teoria di tutte

In evidenza

Luigi Campanella, già Presdente SCI

Molte volte nel nostro blog abbiamo parlato di scienziate che non hanno raccolto in riconoscimenti e premi quanto avrebbero meritato. L’ultima citazione ha riguardato, da parte dell’amico Rinaldo Cervellati, la fisica Susan Jocelyn Bell Burnell che forse un premio Nobel o per lo meno una citazione ad esso lo avrebbe meritato.

Oggi però vorrei affrontare il problema da un altro punto di vista e cioè quello dell’azione mediatica esercitata per questi premi dalla stampa, che non si può escludere eserciti una pressione al momento della scelta. In questo senso una voce fuori coro può essere preziosa per portare alla ribalta dei meno addetti nomi e ricerche, ancor più se trattasi di donne. In questo senso vorrei parlare di Gabrielle Greison, fisica nucleare, divulgatrice, attrice teatrale, scrittrice. Oggi gestisce una trasmissione televisiva sul canale laF dal titolo “La teoria di tutte” che si è prefissata lo scopo di portare all’attenzione del grande pubblico scienziate e ricercatrici, che difficilmente hanno avuto riscontro popolare sia per il tema delle loro ricerche, sia per la provenienza geografica, sia per il fatto di essere donne. Si tratta ovviamente di eccellenze scientifiche riconosciute a livello mondiale fra gli addetti ai lavori e che stanno disegnando orizzonti scientifici innovativi e futuri. Pur essendo una fisica la Greison si occupa anche di Chimica, Biologia, Medicina, Ambiente e lo fa ogni volta partendo da una scienziata nota di quella disciplina che non è stata premiata come avrebbe invece meritato.

In una delle ultime puntate ha parlato di Astrofisica a partire da Margherita Hack per centrare l’attenzione su Vera Rubin (di cui abbiamo parlato nel blog), che studiò la materia oscura ed a cui fu negato il Nobel e su quelle che la Greison definisce le loro eredi. Abbiamo così modo di conoscere Mariafelicia De Laurentiis che ha portato alla prima immagine di un buco nero, Erminia Bresso che ha applicato gli acceleratori alla terapia Oncologica, Lucia Notano prima direttrice donna dei Laboratori del Gran Sasso, Angela Marinoni, climatologa presso il CNR di Bologna, che ogni mattina si dirige in Appennino per misurare lo stress ambientale da CO2; ed ancora Licia Gardossi del Gruppo di Bioeconomia della Presidenza CdM impegnata nello sviluppo delle energie rinnovabili con l’uso di materiali sostenibili, Sabina Airoldi impegnata nella protezione e conservazione della diversità biologica, in particolare riferita al mondo dei cetacei, Claudia Gemme che all’interno del progetto Atlas è riuscita a fotografare gli scontri fra particelle.

Questi nomi sembrebbero smentire l’assenza di donne nelle Facoltà  Scientifiche e negli elenchi dei premi di prestigio. Purtroppo, come abbiamo più volte scritto anche in questo blog, così non è: le donne sono il 37% degli studenti universitari delle Facoltà scientifiche, percentuali in leggero rialzo, ma ancor più bassa se riferita alla Fisica; i Nobel donna in Fisica sono 4 su 114. È chiaramente un fatto culturale: gli uomini per la scienza, le donne per la letteratura. Come diceva Rita Levi Montalcini a questa discriminazione culturale non ne corrisponde di certo una intellettuale: i cervelli di uomini e donne sono uguali e le tendenze disciplinari possono svilupparsi allo stesso modo. Anche noi chimici abbiamo situazioni simili a cui spero presto la Greison voglia dedicare attenzione. Ad esempio la Tavola periodica é assegnata a Mendeleev, ma il contributo di Julia Lermontova che lavorava con Mendeleev, relativo alle sue ricerche  per distinguere i metalli del gruppo del platino viene esclusivamente dagli archivi del suo mentore. È stata la prima donna ad avere un dottorato in chimica in Germania nel 1874; lavorava nel seminterrato e senza retribuzione Lise Meitner che, a Berlino tra il 1917 e il 1918, scoprì l’elemento 91 insieme a Otto Hahn. Ida Noddack scoprì il renio, un nuovo elemento. Lo fece insieme al marito Walter Noddack, nello studio dell’uomo di cui era ospite. Quando ha presentato scoperte da sola non ha avuto credito, anche se le sue intuizioni sul processo che ora conosciamo come fissione erano giuste. Fu ignorata, secondo quanto riporta Nature, anche da Enrico Fermi.

NdB: Julia Lermontova, Lise Meitner e Ida Noddack sono state ricordate sul blog e nel libro di Rinaldo Cervellati, Chimica al Femminile:

Julia Lermontova 

Lise Meitner 

Ida Noddack 

Storia dei PFAS come imballaggi alimentari (parte 2)

In evidenza

Rinaldo Cervellati

(la prima parte di questo post è stata pubblicata qui)

Che cosa dicono i produttori

Gli acquirenti chiedono prove, come la certificazione BPI, che i prodotti di carta che acquistano non contengano PFAS aggiunti ma spesso non sanno ancora quali sostanze chimiche o tecnologie rendano questi prodotti resistenti al grasso e all’acqua. Per esempio, la catena di negozi di alimentari Whole Foods Market, che si concentra su alimenti biologici e tutela ambientale, ha appreso nel 2018 che alcuni dei contenitori che ha acquistato sono stati trattati con PFAS. Nel dicembre dello stesso anno, Toxic-Free Future[1] ha pubblicato un rapporto che mostrava che gli imballaggi per alimenti da asporto venduti da diverse catene alimentari, tra cui Whole Foods, probabilmente contenevano PFAS.

Jody Villecoor, consulente per gli standard dell’azienda, afferma:”Attraverso sondaggi sui fornitori e test sui prodotti, abbiamo interrotto o riformulato qualsiasi imballaggio per servizi di ristorazione in cui è stato divulgato o determinato che PFAS potrebbe essere stato aggiunto intenzionalmente. Whole Foods Market lavora con i nostri fornitori di imballaggi e una varietà di organizzazioni no-profit, accademiche e parti interessate del governo per evitare PFAS aggiunti”. E aggiunge: “In alcuni casi, siamo stati in grado di passare da un prodotto trattato con PFAS a un prodotto non trattato con PFAS e già disponibile in commercio. Ma in altri casi, abbiamo dovuto lavorare con i nostri fornitori per riformulare gli imballaggi dei servizi di ristorazione”.

Mentre la catena alimentare sa che gli articoli che sta acquistando ora non hanno PFAS aggiunti, non sa invece cosa viene utilizzato. La divulgazione dei componenti dell’imballaggio non è purtroppo una pratica standard nel settore.

Quindi, C&EN ha contattato un certo numero di aziende che producono o forniscono prodotti di carta per imballaggi alimentari, chiedendo loro di discutere le alternative ai PFAS e la sicurezza di tali additivi. La maggior parte non ha risposto.

Probabilmente perché o stanno proteggendo i segreti commerciali delle aziende che producono alternative ai PFAS per il trattamento di involucri per alimenti, o semplicemente non sanno cosa c’è nei trattamenti che acquistano dai produttori, dicono gli osservatori del settore.

Le aziende che formulano, producono, e forniscono prodotti alternativi ai PFAS sono preoccupate di proteggere le informazioni aziendali riservate, afferma Stacy Glass, direttore esecutivo di ChemFORWARD[2], un’organizzazione no profit che promuove l’uso di sostanze chimiche più sicure:

“Questo spazio è super competitivo. Queste aziende vogliono mantenere segreti i loro ingredienti”.

“Ciò che viene effettivamente utilizzato non è ben noto”, concorda Franjevic, che gestisce GreenScreen for Safer Chemicals di Clean Production Action[3], uno strumento online per le aziende per valutare le sostanze chimiche in base ai loro rischi e assistere nella selezione di sostanze più sicure.

Ad esempio, Georgia-Pacific, produttore di involucri cartacei a marchio Dixie, fornisce articoli per alimenti con il suo marchio Soak-Proof Shield, che il sito Web dell’azienda afferma non contenere PFAS. In una scheda informativa, Clean Production Action e Toxic-Free Future descrivono il materiale come “un rivestimento a base acrilica che non contiene silicone”. Rispondendo a una domanda di C&EN sul materiale, un portavoce di Georgia-Pacific afferma che le informazioni sono “proprietarie e riservate”, rifiutandosi di discutere ulteriormente la questione.

WestRock, che produce contenitori da asporto in cartone, offre prodotti rivestiti con il suo trattamento EnShield, che si dice sia privo di fluorocarburi. WestRock non ha risposto alle richieste di commento di C&EN.

Anche Ahlstrom-Munksjö, un produttore di carta e altri prodotti in fibra con sede a Helsinki, non descriverà nel dettaglio le sue sostituzioni dei PFAS, ma i dirigenti sono disposti a descrivere i contorni generali dello sforzo di sostituzione. L’azienda vende prodotti ai trasformatori di carta che tagliano il materiale in fogli o rotoli più piccoli su misura (figura 3). I clienti includono gastronomie, catene di fast food e altre società di servizi di ristorazione.

Figura 3. Ahlstrom-Munksjö produce carta per alimenti senza aggiunta di sostanze per- e polifluoroalchiliche negli stabilimenti in Francia e in Wisconsin (USA).

Ahlstrom-Munksjö ha molteplici obiettivi di sostenibilità, incluso utilizzare forniture di legno sostenibili di provenienza locale, pratiche di gestione dell’acqua efficienti ed evitare materiali pericolosi.

I funzionari di Ahlstrom-Munksjö affermano di aver osservato i primi segnali di un mercato in crescita per gli imballaggi alimentari realizzati senza PFAS e di aver lanciato i prodotti Grease-Gard FluoroFree nel 2019. La carta è certificata BPI. Zack Leimkuehler, vicepresidente tecnico afferma:

“Parte della soluzione deriva dalla fibra che utilizziamo e dal modo in cui essa viene elaborata.  Anche gli additivi svolgono un ruolo importante, e l’azienda li seleziona tenendo conto della compostabilità”.

Zume, con sede in California, che produce imballaggi per alimenti in fibra modellata, è in controtendenza rivelando la sua tecnologia di sostituzione dei PFAS, che si basa su prodotti realizzati dall’azienda chimica specializzata Solenis. Zume ha iniziato come azienda di torte e pizze ad alta tecnologia, sviluppando apparecchiature robotiche per realizzare prodotti che venivano cotti sui camion delle consegne. Ma le scatole che usava per confezionare gli alimenti hanno influito sulla qualità del prodotto. Quindi Zume si è concentrato sulla creazione di una scatola  migliore. E ci è riuscita, vendendo poi le scatole ad altri fornitori degli stessi prodotti.

Zume ha poi lasciato l’attività di produzione dei pizze e torte nel 2020 per concentrarsi esclusivamente sul packaging alimentare. Ha riorganizzato i suoi robot per creare imballaggi per alimenti a base di fibre per sostituire gli articoli di plastica monouso come il polistirolo.

Zume in precedenza usava PFAS a catena corta per conferire resistenza al grasso alla sua confezione. Ma all’inizio del 2020, Zume e Solenis hanno presentato un nuovo metodo per realizzare piatti e ciotole privi di PFAS che si basa invece su una cera a base biologica e su una nuova tecnologia per la produzione dei contenitori. La cera e altri additivi sono approvati dalla FDA per l’uso come materiali a contatto con gli alimenti.

Preoccupazioni permanenti

Franjevic avverte che la semplice affermazione che un involucro o un contenitore per alimenti è realizzato senza l’aggiunta di PFAS non è all’altezza di ciò che è necessario per la sostenibilità e la sicurezza.

“Stiamo cercando di evitare una deplorevole sostituzione”, afferma Brown-West dell’Environmental Defense Fund[4]. Si riferisce allo scambio di una sostanza chimica che causa problemi di salute o ambientali e all’utilizzo di un’altra sostanza che funziona bene ma può comunque rappresentare un pericolo. Ad esempio, i produttori di carta termica per ricevute hanno smesso di usare il bisfenolo A, un composto ben studiato che imita gli estrogeni, e hanno iniziato a usare il bisfenolo S meno studiato, che si sospetta però abbia effetti negativi sulla salute simili a quelli del bisfenolo A.

Le aziende devono sostenere l’uso di sostanze chimiche per le quali i dati mostrano che sono più sicure delle alternative che svolgono la stessa funzione, afferma Brown-West.

Per sostenere gli sforzi di sostituzione chimica, alcune organizzazioni senza scopo di lucro vogliono aiutare i produttori di articoli alimentari a dare uno sguardo critico alle alternative ai PFAS. Offrono confronti sui rischi o certificazioni di terze parti sulla sicurezza delle sostanze chimiche utilizzate in merci come gli imballaggi alimentari. Questi gruppi proteggono le identità delle sostanze e i dettagli dei dati sui pericoli che potrebbero essere preziosi per i concorrenti.

Apple, Nike e diverse catene di supermercati fanno parte di ChemFORWARD[5]. Stanno cercando informazioni fruibili sugli ingredienti e sulle possibili alternative per i loro prodotti evitando spiacevoli sostituzioni, afferma Glass. ChemFORWARD promuove l’uso di materiali circolari, che possono essere riciclati come materia prima per lo stesso uso o compostati in modo sicuro. Il gruppo è focalizzato su tre settori: packaging, elettronica di consumo e prodotti per la cura della persona. I produttori di sostanze chimiche e i formulatori che producono trattamenti privi di PFAS possono trarre vantaggio dall’elenco dei prodotti e dei dati sulla tossicità nel database di ChemFORWARD, afferma Glass, perché può dimostrare ai potenziali clienti i profili di sicurezza dei loro prodotti.

Come parte della Safe + Circular Materials Collaborative, una partnership tra ChemFORWARD e la Sustainable Packaging Coalition, alcuni prodotti di imballaggio alimentare sono in fase di valutazione per l’inclusione nel database ChemFORWARD, afferma Glass. Ad esempio, secondo un portavoce dell’azienda, Ahlstrom-Munksjö sta producendo i suoi materiali da imballaggio privi di PFAS attraverso questo processo.

Clean Production Action, attraverso il suo programma GreenScreen, sta sviluppando una certificazione di prodotto che riterrà un articolo idoneo solo se privo di PFAS e prodotto utilizzando quelle che l’organizzazione chiama sostanze chimiche “preferite”. Lancerà questa certificazione più avanti nel 2021. GreenScreen certifica già che alcune schiume antincendio sono state testate per essere prive sia di PFAS sia di altre sostanze chimiche di grande preoccupazione per la salute umana e l’ambiente.

E a luglio, un gruppo internazionale di società di servizi alimentari, gruppi di sostegno ed esperti tecnici ha lanciato uno strumento online chiamato Understanding Packaging Scorecard[6] che guarda oltre le sostanze chimiche utilizzate nella produzione e valuta l’intero ciclo di vita dei materiali di imballaggio. Questo strumento è finalizzato a promuovere un’economia circolare, in cui gli oggetti scartati diventano materia prima per produrre nuovi beni. Per i contenitori per alimenti, pesano fattori come l’acqua necessaria per lavare i piatti riutilizzabili, la compostabilità degli articoli in carta o altre fibre e le emissioni di gas serra derivanti dal trasporto, dalla produzione, dallo smistamento e dal riciclaggio dei contenitori di plastica.

Tra i suoi numerosi criteri, la classificazione considera se l’imballaggio contenga ingredienti che l’Agenzia europea per le sostanze chimiche e il Programma per l’ambiente delle Nazioni Unite chiamano “sostanze chimiche preoccupanti”, tra cui una serie di PFAS.

Lo strumento considera due aspetti delle sostanze chimiche preoccupanti negli involucri e negli imballaggi per alimenti, afferma Brown-West dell’Environmental Defense Fund, uno dei gruppi di difesa coinvolti nella classificazione. Uno è se una di queste sostanze viene aggiunta intenzionalmente all’imballaggio alimentare e non è entrata nel prodotto attraverso l’esposizione ambientale. L’altro è la tendenza di una sostanza chimica a migrare dai materiali a contatto con gli alimenti negli alimenti o nelle bevande.

Tutte le classificazioni, i database e altri sviluppi indicano un mercato in espansione per le tecnologie resistenti all’acqua e al grasso prive di PFAS, supportate da dati di sicurezza esaminati da terze parti.

E l’Unione Europea?

Un tweet del 3 settembre scorso [3] ci informa:

L’Unione Europea ha deciso di vietare gradualmente 200 sostanze PFAS, da febbraio 2023. Questa è la prima volta che l’UE ha imposto un divieto contemporaneamente su diverse sostanze chimiche con struttura e proprietà simili, il che si spera apra la strada a ulteriori divieti di gruppo.

La restrizione fa seguito a una proposta dell’Agenzia svedese per le sostanze chimiche (KEMI) e dell’Agenzia tedesca per l’ambiente (UBA) presentata nel 2017.

Sebbene il divieto effettivo riguardi solo sei sostanze chimiche PFAS a catena lunga (dove le molecole consistono tra 9 e 14 atomi di carbonio fluorurato), il numero di PFAS soggetti a restrizioni è 200, poiché possono essere tutte suddivise in una delle sei sostanze vietate.

Anche i PFAS a catena corta dovrebbero essere vietati.

La tossicologa senior di ChemSec[7], dott.ssa Anna Lennquist, è cautamente ottimista, anche se pensa che questo particolare divieto di gruppo lasci molto a desiderare:“Per anni abbiamo sostenuto che anche i PFAS a catena corta sono molto problematici. Mentre quelli lunghi si accumulano negli animali e nell’uomo, quelli corti sono un grosso problema nelle fonti d’acqua, poiché non possono essere eliminati, il che significa che non si può purificare l’acqua dai PFAS a catena corta”.

Il numero stimato di sostanze chimiche PFAS in produzione sembra aumentare costantemente ed è ora ben al di sopra delle 5.000 sostanze con struttura e proprietà simili. Il problema con tutti i PFAS è che si decompongono estremamente lentamente, da qui il soprannome di “prodotti chimici per sempre”. Sono spesso tossici, legati a vari tipi di cancro, infertilità, abbassamento del peso alla nascita ed effetti negativi sul sistema immunitario. Un recente verdetto svedese ha classificato livelli elevati di PFAS come lesioni personali, anche se la persona colpita non si è ancora ammalata.

Bibliografia

[1] A. Ramírez Carnero et al., Presence of Perfluoroalkyl and Polyfluoroalkyl Substances (PFAS) in Food Contact Materials (FCM) and Its Migration to Food.,Foods, 202110, 1443-1459.

DOI: https://doi.org/10.3390/foods10071443

[2] Youn Jeong Choi et al., Perfluoroalkyl Acid Characterization in U.S. Municipal Organic Solid Waste Composts., Environ. Sci. Technol. Lett. 2019, 6, 372–377.

DOI: https://doi.org/10.1021/acs.estlett.9b00280

[3] https://chemsec.org/eu-puts-200-pfas-out-of-business-but-thousands-remain/


[1] Toxic-Free Future sostiene l’uso di prodotti, sostanze chimiche e pratiche più sicure attraverso la ricerca avanzata, la difesa, l’organizzazione di base e l’impegno dei consumatori per garantire un domani più sano.

[2] ChemFORWARD è un’organizzazione senza scopo di lucro, basata sulla scienza, istituita per stabilire una fonte centralizzata e affidabile a livello globale di dati sui rischi di additivi chimici e alternative più sicure.

[3] Clean Production Action fornisce soluzioni pragmatiche per prodotti chimici più sicuri nei prodotti di consumo e nelle catene di approvvigionamento.

[4] Environmental Defense Fund o EDF (prima noto come Environmental Defense) è un gruppo di difesa ambientale senza scopo di lucro con sede negli Stati Uniti. Il gruppo è noto per il suo lavoro su questioni quali il riscaldamento globale, il ripristino dell’ecosistema, gli oceani e la salute umana e sostiene l’uso della scienza, dell’economia e della legge per trovare soluzioni ambientali che funzionino.

[5] ChemFORWARD è un’associazione, senza scopo di lucro e basata sulla scienza, istituita per produrre una fonte centralizzata e affidabile a livello globale di dati sui rischi chimici e alternative più sicure.

[6] L’Understanding Packaging (UP) Scorecard è una nuova risorsa online che misura i prodotti alimentari e di confezionamento alimentare comunemente usati con un unico parametro per offrire alle aziende il primo strumento gratuito e completo per prendere decisioni di acquisto sostenibili.

[7] ChemSec – International Chemical Secretariat – è un’organizzazione indipendente senza scopo di lucro che sostiene la sostituzione delle sostanze chimiche tossiche con alternative più sicure.

Storia dei PFAS come imballaggi alimentari (parte 1)

In evidenza

Rinaldo Cervellati

Nel numero del 3 ottobre scorso (vol. 99, n. 36) di C&EN, Cheryl Hogue fa una storia delle sostanze perfluoroalchiliche o polifluoroalchiliche (PFAS) utilizzate come rivestimento per contenitori alimentari[1]. Ne ripercorriamo qui la storia, ampliandola, sottoforma di articolo.

Riassunto. I PFAS sono stati a lungo utilizzati come trattamento per rendere gli involucri di carta alimentare resistenti al grasso e all’acqua. Ora, diversi stati degli Stati Uniti stanno vietando l’uso dei PFAS negli imballaggi alimentari a base di fibre. Allo stesso tempo, i sostenitori della salute e dell’ambiente stanno spingendo le catene di ristoranti e alimentari a smettere di usare involucri, cartone e contenitori in fibra con l’aggiunta di PFAS. I produttori di carta stanno lanciando nuovi prodotti per soddisfare questa domanda, ma ciò che sta occupando il posto dei PFAS è nascosto dietro un muro di riservatezza aziendale. Terzi soggetti stanno intervenendo con strumenti per esaminare la sicurezza delle alternative ai PFAS proteggendo al contempo i segreti commerciali.

Introduzione

Per decenni, decine di queste sostanze per- e polifluoroalchiliche (PFAS) hanno ottenuto l’approvazione dalle autorità di regolamentazione negli USA, nell’Unione Europea e altrove per l’uso alimentare. I PFAS sono estremamente efficaci nel rendere gli involucri e i contenitori di carta impermeabili al grasso e all’umidità che trasuda da hamburger, patatine fritte e altri alimenti.

Oggi, le catene di fast food e i negozi di alimentari si stanno rendendo conto che i fluorochimici non sono sempre i materiali meravigliosi per cui sono stati creati. I PFAS sono persistenti nell’ambiente e alcuni sono tossici. E gli studi che hanno scoperto che i PFAS negli involucri e nelle scatole di carta possono migrare negli alimenti si sono accumulati negli ultimi anni [1]. A causa di queste preoccupazioni, molte aziende alimentari stanno passando da contenitori e involucri monouso realizzati con PFAS a confezioni che non contengono questi prodotti sintetici.

Purtroppo la composizione di questi nuovi prodotti senza PFAS è spesso mantenuta segreta dalle aziende produttrici. Supermercati e ristoranti possono trovare garanzie di terzi soggetti che i rivestimenti dei prodotti alimentari che acquistano non hanno PFAS aggiunti. In un mondo ideale, i consumatori dovrebbero sapere quali sono le sostanze chimiche sostitutive, nella realtà alcune organizzazioni affermano che queste informazioni non sono importanti quanto i dati sulla tossicità, esaminati in modo confidenziale da terze parti, che affermano essere più sicuri dei PFAS che sostituiscono.

Breve storia dei PFAS

La Food and Drug Administration (FDA) degli Usa approvò il primo PFAS per il rivestimento di carta e cartone, della du Pont and Company, nel 1967. La società chiamò il prodotto, che respingeva acqua e olio, un “fluoridizzante per carta” (Zonyl RP, figura 1).

Fig. 1

Per la prima volta in assoluto, i PFAS erano sugli imballaggi alimentari. Nel tempo, più aziende sono entrate in questo mercato con dozzine di prodotti simili. In anni più recenti, quando la biopersistenza dei PFAS è diventata chiara, i produttori di sostanze chimiche sono passati da PFAS a catena lunga, come Zonyl RP, a quelli a catena corta, che generalmente contengono sei o meno atomi di carbonio, per il trattamento dei materiali di imballaggio alimentare. Molti ricercatori ritengono che i PFAS a catena corta abbiano meno potenziale di bioaccumulo, sebbene la loro tossicità sia simile a quella dei loro cugini a catena più lunga.

Quindi, nel 2020, la FDA ha annunciato che quattro produttori stavano volontariamente eliminando gradualmente la vendita di alcol fluorotelomero 6:2, uno dei PFAS a catena corta, da utilizzare negli imballaggi alimentari di carta e cartone. Questa sostanza si degrada nell’ambiente per formare acidi perfluoroalchilici persistenti e biologicamente attivi (figura 2).

Fig. 2

Oggi, l’inventario delle sostanze a contatto con gli alimenti della FDA, che elenca i materiali ritenuti “sicuri per l’uso previsto”, contiene circa 50 fluorochimici approvati per la commercializzazione tra il 2000 e il 2020.

Non è chiaro quanti di loro siano ancora venduti per imballaggi alimentari.

Tre forze principali stanno allontanando i produttori di imballaggi alimentari da PFAS, afferma Shari Franjevic (Clean Production Action, Massachusetts), un’organizzazione che promuove prodotti chimici, materiali e prodotti verdi: una spinta viene dalla legislazione statale emanata in Connecticut, Maine, Minnesota, New York, Vermont e Washington che vieta i PFAS negli imballaggi alimentari e lo sforzo dell’Unione Europea per limitare gli usi di tutti i PFAS. Opzioni prive di PFAS

Le sostanze per involucri alimentari in fibra resistenti al grasso e all’acqua possono essere realizzate con una varietà di alternative alle sostanze per- e polifluoroalchiliche, come mostrato in Tabella 1.

Tabella 1

Legenda: bamboo or palm leaf = foglie di palma o bambù; biowax-coated paper = carta con rivestimento in cera; polylactic-coated paper = carta rivestita con acido polilattico; rivestimenti ignoti.

Tuttavia l’American Chemistry Council (ACC), che rappresenta i produttori di sostanze chimiche, compresi i produttori di fluoro chimici, sottolinea: “Non tutti i PFAS sono uguali, non è né scientificamente accurato, né appropriato raggrupparli tutti insieme nell’intera classe, specialmente quando si discute dei profili di salute”.

I membri dell’ACC hanno accettato volontariamente di eliminare gradualmente alcuni PFAS per l’uso negli imballaggi alimentari a base di carta ma aggiungono: “Per molti usi non ci sono alternative ai PFAS”.

Tralasciando il dibattito politico, diversi gruppi ambientalisti e sanitari statunitensi stanno esortando le catene di fast food e altri grandi acquirenti a passare volontariamente a involucri e contenitori di carta privi di PFAS. Questi sforzi sono una seconda forza importante nell’abbandono dei PFAS negli imballaggi alimentari, sostiene Franjevic.

Mike Schade, direttore della campagna di Mind the Store[2] ha affermato in una recente dichiarazione: “I rivenditori stanno svolgendo un ruolo incredibilmente importante nell’allontanare il mercato da queste sostanze chimiche tossiche per sempre. Con molte migliaia di libbre di PFAS in circolazione a causa del loro utilizzo negli imballaggi alimentari, applaudiamo quelle aziende che si impegnano a eliminare gradualmente queste sostanze tossiche negli imballaggi alimentari .”

La campagna continua a prendere di mira Burger King. L’amministratore delegato della società madre di quella catena, Restaurant Brands International, ha annunciato in un’assemblea degli azionisti a giugno che l’azienda sta esplorando alternative ai PFAS.

Problemi di compostabilità

Un terzo fattore che guida il passaggio da PFAS è il desiderio degli acquirenti di articoli alimentari monouso di passare dai contenitori di plastica agli articoli di carta compostabili. Con sorpresa di molti, alcuni articoli venduti come compostabili sono stati trattati con PFAS, affermano i sostenitori dell’ambiente. I ricercatori hanno scoperto che questi contenitori potrebbero rilasciare PFAS nell’ambiente se compostati [2].

I prodotti compostabili sono certificati in Nord America da BPI (Biodegradable Products Institute). Questo Istituto stabilisce gli standard per la decomposizione dei prodotti che possono essere mescolati con avanzi di cibo e scarti di giardino per produrre compost. Dal 1 gennaio 2020, il BPI ha escluso i prodotti con aggiunta di sostanze chimiche fluorurate organiche dalla qualificazione per la sua certificazione.

Poiché i PFAS sono persistenti nell’ambiente, tracce di questi composti possono essere presenti nel legno o nell’acqua utilizzati per la fabbricazione della carta e nei prodotti finali, sottolineano  le fonti ambientali.

L’industria sta sviluppando e implementando rapidamente alternative ai PFAS per tutti i tipi di articoli alimentari monouso a base di fibre. Una strategia consiste nell’utilizzare mezzi meccanici per rendere le fibre più dense, siano esse di legno, bambù, foglie di palma o scarti di canna da zucchero, in modo che resistano all’acqua.

Ma spesso i mezzi meccanici non sono sufficienti per rendere impermeabili le fibre. Un altro approccio consiste nell’utilizzare una barriera chimica priva di PFAS, un trattamento superficiale o un prodotto aggiunto alla pasta. Alcuni dei trattamenti su cui si affidano i produttori di articoli per alimenti sono divulgati in termini generali e non strutturali. Gli esempi includono siliconi, argille, cere e plastiche a base biologica come l’acido polilattico, secondo le informazioni raccolte da Clean Production Action. Un rapporto del 2017 compilato da Danimarca, Norvegia, Svezia e Finlandia, elenca anche gli ingredienti del trattamento: amido, carbossimetilcellulosa, alcol polivinilico, cera, idrossietilcellulosa, copolimero stirene-butadiene, chitosano polisaccaride lineare, dimero alchilchetene e anidride alchenil succinica.

(continua)


[1] C. Hogue, What’s after PFAS for paper food packaging?, C&EN, October 3, 22

[2] Mind the Store è un programma gestito dal gruppo di ricerca e sostegno Toxic-Free Future.

Perché non si deve tornare al nucleare

In evidenza

Vincenzo Balzani

Questo testo è stato parzialmente pubblicato su Bo7

Verso la metà del secolo scorso l’uso dell’energia generata dalla fissione nucleare aveva fatto sorgere la speranza di fornire a tutto il mondo energia elettrica abbondante e a basso prezzo. Dopo una crescita durata una trentina d’anni, che portò alla costruzione di circa 400 centrali, verso l’inizio degli anni ’90 lo sviluppo del nucleare si è arrestato. Oggi le centrali nucleari non sono economicamente convenienti in un regime di libero mercato per cui si costruiscono solo nei paesi dove lo stato si fa direttamente carico dei costi e dei rischi dell’impresa e dove c’è un forte collegamento con il nucleare militare.

Nel recente dibattito sugli effetti del cambiamento climatico, alcune dichiarazioni del ministro Cingolani hanno fatto pensare ad un ritorno all’energia nucleare, che in Italia abbiamo rinunciato a sviluppare col referendum del giugno 2011. Secondo alcuni, il nucleare è una componente fondamentale per combattere il cambiamento climatico in quanto non genera CO2. Però, per valutare la sostenibilità ecologica, economica e sociale dell’energia nucleare non ci si può basare solo sulla quantità di CO2 emessa; è, infatti, necessario considerarne tutte le criticità, riassumibili nei seguenti punti.

1) Le centrali nucleari producono scorie radioattive pericolose per decine di migliaia di anni, la collocazione delle quali è un problema non risolto e forse irrisolvibile. 2) Il combustibile nucleare, l’uranio, è una risorsa, oltre che non rinnovabile, limitata e quindi contesa. 3) Lo smaltimento di una centrale nucleare a fine vita è un problema di difficile soluzione sia dal punto di vista tecnico che economico, tanto che lo si lascia in eredità alle prossime generazioni. 4) Un incidente nucleare grave non è delimitabile nello spazio e nel tempo e, pertanto, coinvolge direttamente o indirettamente milioni di persone; la radioattività, infatti, si propaga in modo non controllabile attraverso l’atmosfera e la catena alimentare e può compromettere l’uso di un territorio per migliaia di anni. 5) Gli incidenti di Chernobyl e Fukushima hanno dimostrato che un grave incidente nucleare può accadere anche in paesi tecnologicamente avanzati. 6) Il nucleare civile è connesso alle applicazioni militari e può essere obiettivo o fonte di attività terroristiche. 7) Il timore di incidenti o di contaminazioni con sostanze radioattive rendono difficile il reperimento di siti in cui costruire le centrali. 8) L’esperienza dimostra che la costruzione di una centrale nucleare richiede più di 20 anni e il costo finale supera di molte volte quello inizialmente previsto.

Iniziare oggi un programma di sviluppo del nucleare non potrebbe contribuire ad eliminare l’immissione di CO2 in atmosfera entro il 2050, come concordato nella conferenza di Parigi del 2015. Se si vuole rispettare questo termine, c’è un modo molto più semplice, meno costoso e per nulla pericoloso: sviluppare fotovoltaico ed eolico la cui produzione di energia elettrica aumenta da anni in modo esponenziale e che già dal 2020 ha superato quella prodotta dal nucleare.

Qualche nota in aggiunta:

  • nessuna compagnia accetta di assicurare una centrale nucleare
  • contemplando le due figure allegate viene  voglia di documentarsi anche sui problemi/costi per lo smaltimento delle centrali nucleari e sui tempi/costi per la costruzione di nuove centrali.
  • Poi c’è il problema sociale: incidenti, possibilità di attentati, collegamento col nucleare militare e, non ultimo il tasso di democrazia dei due sistemi.
  • in che senso il nucleare è sostenibile: quanto uranio c’é? Quanto costa una centrale e quanto costa l’uranio? Perché il nucleare è fuori mercato e senza fondi dello stato non si costruisce (sostenibilità economica)? Perché la gente non è contenta di avere una centrale nucleare vicino a casa (sostenibilità sociale)?

Ambientalismo scientifico e combustibili fossili. Il futuro è ora.

In evidenza

Giovanni Villani

“Il problema generale del rapporto dell’uomo con il suo ambiente è prima di tutto di tipo culturale. Comprendere questo intrinseco e imprescindibile rapporto, incentivare una relazione che non sia di solo sfruttamento e, al tempo stesso, riconoscere che l’attività umana non è qualcosa di estraneo, ma parte integrante dell’ambiente naturale, è un compito culturale cui la comunità dei chimici può e deve dare un essenziale contributo, partendo dalla scuola e da una corretta educazione ambientale”.

Inizio questa riflessione con questa citazione. Essa è il “cappello” del paragrafo “Il contributo della comunità scientifica chimica italiana” al documento “Posizione della Società Chimica Italiana riguardo ai cambiamenti climatici” del Giugno 2016. Tale citazione fu principalmente elaborata della Divisione di Didattica che, allora, io avevo l’onore di presiedere. Essa rappresenta, per inciso, anche una risposta a quanti pensano che parlare di “cultura chimica” in generale, significhi riflettere su “cose astratte e sostanzialmente inutili” e una dimostrazione dell’importanza di elaborare posizioni generali su temi essenziali e impattanti sulla vita delle persone.

L’idea che la Natura sia qualcosa da “sfruttare” è largamente presente nella cultura moderna e contemporanea occidentale. Sebbene sempre presente in forma latente, tale idea è stata sviluppata filosoficamente da Francesco Bacone, filosofo/scienziato inglese del XVII secolo e che, quindi, visse, non casualmente, alle soglie della prima rivoluzione industriale di quel paese e, più in generale, dell’occidente.

Che il termine “sfruttamento” sia totalmente negativo è evidente a tutti. È difficile oggi trovare un esempio in cui tale termine entri in maniera positiva. Non è un caso che la parola “sfruttamento” è stata anche associata al lavoro e alla schiavizzazione di interi popoli, “piaghe” che sono seguite, non casualmente, alla prima industrializzazione e al colonialismo.

Il termine usato da Bacone, era “dominare” la Natura, ma, credo che, se riusciamo a guardare il mondo con gli occhi di quattro secoli fa, egli intendesse dire semplicemente “influire sulla Natura”. La scelta “tecnologica” di Bacone si è rivelata corretta. L’uomo in questi quattro secoli ha contrastato efficacemente tanti problemi, come le malattie e la fame (purtroppo solo in certe parti del mondo).

A distanza di quattro secoli, però, la scienza e le tecnologie hanno reso il mondo estremamente “piccolo”. Molte sono le immagini moderne che visualizzano questa nuova condizione. L’idea di “casa”, o come ci dice Vincenzo Balzani di “navicella spaziale”, sono sicuramente immagini più consone alla situazione attuale. In questo mondo “piccolo”, i problemi si sono “ingigantiti” e abbiamo scoperto che, essendo questo il nostro unico “luogo possibile”, c’è la necessità di proteggerlo per noi e le prossime generazioni,

Il cambiamento di prospettiva richiesto da un ambientalismo non utopico, da me definito “scientifico”, non è facile. Che “la transizione ecologica rappresenti un impegno senza precedenti: per questo l’Industria chimica continua a investire sul futuro” ce lo dice anche Paolo Lamberti, Presidente Federchimica, sul frontespizio del loro sito web.

Tale impegno può essere reso attuale per i chimici? Io credo di si, e vediamolo in un caso concreto, essenziale per il futuro del nostro pianeta: la transizione energetica dai combustibili fossili.

È da tempo che Balzani, in prima fila, con tanti altri scienziati al seguito, ci dicono che dobbiamo accelerare nella transizione alla produzione di energia che faccia a meno, elimini del tutto, i combustibili fossili. Le due lettere di Vincenzo Balzani ai giornali (https://ilblogdellasci.wordpress.com/2020/10/10/due-lettere-aperte-di-v-balzani/) sono solo l’ultimo esempio del suo costante impegno su questo tema. A tale posizione ne viene contrapposta un’altra, anch’essa presente in ambito chimico in senso lato, che c’è tempo per fare tale transizione, che il momento “non è ora, magari in futuro …”.

Io credo che questo sia il momento di scelte nette. La mia posizione è chiara: io sono con Vincenzo, il futuro è ora … se vogliamo avere un futuro.

Io credo che la Società Chimica Italiana, che si è dimostrata lungimirante e si è dotata da un lustro di un documento ufficiale sul cambiamento climatico, debba prendere una chiara posizione tra queste due alternative. Se vogliamo essere ambientalisti, in senso scientifico, se vogliamo costruire un rapporto positivo con tutta quell’area culturale che si impegna su queste problematiche, dobbiamo chiarire la nostra posizione.

Forse sarà utopico, e se lasciassimo decidere, democraticamente, i Soci della SCI? Gli strumenti non mancano, a partire dall’attuale fase elettorale.

Qualche riflessione su G20 e COP26.

In evidenza

Luigi Campanella, già Presidente SCI

Il G20 si è concluso, Cop26 è in corso ma gli stimoli sono già tanti. A parte gli aspetti più critici rappresentati dalla perdurante crescita delle emissioni con un incremento dal 2010 al 2030 di circa il 16% con.un innalzamento previsto di 2,7 gradi della temperatura a fine secolo e dal mancato accordo sulle scadenze degli impegni futuri (2050 o 2060?) altri mi premono sul cuore, oltre che sulla mente.

Il primo riguarda-come spesso accade-la divaricazione fra dire e fare,fra impegni presi ed iniziative che poi vengono attuate. Il primo combustibile per capacità di produzione di CO2 è certamente il carbone. Eppure, mentre si combatte contro i cambiamento climatici, i colossi mondiali del carbone secondo gli ultimi dati disponibili hanno venduto oggi-ed a caro.prezzo- tutte le loro estrazioni previste nel 2022 e gran parte di quelle possibili nel 2023 e fra i Paesi che hanno comprato non si trovano solo quelli attesi in questo elenco, come Cina ed India che non hanno nessuna intenzione di abbandonare le loro miniere, ma anche Stati Uniti e Regno Unito. Addirittura ho letto che il parlamento inglese ha di recente discusso circa la possibilità di riaprire le vecchie ciminiere in disuso della miniera a carbone di Whitehaven che dovrebbe diventare uno dei serbatoi inglesi di energia del Nord Ovest. Stesso discorso in Germania dove un piccolo villaggio di minatori intorno alla miniera a carbone di Garzweiler a Luetzerah dovrebbe scomparire per allargare il campo di estrazione della vecchia miniera.

Su questo punto un elemento di consolazione deriva dal fatto che per la prima volta negli incontri internazionali è stato posto il problema del prezzo del carbone, gia presente in UE, ma non al di fuori ed e stato stabilito l’impegno a non finanziare nuovi centrali a carbone.

Un secondo elemento di riflessione deriva dal continuo ripetuto riferimento all’ innovazione tecnologica come strumento contro i cambiamenti climatici, senza verificare quanto si è fatto e quanto in più si potrebbe fare a tecnologie esistenti.

Un terzo punto riguarda il rapporto fra pubblico e privato: dinnanzi ad emergenze planetarie la collaborazione fra i due settori sembra logica,ma a parità di scelte e di interessi, parità che purtroppo è ben lungi da esserci come alcune iniziative, vedi le trivellazioni nel Mediterraneo e le scelte in favore del petrolio, anche in casa nostra ed in Europa, dimostrano.

C’è poi l’impegno in favore della messa a terreno di 1000 miliardi di nuovi alberi capaci di assorbire in un anno da 20 a 50 mila miliardi di kg di CO2 per anno,senza però alcun impegno sulla manutenzione di questi alberi e su reti di monitoraggio del suolo quando recenti ricerche hanno dimostrato che la quantità di CO2 assorbita da un albero cresce molto più che linearmente con la crescita dell’albero stesso e che fra quantità di acqua disponibile e potenziale idrico le differenze si fanno sempre più rilevanti proprio in relazione ai cambiamenti climatici.

Un’altra donna mancato Premio Nobel per la Fisica: Susan Jocelyn Bell Burnell 

In evidenza

Rinaldo Cervellati

Claudio Della Volpe mi ha mandato un interessante intervento su Internazionale con intervista a Susan Jocelyn Bell [1], che da giovane scoprì le pulsar[1], ma il Nobel fu assegnato al suo supervisore, Antony Hewish (insieme a Martin Riley) nel 1974.

Ripercorriamo la storia.

Jocelyn Bell è nata nel 1943 a Lurgan, (contea di Armagh, Irlanda del Nord), da M. Allison e G. Philip Bell. Suo padre era un architetto che aveva aiutato a progettare l’Armagh Planetarium, e durante le visite fu incoraggiata dallo staff a dedicarsi professionalmente all’astronomia.

È cresciuta a Lurgan e ha frequentato il Dipartimento preparatorio del Lurgan College dal 1948 al 1956, dove, come alle altre ragazze, non le è stato permesso di studiare scienze fino a quando i suoi genitori non hanno protestato contro la politica della scuola. In precedenza, il curriculum delle donne includeva materie come cucina e punto croce invece che scienze. Fallì l’esame finale e i suoi genitori la mandarono alla Mount School, un collegio femminile quacchero a York, in Inghilterra. Lì fu favorevolmente colpita dal suo insegnante di fisica, il signor Tillott: “Non devi imparare tanti, tanti fatti; impara solo alcune cose fondamentali e poi puoi applicare, costruire e sviluppare da quelle. Era un insegnante davvero bravo e mi ha mostrato quanto, in realtà, fosse facile la fisica.”.

Si è laureata con lode in Filosofia naturale (fisica) presso l’Università di Glasgow nel 1965 e ha conseguito un dottorato di ricerca all’Università di Cambridge nel 1969. A Cambridge, ha frequentato New Hall, e ha lavorato con Hewish e altri per costruire il radiotelescopio chiamato Interplanetary Scintillation Array, appena fuori Cambridge, per studiare i quasar[2], che erano stati scoperti di recente.

Il 28 novembre 1967, rilevò strani segnali sul registratore grafico che tracciava il cielo con le stelle. Il segnale era visibile anche nei dati raccolti ad agosto, ma poiché i documenti dovevano essere controllati a mano, le ci vollero tre mesi per trovarlo. Stabilì che il segnale pulsava con grande regolarità, al ritmo di circa un impulso ogni secondo e ⅓.

Jocelyn Bell al tempo della scoperta

Temporaneamente soprannominata “Little Green Man 1” (LGM-1) la sorgente (ora nota come PSR B1919+21) è stata identificata dopo diversi anni come una stella di neutroni in rapida rotazione. Questo è stato successivamente documentato dalla serie BBC Horizon. In una conferenza del 2020 ad Harvard, ha raccontato come i media stavano coprendo la scoperta delle pulsar con interviste che assumevano un formato standard molto sgradevole: a Hewish sarebbe stato chiesto dell’astrofisica mentre lei sarebbe stata la parte “di interesse umano”, interrogata su aspetti personali (quanti fidanzati avesse, di che colore erano i suoi capelli), le venne addirittura chiesto di slacciare alcuni bottoni della camicia per posare nelle fotografie. In quell’occasione, il giornalista scientifico del Daily Telegraph abbreviò “sorgente radio pulsante” in pulsar.

Jocelyn Bell ha lavorato presso l’Università di Southampton (1968 – 1973), l’University College di Londra (1974 – 1982) e il Royal Observatory di Edimburgo (1982-1991). Dal 1973 al 1987 è stata tutor, consulente, esaminatore e docente per l’Open University. Nel 1986 è diventata project manager per il James Clerk Maxwell Telescope a Mauna Kea, Hawaii. È stata Professore di Fisica all’Open University dal 1991 al 2001. È stata anche visiting professor alla Princeton University negli Stati Uniti,  Preside di Scienze all’ l’Università di Bath (2001-04) e Presidente della Royal Astronomical Society tra il 2002 e il 2004.

Jocelyn Bell Burnell è attualmente Visiting Professor di Astrofisica all’Università di Oxford e Fellow del Mansfield College. È stata Presidente dell’Istituto di Fisica dal 2008 al 2010. Nel febbraio 2018 è stata nominata Rettore dell’Università di Dundee. Nel 2018, Bell Burnell ha visitato Parkes, NSW, per tenere la conferenza di apertura John Bolton all’evento AstroFest della CWAS (Central West Astronomical Society).

Nel 2018 le è stato assegnato il Premio Speciale in Fisica Fondamentale, del valore di tre milioni di dollari (2,3 milioni di sterline), per la scoperta delle pulsar. Il Premio Speciale, contrariamente al normale premio annuale, non si limita alle scoperte recenti. Bell ha donato tutta la somma “per finanziare le donne, le minoranze etniche sottorappresentate e gli studenti rifugiati per diventare ricercatori di fisica”, fondi che saranno amministrati dall’Istituto di Fisica.

Jocelyn Bell riceve il Premio Speciale in Fisica Fondamentale

Polemiche sul premio Nobel

Che Jocelyn Bell non abbia ricevuto il riconoscimento del Premio Nobel per la Fisica del 1974 è stato da allora un punto controverso. Ha aiutato a costruire il radioscopio a scintillazione interplanetaria per due anni e inizialmente ha notato l’anomalia, a volte rivedendo fino a 29 m di dati cartacei per notte.

Grafico su cui Burnell riconobbe per la prima volta la prova di una pulsar. Credit: Cambridge University Library

Bell in seguito disse che doveva insistere nel segnalare l’anomalia di fronte allo scetticismo di Hewish, che inizialmente riteneva che fosse dovuta a interferenze provocate dall’uomo. Ha parlato di incontri tenuti da Hewish e Ryle a cui non era stata invitata. Nel 1977, ha commentato, con un notevole fair play, la questione: “Primo, le controversie sulla demarcazione tra supervisore e studente sono sempre difficili, probabilmente impossibili da risolvere. In secondo luogo, è il supervisore che ha la responsabilità finale del successo o del fallimento del progetto. Sentiamo di casi in cui un supervisore incolpa il suo studente per un fallimento, ma sappiamo che è in gran parte colpa del supervisore. Mi sembra giusto che anche lui tragga beneficio dai successi. In terzo luogo, credo i premi Nobel sarebbero sminuiti se fossero assegnati a studenti di ricerca, tranne che in casi del tutto eccezionali, e non credo che questo sia uno di questi. Infine, non ne sono turbata – dopotutto, sono in buona compagnia, non è vero!”

In effetti basta un colpo d’occhio al numero di Nobel vinti da uomini e donne per vedere che il divario è enorme. Lo scarto maggiore si ha appunto nell’ambito della fisica. In questo campo, infatti, son stati premiati dal 1901 al 2020 ben 212 uomini. Ledonne? Sono solo 4. Per chimica e medicina la proporzione è quasi la stessa, rispettivamente 7 a 179 e 12 a 210. 

Nel 1968, tra la scoperta della seconda e della terza pulsar, Bell si fidanzò con Martin Burnell e poco dopo si sposarono; la coppia ha divorziato nel 1993 dopo essersi separata nel 1989. In una conferenza online del 2021 all’Università del Bedfordshire, Bell Burnell ha riflettuto sulla sua prima esperienza di ritorno all’osservatorio indossando un anello di fidanzamento. Sebbene fosse orgogliosa del suo anello e volesse condividere la buona notizia con i suoi colleghi, ricevette invece critiche poiché, all’epoca, era vergognoso per le donne lavorare poiché sembrava che i loro partner non fossero in grado di provvedere alla famiglia. Suo marito era un funzionario del governo locale e la sua carriera li portò in varie parti della Gran Bretagna. Ha lavorato part-time per molti anni mentre cresceva suo figlio, Gavin Burnell, che è membro del gruppo di fisica della materia condensata presso l’Università di Leeds.

Bibliografia

[1] Lei ha scoperto le pulsar, lui ha vinto il Premio Nobel,

https://www.internazionale.it/video/2021/10/20/astrofisica-scoperto-pulsar-nobel


[1] Pulsar, nome che indicava originariamente una sorgente radio pulsante, è una stella di neutroni. Nelle prime fasi della sua formazione, in cui ruota molto velocemente, la sua radiazione elettromagnetica in coni ristretti è osservata come impulsi emessi a intervalli estremamente regolari.

[2] Un quasar (contrazione di QUASi-stellAR radio source, cioè “radiosorgente quasi stellare”) è un nucleo galattico attivo estremamente luminoso. Il nome deriva dal fatto che questi oggetti, la cui natura è stata controversa fino ai primi anni ottanta, furono inizialmente scoperti come potenti sorgenti radio, la cui controparte ottica risultava puntiforme come una stella.

Recensione. Per comprendere la complessità biologica

In evidenza

Luigi Campanella, già Presidente SCI

Editore:Licosia
Collana:Politica storia e società
Data di Pubblicazione:2021
EAN:9791280116284
ISBN:1280116285
Pagine:290

Euro 24

Il testo “Per comprendere la complessità biologica” della collega ed amica Lilia Alberghina è una vera e propria lezione di vita che meriterebbe una lingua universale. Come anche la nostra recente esperienza pandemica ha dimostrato, nelle difficoltà, ma solo nelle difficoltà, la nostra società riesce a superare l’atteggiamento egoistico e sostanzialmente elitario per una visione più partecipata e condivisa dei problemi. Al contrario della Società la Natura si sviluppa proprio attraverso una visione comunitaria e correlata.

La tradizionale articolazione in 3 comparti ambientali (acqua, aria, suolo) è una semplificazione didattica: fra essi c’è condivisione estrema, sicché la qualità di uno di essi dipende da quella degli altri due.

In più la natura, come dovrebbe fare l’uomo, cerca con interventi in un comparto di proteggere gli altri due. Si pensi all’assorbimento degli inquinanti da parte degli alberi, alla sedimentazione nei corsi fluviali, alla formazione dei delta alla foce a mare, alla protezione della falda da parte del suolo.

Tutti questi messaggi sono ben presenti nel testo di Alberghina,accanto ad altri, forse più filosofici e speculativi come l’organizzazione della complessità biologica che discute di modelli organizzativi e di riferimenti della Natura ad essi in funzione della self-protection. Si lega a questo il capitolo sulla Diversità biologica e sulle occasioni perdute rispetto ad essa: un prepotente stimolo alla protezione ambientale sia dal punto di vista degli interventi che delle risorse da destinare di cui non si è saputo cogliere il vero significato.

Diversità genera continuità e continuità genera rinnovamento. Un capitolo interessante è quello dedicato ai Big Data ormai realtà del nostro tempo in tutti i settori. Si tratta di strumenti di conoscenza fondamentale: se applicati al Genoma divengono un patrimonio incommensurabile rispetto ad aspetti fondamentali della nostra vita, quali la salute, le nuove malattie, le battaglie antivirali, la sicurezza.

Il nodo per essi è la loro condivisione ben oltre i confini dove vengono prodotti. Tornando invece alla complessità l’autrice affronta il problema del rapporto fra reti molecolari, espressione della complessità, e le proprietà emergenti: un salto dal micro al macro con in sottofondo proprietà di riciclo, caratteristiche funzionali, smaltimento, in pratica economia circolare. Due altri argomenti trattati sono il DNA e la metabolomica, il primo espressione della vita in.una forma personale quasi unico baluardo alla visione universale della natura, la seconda sorta di indicatore del funzionamento degli organismi viventi. Anche qui la natura supera l’uomo: per monitorare un processo industriale dobbiamo scegliere dove, come e quando monitorarlo, nel caso degli organismi viventi, animali e/o vegetali, il monitoraggio può utilizzare indicatori sempre disponibili, con una parola di moda sensori indossabili.
Si tratta complessivamente di 12 capitoli con un’appendice importantissima intitolata “Per approfondire“:capitolo per capitolo vengono fornite bibliografie per entrare più in profondità negli argomenti trattati

Lilia Alberghina è professore emerito di Biochimica presso l’Università di Milano-Bicocca; direttore scientifico di ISBE.IT, infrastruttura di ricerca per la Systems biology; Scholar della Johns Hopkins University, Baltimora, MD, USA; socio nazionale Accademia dei XL. È stata una dei leader nello sviluppo delle Biotecnologie nelle università italiane. Successivamente ha fortemente promosso la crescita della Systems biology e della Systems metabolomics. Le sono stati conferiti: Premio Feltrinelli dell’Accademia dei Lincei (1986); Laurea honoris causa in Biotecnologie Molecolari e Industriali dalla Università di Napoli Federico II (2012) e l’“Ambrogino d’oro” dal Comune di Milano (2010).

Tre esempi negativi.

In evidenza

Claudio Della Volpe

Tre esempi negativi.

In questi giorni si inseguono notizie non positive per coloro che hanno a cuore il futuro della specie in un ambiente sano. Mi riferisco a tre notizie giornalistiche

  1. Sospesa la tassa sulle bevande zuccherate
  2. Sospesa la tassa sui prodotti di plastica usa e getta
  3. L’UE considera il  nucleare un modo sostenibile di produrre energia elettrica

Le prime due riguardano il nostro paese ma la terza riguarda tutto il continente europeo.

Sotto vedete un grafico che mostra la crescita dei consumi a cavallo della seconda guerra mondiale nel nostro paese; una serie di cibi prima da ricchi che diventano comuni e acquistabili da tutti e in genere questa è una buona notizia; tuttavia pensiamo che nell’Italia pre-bellica si usavano 7-9 kg d zucchero pro capite all’anno mentre oggi siamo arrivati a trenta, oltre tre volte in più; lo zucchero raffinato si usa in tutti i cibi: pane, salse oltre ovviamente le bevande zuccherine; contestualmente nel nostro paese il diabete mellito di tipo 2 è diventato una malattia molto comune e come in altri paesi occidentali una delle misure raccomandate dall’OMS prevede la disincentivazione al consumo di bevande zuccherate come le bibite gasate o i succhi di frutta con zuccheri aggiunti; ma ricordiamo che lo zucchero è aggiunto: nel pane, nelle salse, negli yogurt e che il problema è complesso poiché una delle ipotesi è che anche le bevande senza zucchero ma con dolcificanti artificiali inducano comportamenti negativi sul consumo del cibo restante anche se la cosa non è ancora chiara.

https://www.treccani.it/enciclopedia/i-consumi-alimentari-in-italia-uno-specchio-del-cambiamento_%28L%27Italia-e-le-sue-Regioni%29/

Come previsto dalla Legge di Bilancio 2020, si sarebbe trattato di un’imposta da 10 centesimi al litro per un contenuto di zucchero superiore ai 25 grammi (in una lattina di 330 ml di coca cola tradizionale ci sono 35 grammi di zucchero, equivalenti a circa 7 cucchiaini).

Sarebbero state quindi coinvolte quasi tutte le bevande dolci, visto che questa soglia viene superata dalla stragrande maggioranza delle bibite vendute nel nostro paese, ma c’è un “ma”: la tassazione che era prevista in Italia è considerata troppo bassa per indurre a un cambiamento degno di nota in grado di incidere sulle abitudini dei consumatori, così come sulle scelte del produttore di abbassare le dosi di zucchero.

Di fatto il governo ha ritenuto di sospendere questa tassa per mere considerazioni economiche , cioè per salvaguardare i profitti (e i posti di lavoro, ma su questo qualche dubbio ce l’ho viste le scelte complessive e i numerosi casi contrari ) senza dire nulla sugli aspetti di salute pubblica. Occorre aggiungere che una modifica delle abitudini alimentari non si può raggiungere solo con misure di questo tipo e che serve una politica di educazione alimentare a partire dalle giovani generazioni.

Il secondo caso è forse più complicato poiché  come chimici sappiamo che è in corso uno sforzo per la sintesi di nuovi materiali plastici degradabili e anche nella direzione di riciclare  materiali esistenti con nuove tecnologie di cui abbiamo anche parlato nel nostro blog; inoltre la pandemia ha di fatto stimolato un uso spaventosamente grande di materiali usa e getta esattamente in direzione opposta a tutto quanto sviluppato negli anni precedenti in cui la presenza dell’inquinamento sia oceanico che terrestre da microplastiche aveva stimolato moltissimo la popolazione a ridurre questo tipo di consumi e ad accettare una strategia in tal senso.

Ma anche in questo caso la difesa dei profitti (e ovviamente la cantilena sui posti di lavoro, che poi viene sistematicamente dimenticata ad ogni sia pur minima prospettiva di maggiori profitti in altri paesi) non basta a giustificare che la plastic tax, come era stata denominata, venga rimandata od abolita.

Secondo i calcoli che sono comparsi sulla stampa si tratterebbe di 1 euro per ogni chilo di imballaggi che dovrebbero essere accompagnati da sgravi e incentivi per il ricorso ad alternative a basso impatto ambientale. Anche qui dunque una misura modesta ma che comporterebbe una riduzione, a dire delle aziende interessate, di 180 milioni di euro di fatturato.

Teniamo presente che misure analoghe sono in corso già in altri paesi europei e che c’è anche una direttiva in merito che rischiamo di violare incorrendo in una procedura di infrazione oltre che perdendo la gara con chi su questa strada si è incamminato da tempo come Germania, Spagna e Francia.

Queste due scelte del governo Draghi rinforzano l’idea che ce ne siamo fatta in questi mesi: un governo certamente più autorevole di altri, che sta conducendo con successo la campagna vaccinale, ma che di fatto sta dalla parte delle classi sociali forti, di Confindustria e che non ha a cuore effettivamente la transizione cosiddetta ecologica; si ammanta di queste parole: verde, ecologico, ma poi non fa nulla di concreto.

E la terza cosa è ancora più preoccupante; anche qui un governo europeo che non esita ad usare verde o ecologico in ogni frase quello della Von der Leyen oggi torna alla carica con l’idea che il nucleare di fissione (di IV generazione pare) sia uno strumento di conversione energetica sostenibile e rinnovabile come il FV o l’eolico.

E’ dall’inizio del 2020 che complice la pandemia che ha distratto molti da questi temi ambientali si è scatenata una controffensiva che ha come scopo introdurre nei piani di rinnovo ecologico il nucleare; nel luglio 2018 iniziò la sua attività un gruppo di esperti denominato TEG delegato a costruire un piano di finanza ed iniziative economiche sostenibili che concludeva nel luglio 2020 escludendo il  nucleare dal futuro tecnologico europeo e dalle attività economiche sostenibili; la classificazione di tali attività era denominata : Taxonomy technical report (TTR). Ma nonostante questa decisione il Consiglio Europeo nel settembre 2020  decideva di rimanere “neutrale” sul tema; da questo momento in poi c’è stata una volata di iniziative che chiedevano a gran voce di rimettere nella “tassonomia” il nucleare a partire dalla richiesta dei sindacati dei lavoratori del nucleare nel gennaio 2021.

Nel marzo 2021 il JRC (il Joint Research Center, il servizio comune di ricerca della Commissione Europea) ha sostenuto con un report tecnico questa inclusione che è stata poi difesa a spada tratta da alcuni paesi; per fortuna il fronte generale non è coeso e ci sono stati 5 paesi: Austria, Danimarca, Germania, Lussemburgo e Spagna che hanno trovato invece carente la relazione JRC dichiarando di essere contrari a questa introduzione.

A luglio un gruppo di 86 parlamentari ha sostenuto al contrario che occorre includere il nucleare nella tassonomia. La decisione non è stata presa ancora ma è chiaro che paesi come la Francia con la sua forte industria nucleare sono fortemente favorevoli a questa scelta un po’ assurda. Ricordiamo che al momento non esistono centrali di IV generazione pronte, che ci vogliono anni per costruirne una di terza sicura, un esempio è Olkiluoto, la centrale sicura finlandese che ancora non è finita dal 2005 (forse lo sarà nel 2022); adesso va per la maggiore l’idea delle centrali piccole  che sarebbero meglio non si capisce perché; non è stato ancora risolto il problema dei rifiuti nucleari, non esiste un solo deposito nucleare sicuro per i prossimi 800 anni che è considerato il tempo minimo di gestione per i rifiuti nucleari da centrale (che poi dovreste dirmi come fa una società che non riesce a guardare oltre qualche anno a gestire qualcosa per 800!!).

Nonostante questo ci sono paesi che vogliono continuare questa assurda avventura mentre i costi delle rinnovabili scendono continuamente e sono oggi i più favorevoli. Ci sarebbero da dire tante altre cose come per esempio la quota di nucleare elettrico che già acquistiamo dal mercato europeo (Francia e Svizzera) a causa del fatto che il nucleare è rigido e chi lo possiede non può alterarne il regime di funzionamento, ma deve vendere sotto costo quando non può consumarlo. Ovviamente si può discutere sui rischi in termini quantitativi rischio-beneficio, ma occorre anche ricordare che per eventi come Fukushima o Chernobil e per le loro conseguenze (sono i cosiddetti “cigni neri”, eventi poco probabili ma dalle enormi conseguenze) una tradizionale valutazione rischio beneficio potrebbe non essere la strada più opportuna.

Levelized cost of energy (LCOE) è una misura del costo medio netto attuale di generazione dell’energia considerando un impianto di generazione lungo tutta la sua vita.

Pipetta da guerra

In evidenza

Mauro Icardi

Nel volume di Primo Levi “ L’ultimo Natale di guerra” spicca, tra i racconti dedicati all’esperienza del lager, quello intitolato “Pipetta da guerra”.

E’ ormai noto che il chimico e scrittore torinese attribuisse la sua sopravvivenza alla deportazione in primo luogo al caso, e alla fortuna di avere superato l’esame di chimica, cosa che gli permise negli ultimi mesi di prigionia di lavorare nel laboratorio chimico di Buna, in un ambiente sicuramente  più confortevole, e senza dover essere sottoposto ai lavori più pesanti.

Nel tempo che trascorre in laboratorio, Levi cerca di trovare qualcosa di piccolo e d’insolito, quindi con un alto valore commerciale nell’economia parallela del lager.

Trova in un cassetto delle pipette; e ne ruba alcune. La sera stessa si reca in infermeria in cerca di un infermiere polacco al quale propone l’insolita refurtiva. Ma il baratto pipette in cambio di pane; non riesce. Ormai è tardi, l’unica cosa che l’infermiere può offrire è un po’ di zuppa.

Levi accetta ma non può fare a meno di pensare:

«Chi poteva aver avanzato mezza scodella di zuppa in quel regno della fame? Quasi certamente un ammalato grave, e, dato il luogo, anche contagioso».

 Nonostante queste considerazioni, nell’ambiente del  Lager era ritenuto inaccettabile avanzare qualcosa di commestibile; e, viste le terribili condizioni, anche fisicamente impossibile.

Levi la sera stessa divide la zuppa con il suo inseparabile amico Alberto. E qui il caso già interviene in maniera evidente nel destino dei due. Si saprà poi che la zuppa era quella che un ammalto di scarlattina aveva avanzato. Alberto aveva già contratto la malattia, Levi no. Il primo era immune, Levi no.

Pochi giorni dopo i sintomi della scarlattina si manifestano. Febbre alta e mal di gola, ma era permesso andare in infermeria solo la sera, al termine del lavoro.

Proprio quel giorno Levi viene incaricato di insegnare un metodo analitico a Frau Drechscel, un’adolescente tedesca , che Levi descrive così.

“La Drechschel era una tedescotta adolescente sgraziate e torva. Per lo più evitava di rivolgere lo sguardo su noi tre chimici-schiavi: quando lo faceva, i suoi occhi smorti esprimevano un’ostilità  vaga, fatta di diffidenza, imbarazzo, repulsione e paura.

Lo scrittore diffida di lei perché sa che è amica del giovanissimo SS incaricato di sorvegliare quel reparto; e prova istintiva antipatia.  L’unica delle persone che lavorano in quel laboratorio che porta appuntato sul camice il distintivo con la croce uncinata.

Per la prima volta nella sua vita, come lui stesso ammette e scrive, commette deliberatamente un’ingiustizia. Mostra alla ragazza come utilizzare la pipetta in una fase dell’analisi; e poi la passa a lei, perché aspiri il liquido, cercando di contagiarla. Quasi una guerra batteriologica personale. Non è fuori luogo essere grati oggi ai nuovi sistemi per l’uso delle pipette, decisamente più igienici.

Primo Levi, per aver contratto la scarlattina, fu ricoverato in Ka-Be; e come tutti gli altri ammalati che non potevano camminare o muoversi fu risparmiato dalla marcia della morte. Così iniziò una convivenza con altri uomini, come lui infermi e con un destino comune. Riuscirono a migliorare le loro condizioni di vita, per quanto possibile, mettendo in uso una stufa, riparando una finestra rotta e mangiando patate bollite. Nonostante vivesse a stretto contatto con dei malati, Levi non avrebbe mai pensato di cambiare camera per ridurre il pericolo di ammalarsi. Forse perché il pensiero di morire a causa di malattie non gli faceva più paura, o forse perché la morte per malattia nel lager non era la peggiore che si potesse immaginare.

Alberto Salmoni che non si era ammalto di scarlattina, non sopravvisse alla medesima marcia. Il caso fortuito scelse: Alberto sommerso, Primo salvato.

Elementi della Tavola periodica. Stronzio, Sr (2a parte)

In evidenza

la prima parte di questo è stata pubblicata qui

Ruolo biologico

L’acantharea, un gruppo relativamente grande di protozoi radiolari marini, produce scheletri minerali complessi composti da solfato di stronzio. Nei sistemi biologici, il calcio è sostituito in piccola misura dallo stronzio. Nel corpo umano, la maggior parte dello stronzio assorbito si deposita nelle ossa. Il rapporto tra stronzio e calcio nelle ossa umane è compreso tra 1:1000 e 1:2000, più o meno nello stesso intervallo del siero del sangue.

Il corpo umano assorbe lo stronzio come se fosse il più leggero congenere calcio. Poiché gli elementi sono chimicamente molto simili, gli isotopi stabili non rappresentano una minaccia significativa per la salute. L’essere umano medio ha un’assunzione di circa due milligrammi di stronzio al giorno. Negli adulti, lo stronzio consumato tende ad attaccarsi solo alla superficie delle ossa, ma nei bambini può sostituire il calcio nelle ossa in crescita e quindi portare a problemi di crescita ossea.

L’emivita biologica nell’uomo è stata variamente riportata da 14 a 600 giorni, 1.000 giorni, 18 anni, 30 anni e, a un limite superiore, 49 anni.  Le cifre dell’emivita biologica pubblicate ad ampio raggio sono spiegate dal complesso metabolismo dello stronzio all’interno del corpo. Tuttavia, calcolando la media di tutti i percorsi di escrezione, si stima che l’emivita biologica complessiva sia di circa 18 anni.  La velocità di eliminazione è fortemente influenzata dall’età e dal sesso, a causa delle differenze nel metabolismo osseo.

Il farmaco ranelato di stronzio aiuta la crescita ossea, aumenta la densità ossea e riduce l’incidenza di fratture vertebrali, periferiche e dell’anca.

Figura 5. Ranelato di stronzio

Tuttavia, il ranelato di stronzio aumenta anche il rischio di tromboembolia venosa, embolia polmonare e gravi disturbi cardiovascolari, compreso l’infarto del miocardio. Anche i suoi effetti benefici sono discutibili, poiché la maggiore densità ossea è in parte causata dall’aumentata densità dello stronzio sul calcio che sostituisce. Lo stronzio si bioaccumula anche nel corpo. Nel 2014 la Commissione Europea di Farmacovigilanza (PRAC) ha imposto restrizioni sull’uso del ranelato di stronzio, ciononostante lo stronzio è ancora contenuto in alcuni integratori.

Non ci sono molte prove scientifiche sui rischi del cloruro di stronzio se assunto per via orale. Alle persone con una storia personale o familiare di disturbi della coagulazione del sangue si consiglia di evitarne l’assunzione.

È stato dimostrato che lo stronzio inibisce l’irritazione sensoriale quando applicato localmente sulla pelle. Applicato topicamente, lo stronzio ha dimostrato di accelerare il tasso di recupero della barriera di permeabilità epidermica (barriera cutanea).

Riciclaggio

Nel 2017 un gruppo di ricercatori spagnoli, coordinati dal prof. Alberto Bolero, ha studiato la possibilità di riciclare, anziché gettare in discarica, i residui di ferriti contenenti stronzio per materiali usati nella fabbricazione di magneti permanenti. Il loro approccio si è dimostrato efficiente, risultando in polveri riciclate con proprietà magnetiche che non solo corrispondono a quelle del materiale di partenza acquisito dall’azienda per la produzione di magneti ma le superano.

È stato dimostrato che questo miglioramento è dovuto alla messa a punto della morfologia e della microstruttura attraverso la lavorazione e il successivo trattamento termico. L’utilizzo di condizioni di lavorazione nella stessa gamma di quelle tipicamente utilizzate nella preparazione di polveri di ferrite e magneti, in combinazione con la qualità magnetica superiore delle polveri risultanti, fanno di questo metodo un percorso idoneo a garantire la sostenibilità e un uso efficiente delle risorse in aziende per magneti permanenti [1].

Figura 6.  Schema del processo di riciclaggio delle ferriti allo stronzio

Recentemente un gruppo di ricercatori cinesi, coordinati dai prof. Suiyi Zhu e Yang Huo, ha proposto un metodo per riciclare stronzianite ed ematite da fanghi contenenti stronzio [2]. Lo schema del processo è mostrato in figura 7.

Figura 7.  Schema del metodo ideato dai ricercatori cinesi [2]

I fanghi da trasporto contenenti Sr sono rifiuti pericolosi comunemente generati dalle operazioni di raffinazione dei minerali e dalle centrali nucleari. Nel lavoro, il fango contenente Sr è stato simulato e quindi riciclato in modo pulito in stronzianite di elevata purezza con nanoparticelle di ematite come sottoprodotto tramite un nuovo percorso di precipitazione dell’ematite.

Ciclo biogeochimico

Il ciclo biogeochimico dello stronzio è stato studiato fin dagli ultimi anni ’40 del secolo scorso da Howard T. Odum all’Università di Yale (USA). Karin E. Limburg ha pubblicato, nel 2004, una review dei suoi lavori [3], includendo uno schema dei flussi, del 1951, che viene riproposto in figura 8.

Figura Ciclo biogeochimico dello stronzio nel 1951 [3]

Più recentemente, Antoine Boyer ha pubblicato il seguente schema del ciclo biogeochimico dello stronzio [4]:

Figura Schema del ciclo biogeochimico di A. Boyer

Per leggere i riquadri fare click sul link nel rif. [4].

Opere consultate

Handbook of Chemistry and Physics 85o Ed. p. 4, 29-30

https://en.wikipedia.org/wiki/Strontium

Bibliografia

[1] A. Bollero et al., Recycling of Strontium Ferrite Waste in a Permanent Magnet Manufacturing Plant., ACS Sustainable Chem. Eng. 2017, 5, 3243–3249.

[2] R. Bian et al., Recycling of High-Purity Strontianite and Hematite from Strontium-Bearing Sludge., ACS Omega, 2020, 5, 14078–14085.

[3] K.E. Limburg, The Biogeochemistry of Strontium: a review of H.T. Odum’s contributions., Ecological Modelling, 2004, 178, 31–33.

[4] A. Boyer, Strontium Cycle, 29 ottobre 2015, https://prezi.com/f5u0jzfjhkqc/strontium-cycle/

Impegno scientifico e sociale. Uscire dalla “torre d’avorio”. Aprire la finestra sul mondo

In evidenza

Vincenzo Balzani

Quando si riceve un riconoscimento, si è sempre contenti. In questo caso, lo sono in modo particolare perché è un premio che viene dall’Unesco e la motivazione stabilisce che viene assegnato in riconoscimento dei risultati raggiunti nelle scienze chimiche e dell’impegno per promuovere la collaborazione internazionale, la cultura scientifica e la necessità di uno sviluppo sostenibile.

È un premio che, anzitutto, riconosce il lavoro scientifico compiuto dal nostro gruppo di ricerca nei settori della fotochimica, chimica supramolecolare, nanotecnologia e conversione della energia solare in energia chimica. Si tratta di studi che abbiamo svolto collaborando con scienziati di molti paesi: Stati Uniti, Cina, Francia, Germania Svizzera e altre nazioni europee compresa la Russia, che è particolarmente coinvolta perché questo premio porta il nome di Dimitri Mendeleev, il chimico che ha inventato la Tavola Periodica, documento basilare della chimica moderna, come sanno tutti coloro che hanno frequentato un corso di chimica.

Fra i risultati scientifici che abbiamo ottenuto ricordo quelli che ci hanno portato a formulare un primo approccio integrato alla scissione dell’acqua in idrogeno ed ossigeno mediante l’azione della luce solare, processo che oggi viene condotto facendo l’elettrolisi dell’acqua mediante l’energia elettrica fornita dai pannelli fotovoltaici. Sviluppando e combinando assieme i concetti della fotochimica e quelli della chimica supramolecolare abbiamo creato congegni a livello molecolare capaci di trasmettere e elaborare informazioni (fili, interruttori, antenne, memorie, porte logiche, encoder, decoder) e sistemi supramolecolari che sotto l’azione della luce possono svolgere funzioni di tipo meccanico (pistone/cilindro, anelli rotanti, navetta, ascensore, scatole apribili). Sono le cosiddette “macchine molecolari” descritte in diversi nostri libri tradotti anche in cinese e giapponese e premiate nel 2016 con il conferimento del premio Nobel in Chimica a tre scienziati, con due dei quali abbiamo avuto una forte ed intensa collaborazione.

Mi sono interessato alla relazione fra scienza e pace, inserendo specificamente questo argomento nei programmi degli insegnamenti universitari di cui sono stato titolare e in un corso intitolato Scienza e Società, aperto anche alla cittadinanza. Da una ventina d’anni tengo sistematicamente seminari nelle scuole primarie e secondarie e, assieme a una ventina di colleghi dell’università di Bologna, ho costituito il gruppo energiaperlitalia con lo scopo di stabilire un dialogo aperto e costruttivo fra scienza e politica, sia a livello locale che nazionale, affinché venga riconosciuta l’urgenza della transizione energetica dai combustibili fossili alle energie rinnovabili e l’assurdità di una crescita economica che ignori i limiti fisici del pianeta Terra.

Elementi della Tavola periodica. Stronzio, Sr (1a parte)

In evidenza

Rinaldo Cervellati

Lo stronzio (simbolo Sr) è l’elemento n. 38 della Tavola Periodica, posto al 2° gruppo, 5° periodo sotto il calcio, sopra al bario, a sinistra del rubidio. È un metallo alcalino terroso, morbido, di colore bianco-argento giallastro, altamente chimicamente reattivo. Fra gli elementi è al 15° posto come abbondanza, stimata in 360 ppm nella crosta terrestre.

Lo stronzio prende il nome dal villaggio scozzese di Strontian (gaelico Sròn an t-Sìthein), dove fu scoperto nei minerali delle miniere di piombo. Nel 1790, Adair Crawford (1748-1795), un medico e chimico impegnato nella preparazione del bario, e il suo collega William Cruickshank (?-1810/11), chirurgo militare e chimico, riconobbero che i minerali strontiani mostravano proprietà che differivano da quelle di altre fonti “pesanti”.  Ciò permise a Crawford di concludere: “… è probabile infatti che il minerale scozzese sia una nuova specie di terra che non è stata finora sufficientemente esaminata”. Il medico e collezionista di minerali tedesco Friedrich Gabriel Sulzer (1749-1830) analizzò insieme a Johann Friedrich Blumenbach (1742-1840) il minerale di Strontian e lo chiamò stronzianite. Giunse anche alla conclusione che era distinto dalla witherite e conteneva una nuova terra (neue Grunderde).  Nel 1793 Thomas Charles Hope (1766-1844), professore di chimica presso l’Università di Glasgow, studiò il minerale e propose il nome stronzite. Confermò il precedente lavoro di Crawford e raccontò: “…Considerandolo una terra particolare, ho ritenuto necessario dargli un nome. L’ho chiamato Stronzite, dal luogo in cui è stato trovato; un modo di derivazione secondo me, pienamente appropriato come qualsiasi qualità che possa possedere, che è la moda attuale”. L’elemento fu infine isolato da Sir Humphry Davy nel 1808 mediante l’elettrolisi di una miscela contenente cloruro di stronzio e ossido di mercurio, e da lui annunciato in una conferenza alla Royal Society il 30 giugno 1808. In linea con la denominazione delle altre terre alcaline, ha cambiato il nome in strontium (stronzio).

Sir Humphry Davy

Caratteristiche fisiche

Lo stronzio è un metallo bivalente argenteo con colore giallo pallido le cui proprietà sono per lo più intermedie e simili a quelle del suo gruppo, essendo vicino al calcio e al bario. È più morbido del calcio e più duro del bario (figura 1).

Figura 1. Campione di stronzio metallico

I suoi punti di fusione (777 ° C) e di ebollizione (1377 °C) sono inferiori a quelli del calcio (842 °C e 1484 °C rispettivamente); il bario continua questa tendenza al ribasso nel punto di fusione (727 °C), ma non nel punto di ebollizione (1900 °C). La densità dello stronzio (2,64 g/cm3) è analogamente intermedia tra quelle del calcio (1,54 g/cm3) e del bario (3,594 g/cm3). Esistono tre allotropi di stronzio metallico, con punti di transizione a 235 e 540 ° C.

Lo stronzio naturale è una miscela di quattro isotopi stabili: 84Sr, 86Sr, 87Sr e 88Sr. La loro abbondanza aumenta con l’aumentare del numero di massa e il più pesante, 88Sr, costituisce circa l’82,6% di tutto lo stronzio naturale, sebbene vari a causa della produzione di 87Sr radiogenico come figlio del 87Rb a decadimento beta longevo.  Sono noti diversi isotopi artificiali. Di particolare rilievo sono 89Sr e 90Sr. Il primo ha un’emivita di 50,6 giorni ed è usato per trattare il cancro alle ossa a causa della somiglianza chimica dello stronzio al calcio e quindi della sua capacità di sostituirlo. Mentre 90Sr (emivita 28,90 anni), che è stato utilizzato in modo simile, è anche un isotopo preoccupante per la ricaduta in armi nucleari e incidenti nucleari a causa della sua produzione come prodotto di fissione.

Proprietà chimiche e composti

Il potenziale dell’elettrodo standard per la coppia Sr2+/Sr è −2,89 V, circa a metà strada tra quelli delle coppie Ca2+/Ca (−2,84 V) e Ba2+/Ba (−2,92 V), e vicino a quelli dei metalli alcalini. Lo stronzio è intermedio tra il calcio e il bario nella sua reattività verso l’acqua, con la quale reagisce al contatto per produrre idrossido di stronzio e idrogeno gassoso. Il metallo di stronzio brucia nell’aria per produrre sia ossido di stronzio sia nitruro di stronzio, ma poiché non reagisce con l’azoto sotto i 380 °C, a temperatura ambiente forma spontaneamente solo l’ossido. Oltre al semplice ossido SrO, il perossido SrO2 può essere prodotto per ossidazione diretta dello stronzio metallico sotto un’alta pressione di ossigeno. L’idrossido di stronzio, Sr(OH)2, è una base forte, sebbene non come gli idrossidi del bario o i metalli alcalini. Si conoscono tutti e quattro i dialogenuri dello stronzio.

A causa delle grandi dimensioni degli elementi pesanti del blocco s, compreso lo stronzio, è nota una vasta gamma di numeri di coordinazione, da 2, 3 o 4 fino a 22 o 24 in SrCd11 e SrZn13. Lo ione Sr2+ è abbastanza grande, quindi i numeri di coordinazione elevati sono la regola. Le grandi dimensioni di stronzio e bario svolgono un ruolo significativo nello stabilizzare i complessi di stronzio con ligandi macrociclici polidentati come gli eteri corona: ad esempio, mentre 18-corona-6 forma complessi relativamente deboli con calcio e metalli alcalini, i suoi complessi di stronzio e bario sono molto più forti.

I composti organostronzio contengono uno o più legami stronzio-carbonio. Sono stati segnalati come intermedi nelle reazioni di tipo Barbier[1]. Sebbene lo stronzio appartenga allo stesso gruppo del magnesio e i composti di organomagnesio siano comunemente usati in tutta la chimica, i composti di organostronzio non sono altrettanto diffusi perché sono più difficili da produrre e più reattivi. Ad esempio, lo stronzio diciclopentadienile, Sr(C5H5)2, deve essere prodotto facendo reagire direttamente lo stronzio metallico con il ciclopentadiene in presenza di  mercurocene; la sostituzione del ligando C5H5 con il più voluminoso ligando C5(CH3)5 d’altra parte aumenta la solubilità, la volatilità e la stabilità cinetica del composto.

A causa della sua estrema reattività con l’ossigeno e l’acqua, lo stronzio si trova naturalmente solo nei composti con altri elementi, come nei minerali stronzianite e celestino.

È tenuto sotto un idrocarburo liquido come olio minerale o cherosene per prevenire l’ossidazione. Lo stronzio metallico appena esposto all’aria assume rapidamente un colore giallastro per la formazione dell’ossido; finemente polverizzato è piroforico, il che significa che si accenderà spontaneamente nell’aria a temperatura ambiente. I sali volatili di stronzio conferiscono un colore rosso vivo alle fiamme, quindi questi sali sono usati nella pirotecnica e nei combustibili per razzi.

Disponibilità e produzione

Lo stronzio in combinazione è molto comune in natura, essendo il quindicesimo elemento più abbondante sulla Terra (il suo più pesante congenere, il bario, è 14°) e si trova principalmente nei minerali celestina (solfato di stronzio, SrSO4) e stronzianite (carbonato di stronzio, SrCO3), (figura 2). Dei due, il celestino si trova molto più frequentemente in depositi di dimensioni sufficienti per l’estrazione mineraria.

Figura 2. Celestina (sopra), stronzianite (sotto)

Poiché lo stronzio è usato più spesso sotto forma di carbonato, la stronzianite sarebbe il più utile dei due minerali comuni, ma sono stati scoperti pochi depositi adatti allo sviluppo.  A causa del modo in cui reagisce con l’aria e l’acqua, lo stronzio esiste in natura solo se combinato per formare minerali.

Nelle acque sotterranee si comporta chimicamente in modo molto simile al calcio. A pH da intermedio ad acido, Sr2+ è la specie di stronzio dominante. In presenza di ioni calcio forma comunemente coprecipitati con minerali di calcio come calcite e anidrite ad un elevato pH. A pH da intermedio ad acido, lo stronzio disciolto si lega alle particelle del suolo mediante scambio cationico.

Il contenuto medio di stronzio nell’acqua dell’oceano è di 8 mg/L. A una concentrazione compresa tra 82 e 90 µmol/ L è notevolmente inferiore a quella del calcio, che normalmente è compresa tra 9,6 e 11,6 mmol/L. Tuttavia è molto più alta di quella del bario, 13 μg/L.

I tre maggiori produttori di celestina nel 2015 sono stati Cina (150.000 t), Spagna (90.000 t) e Messico (70.000 t); Argentina (10.000 t) e Marocco (2.500 t) sono produttori minori (figura 3). Sebbene i depositi di stronzio siano ampiamente presenti negli Stati Uniti, non sono stati estratti dal 1959.

Figura 3. Produttori mondiali di celestina (2014)

Una grande percentuale della celestina estratta (SrSO4) è convertita in carbonato mediante due processi. O la celestina viene lisciviata direttamente con una soluzione di carbonato di sodio oppure viene arrostita con carbone per formare il solfuro. Il secondo processo forma un materiale di colore scuro contenente principalmente solfuro di stronzio. Questa cosiddetta “cenere nera” è sciolta in acqua e filtrata. Il carbonato di stronzio viene precipitato dalla soluzione di solfuro di stronzio mediante l’introduzione di anidride carbonica. Il solfato viene ridotto a solfuro dalla riduzione carbotermica:

SrSO4 + 2C → SrS + 2CO2

Ogni anno circa 300.000 tonnellate vengono trattate in questo modo.

Il metallo viene prodotto commercialmente riducendo l’ossido di stronzio con alluminio. Lo stronzio viene distillato dalla miscela. Lo stronzio metallico può anche essere preparato su piccola scala mediante elettrolisi di una soluzione di cloruro di stronzio in cloruro di potassio fuso:

Sr2+ + 2e → Sr; 2Cl → Cl2 + 2e

Applicazioni

L’uso principale dello stronzio è stato nel vetro dei tubi catodici della televisione a colori (CRT), per impedire l’emissione di raggi X. Questa applicazione non è più in uso perché oggi i CRT sono sostituiti da altri tipi di display. Questo declino ha un’influenza significativa sull’estrazione e la raffinazione dello stronzio. 

Lo stronzio è oggi usato, in combinazione con la ferrite, per la fabbricazione di magneti permanenti.

Poiché è così simile al calcio, è assorbito nelle ossa. Tutti e quattro gli isotopi stabili sono incorporati, più o meno nelle stesse proporzioni in cui si trovano in natura. Tuttavia, la distribuzione effettiva degli isotopi tende a variare notevolmente da una posizione geografica all’altra. Pertanto, l’analisi delle ossa di un individuo può aiutare a determinare la regione da cui proviene. Questo approccio aiuta a identificare gli antichi modelli di migrazione e l’origine dei resti umani mescolati nei luoghi di sepoltura dei campi di battaglia.

I rapporti isotopici 87Sr/86Sr sono comunemente usati per determinare le probabili aree di provenienza dei sedimenti nei sistemi naturali, specialmente negli ambienti marini e fluviali. È stato mostrato che i sedimenti superficiali dell’Atlantico mostravano rapporti 87Sr/86Sr che potevano essere considerati come medie in massa dei rapporti 87Sr/86Sr dei terreni geologici da masse continentali adiacenti. Un buon esempio di un sistema fluviale-marino cui sono stati impiegati con successo studi sulla provenienza degli isotopi Sr è il sistema fiume Nilo-Mediterraneo.  A causa delle diverse età delle rocce che costituiscono la maggior parte del Nilo Blu e Bianco, i bacini idrografici della mutevole provenienza dei sedimenti che raggiungono il delta del fiume Nilo e il Mar Mediterraneo orientale possono essere individuati attraverso studi isotopici dello stronzio.

Più recentemente, i rapporti 87Sr/86Sr sono stati utilizzati anche per determinare la fonte di antichi materiali archeologici come legname e mais nel Chaco Canyon, New Mexico. I rapporti 87Sr/86Sr nei denti possono essere usati per monitorare le migrazioni degli animali.

L’alluminato di stronzio è spesso usato nei giocattoli che si illuminano al buio, poiché è chimicamente e biologicamente inerte.

Il carbonato di stronzio e altri suoi sali sono aggiunti ai fuochi d’artificio per conferire loro un colore rosso intenso. Questo stesso effetto identifica i cationi di stronzio nel test alla fiamma (figura 4). I fuochi d’artificio consumano circa il 5% della produzione mondiale.

Figura 4. Saggio alla fiamma per Sr.

Il cloruro di stronzio è talvolta utilizzato nei dentifrici per denti sensibili. Un popolare marchio include il 10% in peso di cloruro di stronzio esaidrato totale.

Piccole quantità sono utilizzate nella raffinazione dello zinco per rimuovere le impurità di piombo. Il metallo stesso ha un uso limitato come assorbente per rimuovere i gas indesiderati nel vuoto reagendo con essi, sebbene anche il bario possa essere utilizzato per questo scopo.

La transizione ottica ultra-stretta tra lo stato fondamentale elettronico [Kr]5s2 1S0 e lo stato eccitato metastabile [Kr]5s5p 3P0 di 87Sr è uno dei principali candidati per la futura ridefinizione dell’unità di tempo (secondo) in termini di transizione ottica, in contrasto con l’attuale definizione derivata da una transizione a microonde tra diversi stati fondamentali iperfini del 133Cs. Gli attuali orologi atomici ottici che operano su questa transizione superano già la precisione e l’accuratezza dell’attuale definizione del secondo.

L’isotopo radioattivo 89Sr è il principio attivo del Metastron, un radiofarmaco utilizzato per il dolore secondario del cancro osseo metastatico. Lo stronzio viene elaborato come il calcio dall’organismo, incorporandolo preferenzialmente nell’osso nei siti di maggiore osteogenesi. Questa localizzazione concentra l’esposizione alle radiazioni sulla lesione cancerosa.

L’isotopo 90Sr è stato utilizzato come fonte di alimentazione per generatori termoelettrici a radioisotopi (RTG). 90Sr produce circa 0,93 watt di calore per grammo, ha un terzo della durata e una densità inferiore a 238Pu, un altro carburante RTG. Il vantaggio principale di 90Sr è che è più economico di 238Pu e si trova nei rifiuti nucleari.

(continua)

Opere consultate

Handbook of Chemistry and Physics 85o Ed. p. 4, 29-30

https://en.wikipedia.org/wiki/Strontium


[1] La reazione di Barbier (chimico francese, 1848-1922) è una reazione organometallica tra un alogenuro alchilico, un gruppo carbonilico e un metallo. La reazione può essere eseguita utilizzando diversi metalli o loro sali. Il prodotto di reazione è un alcol primario, secondario o terziario. La reazione è simile alla reazione di Grignard ma la differenza cruciale è che la specie organometallica nella reazione di Barbier viene generata in situ, mentre un reagente di Grignard viene preparato separatamente.

Facciamo Rete per la Cultura Chimica

In evidenza

Giovanni VIllani

Il Progetto SCI “La Chimica: dalla scuola alla vita quotidiana”.

giovanni.villani@cnr.it

L’immagine della rete è ormai ampiamente utilizzata per la sua intrinseca forza visiva. Dall’iniziale rete materiale per pescare, si è passati ormai ad associare al termine “rete” delle cose molto più astratte, fino a Internet, la “rete delle reti”.

La rete è l’immagine metaforica di un approccio che, lasciando autonomia ai nodi, poi li metta in relazione, li connetta. La rete è intrinsecamente “democratica”, non c’è gerarchia, tutti i nodi sono sullo stesso piano, non ci sono capi. La rete connette superando i confini fisici, non riconosce differenze se non internamente ad essa. La reta dà valore alle relazioni: essa è tanto più robusta quanto più numerose sono le interconnessioni. Da supporter del calcio, mi piace ricordare che “fare rete” può anche significare “raggiungere un fine, una meta”, fare goal.

Qui noi, tuttavia, non vogliamo parlare né di Internet né di calcio, ma della cultura chimica e della necessità di costruire per essa una rete, uno stabile insieme di nodi, distribuiti spazialmente, autonomi ma connessi. Vediamo la necessità di una vera e propria Rete per la Cultura Chimica (RCC) e vorremmo provare a costruirla partendo da una bella occasione offertaci dal Bando 2020 per la Diffusione della Cultura Scientifica del MIUR.

Come ben saprete, con periodicità non facilmente decifrabile, il MIUR emana tali tipi di bandi. Alla fine dell’anno scorso, venuto a conoscenza di un Bando, mi sono attivato perché la Società Chimica Italiana ci provasse. Era un bando annuale per progetti fino a 100000 euro, finanziati all’80%.

Dopo aver trovato ampia disponibilità da parte del nostro Presidente, ho scritto da Referente per la SCI un progetto dal titolo “La Chimica: dalla scuola alla vita quotidiana”, articolato nelle tre seguenti azioni.

(a) Costruire una rete di divulgazione chimica, individuando in ogni regione italiana un nodo e collegandoli tra di loro; ogni nodo dovrebbe essere parte attiva in iniziative culturali sulla chimica e utile nel riproiettare sul territorio tali iniziative. In ogni nodo deve essere presente una scuola che faccia da capofila per l’essenziale componente scolastica.

(b) Dotare tale rete di una sua specifica piattaforma informatica che consenta di diffondere e pubblicizzare le iniziative dei singoli nodi e creare ulteriori rapporti con simili reti di altre discipline. Tale piattaforma, inoltre, consentirebbe la propagazione nel tempo di tale progetto.

(c) Creare un’iniziativa nazionale che riassuma e valorizzi le iniziative locali e che sia sufficientemente grande da dare visibilità alla cultura chimica sui media.

Sorprendentemente, il progetto è stato finanziato con il massimo possibile: 80000 euro.

Nei prossimi giorni il Progetto dovrà essere dettagliato. Proprio nella logica della rete, si accettano candidature e autocandidature.

Lasciatemi finire questo articoletto di informazione in una prospettiva più vasta e allo stesso tempo personale (della qualcosa mi scuso in anticipo). Entro dicembre ci sarà l’elezione del Presidente della Società Chimica Italiana per il triennio 2023-2025 e io sono uno dei due candidati. Io voglio incentrare il mio Programma proprio sulla Cultura Chimica e sulla necessità di creare per essa una stabile e diffusa Rete.

La SCI è la più antica società scientifica disciplinare. Nonostante la nostra storia e il nostro costante impegno, tuttavia, non possiamo dire che la Chimica goda di una bella immagine “pubblica”. Certamente la disciplina Chimica è insegnata a quasi tutti gli studenti delle Scuole Secondarie; certamente sono tanti gli indirizzi universitari che prevedono uno o più esami di Chimica. Nonostante ciò, tuttavia, non è difficile trovare ogni giorno sui media chi parla male della Chimica. Sarebbe bello pensare che sono “chiacchiere al vento” che non ci porteranno problemi, ma temo che questo non sia vero. Anche l’esempio dell’attuale pandemia, ci dovrebbe far riflettere su tutto il lavoro che deve essere fatto, a monte non nell’emergenza, per una corretta diffusione della cultura chimica, in particolare, e scientifica in generale.

Non facciamoci illusioni. Il lavoro giornaliero di diffondere una corretta idea della Chimica, dei sui concetti e delle sue applicazioni, delle sue interazioni con le altre discipline e delle sue problematiche culturali ed etiche va esplicato principalmente nelle Scuole e nelle Università. È per questo che la Divisione di Didattica lavora da sempre insieme a Scuole ed Università. Se questo lavoro non funzionasse, infatti, non ci potrebbe essere a valle nessuna altra istituzione in grado di intervenire. Rattoppare ad un abito mal confezionato, infatti, non ha mai risolto i problemi.

Nella nostra comunità non è mai mancato l’impegno e la consapevolezza sul problema dell’immagine negativa della Chimica nella società, ma, da persone di scienza, abbiamo troppo a lungo pensato che tale problema si risolvesse da solo perché non aveva nessuna consistenza razionale. Va preso atto che non è così e bisogna intensificare gli sforzi e indirizzare risorse, mentali e materiali, per operare in questa direzione. Io credo che su queste problematiche la Società Chimica Italiana debba impegnarsi in un forte e attivo lavoro.

La SCI ha un’articolazione territoriale in Sezioni regionali, prova del radicamento ubiquitario della nostra comunità. Queste Sezioni vanno coinvolte nella RCC che verrà costruita nell’ambito del progetto. Esistono, poi, all’interno della SCI altre articolazioni non rivolte a specifici settori chimici: la Divisione di Didattica (l’unica Divisione non tematica), il Gruppo per la Diffusione della Cultura Chimica, il Gruppo Giovani e quello Senior. Io credo che tutte queste articolazioni debbano essere parte attiva, oggi, nella formazioni della RCC e, domani, nel tenerla viva.

Assodato questo, noi chimici che lavoriamo con la Chimica nelle differenti professioni (siano esse la ricerca, l’industria o i servizi) non possiamo esimerci da un lavoro attivo, distribuito ma coordinato, sulla diffusione della cultura chimica e tale compito di coordinamento può farlo solamente la Società Chimica Italiana. A tale compito va affiancato per la SCI un forte impegno nell’elaborazione di idee generali, di progetti culturali nazionali come, per esempio, la rete dei musei di Chimica. È solo così che possiamo dire di aver fatto tutto il possibile per una corretta percezione della Chimica nella società.

Zanzare e chimica

In evidenza

Luigi Campanella, già Presidente SCI

Un dibattito recente fra classi di pensiero ha riguardato gli strumenti a disposizione dell’uomo per contrastare le invasioni da parte di insetti: come stabilire il rapporto fra vantaggi per la salute e danni all’ambiente quando si interviene con prodotti chImici aggressivi?

Tale dibattito in un certo periodo é stato particolarmente vivo nel.nostro Paese con riferimento alla lotta contro le zanzare. Un recente saggio dello storico canadese Winegard

Zanzare. Il più¹ micidiale predatore della storia dell’umanità

si schiera decisamente in.questa dialettica definendo la zanzara il più micidiale predatore dell’umanità.

In effetti però a volte questo predatore si è rivelato un alleato prezioso come per Napoleone per distruggere i sudditi di sua maestà la Regina di Inghilterra o come per gli Inglesi nel contrastare la lotta per l’indipendenza della Scozia o per gli Americani contro gli Inglesi durante la guerra di indipendenza o ancora per i Papi fungendo da bastione per proteggerli da possibili invasori della Stato Pontificio. Generalmente però la zanzara è sempre stata vista come un pericolo per l’uomo. Di recente anche sulla morte di Dante è sorta l’ipotesi che a procurarla sia stata la puntura di una zanzara. I crociati a causa della zanzara non riuscirono a conquistare Gerusalemme durante la terza spedizione ed analogamente fallì la colonializzazione dei Caraibi da parte degli Inglesi. Nel saggio Winegard osserva che la scienza che ha vinto tante battaglie ha perso o sta perdendo quella con la zanzara: non si trovano nuovi ritrovati efficaci tanto che nel 2018 a causa della sua puntura sono morte quasi 1 milione di persone e che un recente monitoraggio ha evidenziato che le popolazioni di zanzare sul nostro territorio godono di ottima salute. La chimica da sempre è stata chiamata in causa contro le zanzare, ma poi le azioni richieste a difesa, si sono spesso trasformate in occasioni di accuse contro la Chimica per i “veleni” diffusi. Il metodo più efficace per tenere le zanzare lontane è applicare un repellente sulla pelle o sui vestiti, se sono coprenti. Il repellente più potente contro le zanzare, anche se non l’unico efficace, è la dietiltoluamide (DEET), una sostanza chimica sviluppata dall’esercito statunitense durante la Seconda guerra mondiale e derivata dall’agricoltura, usata per tenere lontani i parassiti. Non va confusa con il DDT.

La DEET è usata in ambito civile dalla fine degli anni Cinquanta ed è ritenuta da molte ricerche scientifiche la sostanza più adatta contro le zanzare. Inizialmente si pensava che la DEET mascherasse gli odori prodotti dall’organismo impedendo quindi ai recettori delle zanzare di perceperli, ma studi più recenti hanno dimostrato che è proprio l’odore della DEET a infastidire le zanzare e ad allontanarle. Non protegge solo dalle zanzare: può essere usato anche contro mosche, pulci e zecche. La concentrazione di DEET nel repellente varia da 5 per cento (un’ora e mezza di protezione) a 100 per cento (10 ore di protezione). Queste poche notizie ci fanno capire che un fondo di verità sui dubbi circa il rapporto danno/beneficio in fondo c’è. Forse la risposta sta -come spesso avviene – nell’equilibrio gestionale di certi strumenti e di esempi, ben oltre le zanzare, se ne possono fare molti: dalle diete alimentari all’isolamento termico,dalla depurazione dell’acqua all’uso dei fitofarmaci, dalla fertilizzazione alla nutraceutica.

Il Premio Nobel 2021 per la chimica a due chimici organici

In evidenza

Rinaldo Cervellati

Sia Chemistry & Engineering news (ACS, USA) sia Nature hanno dato risalto al Premio Nobel per la Chimica 2021 ottenuto da due chimici organici sintetisti, Bemjamin List[1] e David William Cross MacMillan[2], per la scoperta dell’organocatalisi asimmetrica. L’organocatalisi asimmetrica utilizza piccole molecole organiche come catalizzatori al posto dei catalizzatori tradizionali come enzimi o metalli. Queste molecole sono in grado di catalizzare le reazioni per formare selettivamente un enantiomero di un particolare composto, cioè una versione di due molecole speculari.

Benjamin List (sopra) e David William Cross MacMillan (sotto)

Nel 2000, List e collaboratori hanno utilizzato la L-prolina per catalizzare una reazione aldolica intermolecolare (Figura 1).

Fig. 1.

Sempre nel 2000, MacMillan e collaboratori hanno dimostrato che un imidazolidinone chirale può catalizzare la reazione di Diels-Alder tra aldeidi e dieni α,β-insaturi (Figura 2).

Fig. 2

L’organocatalisi asimmetrica è una tecnica utilizzata e particolarmente importante per il processo di scoperta di farmaci. Le molecole biologicamente attive sono spesso chirali e gli organocatalizzatori forniscono un modo per produrre composti farmacologici candidati in modo rapido ed efficiente.

Il lavoro di MacMillan in questo settore è iniziato con la trasformazione di ammine in ioni di iminio e l’utilizzo degli ioni iminio per catalizzare un gran numero di reazioni organiche, inclusa la reazione iniziale di Diels-Alder. List lavorò presto con il composto chirale L-prolina e lo usò per catalizzare una reazione aldolica intermolecolare.

L’utilizzo di piccole molecole organiche come catalizzatori è simile all’imitazione degli enzimi, afferma David Nicewicz, un chimico organocatalitico dell’Università della Carolina del Nord, che ha lavorato con MacMillan come ricercatore post-dottorato oltre un decennio fa. In questo modo, il lavoro ha davvero attinto ad alcune delle basi chimiche che si possono trovare in natura.

Vy M. Dong, un chimico organico dell’Università della California a Irvine afferma: “Dave e Ben sono stati persone davvero critiche nel portare questo riconoscimento e fare scoperte che mostrano alla gente le cose che potrebbero essere possibili con quest’area di ricerca”.

Il presidente dell’American Chemical Society H. N. Cheng ha detto a C&EN: “Penso che la selezione del comitato Nobel sia una scelta eccellente perché in chimica, come sappiamo, apprezziamo la capacità di trovare nuove soluzioni e nuovi modi di sintesi. L’organocatalisi è un grande progresso e questo è un giusto riconoscimento dei loro contributi”.

Opere consultate

L.K. Boerner, Pioneers of asymmetric organocatalysis win 2021 Nobel Prize in Chemistry, C&EN,  October 6, 2021.

D. Castervecchi, E. Stoye, ‘Elegant’ catalysts that tell left from right scoop chemistry Nobel., Nature, 06 October 2021.


[1] Benjamin List (1968-), noto anche come Ben List, è un chimico organico tedesco, uno dei direttori dell’Istituto Max Planck per la ricerca sul carbonio e professore di chimica organica all’Università di Colonia.

[2] David William Cross MacMillan, (1968-) è un chimico organico scozzese-americano professore di chimica all’Università di Princeton, dove è stato anche presidente del Dipartimento di Chimica dal 2010 al 2015.

Il rapporto corretto dei nutrienti nel fango attivo.

In evidenza

Mauro Icardi

Un rapporto equilibrato dei nutrienti è la condizione necessaria perché i microrganismi che sono presenti nei fiocchi di fango attivo trovino le condizioni adatte per degradare adeguatamente gli inquinanti presenti nelle acque reflue.  In questo caso, i nutrienti più importanti sono il carbonio, l’azoto e il fosforo.

Carbonio

 Il carbonio è l’elemento principale delle sostanze organiche contenute nelle acque reflue. Viene biodegradato dai microrganismi presenti nel fango attivo in condizioni aerobiche nelle vasche areate, (zona di nitrificazione), e nell’ambiente anossico (zona di denitrificazione) . I composti del carbonio vengono utilizzati dai microrganismi per la costruzione delle strutture cellulari specifiche e per la produzione di energia.  I composti del carbonio vengono determinati principalmente attraverso l’analisi dei parametri COD e BOD5.

Il test per la determinazione del BOD5, misura l’ossigeno consumato dai microrganismi mentre ossidano e consumano la materia organica disciolta nelle acque reflue. Il test misura solo la quantità di ossigeno che viene richiesta (assorbita o consumata) dall’acqua di scarico quando viene esposta all’aria o all’ossigeno per un periodo di tempo prolungato. Le sostanze tossiche presenti nelle acque reflue possono inibire o addirittura impedire la crescita batterica, e, quindi la capacità complessiva di ossidazione della materia organica. Quando questo si verifica, il risultato del test del BOD5 è inferiore alla quantità effettiva di materia organica presente. Rimane però uno dei parametri fondamentali per la progettazione e la conduzione degli impianti di depurazione.

Azoto

All’ingresso dell’impianto di depurazione l’azoto è presente come azoto organico (N org) e sotto forma di azoto ammoniacale (NH4-N). Nella fase di ossidazione biologica l’azoto viene convertito in nitrato. La frazione dei composti di azoto che non viene totalmente biodegradata nella fase di ossidazione, viene trasformata in condizioni anossiche, cioè con concentrazione di ossigeno disciolto limitata (circa 0,5 mg/L), in azoto elementare (denitrificazione).  I composti dell’azoto vengono determinati come NH4-N, NO2-N, NO3-N e Azoto totale (N Tot).

Fosforo

Il fosforo nelle acque reflue che vengono convogliate in un impianto di depurazione è presente sotto forma di ortofosfati , polifosfati e composti organici del fosforo. Tutti insieme producono il parametro cumulativo fosforo totale (Ptot). Durante la depurazione biologica delle acque reflue, i polifosfati e il fosforo combinato in modo organico vengono trasformati in ortofosfati. Il fabbisogno di fosforo da parte dei microorganismi è dovuto al particolare ruolo che il fosforo gioca nel loro metabolismo energetico. Il fosforo è necessario per la struttura della membrana cellulare e del DNA. Solo una frazione del fosforo presente nelle acque reflue viene eliminato per via biologica (mediamente circa il 50% della quantità in ingresso). Il rimanente può essere eliminato tramite una precipitazione chimico-fisica che permette di rispettare il valore di parametro previsto prima dello scarico nel corpo idrico ricettore.

Zolfo

Acque di scarico civili, reflue e anche diverse acque di scarico industriali contengono composti ridotti (acido solfidrico, solfuro e tiosolfato). Lo zolfo è un componente indispensabile delle proteine. Negli impianti di depurazione, i composti dello zolfo vengono ossidati a solfati.

(Fiocco di fango attivo caratterizzato da proliferazione di Microtrix parvicella)

Microelementi

Altri microelementi necessari per la struttura cellulare, quali calcio, magnesio, manganese, ferro, rame, zinco, nichel nonché le vitamine sono quasi sempre presenti nelle acque reflue civili. La determinazione di questi parametri avviene tramite spettroscopia di assorbimento atomico, spettrometria di massa a plasma, oppure con l’utilizzo di kit analitici.

Il contenuto dei singoli nutrienti nelle acque reflue deve soddisfare le necessità della biomassa dei fanghi attivi e presentare un rapporto equilibrato di C, N e P. Ciò è determinante per una corretta gestione della fase di ossidazione. Nella depurazione aerobica delle acque reflue, il rapporto C: N: P dovrà essere compreso tra 100:10:1 e 100:5:1. Questo rapporto può variare per diverse ragioni.  La modifica delle attività industriali in un comparto industriale, o all’opposto per la loro riduzione o dismissione.

Le conseguenze dello sbilanciamento dei nutrienti si traducono in un’alterazione nel metabolismo della biomassa che colonizza il fango attivo, provocando il fenomeno conosciuto come bulking (o bulking sludge, cioè rigonfiamento del fango). In sostanza il fiocco di fango attivo osservato al microscopio si presenta poco compatto e rigonfio. Un fango con queste caratteristiche sedimenta con difficolta, può sfuggire facilmente dai sedimentatori secondari, peggiorando in maniera marcata la qualità dell’acqua depurata.

Science of The Total Environment Volume 712, 10 April 2020, 135795

Il ripristino del corretto rapporto di nutrienti può essere effettuato con diversi tipi di interventi tecnici.

Spesso si utilizzano miscele enzimatico batteriche presenti in commercio, ma per esempio nel caso di carenze di carbonio nella fase di denitrificazione si possono utilizzare dosaggi di sostanze economicamente sostenibili come l’acetone, il metanolo o miscele industriali di recupero (verificando con molta attenzione la presenza e la concentrazione di eventuali impurità). Le carenze di azoto e fosforo si possono correggere con sali e soluzioni di uso agronomico (acido fosforico, urea). Poiché i dosaggi non sono facilmente teorizzabili, saranno necessarie prove di laboratorio seguite se possibile da prove su impianto pilota.

Una coppia di plastiche riciclabili

In evidenza

Rinaldo Cervellati

In luglio e agosto sono apparsi su Chemistry & Engineering news due articoli su polimeri facili da riciclare. Ne riporto qui una traduzione debitamente adattata.

Realizzazione di un polimero riciclabile con una struttura ad anello

Anche se molte materie plastiche sono riciclabili, la maggior parte non viene riciclata a causa del costo e della manodopera necessari. Per rendere più facile il riciclaggio della plastica, i chimici intendono trovare nuovi polimeri che richiedono meno lavoro per essere riutilizzati, ma che abbiano le stesse proprietà meccaniche e fisiche che rendono utili le comuni plastiche.

Per raggiungere quest’obiettivo, Junpeng Wang e il suo gruppo dell’Università di Akron (Ohio, USA) hanno sviluppato un polimero che si può scomporre in monomeri e quindi riassemblare per essere riutilizzato [1]. Questi composti sono altamente versatili, nel senso che i chimici possono modificare le loro proprietà cambiando i gruppi funzionali sulla catena principale del polimero. A causa di questa variabilità, i ricercatori pensano che questi polimeri potrebbero trovare molteplici usi, anche come plastiche o gomme.

Junpeng Wang

Wang e collaboratori hanno sintetizzato polimeri da monomeri di cicloottene, con un anello di ciclobutano a quattro membri unito all’anello di otto membri (Fig. 1).

Figura 1

I chimici possono polimerizzare il composto cicloottene al di sotto della temperatura ambiente con una resa del 67% e quindi riportare il 90% del monomero a 50 °C, utilizzando lo stesso catalizzatore al rutenio. Dice Wang: ”La reazione è controllata dalla concentrazione: a alta concentrazione, si forma il polimero e a bassa concentrazione, si forma il monomero. Il polimero è stabile fino a 370 ° C e polimerizzerà o depolimerizzerà solo quando è presente il catalizzatore Ru.”

Questi polimeri reversibili hanno una struttura carbonio-carbonio, il che significa che la loro resistenza, elasticità e stabilità termica sono paragonabili a quelle delle attuali materie plastiche, come il polietilene. Per creare i legami carbonio-carbonio da monomeri con doppi legami, il gruppo ha utilizzato una reazione chiamata polimerizzazione metatesi con apertura dell’anello. Se i monomeri contenessero solo il cicloottene, l’energia dovuta alla deformazione dell’anello sarebbe sufficientemente elevata da impedire al polimero di riciclarsi in monomeri, rendendo la reazione irreversibile. Wang sostiene che l’aggiunta di ciclobutano al cicloottene modifica l’energia sia del monomero sia del polimero e rende reversibile la reazione di polimerizzazione.

Afferma Wang: “La tensione dell’anello è davvero un termine relativo”. In sostanza, è la differenza di energia tra la forma ciclica chiusa del monomero e la forma polimerizzata aperta che determina se la reazione è reversibile o meno. Attraverso studi computazionali, il gruppo ha scoperto che il ciclobutano blocca il polimero e il monomero in configurazioni simili, in modo che entrambe le forme abbiano energie comparabili. Dice Wang: “Il ciclobutano non riduce la tensione dell’anello del cicloottene stesso, ma in realtà aumenta l’energia del polimero. Poiché una forma non è più stabile dell’altra, la reazione di polimerizzazione diventa reversibile”.

La produzione di poliolefine riciclabili è una sfida enorme e l’approccio di Wang è molto promettente, afferma Colleen Scott, chimico dei polimeri presso la Mississippi State University. La prospettiva di definire le proprietà dei polimeri riciclabili in modo che corrispondano a quelle degli attuali polimeri commerciali è particolarmente entusiasmante.

Il gruppo di Wang ha scoperto questo polimero reversibile durante la pandemia di COVID-19, quando i laboratori di chimica di tutto il mondo erano chiusi. Incapace di lavorare sulle reazioni di sintesi in laboratorio, Wang e il suo team si sono concentrati su studi computazionali sull’anello in una serie di ciclootteni. Uno studente ha scoperto che un composto di cicloottene fuso con ciclobutano pubblicato in precedenza aveva una deformazione dell’anello sorprendentemente bassa. “Non potevo crederci“, dice Wang. “L’ho ripetuto io stesso diverse volte e ogni volta ci ha dato una tensione dell’anello molto bassa.” Il gruppo si è reso conto che questo polimero, che già avevano, doveva subire una depolimerizzazione: “L’abbiamo testato e ha funzionato molto bene”.

Un polimero da imballaggio semplice da riciclare

Un modo per incoraggiare il riciclaggio è produrre plastica da polimeri che possono essere riciclati chimicamente o scomposti in monomeri che possono essere recuperati e trasformati in nuovi polimeri. Alla riunione dell’autunno 2021 dell’American Chemical Society, il chimico della Cornell University, Geoffrey W. Coates, ha presentato un polimero che può essere scomposto in monomeri e recuperato da una miscela di materie plastiche.

Geoffrey W. Coates

Parlando in una sessione della Divisione di chimica dei polimeri, Coates ha fatto notare che il polimero poliacetale, utilizzato negli imballaggi, è stabile fino a 325 °C. Tuttavia, una volta che i ricercatori combinano questa plastica con un forte catalizzatore acido e la riscaldano a una temperatura superiore a 73 °C, il polimero si scompone nei suoi costituenti monometrici, Fig. 2.

Figura 2

I monomeri, tra cui 1,3-diossolano e derivati, sono liquidi a questa temperatura. Ciò rende facile separare i monomeri da una miscela di materiali che non si decompongono in queste condizioni.

Brooks A. Abel, un chimico dei polimeri dell’Università di California, a Berkeley, che ha contribuito a sviluppare la nuova plastica, afferma di aver sperimentato a casa i contenitori per il riciclaggio.

Brooks A. Abel

Il gruppo ha tritato questo mix di plastica, che conteneva ancora etichette, colle, e probabilmente un po’ di Gatorade, e l’hanno posto in un pallone con un catalizzatore fortemente acido, riscaldando poi sopra 73 oC, riuscendo a distillare fino al 98% del monomero [2].

Quindi il polimero dopo l’utilizzo come materiale di imballaggio potrebbe essere raccolto, scomposto in monomeri e quindi riutilizzato nella stessa fabbrica che lo produce.

Il polimero può essere riciclato chimicamente solo se riscaldato in presenza di un acido forte, ha affermato Coates.

Non solo il polimero è facile da riciclare, ha affermato, ma si possono anche controllarne le proprietà meccaniche valutando attentamente le lunghezze dei polimeri. La chiave è stata l’aggiunta di una trappola protonica piridinica per catturare l’acqua in eccesso dalla reazione. L’acqua può fermare la polimerizzazione prima che le catene polimeriche raggiungano la lunghezza desiderata. Per collegare i monomeri, viene usato un catalizzatore di ioduro di indio che strappa un anione bromuro dall’estremità della catena, creando un carbocatione. Questa specie reattiva attacca quindi un altro monomero, aggiungendolo all’estremità della catena. Inoltre, il materiale monomerico 1,3-diossolano è un solvente comunemente usato che può essere facilmente ottenuto da glicole etilenico e formaldeide, due molecole che sono molto abbondanti.

Craig Hawker, di Scienza dei Materiali all’Università della California, Santa Barbara, ha definito la ricerca rivoluzionaria. Ha affermato: “questo lavoro sfrutta un approccio innovativo: combinare blocchi di costruzione noti e starter commerciali con un nuovo catalizzatore di indio per produrre materiali ad alto peso molecolare“. Il metodo di depolimerizzazione è un importante passo avanti e consente un ciclo di vita sostenibile e circolare, ha anche detto Hawker.

Coates e il suo team stanno attualmente lavorando per determinare se il polimero è biodegradabile e per ottimizzare la reazione di polimerizzazione con un catalizzatore allo zinco, poiché il metallo è più abbondante e meno costoso dell’indio.

Opere consultate

L. K. Boerner, Chemists make a recyclable polymer with the help of ring strain.,Chem. Eng. News,

July 23, 2021

L. K. Boerner, Potential packaging polymer simple to recycle., Chem. Eng. News, August 25, 2021.

Bibliografia

[1] D. Sathe et al., Olefin metathesis-based chemically recyclable polymers enabled by fused-ring monomers., Nat. Chem. 13, 743–750 (2021). https://doi.org/10.1038/s41557-021-00748-5

[2] Brooks A. Abel, Rachel L. Snyder, Geoffrey W. Coates, Chemically recyclable thermoplastics from reversible-deactivation polymerization of cyclic acetals.,Science,  2021, 373 (6556), 783-789

DOI: 10.1126/science.abh0626

Recensione – Oltre la fragilità di Antonio Calabrò

In evidenza

Luigi Campanella, già Presidente SCI

ANTONIO CALABRO’

OLTRE LA FRAGILITA’

LE SCELTE PER COSTRUIRE LA NUOVA TRAMA DELLE RELAZIONI ECONOMICHE E SOCIALI

ed. UBE pag 208 euro 16.15

Alla ricerca di qualche lato positivo pure nelle situazioni più drammatiche nel nuovo saggio di Antonio Calabrò “Oltre la fragilità” si evidenzia come dinnanzi al pericolo virale ed alla connessa pandemia si sia registrata una crescita della fiducia nella scienza e della conoscenza dei meccanismi sanitari e sociali.

Questo è un cambiamento-dice l’autore-rispetto al pre covid quando l’informazione degradata dalle fake news e dalle incompetenze di giudizio aveva spesso dato la sensazione di divenire il punto di riferimento.della nostra società. Dunque se di nuovo si considera la scienza un.bene comune ciò richiede investimenti pubblici di grande respiro e di lungo periodo su formazione,ricerca,innovazione e trasferimento tecnologico, orientando in questa direzione parte significativa della quota del Recovery Fund che spetterà all’Italia.

C’è poi il tema dell’economia.Abbiamo vissuto per anni nella convinzione che il trend positivo non si sarebbe arrestato e che quello che viviamo è, per dirla con Voltaire “il migliore dei mondi possibili”.Oggi ci siamo convinti che così non.è, che non ci sono nè vincitori nè vinti il che obbliga a reinventare le regole e l’autore si cimenta anche nella definizione di un algoritmo che deriva da una sorta di illuminismo digitale. Il crollo percentuale del PIL stimato dalla Banca d’italia al -9% e il crollo dei consumi valutato in 84 miliardi, il 5% del PIL sono i dati obbiettivi dei danni subiti dalla pandemia. L’intervento pubblico però non.deve rappresentare un condizionamento alle strategie di impresa da qui la scelta delle forme di intervento: finanziamento a fondo perduto non solo credito; rimborsi nel lungo periodo, governance indipendente ed autorevole per riportare l’impresa dentro il mercato, un mercato però che richiede una riconsiderazione da parte della politica per contrastarne alcuni fallimenti. Il farmaceutico italiano, pure criticato per certe delocalizzazioni, merita questa attenzione con una produzione di oltre 30 miliardi di euro, pure nelle difficoltà strutturali ben rappresentate dalla % di energia primaria consumata in Italia proveniente dall’estero e pari all’80%. Un’ancora a cui aggrapparsi è di certo la cultura con le imprese di questo settore che valgono quasi 100 miliardi, che occupano 1.5 milioni di persone e che per un terzo investono in sostenibilità.

È vero che in alcuni sorge il sospetto di un impegno interessato: a parte che non si può colpevolizzare un’impresa che valuta in primis le ricadute economiche delle sue politiche. C’è poi la oggettiva difficoltà a valutare queste attività. In molte sedi si tende a finalizzare la valutazione confinandola alla contrapposizione fra economia ed ecologia dimenticando che i valori delle due entità si intrecciano in modo complesso a causa della mancanza di normalizzazione fra la scala economica e quella ecologica. Si stanno in questa direzione compiendo dei passi in avanti: ad esempio l’inquinamento da traffico è stato valutato in 1450 euro /anno di danno economico per ogni italiano; ed ancora una tonnellata di CO2 è stata valutata 50 euro al relativo mercato. Un altro problema nasce dalla mancanza di indicatori della sostenibilità.Ne sono stati proposti tanti: % di materie prime secondarie rispetto alle primarie, impronta ecologica, cinetica di crescita del verde o della raccolta differenziata. Nessuna soddisfa completamente e la ricerca è aperta: la Chimica potrebbe contribuire forse più di quanto noi stessi pensiamo.