L’invenzione dell’acciaio “senza macchia”.

Claudio Della Volpe

L’uso del ferro fa parte della preistoria umana; ne abbiamo parlato altrove (vedi anche qui e qui).

La situazione è diversa per una sua lega basilare, l’acciaio, che ha una storia molto più complessa.

A causa del metodo con cui i fabbri del passato convertivano il minerale di ferro in un materiale utilizzabile, il ferro assorbiva una piccola quantità di carbonio. La quantità assorbita era di circa lo 0,05% di carbonio, e in effetti aiutava a mantenere il metallo malleabile mentre era caldo, e gli dava una maggiore resilienza dopo essere stato modellato. Il ferro battuto, è stato uno dei metalli più utilizzati per un periodo compreso tra 3000 e 3500 anni, fino alla comparsa della ghisa.

La ghisa poteva essere prodotta solo a temperatura elevata, i cui livelli non potevano essere raggiunti nella fucina di un fabbro, quindi doveva essere realizzata in un altoforno, il che avvenne tra il 12 ° e il 15 ° secolo (durante l’oscuro medioevo dunque). Il calore di un altoforno causa effettivamente la fusione del ferro, piuttosto che renderlo morbido e poroso, il che a sua volta gli consente di assorbire livelli molto maggiori di carbonio. I livelli di carbonio nella ghisa potevano raggiungere ovunque dal 2% al 4,5%, e una volta indurito era molto duro, ma d’altra parte era anche relativamente fragile e poteva essere incrinato o addirittura frantumato.

L’acciaio è essenzialmente un equilibrio tra i due tipi di ferro. Viene prodotto in un altoforno, come la ghisa, ma viene lavorato per ridurre il livello di carbonio tra lo 0,2 e l’1,5%. Ossia l’acciaio beneficia della durezza della ghisa senza soffrire della sua fragilità. A causa di tutte le sue qualità, oltre alle difficoltà della sua fabbricazione, l’acciaio era inizialmente molto caro da produrre e poteva essere fatto solo in piccole quantità, e questo è stato il caso fino al 19 ° secolo.

Abbiamo già raccontato questa storia. Nonostante le numerose complessità della sua fabbricazione, ci sono stati casi di acciaio prodotto accidentalmente nel corso della storia. Uno di questi esempi potrebbe essere quello che è diventato noto come Damasco, Saracen o Wootz Steel, che è stato generalmente utilizzato nello sviluppo di spade e coltelli. L’acciaio Wootz veniva utilizzato in India all’inizio del 300 a.C. e altrove, forse alla fine del 1700 d.C., e le armi realizzate con il materiale erano caratterizzate da alti livelli di durata e resistenza, nonché da un’estrema affilatura, che si diceva fosse in grado di tagliare le spade di ferro standard, oltre a tagliare un capello in due se dovesse cadere attraverso la lama, anche se questa era probabilmente un’esagerazione.

Ne abbiamo parlato per esempio qui.

In questo post parleremo dell’acciaio cosiddetto inossidabile, una lega di ferro e cromo (ma anche di altri componenti fra cui il nickel) che ha proprietà veramente utili ed interessanti, specie in una civiltà come la nostra che ha preso coscienza della importanza del riciclo, ma anche della durata degli oggetti e dei materiali.

Si tratta di una invenzione che non dobbiamo ad uno scienziato di mestiere ma ad un operaio che studiò il problema; Harry Brearley, nato nel 1871 a Sheffield in una famiglia operaia; Harry studiò fino a 12 anni e poi iniziò a lavorare in fonderia dove già lavorava il padre prima di lui. Entrò come assistente nel laboratorio di analisi della sua fabbrica. E poi studiò sia privatamente che in una scuola regolare specializzandosi nei metodi di produzione ed analisi dell’acciaio. A trent’anni era conosciuto come una persona molto esperta nei problemi di produzione dell’acciaio.

Quando nel 1908 le due principali fabbriche di acciaio di Sheffield si accordarono nel fondare un laboratorio per lo studio e la ricerca sui temi dell’acciaio (Brown Firth Laboratories) ad Harry fu affidato il compito di studiare una nuova lega che resistesse alla corrosione nelle canne dei fucili; le canne a causa delle condizioni di temperature e di sollecitazione andavano incontro a seri problemi di corrosione ed erosione. Harry iniziò un ampio lavoro su base empirica e notò in uno dei suoi campioni l’assenza di corrosione dopo essere stato esposto ad acqua ed aria.

 Questo lo portò a produrre per la prima volta nel 1913 un nuovo materiale che egli denominò “rustless steel” acciaio inossidabile. Si trattava di un campione cui era stato aggiunto del cromo. Ma il nome con cui è conosciuto nei paesi anglosassoni è stainless steel, ossia acciaio senza macchia e quel nome fu suggerito da un costruttore di coltelli, Ernest Stuart della R.F. Moseley’s, una fabbrica di coltelleria. La ricerca, interrotta a causa della guerra, fu ripresa nel 1920, ma sotto la direzione di un ‘altra persona, W. H. Hatfield. Al quale è attribuito lo sviluppo nel 1924, della tipologia di acciaio inossidabile più comune il 18/8 in cui oltre al cromo è presente una percentuale di Nickel

Brearley lasciò il laboratorio per disaccordi sul brevetto, ma non abbandonò il settore  ed entrò in una altra azienda la Brown Bayley’s Steel Works, dove ebbe modo di estendere il campo di applicazione del nuovo acciaio non solo alle applicazioni ad alta temperatura ma anche a quelle più comuni, oggetti per l’uso di massa come le posate e la coltelleria di casa o anche oggetti legati alla produzione industriale. Brealey morì nel 1948, ma fondò prima di morire una fondazione, la Fresh Gate foundation (che ancora esiste) che aveva lo scopo di dare nuove opportunità a chi come lui era nato senza la possibilità di studiare.

Alcuni nuovi settori erano particolarmente indicati per il nuovo acciaio; tra gli anni 1919 e 1923, l’uso dell’acciaio inossidabile fu adattato alla produzione di bisturi chirurgici, strumenti e posate a Sheffield. Nei primi anni 1920, furono testate una varietà di combinazioni di cromo e nichel. Nel 1925, un serbatoio in acciaio inossidabile fu utilizzato per immagazzinare l’acido nitrico, stabilendo così il fatto della resistenza alla corrosione di questo metallo unico. Nel 1926 furono eseguiti i primi apparati chirurgici in acciaio inossidabile. L’aspetto igienico dell’acciaio inossidabile fu definitivamente dimostrato nel 1928 quando il primo recipiente di fermentazione in acciaio inossidabile fu utilizzato per produrre birra.

Da allora l’industria alimentare e delle bevande ha ampiamente utilizzato questo metallo per le sue proprietà igieniche.

Nel 1930, il primo treno in acciaio inossidabile fu costruito negli Stati Uniti. E l’anno dopo il primo aereo in acciaio inossidabile. Nel 1935, i lavelli da cucina in acciaio inossidabile erano già ampiamente utilizzati.

Ma l’acciaio inossidabile entrò di forza anche in altri insospettabili settori. L’acciaio inossidabile tipo 430 (lega di cromo ferritico) fu utilizzato per realizzare un filo di 0.1 mm di diametro per una macchina di registrazione vocale. Nel 1954 fu prodotta la prima telecamera subacquea in acciaio inossidabile. Nel 1966 fu completata in Francia la prima centrale mareomotrice con pale di turbina in acciaio inossidabile. Nel 1980, l’acciaio inossidabile è stato utilizzato per costruire la barriera di inondazione mobile più lunga del mondo, sul Tamigi.

OLYMPUS DIGITAL CAMERA

 La barriera sul Tamigi contro le inondazioni.

La produzione globale di acciaio inossidabile ha raggiunto i 31 milioni di ton nel 2010 e i 52 nel 2019, entrando sempre più nella nostra vita quotidiana. Nel 2010 la Cina, primo produttore mondiale di acciaio e di acciaio inossidabile, ha prodotto circa 11 milioni di lavatrici con tamburi in acciaio inossidabile.

Ma perché l’acciaio inossidabile è tale?

Una spiegazione semplice è la seguente. Nichel, molibdeno, niobio e cromo migliorano la resistenza alla corrosione dell’acciaio inossidabile. È l’aggiunta di un minimo del 12% di cromo all’acciaio che lo rende resistente alla ruggine. Il cromo nell’acciaio si combina con l’ossigeno nell’atmosfera per formare uno strato sottile e invisibile di ossido contenente cromo, chiamato film passivo. Le dimensioni degli atomi di cromo e dei loro ossidi sono simili, quindi si impacchettano ordinatamente insieme sulla superficie del metallo, formando uno strato stabile spesso solo pochi atomi. Se il metallo viene tagliato o graffiato e il film passivo viene interrotto, si formerà rapidamente più ossido e recupererà la superficie esposta, proteggendola dalla corrosione ossidativa. Il ferro, d’altra parte, si arrugginisce rapidamente perché il ferro atomico è molto più piccolo del suo ossido, quindi l’ossido forma uno strato sciolto piuttosto che compatto e si sfalda. Il film passivo richiede ossigeno per autoripararsi, quindi gli acciai inossidabili hanno una scarsa resistenza alla corrosione in ambienti a basso contenuto di ossigeno e scarsa circolazione. Un caso importante è nell’acqua di mare, i cloruri del sale attaccheranno e distruggeranno il film passivo più rapidamente di quanto possa essere riparato in un ambiente a basso contenuto di ossigeno.

L’ultima nota di questo post è il fatto che l’acciaio inossidabile è uno dei materiali più riciclati al mondo, a dimostrazione che la Chimica ha il riciclo dei materiali nel proprio DNA.

Vedi anche:

https://en.wikipedia.org/wiki/Harry_Brearley

https://www.austenknapman.co.uk/blog/history-of-metal/a-huge-accident-the-story-of-stainless-steel-discovery/

https://www.azom.com/article.aspx?ArticleID=8307

Ripristinare la Natura.

Luigi Campanella, già Presidente SCI

Il Parlamento Europeo ha approvato la legge per il RIPRISTINO DELLA NATURA secondo cui i Paesi Europei entro il 2030 sono impegnati ad iniziative che restituiscano alla natura (aree terrestri e marine) il 20% della superficie che le è stata sottratta a scopi meramente speculativi e produttivi. Questo vorrà dire aumentare il verde e le capacità di restaurazione delle ferite inferte dall’uomo alla natura, potere fare crescere il patrimonio arboreo indispensabile strumento contro l’effetto serra ed i cambiamenti climatici, ridurre l’inquinamento agricolo. Queste sono le ragioni che devono spingere all’attuazione convinta di questo impegno che però merita qualche riflessione.

Si ripropone quanto avvenuto per l’inquinamento: dimenticato in periodi di boom, poi drammaticamente riconsiderato ed oggi osteggiato e limitato per i Paesi in via di sviluppo che stanno ripercorrendo quell’iter che i Paesi industrializzati hanno ormai compiuto. Se oggi possiamo permetterci una direttiva come quella di cui sopra è perché abbiamo vinto la fame ed è perché l’agricoltura ha trovato alternative, anche economiche, per lo sviluppo, in un delicato equilibrio con l’industria ed il terzo settore. Con riferimento alla fame del mondo scelte del tipo di quella Europea sono improponibili ad esempio per molti Paesi Africani: le aree coltivabili sono quelle che sono, per ridurre la fame, a meno che non ci si orienti sugli OGM, ma il discorso si complica, possiamo solo renderle più produttive, contrastarne le malattie o aumentarne la superficie rendendo così incompatibile per la vita stessa dei cittadini di questi Paesi tale linea. Questo significa che l’Europa, da apprezzare per la sua scelta coraggiosa, non può dissociare tale scelta da almeno due altri impegni.

Sostegno tecnologico alle economie più povere consentendo loro di sviluppare una agricoltura 4.0 che possa coesistere con la protezione dell’ambiente ed il rispetto della natura, al tempo stesso fornendo le risorse agroalimentari per contrastare la fame nel mondo.

Sostegni alla Ricerca Scientifica per sviluppare, trasferire e condividere tecnologie innovative con le quali le produzioni agricole, non solo procedano senza danneggiare la natura e l’ambiente, ma anzi con ragionati cicli di insediamenti di colture diverse, possano contribuire ad un miglioramento della qualità ambientale e della produttività del suolo

Per una breve illustrazione tecnica della legge si veda:

https://www.consilium.europa.eu/it/policies/nature-restoration/

https://www.wired.it/article/natura-legge-ripristino-europa/

Tornano i problemi di due secoli fa.

Secondo uno studio pubblicato sulla rivista “ Nature Water”  il 17 Luglio scorso, circa 5,5 miliardi di persone in alcune zone del mondo potrebbero vedere in futuro un deciso peggioramento della qualità delle loro acque.

Secondo le stime delle Nazioni Unite, due miliardi di persone nel mondo hanno già difficoltà ad accedere all’acqua potabile. Negli ultimi decenni, l’Asia orientale e la regione del Pacifico hanno registrato il maggior inquinamento delle acque superficiali, a causa del boom dell’industrializzazione e della popolazione che ha portato a una crescente domanda di acqua. In alcune  zone di questi continenti  non vi sono le infrastrutture adatte per una corretta gestione del ciclo idrico. In altre parole non  si hanno a disposizione impianti adatti ed efficienti per la potabilizzazione e il successivo trattamento delle acque reflue.

Figura 1Fiume Tiete in Brasile ricoperto da schiume da tensioattivi ( 07/07/23)

Lo studio ha simulato e modellizzato la  qualità delle acque di superficie in base a tre diversi scenari che comprendono l’evoluzione del riscaldamento globale, l’aumento della popolazione, e lo sviluppo socio economico futuro.

Per quanto riguarda gli scenari climatici futuri sono stati utilizzati quelli utilizzati dall’IPPC.

Ad esempio lo scenario climatico denominato SSP5-RCP8.5, è lo scenario conosciuto come “business-as-usual”, ovvero quello nel quale la concentrazione di CO2 continua ad aumentare in assenza di contromisure e azioni adeguate.

Viceversa lo scenario identificato come SSP1-RCP2.6 definisce un ottimistico futuro “verde” in cui la sostenibilità diventa una priorità globale e condivisa.

Per studiare i probabili effetti futuri dell’inquinamento delle acque superficiali, i ricercatori hanno modellizzato la qualità dell’acqua suddividendola in periodi di 20 anni, dal 2005 al 2100, utilizzando i dati esistenti di qualità dell’acqua a livello globale.

Il terzo scenario definito come SSP3-RCP7.0, che descrive uno scenario di crescenti rivalità nazionali unite a un lento progresso economico e ambientale, e ad un aumento della popolazione, si è rivelato ( e non era difficile da immaginare), come lo scenario peggiore.  In questo modello l’inquinamento organico dell’acqua nell’Africa subsahariana è più che quadruplicato entro il 2100, lasciando 1,5 miliardi di persone esposte ad acqua non sicura. Ma  Il deterioramento della qualità dell’acqua tocca anche l’Asia meridionale, e il Medio Oriente.

Figura 2 Modifica di concentrazione prevista del parametro BOD 5 tra il 2005 e il 2100

Il terzo scenario definito come SSP3-RCP7.0, che descrive uno scenario di crescenti rivalità nazionali unite a un lento progresso economico e ambientale, e ad un aumento della popolazione, si è rivelato ( e non era difficile da immaginare), come lo scenario peggiore.  In questo modello l’inquinamento organico dell’acqua nell’Africa subsahariana è più che quadruplicato entro il 2100, lasciando 1,5 miliardi di persone esposte ad acqua non sicura. Ma  Il deterioramento della qualità dell’acqua tocca anche l’Asia meridionale, e il Medio Oriente. Lo studio prevede che  in tutti e tre gli scenari la qualità dell’acqua potrebbe peggiorare nei Paesi del Sud America e dell’Africa subsahariana con economie emergenti. Al contrario, in molti Paesi ricchi, i livelli di inquinanti organici e di sostanze che possono causare malattie tendono a diminuire, grazie al miglioramento costante degli impianti e delle tecnologie per il trattamento delle acque.

La conclusione a cui giunge questo studio, è che vi è la necessità di una migliore attuazione delle politiche regionali sulla qualità dell’acqua. Secondo gli Obiettivi di sviluppo sostenibile delle Nazioni Unite, entro il 2030 tutti dovrebbero avere accesso all’acqua potabile. Tuttavia esiste uno scollamento tra le politiche globali e la realtà su scala più piccola, e che il mondo ha bisogno di approcci congiunti che mettano al centro i risultati per le persone e il pianeta.

E’ come se si ripresentassero a noi contemporanei i problemi di Londra e di Parigi nel 1800, quelli che diedero impulso e sviluppo all’Ingegneria Sanitaria. Ma da affrontare con una visione diversa, ovvero con la collaborazione tra le nazioni, e ricordando che al tempo della “grande puzza di Londra” la popolazione mondiale era circa di un miliardo e mezzo di persone. Oggi siamo otto miliardi su questo nostro unico pianeta.

Link all’articolo di Nature: https://www.nature.com/articles/s44221-023-00105-5

Banalità di base.

Claudio Della Volpe

Questo post rientra nella categoria dei post grafici; ho messo insieme alcuni dati climatici di base in forma grafica; sono dati ufficiali o pubblicati sulle grandi riviste; ho aggiunto pochi commenti.,

Sono dati di base, in un certo senso banali ma una banalità che non dovrebbe evitarci di agire il più presto e il più ampiamente possibile. Se sono disponibili vanno in coppia, il primo dà informazioni su un periodo maggiore e il secondo su un periodo più ristretto e recente. Dovrebbero far parte della cultura di base di ogni chimico, ma anche di ogni persona acculturata oggi.

CO2 atmosferica

I dati di Mauna Loa, raccolti in una atmosfera ben mescolata e lontani da sorgenti antropogeniche provano  l’aumento continuo della CO2 da quando la misuriamo, nel 1956, il primo anno geofisico internazionale.

A più alta risoluzione si nota la struttura annuale e semestrale della oscillazione (il secondo ciclo sfasato di sei mesi) , il respiro della terra, il minimo assoluto di ogni ciclo corrisponde all’inizio della stagione fredda nell’emisfero Nord; durante le stagioni più calde il carbonio viene assorbito per la fotosintesi; poi viene riceduto all’atmosfera. La parte Nord del pianeta gioca il ruolo maggiore perché le terre emerse sono maggiormente presenti. Al momento l’incremento annuo è di 2ppm ogni anno.

Metano

Dietro l’enorme incremento di metano ci sono gli incendi e le perdite da estrazione.

pH oceano

L’asse verticale di questo grafico è LOGARITMICO e dunque la riduzione è enorme su scala percentuale.

Il grafico di quella che definisco la pistola fumante; la riduzione di isotopo 13C si accompagna all’aumento della CO2 atmosferica e questo prova in modo inequivocabile che il carbonio viene dalla combustione dei fossili.

L’ossigeno in atmosfera.

La concentrazione di ossigeno in atmosfera diminuisce di circa 4ppm all’anno. I dati sono raccolti in numerose stazioni mondiali gestite dallo Scripps institute. Secondo Keeling per ogni mole di C bruciata si consumano 1.4 moli di O2 (tenete presente che ogni unità CH2 consumerebbe teoricamente 1.5 moli di O2).

La riduzione di ossigeno in atmosfera corrisponde ad una riduzione ancora più marcata nell’oceano a causa dell’aumento della temperatura oceanica e dell’ingresso della CO2, ma anche a causa dell’arricchimento fosfatico che contribuisce all’espansione delle cosiddette zone morte, la cui superficie è aumentata da 4 a 10 volte dal 1950.

La anomalia termica della superficie terrestre

La anomalia termica NON è la temperatura media, ma l’aumento della temperatura mediato su tutta le stazioni meteo della Terra e rispetto ad un periodo di riferimento (1951-1980). Esso si ripartisce diversamente sulla superficie e sul mare (che hanno due diverse capacità termiche) e varia fortemente con la latitudine (più grande verso nord).

Informazione, conoscenza, cultura.

Luigi Campanella, già Presidente SCI

Ho più volte detto ai miei studenti che tre concetti profondamente diversi vengono talora identificati come simili o molto vicini generando confusione soprattutto nelle menti dei più giovani.

Parlo di informazione, conoscenza, cultura.

La prima passa e va senza lasciare nessun patrimonio di crescita intellettuale, la seconda è un vero e proprio arricchimento del nostro bagaglio e capitale umano, la terza, acquisita attraverso esperienze e letture, consente a chi detiene questo capitale di spenderlo per comunicare su tavoli diversi, per costruirsi scale di valutazione e giudizio, per misurarsi alla cosiddetta, strumentalmente, roulette della cultura, arte o scienza.

Nel tempo questi concetti si sono evoluti come anche i loro bersagli quasi in corrispondenza con la società civile in trasformazione. Se guardiamo ad esempio alla conoscenza Galileo si è impegnato per acquisire quella delle stelle, oggi-senza nulla volere togliere ad astronomia ed astrofisica-l’impegno di ricerca ed innovazione sembra soprattutto rivolto alla conoscenza del corpo umano. L’ambiente mutato, l’invecchiamento della popolazione, gli effetti secondari dei farmaci, l’ottimizzazione critica delle dosi e molto altro obbligano ad approfondire gli studi sul funzionamento dell’organismo e su tutte le tecniche che possano chiarirlo sempre più in profondità.

In questo c’è da dire un ruolo importante lo svolgono gli studi del passato indirizzati verso altri temi di ricerca, ma che oggi vengono riposizionati nello scacchiere scientifico.

Un esempio tipico è la decodifica del genoma che portò alla nascita della biologia moderna, preziosa per correlare nel nostro organismo stress chimico e marker patologici. Oggi conosciamo perfettamente la composizione dell’organo del nostro corpo probabilmente più importante per una vita partecipata e cioè il cervello :78% acqua,12% lipidi,8% proteine,1% carboidrati,1% sali, 2% sostanze organiche solubili ma è stato solo attraverso l’individuazione di un amiloide al suo interno che è partita la ricerca preventiva contro l’Alzheimer. Dobbiamo arrivare ai giorni nostri per avere con la Risonanza Magnetica Nucleare una fotografia funzionale di quel prezioso organo. Se guardiamo alla storia dell’uomo si comprende l’importanza della conoscenza perché questa è in definitiva stata acquisita nel 30% di quella storia: l’homo sapiens ha 200 mila anni di età, ma la fase della conoscenza è cominciata solo (!!!) 70 mila anni fa. Le civiltà giovani hanno aiutato questa crescita: così i Sumeri per la matematica, i Greci per l’Archeologia fino a Galileo per l’Astronomia. La conoscenza fu all’inizio patrimonio di pochi fino alla scoperta della stampa che facilitando la comunicazione concorse alla condivisione, al dibattito, ai primi segni di cultura.

https://undilan.blogspot.com/2021/05/differenza-tra-formazione-e-informazione.html

Materie prime, che confusione!

Claudio Della Volpe

Quando ho letto che la scoperta di un grande giacimento di fosfato in Norvegia avrebbe dato impulso soprattutto all’industria energetica e avrebbe risolto i dubbi sull’acquisto dell’auto elettrica ho capito che si avvicinava il momento di fare un po’ chiarezza sul tema delle materie prime: Critiche? Strategiche? Per le rinnovabili? Etc etc.

L’UE ha introdotto queste due definizioni: materie prime critiche e materie prime strategiche in varie fasi a partire dal 2011 e le aggiorna costantemente.

Le materie prime critiche per l’Europa sono identificate così: “Materie prime importanti per l’intera economia europea e ad alto rischio di interruzione delle forniture”, secondo la recente definizione contenuta nella proposta di regolamento (16 marzo 2023) dedicata appunto a questi preziosi materiali. Nel 2020 erano 30[1] adesso sarebbero 34[2].

Con la proposta, poi, si introduce un nuovo elenco di 16 materie prime strategiche, cioè quelle “fondamentali per le tecnologie più rilevanti ai fini delle ambizioni verdi e digitali dell’Europa e per le applicazioni nel settore della difesa e dello spazio, ma a rischio di potenziali future carenze di approvvigionamento”. Altra definizione usata dalla Commissione è quella di “materie prime caratterizzate da un’elevata importanza strategica e da previsti squilibri globali tra domanda e offerta”. In questo secondo elenco ce ne sono solo 16[3], che sono una parte dell’elenco precedente, delle materie prime critiche.

Come si vede secondo la Commissione la criticità e la strategicità sono due cose diverse; il fosforo ed i fosfati entrano nel primo elenco ma non nel secondo, sono critici ma non strategici; e faccio notare che la strategicità fa riferimento ad un sotto gruppo di settori rispetto all’intera economia: energia, digitale, spazio e difesa, ossia contiene in modo esteso l’aspetto MILITARE.

Ovviamente queste definizioni sono importanti perché corrisponderanno a richiami legislativi e dunque essere o meno in uno di questi elenchi diventa un fattore importante per le industrie di un certo settore o per quelle che operano nell’estrazione mineraria. E anche per la politica estera europea perché il comportamento rispetto ad un certo paese può essere condizionato pesantemente dal suo ruolo di fornitore di uno o più di questi materiali.

Ed allora questo aiuta a chiarire poi le notizie che escono sui giornali.

In questi giorni è stata resa pubblica con grande risonanza la notizia, in realtà risalente al 2018, della scoperta di un grande giacimento di minerali fosfatici; è un argomento quello del ciclo del fosforo e della limitata fornitura di fosfati di cui abbiamo parlato in più post (per esempio qui e qui); le riserve accertate assommano a circa 71 miliardi di tonnellate (stima del 2021 di USGS) di cui 50 nella medesima formazione in Marocco; la nuova miniera norvegese ammonterebbe secondo i suoi scopritori (Norge Mining) a circa 70 miliardi di ton, quindi raddoppierebbe le riserve disponibili.

(Ricordiamo di passaggio che con “riserve” si intendono le quantità di materiali che si ritengono economicamente sfruttabili agli attuali prezzi di mercato, mentre le “risorse” indicano la stima del quantitativo totale di questo materiale, comprendendo l’insieme di tutte le riserve conosciute e non conosciute, incluse quelle ritenute attualmente non economicamente sfruttabili)

Attenzione ancora: i 70 miliardi di tonnellate sono contenuti in un deposito che arriva fino a 4500 metri di profondità mentre si stima che non sia possibile estrarre a prezzi ragionevoli da profondità superiori a 500-1000 metri; dunque solo una frazione del deposito è una riserva mentre il resto è una risorsa potenziale. Dunque nel fare le stime del nuovo deposito come riserva occorre stare più bassi.

Ma veniamo allora alla domanda: come mai molti giornali riportano in modo eclatante il ruolo “energetico” del nuovo deposito; la stessa Stampa che evita di citarlo nel titolo scrive comunque “secondo le stime di Norge Mining, la società che sfrutterà tali risorse, di soddisfare la domanda mondiale di fertilizzanti, pannelli solari e batterie per auto elettriche”; e di seguito altre fonti fanno di molto peggio scrivendo delle assurdità. Per esempio c’è chi scrive falsando completamente le cose:

La roccia fosfatica è essenziale nella produzione del fosforo per i fertilizzanti, ma anche per essere utilizzata in alcuni elementi chiave del processo di decarbonizzazione voluto dalle società occidentali, e in particolare dall’UE, perché ampiamente impiegato anche per pannelli solari e, appunto, batterie per le auto elettriche, quelle di tipo LFP (Litio-Ferro-Fosfato) e per questo è stato incluso a marzo 2023 nella legge sulle materie prime critiche.

Da quello che abbiamo scritto prima sappiamo già che non è per il ruolo energetico che il fosfato è stato immesso nella lista dei materiali critici; tutt’al più il fosforo potrebbe essere stato immesso per questo, ma poi non ritroviamo NESSUNO DEI DUE nella lista degli elementi strategici.

Il motivo è abbastanza semplice; le quantità in gioco in settori diversi da quelli energetici o digitali sono dell’ordine del 90-95%; solo il 5-10% dei fosfati vengono usati al di fuori dell’agricoltura per ricavare il fosforo il quale a sua volta viene usato in quote molto basse nei settori energetici e digitali; per esempio in una cella fotovoltaica al silicio solo 35 mg/kg di silicio vengono usati e se consideriamo che ogni watt-picco si usano circa 4g di silicio possiamo stimare cosa succede in un anno.

L’anno scorso sono stati installati 200 GW; ragioniamo per eccesso, supponiamo che fosse tutto silicio (che non è vero) avremmo un uso totale di 800mila ton di silicio e 28 ton di fosforo, corrispondenti a meno di 100-200 ton di roccia fosfatica.

Situazione diversa per le batterie al litio con catodo di ferro-fosfato nelle quali il 16% in peso è costituito da fosforo; ma visto che però costituiscono solo  da un quarto ad un terzo del totale batterie al litio si può stimare in circa un milione di ton  la quantità di roccia fosfatica necessaria (sempre facendo stime semplificate e in notevole eccesso, considerate che nel 2020 l’uso TOTALE di fosforo industriale è stato di 1.7 Mton corrispondente al 9% del totale della roccia fosfatica usata). Per alcune stime numeriche future si vedano anche i dati dei lavori di Nature citati in fondo. I due articoli nascono da una polemica sulle risorse necessarie alle batterie LFP. Si vede dal grafico messo in fondo come le mie stime attuali siano alquanto esagerate in eccesso. E si tenga presente anche che nulla ci assicura che catodi di ferro-fosfato saranno ancora in uso nel futuro, dato il veloce progresso tecnico nel settore.

E’ da dire infine che il costo estrattivo dipende dalla tipologia esatta di roccia, ma rimane che ogni anno la produzione di fosfato è dell’ordine di 30 Mt e dunque stiamo parlando di qualche percento del totale della produzione di fosfato.

Ecco perché il fosforo e il fosfato non sono strategici, ma solo critici per la UE.

Possono essere “strategici” per gli interessi delle aziende estrattrici.

Aggiungo una ulteriore riflessione, basata su considerazioni che abbiamo già svolto sull’inquinamento dei mari, dei fiumi e dei laghi ad opera del fosfato usato in grande eccesso nell’agricoltura intensiva moderna e che sono alla base del fenomeno della crescita mondiale delle dead zones, le zone morte sui margini continentali, ma anche in innumerevoli laghi e fiumi; la scoperta di un grande giacimento di fosfati sposterà ancora in avanti la scelta di riciclare il fosforo e dunque di agire sulle nostre deiezioni, sulla depurazione delle acque reflue e questa NON è una buona notizia; al contrario spero che la UE dica no alla pressione delle industrie estrattrici norvegesi e renda più complessa e difficile l’estrazione di queste nuove risorse per garantire l’ambiente in cui viviamo. Al contrario di quanto scrivono alcuni la nuova scoperta non aiuterà la diffusione delle rinnovabili perché le difficoltà che si incontrano non sono al momento basate su limiti nelle quantità di fosforo e di fosfati, ma rischia invece di posticipare ulteriormente il riciclo di significative quantità di fosforo e fosfati che sono molto inquinanti ambientalmente. Da calcoli che potete trovare negli articoli citati si stima che il riciclo delle deiezioni fosfatiche umane contenute nella pipì coprirebbe le necessità energetiche completamente.

Da leggere anche:

http://www.seas.columbia.edu/clca/Task12_LCI_LCA_10_21_Final_Report.pdf

https://www.nature.com/articles/s43246-022-00236-4

https://www.nature.com/articles/s43246-022-00237-3


[1] Materie prime critiche 2020: Antimonio, Afnio, Barite, Berillio, Bismuto, Borato, Carbone da coke, Cobalto, Gomma naturale, Bauxite, Fluorite, Fosforo, Fosforite, Gallio, Germanio, Grafite naturale, Indio, Litio, Magnesio, Metalli del gruppo del platino, Niobio, Scandio, Silicio metallico, Stronzio, Tantalio, Terre rare leggere, Terre rare pesanti, Titanio, Tungsteno, Vanadio

[2] Materie prime critiche 2023: Antimonio, Arsenico, Bauxite, Barite, Berillio, Bismuto, Boro, Cobalto, Carbone da coke, Rame, Feldspato, Fluorite, Gallio, Germanio, Afnio, Elio, Elementi terrestri rari pesanti, Terre rare leggere, Litio, Magnesio, Manganese, Grafite naturale, Nichel – grado di batteria, Niobio, Fosfato, Fosforo, Metalli del gruppo del platino, Scandio, Silicio metallico, Stronzio, Tantalio, Titanio metallico, Tungsteno, Vanadio

[3] Materie prime strategiche 2023: Bismuto, Boro – grado metallurgico, Cobalto, Rame, Gallio, Germanio, Litio – grado di batteria, Magnesio metallico, Manganese – grado di batteria, Grafite naturale – per batterie, Nichel – grado di batteria, Metalli del gruppo del platino, Elementi delle terre rare per magneti (Nd, Pr, Tb, Dy, Gd, Sm e Ce), Silicio metallico, Titanio metallico, Tungsteno

Il caso del “coccodrillo impagliato”.

Biagio Naviglio.

Qualche anno fa fui interpellato per una problematica riguardante il tipo di conciante impiegato per il trattamento di un “coccodrillo impagliato”; tale questione rientrava nell’ambito di un progetto più ampio concernente la conservazione e il restauro di questo animale impagliato del Maschio Angioino o Castelnuovo.

Per secoli, sull’arco di trionfo all’esterno del Castello, si è trovato appeso questo coccodrillo impagliato, ma nessuno conosceva con certezza quale fosse la sua origine, per cui i racconti leggendari si sono moltiplicati nel tempo.

Fotografia dalla ref. 1

Foto del coccodrillo esposto in cima all’arco trionfale di Castelnuovo, Napoli – 1870

La leggenda più credibile, supportata da un recente studio del DNA del coccodrillo, è quella raccontata da Pompeo Sarnelli cioè la storia dell’ex voto. L’uomo, un vescovo ed uno storico, scrisse una sorta di guida turistica di Napoli nel 1685 raccontando la vicenda di un soldato che, di ritorno dall’Egitto, volle offrire un ex voto alla Madonna del Parto che era custodita nella Cappella Palatina del Castel Nuovo. Per questo motivo, offrì un coccodrillo impagliato portato dall’Egitto.

La carcassa del coccodrillo si trova da circa 150 anni nei depositidel Museo di San Martino ed è stata poi restaurata dall’Accademia di Belle Arti diNapoli; in tale ambito sono state effettuate, da esperti del settore della conservazione e restauro dei beni culturali, approfondite indagini analitiche (SEM – EDX, Scanning Electron Microscope with energy-dispersive x-ray e XRF- X-Ray Fluorescence) con l’obiettivo di individuare, tra l’altro, il tipo di conciante utilizzato per il trattamento della pelle di questo coccodrillo impagliato.

Per coccodrillo impagliato deve intendersi un “coccodrillo tassidermizzato” cioè un coccodrillo manipolato con una tecnica (tassidermia) che consente di trattare la pelle di un animale deceduto, allo scopo di preservare nel tempo le caratteristiche dell’esemplare, bloccando i processi di decomposizione.

“Tassidermia” deriva dalle parole greche taxis (disposizione, ordine) e derma (pelle) che significano “mettere in posizione la pelle”; infatti, è la sola pelle con il pelo, le penne o le squame che, dopo un trattamento conciante con sostanze chimiche particolari, viene posizionata su un manichino artificiale, in sostituzione del corpo intero, che ricostruisce le forme e le dimensioni dell’animale.

Nella foto è mostrato un coccodrillo impagliato appeso nel Battistero di Cremona; trattasi di un’opera dell’artista Maurizio Cattelan esposta alla prima edizione di Cremona Contemporanea Art Week cominciata lo scorso 26 maggio e terminata il 4 giugno 2023. Secondo Cattelan, la tassidermia è una tecnica per fermare il tempo e sistema per mostrare il modo in cui gli animali vengono percepiti. I coccodrilli, secondo l’Artista, sono stati protagonisti di riti, religioni, credenze magiche, leggende metropolitane; sono creature che spaventano e affascinano insieme e sono state profondamente simboliche fin dall’inizio dell’umanità.

Cattelan, Ego (2019): Coccodrillo tassidermizzato appeso nel Battistero di Cremona (2023)

Ritornando al nostro “coccodrillo napoletano”, nel complesso, i risultati diagnostici ottenuti mediante spettroscopia in fluorescenza a raggi X (XRF) e con l’ausilio della microanalisi EDX (Energy dispersive X-Ray Analysis) hanno evidenziato la presenza di elementi come calcio, zolfo, silicio, alluminio, potassio.

Sulla base di tali dati, quindi, è stato possibile ritenere che il conciante utilizzato sia l’allume di rocca conosciuto anche come allume di potassio (solfato di alluminio e potassio dodecaidrato la cui formula è KAl(SO4)2 x 12H2O); per quanto concerne la presenza del calcio esso potrebbe essere dovuto sia al processo di calcinazione (uso della calce idrata) sia ad impurezze presenti nel minerale di partenza per l’estrazione dell’allume di rocca (alunite, solfato basico di alluminio e potassio); la presenza del silicio, invece, potrebbe essere dovuta esclusivamente al minerale di partenza. Infatti, il minerale alunite si trova generalmente associato a quarzo e caolino.

Al riguardo è opportuno sottolineare il fatto che la concia minerale all’allume è stata fra i primi metodi di trattamento delle pelli usati dall’uomo insieme alla concia al vegetale e quella con i grassi.

L’allume di rocca, come conciante, può essere sostituito da altri sali di alluminio come, ad esempio, il solfato; al riguardo, per il trattamento tassidermico della pelle degli animali viene proposto, tra l’altro, come agente conciante un solfato di alluminio da utilizzare, per grandi linee, dopo le operazioni di scarnatura, salatura e piclaggio (trattamento con sale e acido a pH 1,5-2,0). Il processo, prima del montaggio sulla forma artificiale, viene poi completato con l’operazione di ingrasso della pelle per renderla più morbida.

Bibliografia

  1. T. Fioravanti, E. Casafredda,  A. Splendiani, & V. Caputo Barucchi, The stuffed crocodile of “Castel Nuovo” in Naples (Italy): new insights from ancient DNA and radiocarbon, The European Zoological Journal, 2020, 452–458 Vol. 87, No. 1
  • M. Kite, R.Thompson, Conservation of Leather and related materials, Elsevier 2006

Fonti non regolamentate rallentano il ripristino dello strato di ozono

Rinaldo Cervellati

All’inizio di quest’anno, le Nazioni Unite hanno annunciato che lo strato di ozono stratosferico è sulla buona strada per riprendersi entro 40 anni per le azioni intraprese nell’ambito del Protocollo di Montreal. Adottato nel 1987, l’accordo internazionale ha condotto all’eliminazione graduale di composti che riducono lo strato di ozono come i clorofluorocarburi (CFC), che un tempo erano ampiamente utilizzati come refrigeranti, solventi e propellenti per aerosol.

Sebbene siano stati compiuti sostanziali progressi, nel corso degli anni anche il recupero dello strato di ozono ha avuto le sue battute d’arresto. Ad esempio, la produzione illegale di CFC-11 e le perdite da apparecchiature obsolete hanno rallentato il declino dei composti che riducono lo strato di ozono dall’atmosfera.

Fig. 1  Mappa dell’Antartide mostrante  dimensioni e forma del buco dell’ozono sopra il Polo Sud il 5 ottobre 2022. Credit: NASA Earth Observatory/Joshua Stevens

Recentemente, un nuovo studio ha rilevato che le concentrazioni atmosferiche di cinque CFC sono in aumento dal 2010, nonostante i divieti sul loro uso e produzione [1]. Se questa tendenza continuasse, la tempistica per il recupero dell’ozono stratosferico possa essere durare più del previsto.

È necessario lavorare di più per individuare definitivamente da dove provengono questi cinque CFC. Tuttavia, i ricercatori pensano che potrebbero essere rilasciati durante la produzione di altre sostanze chimiche, come gli idrofluorocarburi (HFC), che sono refrigeranti meno dannosi per l’ozono. Luke Western, autore corrispondente del rif. [1] ricercatore della Global Monitoring Laboratory  (National Oceanic and Atmospheric Administration) afferma: “Controlli più severi sulle perdite e un’adeguata distruzione dei sottoprodotti aiuterebbero a ridurre le emissioni”.

Oltre ai CFC, altri composti, come il bromoformio, possono contribuire alla riduzione dell’ozono, afferma Susann Tegtmeier, scienziata dell’atmosfera presso l’Università del Saskatchewan (Canada). Il bromoformio non è regolamentato dal Protocollo di Montreal, in parte perché si pensa derivi principalmente da fonti naturali.

Tuttavia, Tegtmeier e i suoi colleghi hanno scoperto che l’attività umana può essere responsabile di una porzione maggiore delle emissioni di bromoformio rispetto a quanto ipotizzato in precedenza [2]. Di conseguenza, le fonti antropogeniche, come le centrali elettriche e di desalinizzazione, potrebbero aumentare la quantità di bromoformio che può entrare nella stratosfera e successivamente reagire con l’ozono.

Rispetto ai CFC, è probabile che l’impatto del bromoformio sullo strato di ozono sia ridotto, afferma Tegtmeier, autore corrispondente del rif [2]. Tuttavia, egli sottolinea che il bromoformio è importante da monitorare in quanto potrebbe rivelarsi un impatto maggiore in futuro, soprattutto quando le concentrazioni di CFC nell’atmosfera tendono a diminuire.

Per quanto riguarda i cinque CFC in aumento, Ross Salawitch, un chimico atmosferico dell’Università del Maryland che non è stato coinvolto in nessuno dei due studi, afferma che la comprensione delle fonti di queste emissioni è della massima importanza per la comunità di ricerca. È fiducioso che se le concentrazioni dei cinque CFC saliranno a livelli preoccupanti, i responsabili delle decisioni per il Protocollo di Montreal “prenderanno opportuni provvebdimenti”.

Bibliografia

[1]L.M. Western et al. Global increase of ozone-depleting chlorofluorocarbons from 2010 to 2020. Nature Geoscience, 2023, 16, 309–313.

[2]Yue Jia et al. Anthropogenic Bromoform at the Extratropical Tropopause. Geophys. Res. Lett., May 2023, DOI: 10.1029/2023GL102894


[1] Tradotto e adattato da K. Vasques: Recovery of the ozone layer could face minor setbacks. C&EN News, May 25, 2023.

Gli effetti dei composti alogenati sul clima

Diego Tesauro

I composti alogenati e soprattutto gli organoalogenati sono notoriamente sostanze con alto impatto sull’ambiente. Non a caso, compongono quasi tutta la lista della cosiddetta “sporca dozzina” stilata dalla convenzione di Stoccolma, come sostanze inquinanti persistenti e bioaccumulanti [1]. In particolare i PCB e le diossine sono ben conosciute dall’opinione pubblica per la grave minaccia alla salute umana. La presenza di queste sostanze, scarsamente solubili in acqua è ubiquitaria in tutte le matrici grazie ad una loro proliferazione a partire dalla fine del XIX secolo, quando, a seguito della crescente produzione di soda caustica per via elettrolitica, si è andata sviluppando un’industria dei composti clorurati sfruttando l’abbondante produzione di cloro. Ma se l’impatto delle sostanze alogenate è ben conosciuto sulla salute, quale impatto hanno invece sui cambiamenti climatici? Dell’impatto degli composti alogenati sull’atmosfera si è cominciato a discutere e prendere coscienza a seguito del famoso articolo su Nature [2] dei premi Nobel Molina e Rowland che lanciò l’allarme sul crescente buco dell’ozono nella stratosfera per effetto dei clorofluorocarburi (CFC), utilizzati negli aerosol e nelle macchine refrigeranti. Se questo problema è stato poi risolto, con la messa a bando dei CFC a seguito del protocollo di Montreal, esempio di eccezionale cooperazione internazionale, scarsi sono invece i modelli che prendono in considerazione l’effetto degli alogeni e dei loro composti sul clima e sull’impatto sulla troposfera.        

Inizialmente è bene precisare che una parte delle sostanze alogenate sono prodotte anche naturalmente, ma più in generale è bene distinguere i composti alogenati tra quelli a lunga persistenza (come la sporca dozzina) e quelli a breve persistenza (SLH) intendendo per questi ultimi quelli degradabili in meno di sei mesi.

 Negli ultimi due decenni, prove osservative raccolte da tutto il mondo hanno mostrato l’onnipresenza del II gruppo dei gas reattivi o specie alogene a vita breve nell’atmosfera globale

Queste specie sono emesse naturalmente dagli oceani, dai ghiacci polari e dalla biosfera, presentando un origine spazio-temporale variabile che dovrebbe aumentare a causa del cambiamento climatico. Inoltre, è stato identificato un recente rapido aumento delle emissioni antropogeniche di SLH clorurati nell’atmosfera. La scomposizione di SLH nell’atmosfera produce radicali alogeni altamente reattivi che svolgono ruoli importanti in diversi processi atmosferici come ben noto per i CFC.

Le fonti biogeniche di SLH comprendono nove alometani (CHBr3, CH2Br2, CH2BrCl, CHBr2Cl, CHBrCl2, CH3I, CH2I2, CH2IBr and CH2ICl), risultato del metabolismo di micro e macroalghe e del fitoplancton e delle reazioni fotochimiche sulla superficie dell’oceano. Da notare che non sono presenti composti fluorurati, pur essendo present lo ione fluoruro negli oceani con una concentrazione media di 1.3 μg∙g−1, in quanto gli organofluorati sono prodotti quasi esclusivamente da attività antropiche. L’evoluzione delle emissioni biogeniche SLH è studiata in un quadro coerente in cui la diffusione di SLH è legata ai cambiamenti fisici e biogeochimici (ad esempio, temperatura superficiale del mare, produzione primaria marina e così via) relativi al clima e alla composizione atmosferica. Le fonti abiotiche hanno percorsi distinti per cloro e bromo rispetto allo iodio. Il cloro e il bromo vengono rilasciati dagli aerosol di sale marino in seguito allo spiazzamento acido (ad esempio, indotto da HNO3) nonché a reazioni eterogenee di composti azotati (ad esempio N2O5), alogenati (ad esempio HOBr, HOCl e HOI) ed alo-azotate (ad esempio BrONO2, ClONO2 e IONO2), che costituiscono le fonti dominanti di bromo e cloro reattivi nella bassa troposfera. Lo iodio inorganico (HIO e I2), tuttavia, viene emesso direttamente dalla superficie dell’oceano in seguito alla deposizione di O3 sull’acqua di mare che ossida lo ioduro presente. Anche le emissioni di alogeni molecolari e specie interalogene biatomiche (ovvero Cl2, Br2 e I2, nonché BrCl, IBr e ICl) sono generate dalla superficie del ghiaccio marino nell’Artico e nell’Antartide. Accanto a queste specie si aggiungono quelle prodotte industrialmente dall’uomo, in primis il diclorometano. Questa sostanza proviene principalmente da fonti antropiche, incluso il suo uso come solvente per scopi adesivi e di pulizia e come materia prima per la produzione di idrofluorocarburi (HFC), gas refrigeranti entrati nel mercato alla fine degli anni ’80, in sostituzione dei CFC, in quanto non riducono lo strato di ozono, ma sono potenti gas serra e pertanto in futuro da sostituire anche essi, come previsto dall’emendamento di  Kigali al protocollo di Montreal del 2016 che ne prevede la riduzione di oltre l’80% in trenta anni. Le misurazioni della frazione molare atmosferica di CH2Cl2 mostrano un rapido aumento dagli anni 2000, quando i valori medi globali annuali hanno subito un duplice aumento, compreso un periodo di crescita particolarmente rapida durante il 2012-2013

Negli ultimi decenni, gli scienziati si sono resi conto che i composti SLH nella troposfera contribuiscono al cambiamento climatico riscaldando e raffreddando l’atmosfera. Il raffreddamento avviene a seguito della loro capacità di distruggere l’ozono, che riscalda la stratosfera assorbendo la luce solare e agisce come un gas serra nella troposfera. Il riscaldamento si verifica anche in quanto i composti SLH rallentano la formazione di aerosol atmosferici, che provocano il raffreddamento a livello del suolo riflettendo la luce solare nello spazio. Inoltre, i composti SLH riducono la presenza del radicale ossidrile, una specie chimica nota come detergente dell’atmosfera, perché rimuove efficacemente gli inquinanti dall’aria. Livelli ridotti di radicali ossidrilici implicano che il metano, gas serra, venga rimosso meno rapidamente dall’atmosfera, determinando pertanto un incremento, seppur relativamente limitato, del riscaldamento atmosferico.

Valutare l’impatto complessivo della moltitudine di reazioni chimiche che coinvolgono i composti SLH e i loro vari feedback climatici è impegnativo, soprattutto considerando che la composizione atmosferica e il clima stanno cambiando rapidamente. In uno studio recentissimo, Saiz-Lopez et al. hanno utilizzato un modello del sistema Terra, un tipo di simulazione utilizzato per valutazioni, come quelle effettuate dall’Intergovernmental Panel on Climate Change (IPCC), per quantificare in che modo i composti SLH influenzano il clima globale. Eseguendo simulazioni per il clima del passato, del presente e del futuro, i ricercatori hanno identificato i cambiamenti negli effetti dei composti SLH sul clima che si sono verificati dal periodo preindustriale e hanno previsto come tali effetti potrebbero svilupparsi ulteriormente con il continuo riscaldamento atmosferico.

Nel complesso, i risultati rivelano che i composti SLH hanno un effetto di raffreddamento netto sul clima. Nella Figura 1 sono rappresentati tutti i processi e il loro effetto sul raffreddamento e riscaldamento dell’atmosfera secondo questo modello. Le simulazioni degli autori indicano che il raffreddamento, dovuto alla distruzione dell’ozono troposferico, ha l’impatto maggiore. Tuttavia, questo è parzialmente compensato dal riscaldamento indiretto causato, come abbiamo visto, tra gli altri fattori, dalla prolungata vita atmosferica del metano. Va notato che l’effetto di raffreddamento dei composti SLH è insufficiente per controbilanciare il riscaldamento prodotto dal biossido di carbonio, che è aumentato di circa 40 volte rispetto al raffreddamento dei composti SLH dall’epoca preindustriale. In altre parole, questi composti non sono, usando una metafora, un Silver Bullet per il cambiamento climatico. In particolare, i risultati di questa simulazione portano a concludere che la maggior parte dell’aumento del raffreddamento associato ai composti SLH può essere attribuito al cambiamento indotto dall’uomo delle emissioni naturali dagli oceani (una conseguenza del cambiamento climatico e dell’inquinamento atmosferico), piuttosto che a un semplice aumento delle emissioni associate alle attività umane, sebbene anche quest’ultimo abbia una parte. L’aumento indotto dall’uomo delle emissioni naturali contenenti alogeni sembra essere un feedback climatico chiave che manca negli attuali modelli climatici.

Guardando al futuro, ci si aspetta che gli impatti climatici dei composti SLH si rafforzino per alcuni aspetti e si indeboliscano per altri, a seconda del futuro sviluppo socio-economico, delle emissioni di gas serra e del riscaldamento atmosferico. Tuttavia, queste proiezioni si basano su un unico modello e andrebbero confrontati con le previsioni di altri modelli del sistema Terra. Questo non è ancora possibile, perché la maggior parte dei modelli non tiene conto delle emissioni e della chimica dei composti SLH. Se i composti SLH fossero inclusi, è possibile che i loro impatti in futuri scenari climatici non rientrerebbero nell’intervallo stimato con il modello presentato perché diversi modelli rappresentano la chimica atmosferica e la presenza degli aerosol a volte in modo molto diverso.

La sfida futura per i climatologi è che l’attività di ricerca incorpori le fonti, la chimica e i feedback climatici dei composti SLH nei loro modelli, in modo che si possano affinare le attuali proiezioni, che migliorerebbero la nostra capacità di affrontare le sfide poste dal cambiamento climatico.

Figura 1 Gli alogeni influenzano il sistema climatico attraverso cambiamenti diretti dei cicli chimici dei radicali O3 e OH, che a loro volta regolano l’abbondanza di processi radiativamente attivi relativi al metano (CH4), all’aerosol ed al vapore acqueo stratosferico (H2O). L’allargamento (assottigliamento) delle frecce semicircolari all’interno dello strato di un processo chimico rappresenta un potenziamento (riduzione) dell’efficienza del processo evolutivo di CH4, H2O e O3 direttamente indotto dagli SLH (blu chiaro) ed indirettamente indotto da OH (blu scuro). Le frecce verso l’alto verdi, grigie e nere all’interno dello strato precursore sono le emissioni dirette di SLH naturale, SLH antropogenico ed degli inquinanti atmosferici di origine antropica, rispettivamente. Le frecce a forma di U mostrano processi atmosferici ciclici naturali dei composti alogenati (coda verdastra) e antropogenici (coda grigiastra), rispettivamente, entrambi sono stati amplificati dall’azione antropica (testa arancione) ed hanno alterato la linea di base del sistema climatico. La variazione di lunghezza delle frecce ondulate giallo e rosa sullo strato più in alto rappresentano l’effetto indotto da SLH sul bilancio radiativo della Terra. L’effetto singolo del riscaldamento e del raffreddamento di ciascuno dei singoli processi sono sintetizzati con i termometri colorati. (Copyright Nature)

[1] https://chm.pops.int/TheConvention/ThePOPs/The12InitialPOPs/tabid/296/Default.aspx.

[2] M. J. Molina and F. S. Rowland , Nature 1974249 , 810 —812.

[3] A. Saiz-Lopez et al. Nature 2023618, 967 —973.

Tre OT.

Claudio Della Volpe

Una volta tanto voglio raccontare delle cose in cui la Chimica c’entra fino ad un certo punto:

Personalmente cerco di seguire costantemente lo sviluppo scientifico perché ritengo che tutta la Scienza sia unitaria e che spesso scoperte in un settore aiutino anche gli altri o li motivino o li spingano.

Queste due ultime settimane devo dire che i miei numerosi abbonamenti alle news di varie grandi riviste mi hanno consentito di raccogliere tre notizie che mi sembrano veramente importanti e potenzialmente anche MOLTO importanti.

Ve le racconto velocemente.

La prima; alcuni ricercatori di Cambridge e del Caltech  hanno creato il primo embrione umano “sintetico”, ossia ottenuto per una via diversa da quella classica di mettere insieme uno spermatozoo ed un ovocita, una cellula femminile, né ancora usando cellule staminali provenienti da un embrione umano, i modi che conoscevamo finora per avere un embrione vivo; hanno invece ottenuto un embrioide, ossia hanno usato cellule totipotenti generiche da cui si è sviluppata una struttura simile ad un embrione; uno dei collaboratori del gruppo l’embriologo Gianluca Amadei, che ha fatto parte del gruppo di ricerca di Cambridge diretto da Magdalena Żernicka-Goetz ma è di UniPd, ha dichiarato ai giornali che:
quelli ottenuti a Cambridge non sono embrioni umani e nemmeno si originano da cellule staminali prelevate da embrioni umani, ma sono strutture che hanno tessuti simili a quelli degli embrioni umani. Li potremmo definire strutture simili a embrioni, o embrioidi”

https://www.nature.com/articles/d41586-023-01992-0

Secondo questa interpretazione è possibile usare gli embrioidi per studiare cosa succede quando si sottopone ad un ambiente diverso dall’utero (per esempio un ambiente con certe molecole estranee) un embrione che abbia più di 14 giorni, finora considerato il limite di questo tipo di esperimenti quando si usi un vero embrione. L’embrioide non essendo un vero embrione non può svilupparsi come un embrione vero e proprio, tuttavia esistono problemi riguardo la liceità etica di tali esperimenti.

La seconda: su Geophysical Research Letter un gruppo di scienziati di vari paesi ha calcolato cosa è successo all’asse terrestre a causa della estrazione di acqua negli ultimi 27 anni; si sono estratti dal sottosuolo oltre 2150 miliardi di tonnellate di acqua, ossia altrettanti chilometri cubi di acqua e questo dato ha comportato una redistribuzione della massa terrestre sufficiente a spostare la posizione dell’asse di rotazione di circa 80 centimetri, una quantità sufficiente a modificare aspetti climatici generali, come la distribuzione del calore e dunque il cambiamento climatico. Fra l’altro l’effetto è dominato dal fatto che l’acqua estratta si è alla fine riversata nel mare contribuendo all’innalzamento del livello complessivo dell’oceano.

In sostanza la semplice estrazione e l’uso dell’acqua in quantità colossali contribuiscono al cambiamento climatico in modo alquanto inatteso; una lezione in più per chi sostiene che siamo troppo piccoli per fare danni al pianeta e a noi stessi.

La terza: la terza ed ultima notizia, pubblicata su Science Translational Medicine è un articolo che lancia una ipotesi su una malattia femminile, trascurata spesso ma molto diffusa ed invalidante, l’endometriosi, dolori diffusi e forti durante il periodo del ciclo mestruale, e spesso anche al di fuori di esso; sono solo pochi anni che si è accettata l’idea che questa è una malattia non una condanna biblica e molti medici ancora non sono ben disposti verso questa idea, che esistano malattie dolorose tipiche di questo periodo della vita femminile; non si sa molto del meccanismo dell’endometriosi, ma sono in corso molti studi, anche perché le stime più recenti accordano un valore del 15% di donne interessate sotto i 49 anni, ossia centinaia di milioni di persone.

Secondo lo studio condotto da un gruppo dell’Università di Nagoya, da Ayako Muraoka e collaboratori il batterio Fusobacterium è presente nel 64% dei casi mentre nel gruppo di controllo in meno del 10% ed ha un meccanismo che agisce tramite la transizione del fenotipo cellulare dei fibroblasti, cellule del tessuto connettivo che si trasformerebbero in miofibroblasti migrando in una nuova posizione

Antibiotici efficaci contro il batterio in questione riducono la presenza di queste migrazioni e l’effetto della malattia; se questa ipotesi fosse confermata centinaia di milioni di donne potrebbero chiamarsi fuori dalla biblica maledizione.

Beh sono contento che la scienza faccia questi progressi; dopo tutto come scimmie senza pelo abbiamo poco altro che il cervello per difenderci dall’ambiente; speriamo di usarlo meglio nel prossimo futuro.