Note sulla chimica dell’incenso.

Claudio Della Volpe

Questo post nasce dalla curiosità di approfondire cosa dia all’incenso il suo caratteristico profumo. E anche dal capire, sia pure superficialmente, la differenza fra le varie piante che vengono più o meno correttamente individuate come incenso.

Tutto è partito quando mia moglie, che è appassionata di piante e chimica come me (più di me in molti casi) ha portato a casa una pianta dalla Fiera di S. Giuseppe, che si svolge attorno al 19 marzo a Trento, e segna l’inizio della primavera, soprattutto per tutti gli appassionati di piante e fiori.

E’ tornata a casa con un esemplare di “pianta dell’incenso”; questa pianta la vedete raffigurata qui sotto:Fig. 1 Plectranthus Coleoides

https://www.portaledelverde.it/blog-giardinaggio/plectranthus-pianta-incenso-coltivazione-cura/#close

La pianta ha un fortissimo odore di incenso ed è venduta come rimedio naturale antizanzare.Fig. 2 Boswellia Sacra

Su parecchi siti viene confusa con un’altra del genere Boswellia, la Sacra o la Serrata , appartenente alla famiglia delle Burseraceae; ma quest’ ultima è un albero, di dimensioni notevoli anche, come vedete nella fig. 2, dalla cui resina viene estratto l’incenso ufficiale, diciamo così, quello che si usa nelle cerimonie religiose; quasi tutte le religioni usano l’incenso (bruciato lentamente in condizioni di scarsa ossigenazione, come capita ad una sigaretta non aspirata, un fenomeno individuato dal termine inglese “smouldering”) come generatore di aromi e fumi/profumi “sacri”.

La pianta della prima figura invece si chiama Plectranthus Coleoides, appartenente al genere Plectranthus, famiglia delle Lamiaceae, piante molto contenute come dimensioni, striscianti e cespugliose, che spesso si ritrovano in colori anche diversi, rossastri per esempio.

Dunque la similitudine dell’aroma fra le due piante le confonde ma quale è la molecola o le molecole che si ritrovano in entrambe (se ci sono)?

Ho cercato in letteratura raggiungendo le conclusioni qui sotto.

La differenza fra le due piante è tale che nei testi ufficiali il Plectranthus è del tutto assente quando si parla di incenso; dunque si tratta di una confusione legata solo al mercato delle piante casalinghe non a quello professionale.

Occorre anche dire però che spesso l’incenso non è ottenuto dalla Boswellia, ma di fatto da resine ed oli essenziali di diversa origine. Per esempio sulla rivista danese Survey of chemical substances in consumer products un intero numero (il 39 del 2004 liberamente scaricabile da eng.mst.dk/media/mst/69122/39.pdf ) è dedicato alle sostanze emesse dall’incenso quando viene bruciato; il nome Plectranthus è assente ma lo è anche Boswellia; in questo caso si parla solo delle numerose altre sostanze, alcune sintetiche, a volte aggiunte alla resina per produrre l’incenso sacro.

La pubblicazione è interessante e indica che la combustione dei vari tipi di incenso per uso religioso o casereccio a scopo odorifero non è priva di rischi per l’utilizzatore, a causa dell’elevato numero di sostanze organiche che si formano durante la combustione; l’incenso infatti si usa bruciandolo mentre l’odore a cui mi riferisco io è l’odore della pianta allo stato naturale. Ovviamente durante lo smouldering una parte degli oli essenziali evapora semplicemente ma si formano anche altre piccole molecole. Qualche anno fa c’è stata una rivolta a Taipei perché il governo aveva cercato di regolamentare l’uso dei fumi dell’incenso considerato pericoloso per la salute.

Per distinguere il prodotto originale si usa anche il termine “franchincenso”, che sta ad indicare il “vero” incenso.

Il franchincenso (https://it.wikipedia.org/wiki/Franchincenso) è quello che si ottiene dalla Boswellia ed è noto anche come “olibano” dall’arabo al-lubán, il latte che indica la resina di origine; tuttavia anche qua la questione è che le piante da cui si ottiene la resina possono essere più numerose della sola Boswellia Sacra o Serrata e così la composizione non è del tutto univoca (ma quante parole dobbiamo all’arabo?).

Un composto tipico dell’incenso da Boswellia è il seguente acido boswellico:

che costituisce il 30% della resina ma non è quello che conferisce l’odore tipico.

Se proprio volete saperlo perfino una classica review del 2009 (1) sui componenti dell’odore di incenso, una review che ha avuto l’onore di essere copiata e ricopiata (c’è un’altra review ritirata per plagio di questa) dopo aver esaminato buona parte dei 300 componenti conclude :

None of the volatiles identified in the different studies have, according to our knowledge, ever been attributed to the specific smell of frankincense. It is interesting to note, however, that an olibanum-like odour has been reported elsewhere for a substance found in orange oil residue,[15] which was identified as cis-iso-cascarilla acid (cf. Figure 4). Nevertheless, this compound has not been reported as a constituent of frankincense in the literature discussed in this review. ……..

The studies summarized in this review are generally focused on substances with high abundances and it is not clear whether all odour contributing compounds of frankincense or of specific frankincense varieties have thus so far been identified. Furthermore, it remains unanswered whether there are substances with frankincense-specific odour qualities, or whether the characteristic smell of frankincense is due to a specific blend of odorants, as often observed in other food or plant aromas. Further research is therefore necessary to elucidate the specific contributors to the aroma-profile of frankincense and frankincense pyrolysate.

(attenzione alle parti in rosso)

Dunque apparentemente non c’era risposta alla domanda fino a 10 anni fa; in realtà solo 3 anni fa c’è stata la scoperta da parte di un gruppo di cui fanno parte tre colleghi dell’Università di Torino con un bellissimo lavoro su Angewandte (2), che ho letto con difficoltà (non è facile né banale) ma con grande interesse. Hanno usato la Boswellia carteri ed una combinazione dei più sofisticati metodi di ricerca comprendenti sia i metodi cosiddetti olfattometrici sia un panel di persone fisiche per estrarre e caratterizzare una coppia di molecole finora non individuate ma che sono all’origine dell’odore dell’incenso. Si tratta di due delle molecole qui sotto indicate la prima e la terza (acidi (1S,2S)- (+)-trans- e (1S,2R)-(+)-cis-2-octilciclopropil-1-carbossilici ) battezzati col nome comune di acidi olibanici:

Notate la somiglianza con la molecola indicata dalla review del 2009 (che appare essere simile alla quarta dell’elenco ma con un carbonio in meno nella coda)!

Quale è la funzione di questi acidi nelle piante? Sono messaggeri chimici di qualche tipo? Non lo so, né gli autori avanzano ipotesi sul tema. Essi hanno anche sintetizzato le due molecole e le hanno cercate in altre specie di Boswellia. Nelle conclusioni commentano i motivi per cui nonostante la ampia e secolare ricerca finora non ci sia stata una identificazione certa, e questa è la parte più interessante per il chimico analitico.

Le due molecole identificate appartengono ad un gruppo non comune ma comunque presente in altre piante e la cosa bella è che molecole simili erano state identificate nella menta e nell’olio di arancia con la osservazione che (1, 6) “It is interesting to note, however, that an olibanum-like odour has been reported elsewhere for a substance found in orange oil residue, which was identified as cis-iso-cascarilla acid (cf. Figure 4).

” (si tratta proprio di uno stretto parente dell’acido numero 6 della figura seguente (8 atomi nella coda) che, come notato, è a sua volta legato a quelli effettivamente individuati).

Diciamo che il processo di inviduazione è iniziato con una intuizione del 2007 ma solo 10 anni dopo ha trovato conferma certa. E questo dopo secoli di uso del franchincenso.

La situazione della seconda pianta, l’incenso abusivo, diciamo così, il Plectranthus è invece nella fase in cui ci sono molti lavori sui componenti dell’olio essenziale, ma le molecole identificate dai colleghi torinesi non sono individuate fra queste, e non è strano se è così difficile trovarle. Cito solo fra i lavori che ho consultato il (3) e il (4), ma ce ne sono a dozzine come ce n’erano per la Boswellia. Le analogie di costituenti sono molte, ma una volta esclusa l’idea, pure possibile, che ci siano “effetti di gruppo” dei componenti sull’odore e che i responsabili veri dell’odore dell’incenso siano esclusivamente gli acidi olibanici occorre dire che ancora non si sa se ci sono o no anche nel Plectranthus, nessuno li ha cercati; probabilmente ci sono e si tratta di cercarli (un suggerimento per i colleghi torinesi: il Plectranthus contiene gli acidi olibanici?)

A riguardo della funzione, che come sapete è un argomento che mi appassiona una sola nota da aggiungere

Carlisle, Ellis & Betts (1965) (5) propongono una spiegazione per la sincronizzazione della maturazione degli adulti della Schistocerca gregaria, ossia della Locusta comune. Essi riportano parecchi dati che confermerebbero che la maturazione coincide “with the bud burst of certain desert shrubs, a week or more before the heavy rains begin and several weeks before the appearance of the annual vegetation”.

In pratica i fiori di piante come la Boswellia e la Commiphora (ossia la mirra della Bibbia!!!), che hanno germogli resinosi quando sono messi in gabbie con locuste ne causano la rapida maturazione con cambio di colore; nel deserto le locuste maturerebbero appena prima delle piogge quando i fiori della Boswellia e della mirra danno loro il segnale sbocciando massicciamente! E’ possibile che qualcuno dei componenti dell’olio essenziale di queste piante abbia il ruolo di scatenare lo sviluppo delle locuste. Forse proprio uno degli acidi olibanici? Pensate che cosa incredibile e magnifica e terribile nello stesso tempo! E noi che siamo ancora al REACH (e per fortuna ci siamo arrivati)! Controlliamo solo le sostanze prodotte in gran quantità, ma chissà quante altre di sintesi hanno effetti significativi e nemmeno lo immaginiamo.

E la Natura (intendo qua non il dio dell’incenso, ma il dio di Spinoza, deus sive Natura, io sono ateo e non vado oltre) che possiede metodi così meravigliosi di allerta e di rete, così sottili e fantasticamente selettivi e precisi si compiace, forse, dei nostri sforzi di comprenderla, ma soprattutto se la ride della nostra illusione di dominarla.

Riferimenti.

(1) Flavour Fragr. J. 2009, 24, 279–300 The volatile constituents of frankincense – a review Michaela Mertens, Andrea Buettner and Eva Kirchhoff

(2) The (+)-cis- and (+)-trans-Olibanic Acids: Key Odorants of Frankincense CØline Cerutti-Delasalle, Mohamed Mehiri, Cecilia Cagliero, Patrizia Rubiolo, Carlo Bicchi, Uwe J. Meierhenrich, and Nicolas Baldovini Angew. Chem. Int. Ed. 2016, 55, 13719 –13723

(3) Gerhard Buchbauer , Leopold Jirovetz , Michael Wasicky & Alexej Nikiforov (1993) Volatile Constituents of the Headspace and Essential Oil of Plectranthus coleoides Marginatus (Labiatae), Journal of Essential Oil Research, 5:3, 311-313, DOI: 10.1080/10412905.1993.9698226

(4) Microdistillation and essential oil chemistry—a useful tool for detecting hybridisation in Plectranthus (Lamiaceae)

A.M. Viljoen , B. Demirci, K.H.C. Bas ̧er , C.J. Potgieter , T.J. Edwards South African Journal of Botany 72 (2006) 99 – 104

(5) Carlisle, Ellis & Betts The influence of aromatic shrubs on sexual maturation in the desert locust Schistocerca gregaria

Journal of Insect Physiology 11(12):1541-1558

(6)S. Widder, J. Looft, W. Pickenhagen, T. Voessing, S. Trautzsch, U.

Schaefer, G. Krammer. Recent Highlights in Flavor Chemistry and Biology (Proceedings of the Wartburg Symposium), 8 Feb/Mar 2007, 280.

Novel flavor compounds in orange oil residue (English)

Widder, S. / Looft, J. / Pickenhagen, W. / Vossing, T. / Trautzsch, S. / Schafer, U. / Krammer, G.

8th, Wartburg symposium on flavor chemistry and biology; 2007; Eisenach, Germany

inWartburg symposium on flavor chemistry and biology ; 280-283

Wartburg symposium on flavor chemistry and biology

Deutsche Forschungsanstalt fur Lebensmittelchemie ; 2008

Nuove tecnologie sperimentali per la rimozione del fosforo dalle acque reflue.

Mauro Icardi

Il problema dei nutrienti rilasciati nei corpi idrici, in particolare azoto e fosforo, era già emerso tra la metà degli anni 70 e i primi anni 80. Le fioriture algali nel mare Adriatico, con la conseguente ricaduta negativa nel settore turistico, furono trattate ampiamente nei servizi giornalistici, soprattutto televisivi, in quel periodo.

Per quanto riguarda il trattamento di rimozione del fosforo, esso è sempre risultato leggermente più complesso di quello dell’azoto. Questo perché da sempre, i limiti per questo parametro erano più restrittivi rispetto a quelli dell’azoto. La legge 319/76 (Legge Merli) prevedeva per il fosforo un valore limite di 0,5 mg/lt.   Questo valore si applicava a tutti gli impianti che recapitavano gli scarichi in particolari zone, maggiormente vulnerabili a rischi di eutrofizzazione. In particolare i laghi e i corsi d’acqua ad essi afferenti per un tratto di 10 Km dalla loro immissione nel lago; le aree lagunari e i laghi salmastri; le zone umide.

Attualmente il dlgs 152/2006 vigente, ha recepito la direttiva quadro 2060/CE che mira a conseguire la classificazione di “buono stato ecologico e chimico” per tutte le acque superficiali. Quindi non solo per quelle specificate nella ormai abrogata Legge Merli. In caso di situazioni critiche, per qualunque corso d’acqua ritenuto vulnerabile, si possono stabilire limiti allo scarico più restrittivi.

Con il trattamento di depurazione biologica a fanghi attivi tradizionale la percentuale di abbattimento del fosforo normalmente si attestava intorno a valori percentuali pari al 45-50%. Non era quindi possibile rispettare il valore limite che, generalmente è sempre stato fissato tra 0,5 e 1 mg/lt. Le acque reflue possono contenere da 5 a 20 mg/l di fosforo totale, di cui 1-5 mg/l rappresentano la frazione organica, ed il resto è la parte inorganica. Il contributo pro capite di fosforo varia tra 0.65 e 4.80 g/abitante/ giorno, con una media di circa 2.18 g.

Il fosforo contenuto nelle acque reflue si riscontra normalmente in queste due specie chimiche:

Ortofosfati: disponibili per il metabolismo biologico senza ulteriori scissioni

Polifosfati: molecole con due o più atomi di fosforo, atomi di ossigeno e qualche volta idrogeno, combinati in una molecola complessa. Solitamente i fosfati vanno incontro ad idrolisi e si trasformano in ortofosfati, ma il processo è in genere piuttosto lento.

La principale tecnica per il trattamento di questo inquinante è il trattamento chimico-fisico utilizzando sali trivalenti di ferro, oppure di alluminio se esistono problemi legati al colore.

L’allume o il solfato di alluminio idrato è ampiamente usato per la precipitazione di fosfati e fosfati di alluminio (AlPO4).

Questa la reazione di base: Al3+ + HnPO43-n ↔ AlPO4 + nH+

Il trattamento con sali di alluminio viene maggiormente utilizzato per la chiarificazione di acqua destinata ad uso potabile. Questo perché, nel trattamento delle acque reflue possono svilupparsi maggiori problemi gestionali, legati principalmente ai valori di alcalinità, pH ed elementi in tracce presenti nell’acqua da trattare. Oltre a questo i composti a base di alluminio possono interagire negativamente con la popolazione di protozoi e rotiferi che colonizzano il fango attivo.

Per queste ragioni, il trattamento di precipitazione è effettuato principalmente tramite dosaggio di cloruro ferrico.

Fe3+ + HnPO43-n ↔ FePO4 + nH+

Gli ioni di ferro si combinano per formare fosfato ferrico. Reagiscono lentamente con l’alcalinità naturale e quindi un coagulante, come la calce, viene normalmente aggiunto per aumentare il pH e favorire la coagulazione e la precipitazione.Il cloruro ferrico però tende ad essere aggressivo nei confronti delle strutture ferrose, ed inoltre questo tipo di trattamento produce notevoli quantità di fanghi. Che devono essere smaltiti separatamente, oppure miscelati in proporzione non superiore al 20% con i fanghi biologici, e poi destinati al trattamento di disidratazione.

Per superare questo tipo di problemi, si stanno sperimentando alcune tecniche nuove.

Depurazione con nanoparticelle di ferro.

In questo caso si tratta di ottenere lo stesso effetto della precipitazione chimica, impregnando sferette di resine sintetiche con ioni ferrici. L’acqua da trattare viene fatta passare sulle sferette che trattengono alla loro superficie i composti di fosforo. La rigenerazione del letto o della cartuccia di trattamento si ottiene con soluzione di soda caustica. Il processo non produce fanghi. Rimane aperto il problema della rigenerazione della soluzione esausta, e della possibilità, per ora solo teorica, di recupero del fosforo del fosforo dalla stessa.

Bioreattori con alghe.

Le sperimentazioni di bioreattori contenenti alghe in grado di accumulare i composti di fosforo, sono risultati promettenti dal punto di vista dei rendimenti di rimozione (80-85%), ma costosi per quanto riguarda la rimozione delle alghe stesse dal bioreattore. Per ridurre i costi di estrazione si è pensato di incapsulare le alghe entro sferette di resine biologiche (alginati), derivanti dalle alghe stesse. Le sferette essendo più pesanti dell’acqua tendono a sedimentare. Quindi per questo utilizzo è necessario utilizzare un reattore a letto fluido. Le sferette di alghe ricche di fosforo potrebbero trovare impiego diretto come fertilizzanti. In alternativa essere inviate al processo di digestione anaerobica. La parte gassificabile sarebbe convertibile in energia, il residuo solido (digestato), arricchito in fosforo potrebbe essere utilizzato come materia prima di recupero o fertilizzante.

Fitodepurazione reattiva combinata.

In questo caso il trattamento del fosforo avviene in un impianto di fitodepurazione a canneto. L’ambiente acquatico viene arricchito in ioni calcio utilizzando scorie di acciaieria . Normalmente questo sottoprodotto possiede concentrazioni in calcio dell’ordine dei 130-150 g/Kg. Il calcio fa precipitare il fosforo sotto forma di fosfato, e può venire aspirato dal bacino di fitodepurazione e successivamente filtrato. Il processo è in fase di sperimentazione in Inghilterra da parte della società pubblica Severn Trent Water, che gestisce il ciclo idrico nella zona di Nottingham e Derby.

Sono da valutare in questo caso le possibili destinazioni d’uso del fosfato di calcio ottenuto. In particolare verificando la contaminazione da metalli, prima di deciderne la destinazione finale. E ovviamente anche la sostenibilità economica.

Recupero per via elettrochimica.

Una delle tecniche usate per il recupero del fosforo è quella di precipitarlo sotto forma di struvite, cioè fosfato di magnesio e ammonio esaidrato (NH4)MgPO4·6(H2O). Per ottenere la struvite è necessario aggiungere sali di magnesio e soda, per regolare il pH. Il processo tedesco ePhos ® (Electrochemical Process for Phosphorus Recovery), sviluppato dal Fraunhofer Institute for Interfacial Engineering and Biotechnology di Stoccarda riesce può essere utilizzato per rimuovere fosforo dalle acque reflue.

Il processo si basa sull’utilizzo di una cella elettrolitica con un anodo in magnesio. L’azione alcalinizzante è sviluppata dall’ossidazione al catodo dell’acqua, con produzione di idrogeno gassoso e ioni OH(ione idrossile).

Non vi è quindi la necessità di utilizzare prodotti chimici, ottenendo un prodotto di alta purezza.

La struvite ottenuta con questo processo può quindi essere utilizzata direttamente come fertilizzante a lento rilascio. Il prodotto riesce ad essere assimilato meglio dalle piante rispetto ai normali fertilizzanti commerciali, quali il nitrato d’ammonio o il perfosfato (conosciuto comunemente con il nome di superfosfato). La resa di abbattimento del fosforo dai reflui utilizzando questa tecnica processo, si attesta su valori pari all’85%,con un consumo energetico pari a 0,78 kWh/mc.

Probiotici si o no?

Luigi Campanella, già Presidente SCI

Dalle barrette alle polveri proteiche i probiotici hanno avuto in quest’ultimi tempi un vero e proprio boom a favore della salute in tutti i gusti di alimenti. Consumando questi benefici batteri se ne ricevono vantaggi in molte delle funzioni del nostro organismo, dalla digestione alle funzioni del cervello;ma senza alcun riguardo rispetto a quali forma e dimensioni di questi probiotici siano da preferire.In molti casi però le persone non traggono da essi il vantaggio atteso ed addirittura in qualche caso specifico possono ricavarne dei danni. Alcuni studi di recente pubblicati sul giornale Cell indagano proprio questo, il rapporto fra benefici e danni che possono derivare dal loro uso incontrollato. E’ stato così dimostrato che in molte persone il tratto gastrointestinale rigetta probiotici generici prima che essi possano cominciare ad agire. Ancora peggio nella competizione microbiologica i probiotici somministrati possono prevenire il ristabilirsi dell’equilibrio probiotico naturale,possibilmente compromesso, ad esempio, a seguito dell’assunzione di antibiotici. Questo significa passare da una filosofia del compra e consuma rivolta a generici probiotici commerciali ad una più personalizzata. Questo non significa un ridotto interesse verso i probiotici tenuto conto del fatto che, a maggior ragione nella nuova visione, vantaggi certamente ne derivano dal loro uso, tanto è vero che il 60% dei medici li consigliano e 4 milioni di americani-è l’unica statistica sul tema che ho trovato- li consumano.

Dal fatto che molti di essi siano venduti come supplementi alimentari e non siano soggetti alle restrizioni e regolamenti delle agenzie del farmaco potrebbe derivare una corrispondenza non garantita fra realtà e quanto dichiarato dai produttori:lo studio sembra superare questo rischio in quanto probiotici testati realmente contenevano le culture,fino a 11 insieme, dichiarate. Quella che invece cambia è la risposta individuale che può essere di accettazione o di espulsione dei probiotici somministrati in ragione del proprio patrimonio naturale probiotico già presente. E’ quindi una combinazione del microbioma naturale, di quello aggiunto e del sistema immunogenetico umano a determinare lo specifico stato di una persona rispetto alla resistenza e alla colonizzazione da parte dei probiotici. E’ stato poi anche rilevato che in molti casi le componenti colturali di un probiotico si comportano in modo diverso, positive alcune, negative altre. Infine nei test eseguiti è emerso che il trattamento prolungato nel tempo con probiotici può produrre danni rispetto alla rigenerazione del patrimonio batterico, anche dopo 6 mesi dall’assunzione.

https://www.cell.com/cell/pdf/S0092-8674(18)31102-4.pdf

Come è nata la prima “Tavola Periodica “ di Mendeleev ?

Roberto Poeti

Il museo

Penso non ci possa essere per un chimico una emozione tanto forte come quella che si prova visitando l’appartamento di Mendeleev all’Università di San Pietroburgo . Vi abitò dal 1867 al 1890 . L’appartamento si trova al pianterreno della Facoltà di Chimica ed era comunicante con il suo laboratorio . Dal 1911 , quattro anni dopo la sua morte , è stato trasformato in Museo . Ho visitato il Museo nel 2009 in occasione di un viaggio a San Pietroburgo . La cosa paradossale è che non avevo idea dell’esistenza di questo patrimonio . Il penultimo giorno di permanenza a San Pietroburgo mi sono accorto , consultando per l’ennesima volta la guida , che in un angolino , a caratteri minuti , era riportata la notizia dell’esistenza del museo. Quindi in pieno Ferragosto , giorno feriale in Russia , sono riuscito a trovare con difficoltà il museo e a visitarlo . Una visita tutta in solitario , con la Dott. Natalia che mi faceva da cicerone senza parlare inglese , ma leggendo le informazioni scritte in inglese da un suo quadernetto di appunti . Mi è sembrato di visitare un piccolo museo di paese senza ostentazioni , tutto molto informale . Quando si entra nell’ appartamento, dopo aver percorso alcune stanze , si arriva allo studio . Qui il tempo si è fermato , tutto è rimasto come era alla morte di Mendeleev. In un lato dello studio c’è la sua scrivania , la sua poltrona , gli scacchi . Ed è proprio qui che Mendeleev, ha fatto i suoi primi tentativi di sistemare gli elementi .

Lo studio di Mendeleev con la scrivania dove ha concepito la Tavola Periodica                                                                                                                                           Durante la visita ho potuto scattare molte foto , comprese copie di appunti che Mendeleev ha tracciato su alcuni fogli su cui sono rappresentati schemi di sistemazione degli elementi . Analizzando il contenuto di questi documenti in relazione alla loro cronologia si può seguire il cammino che ha compiuto M. per arrivare alla sua prima stesura della T.P. che dà alle stampe il 17 Febbraio 1869 e che intitola “ Un tentativo di sistemare gli elementi secondo i loro pesi chimici e le funzioni chimiche “ .

 Il contesto scientifico

Vediamo prima il contesto in cui si inserisce la scoperta di M. . Pochi anni prima al congresso di Karlsruhe ( 1861 ) era stato definito ad opera di Cannizzaro un metodo rigoroso per la determinazione dei pesi atomici. M. giovane chimico partecipa al congresso ed è tra quelli che è fortemente impressionato dalla soluzione proposta da Cannizzaro . Da quel momento i pesi atomici escono dalla ambiguità che li aveva prima caratterizzati e diventano uno dei parametri fondamentali dell’identità degli elementi . Si aggiungono a proprietà come la valenza , pesi specifici, calori specifici , volumi atomici , formazione e natura dei composti . Quest’ultimi sono stati studiati a fondo per anni da M. L’esigenza di passare dallo specifico al generale , cioè dal confronto di pochi elementi ad uno schema generale di classificazione che comprenda tutti gli elementi , diviene sempre più impellente . Nel 1867 a M. viene affidata l’importante cattedra di Chimica all’Università di San Pietroburgo , carica che era occupata prima dal suo mentore Voskresenskii . La riforma dei pesi atomici e la scoperta di nuovi elementi ha reso tutti i precedenti libri di testo superati e ha fatto emergere la necessità di un loro aggiornamento .

Un nuovo libro di testo

E’ questa esigenza che M. sente così importante e urgente . C’è bisogno di un nuovo libro di testo per la formazione chimica degli studenti universitari russi , ” Ho cominciato a scrivere [Principi] quando ho iniziato a tenere lezioni sulla chimica inorganica all’Università dopo [la partenza di] Voskresenskii e quando, dopo aver dato una occhiata a tutti i libri, non ho trovato nulla da consigliare agli studenti “. Così si accinge a scrivere nel 1868 il libro “ Principi di Chimica“. E’ un’opera che tratta in modo esteso la Chimica Generale e Inorganica . La prima parte dell’opera viene completata alla fine del 1868 . Vi sono trattati gli elementi H , O , N , C , detti elementi organogenesi , in ogni dettaglio . Ha ordinato gli elementi secondo la loro valenza . Segue per ultimo la trattazione del gruppo degli alogeni, considerati fortemente non metallici . Verso la metà di febbraio del 1869 completa i primi due capitoli della seconda parte dell’opera presentando i metalli alcalini , speculari agli alogeni, fortemente metallici e entrambi con valenza uno . Si presenta ora in tutta la sua acutezza il problema che si era già presentato nello stendere il piano preliminare della seconda parte dell’opera e cioè quali elementi trattare dopo i metalli alcalini , ma più in generale quale schema adottare nella trattazione di tutti gli elementi conosciuti . Ha trattato 8 elementi , ne restano 55 ( gli elementi conosciuti erano 63) . Ritiene sia necessario che gli elementi siano sistemati con un criterio più rigoroso , come poteva essere quello numerico . E’ una esigenza di tipo pedagogico quella che determina la necessità di ordinare in un sistema coerente gli elementi . L’obbiettivo è essenzialmente quello di preparare un testo aggiornato e utile per gli studenti .

Una persona poliedrica

Con questo assillo il giorno 17 febbraio inizia la giornata preparandosi per un viaggio di dieci giorni , da tempo programmato , che lo avrebbe portato a visitare diverse cooperative di prodotti lattiero – caseari in alcuni distretti della Russia centrale . M. è una persona poliedrica , sensibile alle tematiche sociali , fornisce la sua collaborazione volontaria alla Società Economica di San Pietroburgo , una associazione diremmo oggi no-profit. Nella prima decade della seconda metà dell’ottocento la Russia , sotto lo Zar Alessandro II Romanov , vede l’attuazione di importanti riforme come l’abolizione della servitù della gleba che emancipa quaranta milioni di contadini , la riforma della giustizia, dell’istruzione , della stampa . Si creano ogni tipo di cooperative , crescono le piccole aziende artigiane. M. che ha sempre combattuto per le forme più avanzate di sviluppo economico nel suo paese fu un ardente fautore di queste nuove forme di produzione . Collabora con la Società Economica che aiuta e stimola queste forme associative.

La prima bozza

Ed è proprio la mattina del 17 Febbraio ( secondo il calendario Juliano ) mentre fa colazione , prima della partenza in treno, che M. riceve una lettera dal segretario dell’Associazione delle Cooperative che lo informa sui particolari del viaggio . Sul retro della lettera , sulla quale è rimasta l’impronta della tazza della bevanda che stava sorseggiando , M. traccia il primo appunto della giornata , il documento della Fig.1 . La sua giornata inizia in modo agitato tra i tempi stretti di una partenza e il pensiero pressante sul libro che sta scrivendo . Cosa contiene la prima bozza della giornata?

E’ il primo tentativo di ricerca di un criterio numerico per la sistemazione degli elementi . La scelta di M. cade sul peso atomico . Occorre precisare che il peso atomico aveva avuto un posto secondario nella trattazione degli elementi presenti nell’opera che stava in questo stesso periodo scrivendo . Il peso atomico era usato come una qualità secondaria che mostrava l’ordine gerarchico all’interno di una famiglia di elementi . Cosa rappresentano i numeri ?

La prima serie di numeri è attribuibile al peso atomico degli elementi alcalini , la seconda serie ad un gruppo di metalli con valenza due (rimane incerta la prima posizione ): ? , Mg , Zn , Cd. I pesi atomici dei due gruppi sono disposti in ordine crescente .

La novità sta nel confronto tra i pesi atomici di coppie di elementi dei due gruppi che si corrispondono . E’ in questo momento della mattinata che Mendeleev concepì l’idea di confrontare elementi chimicamente diversi in termini di grandezza dei loro pesi atomici . E questo confronto lo realizzò attraverso la differenza tra i loro pesi atomici .

Mendeleev sta lavorando in modo concitato , tallonato dagli impegni assunti , al punto che la sistemazione degli elementi diventa la priorità . Rinvierà poi il viaggio sprofondandosi nel nuovo compito . Ma da questo primo e confuso tentativo è sorprendente che nel volgere della giornata , attraverso momenti di stress e di depressione , come testimonia l’amico Inostrantzev che quel giorno gli ha fatto visita , raggiunga , come vedremo , il risultato rappresentato dalla compilazione della prima tavola periodica .

Un secondo tentativo

Da questo primo tentativo , confrontando i metalli alcalini con il gruppo di altri metalli , M. non ha ottenuto come risultato uno schema che lo convince . Tuttavia insiste sul criterio adottato , cioè la differenza tra pesi atomici . In un altro appunto sparso che ci ha lasciato e si suppone segua quello precedente ordina questa volta in una tabella i gruppi di non metalli, a valenza crescente , più noti in quel momento .

Il criterio principale che segue nel comporre questa tabella è sempre costituito dal confronto tra i pesi atomici degli elementi di gruppi adiacenti . In tutti questi casi , eccetto uno ( Tellurio) , il peso atomico di elementi successivi di gruppi diversi in una colonna decresce di circa la stessa quantità , poche unità atomiche . Ne segue che la posizione di un elemento è corretta se la dimensione del suo peso atomico rispetto agli elementi diversi , adiacenti nella stessa colonna , è di poche unità . Questo criterio acquisterà sempre più , mano a mano che progredisce nella costruzione del suo sistema , un rilievo dominante . A questo proposito nella relazione “ La correlazione delle proprietà e dei pesi atomici degli elementi “ che scrive per la Società Chimica Russa ( 6 Marzo 1869 ) , poco tempo dopo la compilazione della sua prima T.P. , renderà esplicita la scelta di questo criterio :

Lo scopo del mio saggio sarebbe interamente raggiunto se riuscissi ad attrarre l’attenzione degli studiosi verso le relazioni tra le dimensioni dei pesi atomici di elementi non simili [di gruppi diversi ] , che , mi sembra , siano state fino ad oggi ignorate“.

Un passo in avanti

In una successiva bozza che riporta sempre la data del 17 Febbraio M. inserisce nella Tab 1 altri elementi passando da quindici a quaranta circa . La bozza è costituita da due distinti tentativi di ordinazione degli elementi , disposti nello stesso foglio . Il primo , in ordine cronologico , è quello nella parte superiore e il secondo successivo in ordine di tempo è collocato nella parte inferiore . Tra il primo e il secondo M. apporta significanti modifiche .

Vi sono aggiunti tre gruppi rispetto alla Tab.1 , quello dei metalli alcalini , dei metalli alcalini terrosi e il gruppo di metalli che abbiamo già incontrato nel primo tentativo che fa M. nella prima bozza Mg , Zn , Cd . Vi sono altri elementi che chiaramente M. ha difficoltà a inserire e che dispone ai margini . La cosa interessante è il cambiamento che interviene passando dalla disposizione in alto a quella successiva in basso :

 Il corpo centrale della T.P. prende forma , manca il terzo gruppo , la posizione del Berillio e Idrogeno sono incerte .

Un lavoro incessante

Il lavoro di M. prosegue senza pausa . Il documento che più di tutti esprime lo sforzo intellettuale di M. è il seguente , successivo nel tempo a quello della Fig 2 .

La bozza ( Fig.3 ) è un vero e proprio laboratorio sperimentale dove gli elementi vengono collocati singoli o in gruppi, spostati , cancellati , sostituiti. La vera novità rispetto alla bozza di Fig 2 sta nell’avere ampliato la tavola riuscendovi a collocare i metalli di transizione che avevano rappresentato il suo più grosso ostacolo sia per l’incertezza di alcuni pesi atomici , sia per la minore conoscenza delle loro proprietà.  . Trova una collocazione al Be , attribuendogli il corretto peso atomico , superando le difficoltà precedenti. Individua per la prima volta il terzo gruppo con B – Al . Inserisce nel sistema 61 elementi , quasi la totalità di quelli conosciuti . Alla sommità dello schema ci sono le terre rare a cui sono attribuiti pesi atomici non corretti , e il cui inserimenti nella T.P. costituirà sempre un problema per M. All’Uranio è attribuito la metà del suo peso atomico . Alla fine si delinea un sistema con i pesi atomici che crescono di poche unità dal basso verso l’alto e una disposizione degli elementi simili per gruppi , collocati nella stessa riga orizzontale , mentre sono incolonnati in periodi gli elementi i cui pesi atomici variano gradualmente . Il risultato complessivo alla fine è rappresentato da un sistema sufficientemente compatto e coerente .

Gli spazi vuoti

L’ aspetto “rivoluzionario “ di questo lavoro è la presenza di diversi spazi vuoti tra alcuni elementi appartenenti a gruppi diversi . Tra questi ultimi elementi esiste una differenza tra i loro pesi atomici troppo alta, non di poche unità ( ricordiamo che questo è il criterio fondamentale che impiega M. ) . La possibile esistenza di elementi ancora da scoprire che riempiano queste vacanze è una ipotesi ancora prematura . M. ha cercato di costruire uno strumento didattico, gli spazi vuoti hanno il significato che lo schema non è definitivo sia perché diversi pesi atomici sono provvisori , non corretti o non conosciuti , sia perché i vuoti potrebbero essere ridotti con una migliore distribuzione degli elementi.    Rappresentano perciò la spia che il sistema deve essere ancora migliorato .   E’ sorprendente come queste lacune che nascono come difetti del sistema , diventeranno poi la caratteristica che legittimerà agli occhi del mondo il sistema stesso . In nessuna sistemazione degli elementi fatta in quello stesso periodo , quella di John Newlands (1865 ) , di Lothar Meyer (1869 ) e di De Shancourt era prevista la presenza di vuoti nei loro schemi . Il criterio che adotta M. ha una peculiarità unica , mostra i punti dove è da correggere . Nonostante le correzioni , i miglioramenti che M. apporterà al suo primo schema , le lacune continueranno a esistere . M. comincerà a pensare alla possibilità che siano espressione di elementi mancanti , non scoperti .

Ma alla compilazione della sua prima T.P. questo pensiero non si è ancora maturato .

La tavola si ribalta

Alla fine di una lunga giornata di intenso lavoro , dopo un breve riposo , Mendeleev porta una modifica , l’ultima , allo schema visto precedentemente . Immaginiamo di ruotare lo schema di Fig.3 di 180 ° attorno al suo asse X . Otteniamo lo schema di Fig 4 dove il peso atomico degli elementi cresce dall’alto verso il basso ( come nella odierna T.P. ) . La prima versione rifletteva il criterio adottato da M. , infatti egli faceva la differenza tra le dimensioni dei pesi atomici . Nella differenza tra due numeri il più grande si posiziona in alto , da qui la prima sistemazione degli elementi.

E’ in questa ultima forma che M. sistema gli elementi nella sua ultima bozza (Fig 5) , che farà stampare subito dopo .

Vi apporta delle modifiche . Riempie lo spazio vuoto tra Fe e Cu con Ni e Co ai quali tuttavia assegna lo stesso peso atomico ( la posizione di entrambi sarà risolta con la conoscenza della struttura atomica ) . Si mostra nuovamente incerto nel collocare il Mg . Inserirà di nuovo il gruppo Be , Mg , Zn , Cd ( era il gruppo che aveva confrontato all’inizio con i metalli alcalini ) , separando il Mg dal secondo gruppo (Ca, Sr,Ba )

Una tavola periodica familiare

Forse osservando questa ultima bozza , abbiamo l’impressione che sia molto diversa dalla versione che oggi ci è familiare . I gruppi degli elementi sono disposti in righe , mentre i periodi in colonne . Ma se separiamo la bozza in tre parti ( Fig 6) e poi le ricollochiamo in un ordine diverso ( separando gli elementi delle terre rare ) ma rispettando la progressione dei pesi atomici , otteniamo una forma che ci è familiare (figura a destra ). In termini moderni nella prima T.V. di M. troviamo distinti gli elementi divisi nei tre blocchi s , p , d , rispetto al riempimento degli orbitali , come nella versione odierna della T.V.

Nasce così verso la sera del 17 febbraio 1869 , dopo una lunga giornata di intenso e stressante impegno intellettuale, in cui si alternano momenti di esaltazione a periodi di depressione , la prima sistemazione degli elementi di Mendeleev. Fa stampare la bozza , 150 copie in russo e 50 in francese che invia a vari chimici .

Lo chiama “Tentativo “ . M. è ben consapevole del carattere ancora provvisorio del suo lavoro e delle posizioni incerte di diversi elementi . Ma le basi sono gettate. In questo momento la consapevolezza di una legge periodica che sottostà al suo schema non è ancora maturata . Infatti è improbabile che Mendeleev avesse compreso la generalità del suo sistema, quando lo sviluppò nel febbraio 1869 . Se fosse stato consapevole delle implicazioni del sistema periodico, egli molto probabilmente non avrebbe relegato al suo amico Nokolay Menshutkin la presentazione iniziale di esso alla Società Chimica Russa nel marzo 1869 mentre era a ispezionare le cooperative per conto della Società Economica di San Pietroburgo . Così come era ancora lontano dalla possibilità di prevedere nuovi elementi che occupassero gli spazi vuoti . Scriverà il primo articolo scientifico sulla sua prima T.P. nell’Aprile 1869 , due mesi dopo che ha fatto stampare la prima bozza . Fa alla fine dell’articolo una lista di otto vantaggi che il suo sistema avrebbe nei confronti delle altre classificazioni concorrenti in quel periodo . Al sesto punto vi compare il primo accenno sulla possibilità di prevedere nuovi elementi . E’ una predizione debole , la colloca solo al sesto punto ed è molto vaga . Prevale , dalle sue note , la scelta di cercare di riempire gli spazi vuoti con elementi già esistenti in base alle proprietà chimiche , e vedere se per esempio i loro pesi atomici fossero stati erroneamente misurati . Solo nell’agosto 1869 in un articolo sul volume atomico abbandonerà questo approccio e alcune delle precedenti vaghezze . Apporterà nei due anni successivi diverse modifiche alla sua prima bozza , fornendo varie versioni ( ma questa è un’altra storia ) .

Una ricostruzione della T.P. a posteriori

Quando immaginiamo di costruire la Tavola Periodica mettendo gli elementi secondo l’ordine dei loro pesi atomici crescenti e osservando che a certi intervalli si ripresentano elementi con proprietà simili , stiamo facendo una ricostruzione a posteriori che è efficace nella pratica didattica , ma che non è corretta come ricostruzione storica .

Le proprietà periodiche e la legge della periodicità sono emerse in seguito , diverso tempo dopo la compilazione della prima T.P. Quest’ultima già contiene i caratteri di periodicità , ma il riconoscimento di una legge di natura è stato più complesso della presenza di una certa regolarità nel sistema . In realtà , come si è visto , Mendeleev non usa il peso atomico quanto piuttosto la differenza tra i pesi atomici come criterio per creare un sistema di elementi .

La sua prima T.P. mostra come i gruppi di elementi siano stati sovrapposti , come gli elementi di una pila di Volta , secondo il criterio della minima differenza tra i pesi atomici di elementi adiacenti di gruppi diversi . E là dove i gruppi di elementi non erano ben caratterizzati e differenziati , come tra i metalli della serie di transizione , è riuscito a trovare, dopo un lavoro tormentato fatto di prove ed errori come abbiamo visto , una loro definizione e collocazione seguendo il criterio principale da lui adottato . La periodicità non viene scoperta e quindi subito riconosciuta , quanto piuttosto emerge come una conseguenza del criterio che lui adotta nel suo sistema . Ne è un conseguenza , da qui il tempo più lungo per riconoscerne la sua importanza .

Un paradosso

La tavola periodica e la enunciazione della legge della periodicità che sarà il traguardo finale di M. hanno costituito lo strumento più potente in mano ai chimici e fisici per arrivare a comprendere la struttura dell’atomo . Ed è paradossale, ma nella storia della scienza altri esempi non mancano , che proprio M. che ha costruito questo strumento , abbia nutrito nei confronti della teoria atomica una buona dose di diffidenza e che di fronte alla possibilità , in seguito , che l’atomo avesse una struttura subatomica opponesse il suo scetticismo .

Immagini del Museo

Nel mio blog è contenuto un articolo sull’appartamento – museo di Mendeleev all’Università di San Pietroburgo .

Sono raccolte le immagini delle stanze dell’appartamento , delle foto e dei quadri appesi alle pareti   , di vari documenti raccolti nelle bacheche . Le didascalie sono state tradotte dal russo .

http://www.robertopoetichimica.it/universita-san-pietroburgo-la-casa-museo-dimitrij-ivanovic-mendeleev/

Bibliografia

Michael D.Gordon “ A well – ordered thing “

B.M. Kedrof “ On the question of the psychology of scientific creativity ”

Masanori Kaji “ D. I. mendeleev’s concept of Chemical elements and the principles of chemistry “

Eric Scerri “ How exactly did Mendeleev discover his periodic table of 1869? “

Eric Scerry “ The Periodic Table: A Very Short Introduction “

L’avvertimento arriva da lontano

Mauro Icardi

In questi giorni sto nuovamente riflettendo sulla situazione del ciclo idrico. Rifletto sull’acqua. Condizione non nuova, ma che si lega alle notizie che ci mostrano la fine di una stagione invernale che non ha decisamente più senso definire anomala. Gli inverni, perlomeno nel nordovest in Italia sono più caldi, ma quel che è peggio anche avari di precipitazioni. E questa situazione si ripercuote ovviamente nei problemi ordinari di gestione, sia dal punto di vista della fornitura di acqua destinata ad uso potabile, che per il raggiungimento di limiti maggiormente restrittivi per gli impianti di depurazione.

Prima di proseguire nella mia riflessione, vorrei però ricordare una pubblicità progresso risalente al 1976 che venne pubblicata su quotidiani e periodici in quell’anno.

Credo che questa immagine sia decisamente interessante. Segnala un problema che in quegli anni forse non preoccupava la maggior parte delle persone. Forse i problemi percepiti erano ben altri. Inflazione, terrorismo, disoccupazione. Ma gli anni 70 sono anche quelli in cui il problema ambientale emerge prepotentemente. E il settore idrico non fa eccezione. Come già altre volte ho ricordato, nel 1976 viene promulgata la legge 319/76, ma meglio ricordata come “Legge Merli”. L’Italia compie il primo importante passo per una migliore gestione delle risorse idriche. Ma più specificatamente inizia a dotarsi di una serie di impianti per il trattamento delle proprie acque di rifiuto. Il cammino iniziato 43 anni orsono, non è ancora completato. Si sono fatti molti passi avanti, ma ancora pendono procedure di infrazione per mancata o incompleta depurazione degli scarichi fognari.

La situazione è sinteticamente descritta in questo articolo.

http://www.gruppohera.it/gruppo/com_media/dossier_depurazione/articoli/pagina22.html

Quello che invece mi interessa come tecnico del settore è fare presente come, nelle zone d’Italia più soggette a lunghi periodi di siccità, e scarso innevamento invernale, si stia sempre più verificando un fenomeno che deve essere monitorato. I fenomeni di siccità ravvicinati e frequenti provocano sempre più spesso periodi di asciutta dei corsi d’acqua minori, e forti riduzioni della portata dei fiumi principali, per esempio Ticino e Po.

Questa foto si riferisce alla secca del fiume Lambro nell’Agosto del 2015, e credo che valga molto più di ogni parola. La filosofia progettuale degli impianti di depurazione ha sempre cercato un ragionevole equilibrio tra costi di realizzazione e qualità delle acque in uscita. Queste ultime venivano recapitate in corpi idrici dove avveniva l’ultima parte del processo depurativo. I flussi di portata erano valutati, ma non si ipotizzavano situazioni di asciutta perlomeno per i grandi fiumi. Fino all’inizio del nuovo millennio, dove i sistemi di canalizzazione e trattamento dei reflui erano efficienti e correttamente gestiti, si sono visti notevoli miglioramenti. Si erano faticosamente riequilibrate la condizioni favorevoli per gli ecosistemi fluviali, e per il mantenimento della biodiversità degli stessi. Ora queste situazioni rischiano di essere nuovamente compromesse. E quindi credo sia giunto il momento di capire che l’acqua è ormai già più preziosa della benzina. E non dal punto di vista meramente economico, ma dal punto di vista del suo essere indispensabile per la nostra stessa vita. E quindi lancio un ulteriore appello. Accorato e profondamente sentito. Difendiamo e tuteliamo la risorsa acqua. Ma per fare questo dobbiamo creare sinergie. Università, enti di ricerca, enti di controllo e gestori. E cittadini, non ultimi. Che però non solo debbono essere correttamente informati, ma devono pensare a modificare stili di vita, e abitudini consolidate. Prima che i fiumi muoiano. E prima di dover fare la fila davanti all’autobotte parcheggiata davanti a casa per avere acqua. L’acqua è un diritto universale. Ma è un diritto a cui si arriva con l’impegno. Con le corrette scelte di gestione del territorio e del patrimonio idrico. L’acqua è certamente un diritto universale, ma non garantito. Ricordiamolo ogni volta che apriamo il rubinetto di casa, o pigiamo il pulsante dello scarico del nostro wc.

Per fare qualche riflessione.

http://www.nimbus.it/clima/2019/190301InvernoItalia.htm

https://www.mbnews.it/2016/02/emergenza-siccita-nel-molgora-ce-solo-lacqua-scaricata-dai-depuratori/

https://lecconotizie.com/cronaca/lecco-cronaca/laghi-in-secca-i-geologi-serve-una-gestione-idrica-diversa/

La coperta.

Luigi Campanella, già Presidente SCI

La coperta delle risorse naturali è corta e il benessere dell’umanità è minacciato dal riscaldamento del clima; per fortuna abbiamo già a portata di mano tutti gli strumenti necessari per uno sviluppo sostenibile. Lo annuncia Paul Hawken, padre del “capitalismo naturale”, dalla cui opera è nato il concetto di Green Economy.

Hawken e il suo team di 70 scienziati e economisti hanno compilato un elenco delle cento soluzioni più efficaci per combattere l’effetto serra, dando al tempo stesso una spinta all’economia globale. Da questo studio è nato un libro “Drawdown” (Penguin), che trae il titolo dal momento nella storia in cui la concentrazione di gas a effetto serra in atmosfera comincerà a calate. Un momento che, procedendo nella direzione attuale, potremmo non raggiungere mai.

Dice Hawken :“Nessuno dei modelli stilati finora dalle istituzioni impegnate nella lotta ai cambiamenti climatici o da scienziati indipendenti è in grado di raggiungere quel momento, perché tutti si occupano principalmente di energia. Al massimo, riescono ad ottenere l’inversione del trend delle emissioni, ma non un calo della CO2 già emessa in atmosfera. Partono dal presupposto che arrivando al 100 per cento di produzione energetica da rinnovabili avremo risolto il problema, ma non è vero. Ci sono altri campi oltre all’energia, dal cibo agli edifici, dall’utilizzo del territorio all’istruzione delle donne, che sono altrettanto importanti. Tra le novità più sorprendenti che abbiamo scoperto, dopo aver analizzato tutti i dati e superata la revisione di altri scienziati, c’è l’importanza del ruolo delle donne. Mettendo insieme l’impatto dell’istruzione femminile e quello della pianificazione familiare si scopre che l’educazione delle bambine sta in cima alla lista delle azioni contro i cambiamenti climatici, perché facendola avanzare da qui al 2050 avremmo 1,1 miliardi di persone in meno rispetto al trend attuale, con tutte le conseguenze positive sui minori consumi di risorse. L’eliminazione degli sprechi alimentari e la diffusione di una dieta ricca di proteine vegetali invece che animali (ma non completamente vegetariana) sono altri contributi per salvare il nostro pianeta.

Per ottenere una vera inversione di tendenza lo sguardo va allargato a tutte le attività umane:si pensi che l’allevamento di animali da macello produce globalmente la stessa quantità di emissioni di tutte le centrali elettriche del mondo.

In ogni caso però il primo posto in graduatoria per efficacia, è occupato dalla

-definitiva messa al bando degli idrofluorocarburi dagli impianti di refrigerazione;la sostituzione con altri refrigeranti, in base all’accordo firmato l’anno scorso da oltre 170 Paesi, comincerà quest’anno e proseguirà fino al 2028, ma è essenziale che gli impianti siano svuotati correttamente, perché il 90 per cento delle emissioni avvengono a fine vita.

-la fotosintesi, quindi si tratta di fermare la deforestazione, avviare progetti di massa per ripiantare moltissimi alberi e riconvertire i pascoli con sistemi silvo-pastorali , in cui si alleva il bestiame su terreni alberati, con ottimi risultati sia per gli animali che per l’ambiente. Sono tutte azioni semplici quelle che suggeriamo-conclude Hawken– non c’è bisogno di rompersi la testa per applicarle”.

Commenti alla PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA

15 marzo 2019

Gruppo di scienziati energia per litalia

Commenti alla

PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA 31/12/2018

Introduzione

Nella conferenza COP21 di Parigi (2015) si è unanimemente riconosciuto che il cambiamento climatico è il più preoccupante problema per l’umanità e si è individuato un percorso per fermarlo: la transizione dai combustibili fossili alle energie rinnovabili entro il 2050. Nella COP24 del dicembre scorso a Katowice il segretario dell’ONU Guterres ha dichiarato però che “il mondo è fuori rotta” e gli scienziati dell’IPCC hanno lanciato “un’ultima chiamata” per salvare il pianeta.

Il Piano Nazionale Integrato per l’Energia e il Clima presentato dal Governo deve necessariamente inserirsi in questo quadro. Nel Piano sono presentate molte proposte sulle quali non si può non essere d’accordo, come, la necessità di riorganizzare e potenziare i sistemi di accumulo, l’autoconsumo e la formazione di comunità energetiche. Altri punti pienamente condivisibili sono: l’urgenza di superare le attuali criticità nella distribuzione dell’energia e nell’integrazione del mercato, l’individuazione di meccanismi per risolvere il problema della povertà energetica, la necessità di aumentare i fondi e ridurre la frammentazione nei finanziamenti delle ricerche sull’energia e di promuovere un’azione di informazione e formazione delle persone
Chi si aspettava però un piano capace di riportare l’Italia nella “rotta giusta” e di rispondere “all’ultima chiamata” degli scienziati rimarrà deluso.

Energia primaria e mix energetico

Il Piano prevede una diminuzione del consumo di energia primaria, da 155 Mtep nel 2016 a 135 Mtep nel 2030: si tratta di una diminuzione di poco maggiore (5%) rispetto a quanto accadrebbe senza le misure proposte dal Piano stesso. Il mix energetico al 2030 non cambia molto rispetto a quello del 2016: viene confermata l’uscita dal carbone, ma il petrolio diminuisce solo da 36% al 31%, il gas rimane addirittura invariato al 37% e le rinnovabili aumentano soltanto dal 18% al 28%. Questi dati sono molto deludenti, tanto più che in questo modo al 2030 la quota delle rinnovabili sarebbe ancora minore sia di quella del petrolio che di quella del gas, prese separatamente. Per il mix energetico il Piano si spinge al 2040, prevedendo che la fonte prevalente di energia primaria saranno ancora i combustibili fossili (circa 65%). Questi obiettivi riguardo il mix energetico, del tutto insoddisfacenti, sono la conseguenza inevitabile di un Piano che si preoccupa di facilitare e potenziare, anziché di limitare, l’approvvigionamento e l’utilizzo di gas e petrolio. Evidentemente nella stesura del Piano ci sono state forti pressioni delle lobby che hanno interessi nella ricerca ed estrazione di idrocarburi, nell’importazione di GNL e nella messa in opera di strutture per la sua di distribuzione, e nel completamento della TAP, che pure una delle forze politiche che guida il paese sembrava volesse eliminare. Fa parte di queste pressioni il ricatto “diminuzione oil & gas uguale perdita di posti di lavoro”, anche se tutti gli studi dimostrano che il bilancio fra posti persi e posti creati nella transizione dai combustibili fossili alle energie rinnovabili sarà positivo perché l’intensità di lavoro nelle rinnovabili (industria manifatturiera) è più alto di quello che si ha nell’industria estrattiva [1,2].

Persino nel settore dell’energia elettrica, in cui le rinnovabili sono partite da una posizione molto avvantaggiata grazie all’idroelettrico preesistente, secondo il Piano più di un terzo della produzione elettrica verrà ancora da fonti fossili nel 2030. In questo settore si potrebbe certamente fare di più perché nel 2018 c’è stata una diminuzione del 27% nel costo dei pannelli fotovoltaici. Inoltre, la quantità di celle fabbricabili con un lingotto di silicio puro è destinata ad aumentare ulteriormente grazie al progresso tecnologico e si ritiene che ben prima del 2030 si svilupperanno pannelli con moduli flessibili di uso più generale. Il Piano prevede, e non si può che essere d’accordo, l’individuazione di aree idonee per la realizzazione di nuovi impianti di eolico e fotovoltaico, il repowering e rewamping degli impianti già esistenti, il potenziamento dell’obbligo di quota minima negli edifici nuovi o ristrutturati e snellimento delle pratiche burocratiche. La previsione di raggiungere con le rinnovabili 187 TWh nel 2030 (38.7% della produzione elettrica) è però deludente e notevolmente inferiore alla previsione del Coordinamento FREE (210 TWh) [3].

Per quanto riguarda la riduzione delle emissioni, il Piano si adagia sulle prescrizione della UE (riduzione delle emissioni del 40% al 2030), mentre il Parlamento europeo ha già chiesto che la riduzione sia portata 55%. Anche chi aspettava misure più conseguenti al tanto sbandierato principio “chi inquina paga” sarà deluso. Nel Piano, infatti, non c’è traccia della carbon tax [4], provvedimento molto delicato, ma necessario per la transizione energetica.

Risparmio ed efficienza

In base alle norme europee, nel periodo 2021-2030 siamo tenuti a ridurre il consumo di circa 51 Mtep. Il Piano afferma che si raggiungerà questo obiettivo risparmiando ogni anno lo 0,8% di energia rispetto ai consumi dell’anno precedente. Questo risparmio si otterrà, in gran parte adeguando e potenziando gli strumenti di sostegno già in vigore: (i) il meccanismo dei Certificati Bianchi; (2) le detrazioni fiscali per gli interventi di efficienza energetica e il recupero del patrimonio edilizio esistente; (iii) il Conto Termico; (iv) il Fondo Nazionale per l’Efficienza Energetica. Un forte contributo dovrà poi venire dal settore dei trasporti.

Il Piano prevede grandi risparmi di energia termica derivanti da una forte diffusione delle reti di teleriscaldamento alimentate da centrali termoelettriche a cogenerazione,

biomasse, o termovalorizzazione dei rifiuti (Figura 47), mentre insiste molto meno sulla opportunità di diffondere l’uso di solare termico e di pompe di calore.
La difficoltà di ridurre i consumi energetici aumentando l’efficienza è materia di vasta discussione nella letteratura scientifica [5,6]. Per raggiungere l’obiettivo prefisso sarà necessaria l’attuazione di un serio programma informativo e formativo per i cittadini, molto più incisivo dei tentativi fatti finora. Bisogna partire dal concetto di sufficienza, cioè convincere le persone e, se necessario, obbligarle mediante opportune disposizioni di legge, a ridurre l’uso dei servizi energetici. Per consumare meno, bisogna anzitutto “fare meno”: meno viaggi, minor velocità, meno luce, meno riscaldamento. Se poi tutto quello che si usa dopo aver adottato la strategia della sufficienza è più efficiente, si avrà un risparmio ancora maggiore: è il fare meno (sufficienza) con meno (efficienza).

La recente proposta di aumentare il limite di velocità in autostrada a 150 km/ora e il continuo aumento del numero, delle dimensioni e della potenza delle auto che costituiscono il parco macchine italiano non contribuiscono certamente a ridurre i consumi. Il Piano non affronta questi argomenti.

Trasporti

Nel settore dei trasporti le politiche del Piano sono deludenti. Anzitutto c’è un equivoco, purtroppo molto diffuso, dovuto anche a disposizioni di legge precedenti: si parla di “carburanti alternativi” indicando con questo nome biocarburanti, elettricità da rinnovabili, idrogeno e a volte anche gas naturale, cose che non potrebbero essere più diverse fra loro. Ad esempio (pag. 88) , “Ci si propone di accelerare quanto previsto dal comma 10 del D.Lgs 275/2016…… per la sostituzione del parco autovetture, autobus e mezzi di servizio in modo che le Pubbliche Amministrazioni …. siano obbligate all’acquisto di almeno il 30% entro il 2022, il 50% entro il 2025 e l’85% entro il 2030 di veicoli elettrici e veicoli ibridi con ricarica esterna, a metano e a idrogeno, nonché elettrici o metano nel caso degli autobus”.

Il Piano è chiaramente orientato per continuare con l’uso dei combustibili fossili. Manca qualsiasi accenno a una data indicativa per il phase out dei veicoli a benzina e diesel, fissata per il 2025 in Olanda e per il 2040 in Francia e Regno Unito. Il Piano a parole sostiene la diffusione della mobilità elettrica per persone e merci, ma si propone come obiettivo soltanto 1,6 milioni di auto elettriche “pure” nel 2030, in contrasto con stime molto superiori di altre fonti che si basano anche sulla forte riduzione nel costo delle batterie che avverrà nei prossimi anni. Ma l’energia elettrica che sarà usata nei trasporti nel 2030 sarà ancora prodotta per quasi il 40% usando combustibili fossili, per cui la penetrazioni delle rinnovabili nel settore dei trasporti stradali è affidata prevalentemente ad una selva di norme e agevolazioni per l’uso dei biocarburanti (vide infra).

Il Piano, in accordo con le compagnie petrolifere, incoraggia l’uso del metano non solo per la produzione di elettricità, ma anche come “combustibile ponte” per la mobilità. E’ vero che a parità di energia prodotta, il metano genera il 24% in meno di CO2 rispetto a benzina e gasolio, ma questo non basta per combattere il cambiamento climatico in modo sostanziale. Inoltre, va tenuto presente che Il metano è un gas serra 72 volte più potente di CO2. Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, passando dal carbone e dal petrolio al metano c’è il rischio di peggiorare la situazione riguardo gli effetti sul clima [7]. Anche per quanto riguarda l’inquinamento, gli studi più recenti [8] indicano che il particolato prodotto dalla combustione del metano è, come massa, inferiore a quello prodotto dal gasolio, ma le particelle sono in numero superiore e più piccole, quindi potenzialmente più pericolose per la salute. Pertanto, non ha senso considerare il metano come combustibile “pulito” e come fonte energetica “alternativa” al carbone e al petrolio [9]. Questo importante concetto è ignorato dal Piano che ha per obiettivo nel 2040 una quota del 37% di energia primaria da metano, la stessa del 2016.

Nel Piano non c’è alcuna recriminazione sul fatto che le case automobilistiche italiane continuano a produrre auto a benzina o diesel e si dedicano in particolare alla fabbricazione di auto di lusso e/o di SUV, utilizzando incentivi diretti o indiretti. La FCA ha annunciato che, accanto ai SUV Alfa Romeo e Lancia che già produce, costruirà a Modena, dove gli operai della Maserati sono sotto occupati, una nuova super sportiva ad alta gamma a partire dall’autunno 2020. Ci si dovrebbe interrogare su quale sia il “valore sociale” di questo tipo di “lavoro” e sarebbe anche opportuno chiedersi per quanto tempo potranno andare avanti queste produzioni prima di trovare rifugio, ancora una volta, negli ammortizzatori sociali. Nel frattempo sempre FCA ha annunciato, in grave ritardo rispetto ai concorrenti tedeschi e francesi, la produzione di un veicolo elettrico, la 500, a partire dalla seconda metà del 2020 a Mirafiori, dove nel frattempo verranno messi in cassa integrazione per un anno 3.245 dipendenti, tra operai e dirigenti [10].

Approvvigionamenti di combustibili

l consumo di gas, che era di circa 85 Gm3 all’anno nel periodo 2005-2008, è diminuito negli ultimi anni (75,2 Gm3 nel 2017). Le previsioni SNAM sono per un consumo di 74,3 Gm3 nel 2027 e per una più decisa diminuzione negli anni successivi (70.9 Gm3 nel 2030) [11]. Gli attuali canali di fornitura del metano sono, dunque, più che sufficienti. Nonostante questo, il Piano insiste per la diversificazione degli approvvigionamenti dall’estero di gas e sostiene la necessità di agire su tre fronti: 1) ottimizzare la capacità di importazione e di distribuzione di gas naturale liquefatto (GNL); 2) aprire la TAP entro il 2020 per consentire l’importazione da 8.8 a 18 mld di m3 all’anno; 3) partecipare al progetto EastMed. L’intendimento del Piano, già contenuto nella Strategia Energetica Nazionale del precedente governo, è fare dell’Italia un hub del gas: un report di SNAM chiarisce infatti che importiamo più gas di quello che serve, per poi esportarne circa l’8% a paesi del Nord Europa.

Per quanto riguarda il GNL, il Piano parte dalla considerazione che sono già su strada più di 2000 veicoli pesanti che usano questo combustibile. Prevedendo una forte crescita nel numero di questi veicoli, il Piano sostiene la necessità di sviluppare una rete di distribuzione GNL lungo i 3000 km di autostrade, mentre dovrebbe incoraggiare con iniziative concrete il passaggio del trasporto merci dalla strada alla rotaia o alle vie marittime, che pure a parole dice di voler sostenere coniando due nuovi tipi di incentivi, Ferrobonus e Marebonus.

C’è il rischio reale di costruire infrastrutture per il gas che rimarranno inutilizzate o sotto utilizzate, con spreco di denaro pubblico. Poi, al solito, ci saranno forti pressioni perché “ormai ci sono e quindi vanno utilizzate”, come accade per le centrali termoelettriche a carbone, la cui chiusura è condizionata alla concessione di compensazioni per il mancato uso, e le centrali a turbogas che vanno remunerate anche se funzionano solo parzialmente, perché troppo numerose. Poiché in futuro per vari motivi si produrrà e si userà sempre più energia elettrica, sarebbe meglio investire ancor di più di quanto previsti nel Piano in sistemi di accumulo dell’elettricità, piuttosto che in impianti di stoccaggio geologico del gas di importazione, con tutte le problematiche di sicurezza che ne derivano (vedi deposito di Minerbio).

Più in generale, le compagnie petrolifere, non avendo interesse nel carbone, sono d’accordo per la progressiva sostituzione delle centrali termoelettriche a carbone con centrali turbogas a metano, vedendo in questa trasformazione non solo un interesse economico, ma anche il modo di ridurre le preoccupazioni dell’opinione pubblica. Le compagnie petrolifere hanno anche capito che l’uso del gasolio per i trasporti non sarà difendibile a lungo dopo il diesel gate e le notizie sul più recente accordo delle industrie automobilistica tedesca di rallentare, per contenere i costi, lo sviluppo di tecnologie in grado di ridurre le emissioni dei motori a benzina e a gasolio [12]. Ufficialmente le compagnie petrolifere sostengono che è necessario usare il gas come energia ponte in attesa che le rinnovabili siano “mature”, ma in realtà, come è emerso alla World Gas Conference (Washington, 29 giugno 2018), pensano al gas come il combustibile “pulito” del futuro. Quindi c’è una forte spinta anche nel settore dei trasporti per passare al gas, spacciandolo per fonte alternativa al pari dell’energia elettrica. Ma è provato che, se anche l’energia elettrica fosse tutta ottenuta dal gas, sarebbe ugualmente più conveniente perché i motori elettrici sono 3-4 volte più efficienti di quelli a combustione [9].

Biocarburanti

Quello sui biocarburanti è un discorso molto delicato perché tocca grandi interessi economici e molti incentivi, ma è necessario fare chiarezza anche su questo argomento. Come già fece la Strategia Energetica Nazionale del precedente governo, l’attuale Piano incoraggia l’uso di biocarburanti al fine di rimpiazzare i combustibili fossili con fonti rinnovabili. A questa presa di posizione non è certamente estraneo il fatto che ENI ha puntato sulle bioraffinerie, abbondantemente pubblicizzate sulle pagine dei quotidiani fino ad affermare che “in Italia il carburante si otterrà anche dalle bucce di mele” [13].

In linea generale, può essere utile ottenere biocarburanti da prodotti di scarto, ma va anche detto che i prodotti di scarto sono in piccola quantità rispetto al consumo di carburanti. Ecco allora che il biometano di cui parla il Piano non sarà ottenuto solo da scarti e rifiuti, ma dallo “sviluppo di una filiera agricolo/industriale per la produzione di biometano sia da matrice agricola, sia da rifiuti” come chiarisce SNAM [11]. Bisogna rendersi conto che la produzione di biometano o biocarburanti liquidi di prima generazione da prodotti agricoli dedicati non è una soluzione per la mobilità sostenibile. D’altra parte, i biocarburanti di seconda generazione, che sfruttano una frazione maggiore della biomassa non sono affatto in uno stato avanzato.

L’Unione Europea, nel tentativo di abbattere la produzione di CO2, ha concesso agli Stati membri di fornire sussidi per la produzione di biodiesel da miscelare al gasolio di origine fossile. In Italia il biodiesel viene prodotto da ENI in massima parte con olio di palma proveniente da Paesi equatoriali. E’ noto [14] che il biodiesel prodotto in questo modo genera quantità di CO2 maggiori del gasolio fossile perché per creare piantagioni di olio di palma vengono abbattute foreste tropicali che hanno un’azione positiva sul clima. Per rimediare a questo errore, che gli scienziati avevano segnalato da tempo, il Parlamento Europeo, nel gennaio 2018 ha votato per escludere entro il 2020 l’olio di palma dai sussidi per il biodiesel. Il provvedimento però non è stato ancora approvato dalla Commissione Europea. Nel frattempo, la Norvegia è stata presentata una petizione per chiedere all’Esecutivo comunitario di rispettare gli impegni presi con il Parlamento UE per far cessare subito i sussidi e anticipare entro il 2025 la messa al bando dell’olio di palma nei biocarburanti prevista al momento per il 2030. E’ il solito ricatto: ormai le bioraffinerie ci sono e bisogna usarle, altrimenti si perdono posti di lavoro.
Su un piano più generale, per rappresentare un’alternativa credibile ai combustibili fossili i biocarburanti devono (a) fornire un guadagno energetico (EROEI>1), (b) offrire benefici dal punto di vista ambientale, (c) essere economicamente sostenibili e (d) non competere con la produzione di cibo. Molto spesso queste condizioni, in particolare la prima e l’ultima, non sono verificate.
I biocarburanti non possono giocare un ruolo importante nelle transizione energetica semplicemente perché l’efficienza della fotosintesi naturale è molto bassa (0,1-0,2%) e la ricerca scientifica mostra che non è possibile aumentarla in modo significativo. E’ evidente che il trasporto (a volte su lunghe distanze) e il processo di raffinazione delle biomasse contribuiscono ad abbassare ulteriormente l’EROEI dei biocarburanti, ma dati attendibili su questo parametro non vengono mai forniti dai produttori. Ma gli scienziati sanno che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è più di 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocarburanti [15]. Questo spiega perché gli esperti, al contrario di quanto si propone il Piano, non prevedono una sostituzione significativa dei  combustibili fossili con biocarburanti, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici, oltre a non produrre CO2, non inquinano, sono quattro volte più efficienti dei motori a combustione interna, sono molto più facili da riparare e meno costosi da mantenere. Un ultimo grande vantaggio dell’alimentazione elettrica è che l’energia si può ottenere senza occupare suolo agricolo, ma collocando i pannelli fotovoltaici sui tetti e su altre aree inidonee alla agricoltura.

La non sostenibilità dei biocarburanti in Italia balza all’occhio anche dai dati riportati nel Piano (Figure 14 e 15): il 50% della produzione delle 997 mila tonnellate di materie prime consumate nel 2017 veniva dall’Indonesia, il 38% da altri paesi e solo il 12% dall’Italia; la materia prima è era costituita in gran parte da olii vegetali (in particolare, olio di palma), con un 5% di colture dedicate (grano, mais, soia), che probabilmente erano il principale contributo italiano.

Sicurezza e energetica

Il Piano prevede (pag. 191) che la dipendenza energetica, essenzialmente dovuta all’importazioni di petrolio e metano, diminuisca dal 77,5% nel 2016 al 72,7% nel 2025, al 71,2% nel 2030 e al 67,2 neo 2040. Con una diminuzione così lenta, non si capisce come faremo ad eliminare i combustibili fossili entro il 2050.

Il Piano si prefigge di assicurare la sicurezza energetica aumentando e differenziando le connessioni internazionali sia per la rete gas che per quella elettrica e con la formazione di scorte di sicurezza per il petrolio. Come già sottolineato, c’è il rischio concreto di costruire infrastrutture, specie nella visione di fare dell’Italia un hub del gas, che rimarranno inutilizzate o sotto utilizzate. La vera sicurezza energetica, quella che potrebbero fornirci le energie rinnovabili, non viene perseguita.

Ricerca, innovazione, formazione, cultura

Per quanto riguarda la ricerca, il Piano lamenta giustamente la scarsa disponibilità di fondi, la frammentazione dei finanziamenti e la carenza di coordinamento. Andrebbe sottolineata anche la necessità che la politica si giovi della disponibilità e dell’esperienza degli scienziati, cosa che negli ultimi anni non è avvenuta.

Per quanto riguarda i fondi per l’innovazione, nel Piano viene giustamente sottolineato che l’innovazione nel settore della sostenibilità ecologica ed energetica deve avere priorità, discorso che può sembrare ovvio, ma che ovvio non è poiché si premia ancora l’innovazione nelle ricerche petrolifere e nell’energia nucleare. Anche se il futuro è già presente, il passato non vuole passare.

il Piano si propone anche di rivedere il sistema degli incentivi e a questo proposito riporta che da una recente indagine del Ministero dell’Ambiente sono state individuate 57 misure che hanno un impatto in campo energetico per un totale di 30,6 mld€ nel 2017; di questi, 16,9 mld€ sono costituiti da sovvenzioni ai combustibili fossili (altro che“carbon tax”!), mentre i sussidi a fonti con impatto ambientale favorevole ammontano a 13,7 miliardi. Dunque, l’uso dei i combustibili fossili, responsabili per il cambiamento climatico e i danni alla salute dell’uomo, è ancora oggi incentivato più delle energie rinnovabili, che ci salveranno da queste sciagure.

Conclusione

In base agli accordi di Parigi e al successivo riesame della situazione presentato a Katowice si devono ridurre le emissioni di CO2 del 45% entro il 2030 e a zero al 2050. Il primo obiettivo che ogni Paese dovrebbe proporsi oggi è quindi una rapida transizione energetica. Non sembra che il Piano proposto dal Governo sia molto efficace per svolgere questo compito, poiché non prevede e tanto meno propone una forte riduzione dell’uso dei combustibili fossili e una forte espansione delle rinnovabili. Non accenna neppure alla necessità di facilitare, con opportune strutture stradali, la mobilità ciclistica, che ha anche un forte potenziale turistico.

Nel Piano c’è un ossequioso rispetto per gli obiettivi che l’Unione Europea si è data per il 2030, ma non ci sono idee originali e tanto meno proposte concrete per andare oltre quegli obiettivi, come converrebbe ad un Paese come l’Italia che ha abbondanti energie rinnovabili, una affermata industria manifatturiera, scarsissimi combustibili fossili, forte dipendenza energetica dall’estero e che è molto colpita nella sua vocazione turistica e culturale dai cambiamenti climatici e dall’inquinamento. Bisognerebbe finalmente capire che per avere energia abbiamo “bruciato” più di quello che si poteva “bruciare”, che l’agricoltura deve essere utilizzata solo per l’alimentazione e che il futuro è nell’energia elettrica rinnovabile.

Quello proposto dal Governo è un Piano che sembra non rendersi conto che la transizione energetica dai combustibili fossili alle energie rinnovabili è non solo necessaria, ma inevitabile e che assecondarla e anticiparla è una grande opportunità di crescita economica e riduzione dei costi causati dagli impatti ambientali e climatici. Compito del Piano dovrebbe essere anche quello gettare le basi per il passaggio dal consumismo e dall’usa e getta dell’economia lineare ad una economia circolare caratterizzata dalla sobrietà. L’Italia, che per decenni ha caricato pesanti debiti sulle spalle delle future generazioni, può e deve trovare nella transizione energetica l’occasione per un netto cambiamento di rotta che le permetterebbe anche di assumere un ruolo di guida all’interno della Unione Europea.

[1] http://www.irena.org/publications/2018/Apr/Global-Energy-Transition-A-Roadmap- to-2050
[2] M.Z. Jacobson, et al., Joule, 2017, 1, 108-21. http://dx.doi.org/10.1016/j.joule.2017.07.005

[3] https://energiaoltre.it/wp-content/…/11/Position-paper-Coordinamento-FREE-2.pdf [4] https://www.rivistamicron.it/corsivo/la- -e-possibile-a-patto-che/
[5] http://www.eueduk.com/bedazzled-energy-efficiency/

carbon-

tax

8

[6] E. Shove, BuildingResearch&Information, 2018, 46(7), 779.
[7] priceofoil.org/2017/11/09/burning-the-gas-bridge-fuel-myth/
[8] T. Wang et al., Environ. Sci. Technol., 2017, 51, 6990.
[9] https://www.transportenvironment.org/sites/te/files/2018_10_TE_GNC_e_GNL_per_au to_e_navi_ITA.pdf
[10] http://www.hdmotori.it/2018/12/04/fiat-500-elettrica-mirafiori-cassa-prezzi-uscita/
[11] pianodecennale.snamretegas.it/includes/doc/2/2019012208362018- decennale_web.pdf.
[12] https://www.repubblica.it/economia/rubriche/eurobarometro/2018/09/29/news/auto _diesel-207618352/?ref=search.
[13] Si veda, ad esempio, Corriere della Sera, 5 gennaio 2018.
[14] https://www.transportenvironment.org/news/biodiesel-increasing-eu-transport- emissions-4-instead-cutting-co2.
[15] E. Williams et al., Environ. Sci. Technol., 2015, 49, 6394

ENERGIA PER L’ITALIA (http://www.energiaperlitalia.it/energia-per-litalia/) è un gruppo di docenti e ricercatori di Università e Centri di ricerca di Bologna, coordinato dal prof. Vincenzo Balzani (vincenzo.balzani@unibo.it ; tel: 335 264411)

Energia per l’Italia

Vincenzo Balzani (coordinatore), Dipartimento di Chimica “G. Ciamician”, Università Nicola Armaroli, ISOF-CNR

Alberto Bellini, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Giacomo Bergamini, Dipartimento di Chimica “G. Ciamician”, Università Enrico Bonatti, Columbia University, Lamont Earth Observatory, ISMAR-CNR

Alessandra Bonoli, Dipartimento di Ingegneria Civile, Chimica, dell’Ambiente e dei Materiali, Università

Carlo Cacciamani, Dipartimento della Protezione Civile Nazionale Romano Camassi, INGV

Sergio Castellari, INGV

Daniela Cavalcoli, Dipartimento di Fisica ed Astronomia, Università

Marco Cervino, ISAC-CNR

Maria Cristina Facchini, ISAC-CNR

Sandro Fuzzi, ISAC-CNR

Luigi Guerra, Dipartimento di Scienze dell’Educazione «Giovanni Maria Bertin», Università

Giulio Marchesini Reggiani, Dipartimento di Scienze Mediche e Chirurgiche, Università Vittorio Marletto, Servizio IdroMeteoClima, ARPA

Enrico Sangiorgi, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Leonardo Setti, Dipartimento di Chimica Industriale, Università
Micol Todesco, INGV
Margherita Venturi, Dipartimento di Chimica “G. Ciamician”, Università Stefano Zamagni, Scuola di Economia, Management e Statistica, Università Gabriele Zanini, ENEA-Divisione MET

Sicurezza del lavoro all’Università e nella Scuola.

Claudio Della Volpe

Da quasi 5 anni mi occupo di sicurezza sul lavoro nella mia università; la cosa andò così. Sono sempre stato iscritto ad un sindacato (non vi dico quale, potreste immaginarlo; anche se devo dire che i sindacati non si muovono molto per i docenti universitari, siamo considerati tutto sommato dei privilegiati).

Ad un certo punto il mio sindacato mi contatta e mi chiede di presentarmi come Rappresentante dei lavoratori per la sicurezza. 5 anni fa la cosa non mi impressionò particolarmente; all’epoca vedevo le pur rare richieste da parte dell’ufficio della Sicurezza Prevenzione e Protezione come delle richieste a volte eccessive e comunque molto burocratiche.

Il Rappresentante dei Lavoratori è previsto dalla Legge 81/08 ed è una figura che serve ai lavoratori di qualunque tipo e attività a monitorare, senza obblighi, ma a monitorare cosa succede nel proprio ambiente di lavoro ed eventualmente a fare presenti problemi alla controparte, ossia al Datore di lavoro, oppure nel caso estremo agli organismi esterni di controllo: ispettorati del Lavoro, UO delle ASL e Magistratura del Lavoro.

Attenzione non è che non fossi attento alla sicurezza nel mio laboratorio e nemmeno che fossi contrario, ma mi sentivo sicuro delle mie procedure e dunque poco propenso a perdere altro tempo.

Beh devo dire che questa esperienza mi ha cambiato la vita e mi è servita a rendermi conto che mi sbagliavo.

Prima di 5 anni fa non avevo mai letto la legge 81/08; voi sapete cosa è?

E’ la legge che regola nel nostro paese le questioni relative alla sicurezza sul lavoro. Ha sostituito la precedente 626 che già fu una vera rivoluzione.

Secondo una stima del 2017 della Agenzia per la Salute e la sicurezza sul lavoro europea il costo degli incidenti e delle malattie sul lavoro nell’Europa a 27 è poco meno di 500 miliardi di euro, ossia dell’ordine di 1000 euro a testa all’anno.

(https://osha.europa.eu/en/about-eu-osha/press-room/eu-osha-presents-new-figures-costs-poor-workplace-safety-and-health-world)

che corrispondono a più del 3% del PIL.

Sempre in Europa si stima che il numero di morti sul lavoro (eccettuati quelli avvenuti in itinere, ossia per incidenti stradali legati al lavoro e che sono una percentuale elevata del totale almeno in Italia) sia dovuto come segue:

https://visualisation.osha.europa.eu/osh-costs#!/

In Europa metà di tutti i morti sul lavoro sono legati ad un tumore preso sul posto di lavoro, un quarto a malattie circolatorie ed un altro quarto scarso a malattie muscolo scheletriche anche su base autoimmune e solo il 2% ad incidenti veri e proprii.

Questi dati sono importanti perchè poi quelli che compaiono sui giornali sono solo quel 2%; dunque un enorme numero di morti (ed incidenti e malattie) che hanno a che fare col lavoro non le vediamo quotidianamente.

In quel 2% però non ci sono tutti i morti per incidenti violenti; una parte è mascherata da incidenti stradali per andare al lavoro o tornare a casa.

Infine tenete presente che il numero di morti per cause di lavoro nel mondo è dominato da quelli dovuti alle malattie cardiocircolatorie; in Europa invece il numero dominante è quello dei tumori.

Diciamo subito una cosa; queste statistiche non sono articolate a livello di singolo paese per quanto riguarda le cause di morte; dunque non sono in grado di dirvi se quel 2% vale anche in Italia; supponiamo per un istante che sia vero.

Allora se fosse così in quel 2% ci sarebbero i circa 1000 morti all’anno per motivi di lavoro per INCIDENTE. Se moltiplichiamo il valore per 50 per avere il totale avremmo una stima (ripeto non ho i dati specifici per l’Italia) di quasi 50.000 morti all’anno per motivi legati al lavoro: sarebbero l’8% di tutti i morti di un anno.

Siete sbalorditi? Beh è normale quasi nessuno ci pensa o semplicemente lo sa.

Ma è solo una stima, probabilmente sono di meno. Probabilmente la distribuzione percentuale per l’Italia è diversa, probabilmente le statistiche europee sulla mortalità sono fatte diversamente dalle nostre.

Potete anche criticarmi perchè parto con queste ipotesi di calcolo tutto sommato molto approssimate; ma sono giustificato; in realtà c’è una notevole confusione statistica. Noi chimici ed in genere scienziati della Natura siamo abituati a valori esatti, deviazioni standard valutate con notevole precisione.

Invece in un settore come quello dela sicurezza sul lavoro non potete immaginare quante approssimazioni e mancanze ci siano; a partire dal fatto che i valori ufficiali INAIL riguardano solo gli assicurati INAIL e non tutti i lavoratori lo sono; per legge. A partire dal fatto che i dati non sono aggiornati in tempo reale e vengono cambiati spesso DOPO l’anno considerato; questo perchè le stime sono soggette a conclusioni giuridiche che arrivano in ritardo sui fatti nudi e crudi.

Ecco perchè sono nati molti gruppi di lavoro, siti internet dedicati a questo tema che cercano di denunciare tutti i casi che vengono alla luce, per esempio l’Osservatorio Indipendente di Bologna gestito da un pensionato, Carlo Soricelli.

http://cadutisullavoro.blogspot.com/

Ma torniamo alla questione che da il titolo al post.

L’università.

Bene allora diciamo subito che a norma della legge 81 art 2 comma a è un lavoratore fra l’altro: l’allievo degli istituti di istruzione ed universitari e il partecipante ai corsi di formazione professionale nei quali si faccia uso di laboratori, attrezzature di lavoro in genere, agenti chimici, fisici e biologici, ivi comprese le apparecchiature fornite di videoterminali limitatamente ai periodi in cui l’allievo sia effettivamente applicato alla strumentazioni o ai laboratori in questione;

Questo comporta da parte del Datore di lavoro una serie di obblighi a partire da una formazione generale e specifica della durata di 12 ore almeno.

Questa formazione deve esere somministrata PRIMA dell’accesso ai laboratori o dell’uso delle apparecchiature.

Da voi si fa? Nella mia Università noi RLS ossia rappresentanti dei lavoratori (siamo 6 al momento di cui solo io docente) siamo riusciti a spingere l’Università a iniziare questo percorso. I corsi devono essere somministrati da personale qualificato in classi di non più di 35 persone e seguiti da un test di verifica.

L’Università, come molte altre istituzioni statali (ospedali, forze armate, scuole in genere, carceri, etc ) è prevista esplicitamente nella 81/08 ma vi si dice anche che saranno emanate norme specifiche a causa delle condizioni particolari di svolgimento del lavoro; in realtà a parte un caso (quello dei volontari) tali norme non sono state emanate, lasciando la situazione in colpevole assenza e costringendo molte istituzioni ad arrangiarsi. Si dice che in Italia ci siano troppe leggi; beh qua invece mancano.

Per le Università inoltre esiste una legge specifica, il decreto ministeriale 363/98, che non è mai stata abrogata ma nemmeno aggiornata e dunque rimane valida con ulteriore problema.

Il Datore di Lavoro dell’Università è il Rettore a meno che non abbia delegato ad altri, per esempio ai Direttori di Dipartimento, delega che prevede prima di tutto la possibilità di spendere, di avere autonomia di spesa sul tema. Dunque in genere il Rettore è il responsabile di ultima istanza se si verificano problemi; e sicuramente lo è per la mancata formazione degli studenti ma anche del personale, compresi noi stessi, che pure possiamo essere considerati preposti degli studenti e dei tecnici. Nelle scuole il Datore di Lavoro è il Dirigente scolastico.

Il tema è complesso ma assolutamente urgente; non conosco casi specifici di altre Università a parte il famoso “caso Catania”, che ha avuto l’onore di un film (Col fiato sospeso), e che per quanto mi consta è la punta dell’iceberg. Conoscendo le condizioni di lavoro dellla mia Università so che ci sono molti punti da migliorare o perfino da iniziare ad affrontare: locali interrati non derogati (quanti laboratori sono interrati senza motivi tecnici e opportune metodiche di gestione?), misure antincendio non attuate (le Università sono luoghi a rischio incendio alto a causa del numero dei frequentanti), documenti di valutazione del rischio non realistici o veritieri, e potrei continuare a lungo.

Non aspettiamo un secondo caso Catania, non potremmo sopportarlo di fronte ad una opinione pubblica molto critica con l’università; facciamoci parte dirigente in un processo di aggiornamento e di attuazione delle norme di sicurezza in tutte le Università a partire dai nostri laboratori.

Concludo dicendo che molte scuole tecniche su questo sono anni luce avanti.

Elementi della tavola periodica. Zinco, Zn.

Rinaldo Cervellati

Lo Zinco (Zn) è l’elemento n. 30 della Tavola Periodica, il ventitreesimo elemento più abbondante nella crosta terrestre. L’origine del suo nome è oscura ma è certo che era riconosciuto come metallo a se stante centinaia di secoli a. C., e i suoi minerali erano usati per la fabbricazione dell’ottone. Nel libro della Genesi viene menzionato Tubal-cain, discendente di settima generazione da Adamo, come dotato di una reale maestria nella lavorazione dei metalli [1]. T.C. Mitchell [2] sostiene che egli scoprì la possibilità di fucinatura a freddo e di bombatura del ferro meteorico. Tubal-cain è stato descritto anche come il primo chimico [3]. Un fatto certo è che una lega contenente l’87% di zinco è stata trovata in rovine preistoriche in Transilvania e che zinco metallico è stato prodotto nel 13° secolo a.C. in India riducendo il minerale calamina (figura 1) con sostanze organiche come la lana [1].

Figura 1               Calamina                                           zinco metallo in lastra

Il metallo fu riscoperto in Europa da Andreas Sigismund Marggraf[1] nel 1746, riducendo il minerale calamina (un miscuglio di silicato idrato di zinco e carbonato di zinco) con carbone.

Oltre alla calamina, principali minerali dello zinco sono sfalerite o blenda (solfuro di zinco e ferro), smithsonite (carbonato) e franklinite (ossido misto di ferro, zinco e manganese). In seguito a processi geologici e chimici, lo zinco si è concentrato a livelli particolarmente elevati in certi luoghi del pianeta piuttosto che in altri. Il minerale può essere estratto da queste zone quando la concentrazione di zinco supera il 5%. Le aree più ricche di zinco si trovano principalmente in Nord e Sud America, Australia, Asia e, in misura minore, in Europa.

Le risorse minerarie sono stimate a circa 220 milioni di tonnellate di riserve di zinco attualmente sfruttabili. Il consumo mondiale annuo di zinco è attualmente di circa 9,7 milioni di tonnellate. Poiché il riciclaggio rappresenta circa il 39% del consumo di zinco, le riserve si esaurirebbero a un tasso annuo di 5,9 milioni di tonnellate. L’aumento del riciclaggio compenserà la crescita futura dei consumi. Sulla base del consumo costante e senza ipotizzare futuri successi esplorativi, le riserve di zinco sfruttabili dureranno per un periodo di circa 55 anni. Tuttavia, se si aggiungono le riserve di minerale potenzialmente disponibili in futuro, le risorse totali sono stimate in 1.900 milioni di tonnellate, un valore che soddisferebbe il fabbisogno di zinco per diversi secoli all’attuale tasso di estrazione annuale [4,5].

Lo zinco può essere ottenuto mediante arrostimento dei suoi minerali con formazioni di ossido e successiva riduzione dell’ossido di zinco con carbone (ZnO + C → Zn + CO), seguita da distillazione del metallo alla temperatura di 750 °C. Un altro metodo di estrazione è quello per via elettrolitica. Dopo aver ottenuto l’ossido dal minerale, è trattato con acido solforico e la soluzione risultante è inviata a una cella elettrolitica con anodo costituito da una lastra di piombo e catodo da una lastra di zinco puro, la reazione complessiva è:

ZnSO4 + H2O → Zn + H2SO4 + 1/2O2

Si ottengono così catodi di zinco puro.

Lo zinco è al quarto posto fra i metalli più utilizzati al mondo, preceduto nell’ordine da ferro, allumino e rame. La quantità di energia necessaria per produrre zinco dai suoi minerali è bassa rispetto all’energia necessaria per produrre altri metalli non ferrosi (alluminio, rame) utilizzati in edilizia, come mostra il seguente grafico, tratto da [4]:

Ancor meno energia è necessaria per produrre zinco per riciclaggio.

Lo zinco presente in natura contiene cinque isotopi stabili.

Lo zinco è un metallo bianco-azzurrognolo, brillante che esposto all’atmosfera si ricopre più o meno lentamente di una patina bianca. È questa patina che conferisce allo zinco la sua lunga durabilità. La superficie di zinco metallico reagisce infatti con l’ossigeno atmosferico (O2) in presenza di acqua (H2O) per formare idrossido di zinco (Zn(OH)2). L’idrossido di zinco reagisce con il biossido di carbonio atmosferico (CO2) per formare idrossicarbonato di zinco (2ZnCO3.3Zn(OH)2) che è il componente principale della patina (figura 2).

Figura 2 Formazione della patina protettiva, tratta da [4]

Lo zinco è fragile a temperature ordinarie ma malleabile a 100-150°C. È un buon conduttore di elettricità e brucia in aria al calor rosso con sviluppo di nuvole bianche dell’ossido.

Lo zinco metallico ha moltissimi impieghi industriali, dalla galvanizzazione di metalli per prevenirne l’ossidazione (grondaie), alle zamak (leghe a base di Zinco, Alluminio, Magnesio, Antimonio e Rame) usate nella produzione di parti di autoveicoli, pannelli solari, elettrodomestici, giocattoli, bottoni e cerniere. Alcune grondaie in lega di zinco possono durare fino a 100 anni perché la patina è insolubile in acqua, impedendo ogni ulteriore reazione con ossigeno e CO2[2]. Cilindretti di zinco sono usati come contenitore (e polo negativo) nelle pile Leclanché (zinco-carbone). Lo zinco è anche usato in lega per la fabbricazione di oggetti di oreficeria e argenteria. Leghe molto importanti sono l’ottone (Zn-Cu), il bronzo commerciale (Cu 90%, Zn 10%), l’alpaca o argento tedesco (Zn-Cu-Ni), e la lega con alluminio < 5% da fonderia. Grandi quantità di zinco servono a produrre pressofusi, ampiamente utilizzati dalle industrie automobilistica, elettrica e informatica. I composti organometallici dello zinco sono usati nella sintesi di numerose sostanze organiche.

Una lega denominata Prestal®, costituita da zinco al 78% e il 22% di alluminio è quasi forte come l’acciaio, ma è facile da modellare quanto la plastica (superplasticità). Il Prestal® è così plastico da poter essere modellato in forma di pressofusi relativamente poco costosi.

Secondo una statistica del 2016 (US Geological Survey), i dieci Paesi con la produzione maggiore di zinco sono stati: Cina (4.5 milioni tonnellate), Perù (1.3), Australia (0.85), USA (0.78), Messico (0.71), India (0.65), Bolivia (0.46), Kazakistan (0.44), Canada (0.31) e Svezia (0.25).

La Cina è dunque il più grande paese produttore a livello mondiale e un importante consumatore del metallo. I consumi cinesi sono stati la causa principale della rapida crescita dei prezzi.

Lo zinco è potenzialmente riciclabile al 100%. Una stima afferma che il 60% dello zinco disponibile a fine vita è recuperata ed effettivamente riciclata [4,6]. In Europa, il 95% del laminato di zinco usato è riciclato. Il successo del riciclaggio dello zinco laminato è dovuto a un mercato molto ben organizzato (figura 3):

Figura 3 Riciclaggio dello zinco, tratta da [4]

Lavorati contenenti zinco come ferro o acciaio zincato possono diventare una fonte di materiali per il riciclaggio alla fine delle loro vite utili (“vecchi rottami”). Questi materiali sono raccolti e processati in base alla loro composizione (quantità dello zinco e degli altri metalli nella lega) e facilità di elaborazione. Inoltre, a causa di potenziali perdite durante la fabbricazione e la lavorazione (ad esempio, scorie, residui, scarti, ecc.), una certa quantità di zinco diventa disponibile per il riciclaggio già durante la fase di lavorazione stessa (“nuovo rottame”).

Secondo la composizione del rottame, il riciclaggio può avvenire per ri-fusione o rimandato direttamente al processo di raffinazione [6].

Lo zinco ha un solo numero di ossidazione, 2+, quindi il suo ossido è ZnO. Di questo importantissimo composto abbiamo parlato in un precedente post

(https://ilblogdellasci.wordpress.com/2016/02/29/zinco-e-ossido-di-zinco-una-riscoperta/)

che contiene anche una satirica clip tratta dal film Ridere per ridere di John Landis (1977). Vale comunque la pena ricordare che l’ossido di zinco contenuto nelle preparazioni farmaceutiche, igieniche e cosmetiche non può essere riciclato.

Lo zinco è un elemento fondamentale per la vita animale (esseri umani compresi) e vegetale.

Esiste un intervallo di concentrazione di zinco ottimale per ciascun organismo vivente. All’interno di questo intervallo gli organismi viventi possono regolare la loro concentrazione interna per soddisfare i requisiti metabolici (figura 4).

Figura 4 Salute e apporto di zinco,tratta da [4]

Lo zinco è un importante oligoelemento per gli esseri umani in quanto occupa il 3° posto, dopo il magnesio e il ferro. È essenziale per la crescita, lo sviluppo del cervello, la protezione della pelle, il corretto funzionamento del sistema immunitario, la digestione, la riproduzione, il gusto, l’olfatto e molti altri processi fisiologici. Il corpo umano non è in grado di sintetizzare lo zinco di cui ha bisogno, deve quindi introdurlo con l’alimentazione. Cereali, legumi, frutta secca, uova, latticini e carni rosse sono alcuni dei cibi più ricchi in zinco.

L’Organizzazione mondiale della sanità (OMS) raccomanda un apporto giornaliero di 10 mg/giorno per i bambini, 12 mg/giorno per le donne e 15 mg/giorno per gli uomini. Alcuni gruppi di popolazione hanno un fabbisogno di zinco più elevato e pertanto sono più a rischio di carenza di zinco: bambini e adolescenti, donne incinte, sportivi, anziani, ecc. Se queste condizioni ottimali non sono soddisfatte e vi è un deficit può verificarsi una carenza.

I sintomi legati a una carenza di zinco sono: riduzione dei sensi di gusto e olfatto, problemi della pelle, letargia mentale e riduzione della fertilità.

La varietà nella dieta di una persona dipende principalmente da fattori culturali e socio-economici. Poiché la quantità di zinco varia secondo il tipo di alimentazione, su scala globale molti adulti e bambini ne assumono troppo poco. Nei paesi in via di sviluppo, la carenza di zinco è al quinto posto tra i primi 10 fattori di rischio per la salute umana; l’OMS ha stimato circa 800.000 morti l’anno per carenza di zinco [4].

A differenza degli esseri umani gli ecosistemi sono raramente soggetti a una mancanza di zinco, ma possono essere sottoposti a un eccesso.

Come mostrato in figura 5 lo zinco è naturalmente presente nell’ambiente: rocce, suolo, acqua e aria hanno sempre contenuto naturalmente concentrazioni variabili di esso.

Figura 5 Intervalli conc. Zn in diversi ecosistemi, tratta da [4]

Nel corso della loro evoluzione, tutti gli organismi viventi hanno utilizzato lo zinco disponibile nel loro ambiente per specifiche funzioni del loro metabolismo, adattandosi alla concentrazione naturale di zinco nel loro ecosistema. Inoltre, hanno sviluppato meccanismi per mantenere condizioni di vita ottimali quando questo livello di concentrazione dovesse variare di poco dalla norma. Ma se la concentrazione di zinco cambia radicalmente, le condizioni di vita non sono più ottimali e il funzionamento dell’ecosistema viene alterato. Per questo motivo vengono condotti studi ecotossicologici per valutare il rischio per l’ambiente di un eccesso di zinco.

In questi studi è presa in considerazione solo la concentrazione di zinco disciolto perché la parte insolubile non ha alcun effetto su di essi. La concentrazione di zinco disciolto è influenzata dalle proprietà dell’ambiente quali pH, durezza dell’acqua, carbonio organico disciolto e temperatura. Pertanto, qualsiasi studio sull’impatto ambientale dello zinco deve tenere conto delle caratteristiche specifiche dell’ecosistema in questione e della concentrazione di zinco disciolto, non della concentrazione totale.

Studi ecotossicologici hanno dimostrato che le concentrazioni di zinco negli ecosistemi europei, originate da attività umane (come la corrosione atmosferica di zinco laminato e acciaio zincato, usura di pneumatici di veicoli, fertilizzanti e alimenti per animali, ecc.) o emissioni naturali (principalmente da attività vulcanica), rimangono fortunatamente per ora nei limiti delle condizioni di vita ottimali.

Bibliografia

[1] CRC, Handbook of Chemistry and Physics, 85th, p. 4-35

[2] T. C. Mitchell, Tubal-cain, in New Bible Dictionary (IVF, 1962), 1302.

[3] Tubal-Cain Acclaimed as Pioneer Chemist, in The Science News-Letter, Society for Science & the Public, 30 agosto 1941, p. 142,

[4] https://www.vmzinc.com

[5] https://www.zinc.org/

[6] IZA (International Zinc Association),

https://www.initiative-zink.de/fileadmin/iz_web_dateien/D_O_K_U_M_E_N_T_E/Broschueren/IZA_Broschueren/IZA_Closing_the_Loop_new.pdf

[1] Andreas Sigismund Marggraf (1709-1782) chimico prussiano, allievo di Caspar Neumann discepolo di Stahl, assistente del chimico Spielmann, seguì le lezioni di Friedrich Hoffmann e di Johann Juncker. Nel 1734 si recò a Freiberg in Sassonia per studiare metallurgia con Henckel. Fu poi direttore del Laboratorio Chimico dell’Accademia Prussiana delle Scienze e della Classe di Filosofia Sperimentale della stessa Accademia. Aderì alla teoria del flogisto di Stahl-Juncker ma il suo profondo interesse per la scienza chimica, il perfezionamento di strumenti analitici e l’uso della bilancia anticiparono alcuni aspetti della rivoluzione chimica lavoisierana. https://www.encyclopedia.com/people/science-and-technology/chemistry-biographies/andreas-marggraf

[2] La durata dello zinco può essere ridotta da alcuni inquinanti acidi, che aumentano il tasso di corrosione. Il principale inquinante è il biossido di zolfo (SO2) che reagisce con la patina formando solfato di zinco, che è solubile in acqua e corrosivo. Il biossido di zolfo è emesso da alcuni impianti industriali, impianti di riscaldamento centralizzati a olio e traffico stradale. Di conseguenza, il tasso di corrosione è maggiore in aree urbane o industrializzate rispetto a un ambiente rurale.

Dorothy Maud Wrinch (1894-1976)

Rinaldo Cervellati

Dorothy Maud Wrinch nacque il 13 settembre 1894 a Rosario (Argentina), figlia di Hugh Edward Hart Wrinch, ingegnere britannico, e Ada Souter, casalinga. Poco dopo la sua nascita, la famiglia Wrinch tornò in Inghilterra. Dorothy crebbe a Surbiton, un sobborgo sul Tamigi, 18 km a sud-ovest di Londra. Frequentò la scuola elementare e le superiori a Surbiton. Nel 1913 vinse una borsa di studio per il Girton College, un college residenziale per donne a Cambridge, dove studiò matematica e filosofia. In particolare, fu fortemente influenzata dal matematico e filosofo Bertrand Russell[1], del quale divenne amica. Nel 1916 fu l’unica donna a superare con onori gli esami della prima parte (matematica) del progetto Tripos per la matematica dell’Università di Cambridge.

Il successivo anno accademico (1916-17) Wrinch rimase a Girton, dove studiò e passò la seconda parte (filosofia) del progetto Tripos, che la qualificò per studiare la logica simbolica con Russell.Dorothy Maud Wrinch al Girton

Rimase al Girton anche l’anno seguente, come ricercatrice. Nel periodo della sua vicinanza intellettuale a Russell, Wrinch potrebbe aver avuto un legame romantico con il fratello Frank e probabilmente ebbe un attaccamento infelice con un altro dei suoi discepoli, Raphael Demos, ma le fonti biografiche differiscono sul fatto che Wrinch avesse piuttosto desiderato una relazione sentimentale con Russell [1 a, b].

Bertrand Russell

Nel 1918 Wrinch accettò una docenza all’University College di Londra. A Londra Wrinch frequentò l’Aristotelian Society, partecipando ai dibattiti sulla natura della fisica, della biologia e della psicologia, e divenne amica di D’Arcy Thompson[2]. Fu stretta compagna intellettuale di Harold Jeffreys[3], e alcuni osservatori contemporanei pensarono che fossero fidanzati e che potrebbe essere stata la rottura di questo impegno che incoraggiò Jeffreys a entrare in psicoanalisi, che all’epoca era di moda a Cambridge.

Nell’autunno del 1918 Wrinch partecipò a uno studio universitario sulle espansioni asintotiche al King’s College di Londra, iniziò a insegnare all’University College e continuò comunque a lavorare con Jeffreys sulla filosofia del metodo scientifico.

Dorothy Wrinch a Londra

Si trasferì in un appartamento a Mecklenburgh Square di proprietà della allora amante di Russell, Colette O’Neil. Nel 1920 il Girton College assegnò a Wrinch una borsa di studio della Yarrow Research di quattro anni con libertà di lavorare su qualsiasi area a sua scelta.

Nello stesso 1920 ottenne il master e l’anno successivo il dottorato in matematica dall’University College di Londra.

Nel 1922 Wrinch sposò il suo supervisore al King’s College di Londra, il fisico matematico John William Nicholson[4]. Nicholson era stato di recente nominato direttore del College di matematica e fisica del Balliol College di Oxford, dove Wrinch lo raggiunse. La coppia ebbe una figlia, Pamela, nata nel 1927. Il libro di Wrinch (con lo pseudonimo Jean Ayiling) sulla genitorialità, Retreat from Parenthood, dedicato a Russell, fu un saggio sociologico piuttosto che un manuale su come crescere e educare bambini.

Altra immagine di Wrinch

La salute mentale di Nicholson si deteriorò alla fine degli anni ’20 e nel 1930 fu certificato come malato di mente. I due coniugi si separarono nel 1930, da quest’anno Wrinch si legò intellettualmente ed emotivamente al matematico Eric Neville[5] in un’amicizia che durò fino al 1961.

Durante il periodo oxfordiano Wrinch trovò il tempo per approfondire la sua educazione matematica, conseguendo un master (1924) e un dottorato (1929); fu la prima donna a conseguire un dottorato in scienze a Oxford (il Dipartimento di Scienze includeva la Matematica).

Mentre Wrinch stava approfondendo le sue conoscenze, pubblicò 42 articoli di matematica, fisica matematica e filosofia della scienza, tutti con il suo nome da nubile, che usò per tutta la sua carriera[2].

Nel 1931 Wrinch ottenne da Oxford una dispensa per studiare biologia, cosa che fece in università e laboratori di Londra, Parigi, Vienna e Berlino. In particolare, applicò concetti matematici alla struttura di proteine e cromosomi, che portarono al suo primo lavoro in biochimica, pubblicato su Nature nel 1934 [3]. Questo lavoro le valse nel 1935 una borsa di studio quinquennale della Fondazione Rockefeller per continuare le ricerche sull’applicazione di metodi matematici in biologia.

Nel 1937 presentò una nuova teoria della struttura delle proteine in una riunione dell’Associazione Britannica per l’Avanzamento della Scienza. La teoria era incentrata sull’esistenza di legami ciclici tra gli amminoacidi che costituiscono le proteine, struttura detta Cyclos (ciclone)[4].

Wrinch con la sua ipotesi di struttura

Sebbene la teoria fosse attraente per la simmetria matematica che possedeva e la sua capacità di spiegare molte proprietà delle proteine [5,6], tanto da essere sostenuta da molti, compreso Irving Langmuir [7,8], fu presto attaccata dai cristallografi britannici, i quali affermarono che la teoria non era conforme ai loro dati sperimentali. Inoltre, il chimico americano Linus Pauling calcolò che i legami del cyclos erano troppo instabili per persistere oltre un certo tempo. Pauling e Wrinch si impegnarono in un dibattito sempre più aspro attraverso le pagine del Journal of the American Chemical Society. Alla fine, entrambi hanno avuto torto: gli aminoacidi si combinano nelle proteine formando lunghe catene e legami tipo ciclone sono stati evidenziati nella segale cornuta (una malattia fungina delle graminacee).

Wrinch discute la sua struttura

Nel 1937 ottenne il divorzio da Nicholson sulla base della malattia mentale del marito.

Nel 1939 Wrinch e sua figlia si trasferirono negli Stati Uniti, in parte perché il rettore dell’Università di Oxford e il segretario agli Esteri Lord Halifax le consigliarono che sarebbe stata molto più utile là per sostenere lo sforzo bellico inglese attraverso attività di ricerca e conferenze divulgative.

Wrinch incolpò Pauling per la sua iniziale difficoltà nel trovare una sistemazione accademica negli Stati Uniti. Dopo essere stata visiting professor per un anno presso la Johns Hopkins University di Baltimora, Maryland, nel 1941 Wrinch ottenne una cattedra di ricerca in contemporanea in tre college femminili in Massachusetts: Amherst College, Mount Holyoke College e Smith College. Otto Charles Glaser[6], biologo e vicerettore dell’istituto maschile Amherst College, che era un convinto sostenitore della teoria del ciclone di Wrinch, fu determinante nel sostenere la sua candidatura. I due si sposarono quello stesso anno. Nel 1942 Wrinch ottenne una cattedra a tempo pieno presso lo Smith College, e nel 1943 divenne cittadina americana. Ha continuato a fare ricerca in biochimica fino al 1965 pubblicando i risultati sulle riviste più qualificate [2].

Il suo lavoro più noto di questo periodo è l’applicazione della trasformata di Fourier all’analisi dei dati cristallografici a raggi X [9].

Si è ritirata a Woods Hole nel 1971 ed è morta a Falmount (MA) l’11 febbraio 1976.

 

Opere consultate

William L. Losch, Dorothy Maud Wrinch Brithish-American mathematician and biochemist,

https://www.britannica.com/biography/Dorothy-Maud-Wrinch

D.C. Hodgkin, Obituary, Nature, 1976, 260, 564.

Dorothy Maud Wrinch Wikipedia

Bibliografia

[1] a)  M.Senechal, I died for beauty : Dorothy Wrinch and the cultures of science, Oxford: Oxford University Press,Oxford, USA, 2012; b) P.G. Abir-Am, Synergy or clash: Disciplinary and marital strategies in the career of the mathematical biologist Dorothy M. Wrinch (1894-1976)’ in: P.G. Abir-Am & D. Outram (eds.), Uneasy careers and intimate lives, Women in Science, 1789-1979,  Rutgers University Press, New Brunswick, Canada, 1987.

[2] L’elenco completo dei lavori di Dorothy Maud Wrinch si trova in http://wikler.net/marjoriesenechal/wrinch/wrinch-papers.htm

[3] D.M. Wrinch, Chromosome behavior in terms of protein pattern., Nature, 1934, 134, 978-979.

[4] D.M. Wrinch, On the pattern of proteins. Proc. Royal Society, 1937,160, 59-86.

[5] D.M. Wrinch, The cyclol hypothesis and the globular proteins. Proc. Royal Society, 1937, A 161, 505-524.

[6] D.M. Wrinch, The cyclol theory and the “globular” proteins., Nature, 1937, 139, 972-973.

[7] D.M. Wrinch, I. Langmuir, The Structure of Insulin Molecule. J. Am. Chem. Soc., 1938, 60, 2247-2255.

[8] I. Langmuir, D.M. Wrinch, Nature of the Cyclol Bond., Nature, 1939, 143, 49-52.

[9] D.M. Wrinch, Fourier Transforms and Structure Factors, published by the American Society for X-ray and Electron Diffraction, January 1946.

[1] Bertrand Arthur William Russell (1872 – 1970) britannico, pensatore preminente del XX secolo è stato matematico, logico, filosofo, storico, scrittore, critico sociale, divulgatore, attivista politico. Nel 1950 gli fu assegnato il Premio Nobel per la letteratura “in riconoscimento ai suoi vari e significativi scritti nei quali egli si erge a campione degli ideali umanitari e della libertà di pensiero”. Nel 1945 aveva pubblicato la poderosa opera (A) History of Western Philosophy And Its Connection with Political and Social Circumstances from the Earliest Times to the Present Day (Ed It.: Storia della Filosofia Occidentale). Il libro fu aspramente criticato dai filosofi di professione: Russell fu accusato di generalizzazioni e omissioni, ciononostante diventò un successo popolare e commerciale, ed è rimasto in stampa fin dalla sua prima pubblicazione. Sta di fatto che Russell è riuscito a far capire la filosofia al grande pubblico scrivendo in modo chiaro e comprensibile talvolta alleggerendo gli argomenti più difficili con humor tipicamente britannico. Grazie, Bertrand!

[2] Sir D’Arcy Wentworth Thompson (1860-1948) è stato un biologo scozzese, matematico e studioso di classici. Fu un pioniere della biologia matematica, viaggiò per spedizioni nello Stretto di Bering e ricoprì la carica di professore di storia naturale all’University College, Dundee per 32 anni, poi a St Andrews per 31 anni.

[3] Sir Harold Jeffreys (1891 – 1989) è stato un matematico, statistico, geofisico e astronomo britannico, docente di matematica, poi di geofisica e infine professore di Astronomia all’Università di Cambridge.

[4] John William Nicholson (1881 -1955) fisico matematico inglese è noto soprattutto per i suoi studi spettroscopici che lo portarono a scoprire nuovi elementi. Confinato nel Warneford Hospital fino alla sua morte nel 1955

[5] Eric Harold Neville (1889 – 1961) matematico inglese, noto per i suoi studi di geometria differenziale.

[6] Otto Charles Glaser (1880 – 1951) zoologo statunitense. È stato assistente di biologia all’Università del Michigan, poi professore di Biologia all’Amherst College del Massachusetts dal 1916 al 1948.