Due parole su chi controlla le acque potabili.

Mauro Icardi

La scorsa settimana una delle “Pillole di Mercalli”, filmati che il noto climatologo dedica ai temi ambientali e che vanno in onda su Rai News, è stata dedicata all’eccessivo consumo di acqua in bottiglia da parte degli Italiani.

Terzi a livello mondiale dopo Messico e Tailandia.

Ho visionato il filmato sul sito della Rai e ho voluto vedere qualche commento a proposito. A parte il solito schierarsi a favore o contro il consumo di acqua in bottiglia per ragioni diverse (sostenibilità ambientale su tutte, ma anche abitudini e gusti personali), ho potuto notare come al solito il proliferare di luoghi comuni decisamente banali.

Si sa che in generale le persone si lamentano dell’odore di cloro dell’acqua potabile (problema che è risolvibilissimo con il semplice utilizzo di una caraffa dove far riposare l’acqua per circa trenta minuti).

Molti sono addirittura convinti che l’acqua potabile sia nociva per la salute. E non è semplice far capire che un gestore di acquedotto ricorre alla disinfezione per consegnare l’acqua completamente esente da microorganismi potenzialmente patogeni.

Devo dire che ormai mi sono quasi rassegnato a questo tipo di commenti. Ma non ho resistito a dover rispondere ad un commento che in maniera superficiale e direi offensiva, sosteneva che la fiducia nell’acqua in bottiglia risiedesse nel fatto che le aziende imbottigliatrici “fanno i controlli”, e che conseguentemente i controlli effettuati dai gestori del ciclo idrico fossero insufficienti, o addirittura mancanti.

Ho risposto al commentatore, scrivendo che, se era così sicuro che gli addetti al controllo delle acque potabili della sua zona adottassero comportamenti omissivi nello svolgimento delle analisi , non gli restava che presentare una circostanziata denuncia alla Procura della Repubblica.

Assumendosi l’onere e la responsabilità di quanto affermava. Inutile dire che non ho ricevuto nessuna risposta a questo mio commento.

Forse avrei dovuto ignorare questo commento, come molti altri. Commenti che riguardano gli argomenti più diversi. Sulla possibilità che il web amplifichi quelle che un tempo erano le chiacchiere da bar si espresse già Umberto Eco. E sulla propagazione di bufale e leggende per meccanismi di conferma che si sviluppano per esempio tra chi crede alle scie chimiche, e sulla facilità con cui queste possono prendere piede ci sono già molti studi, e molti interessanti articoli. Uno molto interessante a firma di Walter Quattrociocchi è uscito sul numero 570 de “Le scienze” nel Febbraio 2016.

Ma su una cosa di questa importanza, non ho voluto far finta di niente. Mi sono sentito chiamato in causa in prima persona, ed ho pensato anche a tutte le persone che conosco negli incontri di lavoro, e che si occupano di qualità dell’acqua potabile.

Le società di gestione e conseguentemente gli addetti sono tenuti a rispettare quanto disposto dal Dlgs 31 che regola i controlli sulle acque destinate al consumo umano.

I controlli sono sia interni, cioè svolti dall’azienda di gestione dell’acquedotto, che esterni cioè effettuati dalle aziende sanitarie locali. I gestori sono soggetti ad un numero definito di analisi in funzione del volume di acqua erogata.

Questo il link del Dlgs 31.

https://www.arpal.gov.it/images/stories/testi_normative/DLgs_31-2001.pdf

Mi chiedo come si possa pensare che le aziende sanitarie, i gestori di acquedotto possano mettere in pratica comportamenti omissivi.

Siamo tenuti a conservare i risultati delle analisi per cinque anni, a pubblicare i rapporti di prova sul sito della nostra azienda per ottemperare a criteri di qualità e di trasparenza.

Ma soprattutto siamo coscienti di fornire un servizio. Come addetti al laboratorio poi siamo impegnati in un lavoro continuo di aggiornamento sia normativo che analitico. Le aziende acquedottistiche dovranno nel futuro sviluppare un proprio “Water Safety Plan” , cioè monitorare i fattori di rischio non solo a livello analitico, ma territoriale e di rete.

Siamo consapevoli dell’importanza della risorsa acqua.

Io ho come hobby il ciclismo. E ogni volta che faccio uscite in bicicletta rivolgo sempre un ringraziamento ai colleghi di altre aziende, quando sosto presso una fontanella o ad una casa dell’acqua. Al loro lavoro che mi permette di combattere sete e caldo, soprattutto in questi giorni.

Ma vorrei dire un’ultima parola a chi crede che non si facciano i controlli. Come chimici, come biologi, come tecnici di rete siamo vincolati ad un importante valore. Sappiamo di svolgere un servizio e conosciamo cosa significa una parola: etica. La conosco personalmente come chimico che in qualche caso ha rinunciato a ferie o permessi per terminare un’analisi urgente o la lettura di una piastra di microbiologia.

La conoscono i colleghi che a qualunque ora del giorno e della notte sono chiamati ad intervenire per ripristinare la fornitura dell’acqua. Lo sostengo da sempre. Non è con la demagogia o il sensazionalismo che si possono affrontare questi problemi. E questa cosa vale non solo per la mia azienda.

Riflettere un attimo prima di dire cose insensate è una virtù ormai scomparsa.

Moda sostenibile.

Luigi Campanella, ex Presidente SCI

L’aggettivo sostenibile è usato ed abusato, talvolta anche a sproposito. Ogni campo dell’attività umana si compiace di essere definito sostenibile: dal turismo alla produzione, dalla pratica alla sicurezza, dall’economia alla medicina.

Oggi vi voglio proporre un settore a cui forse pochi pensano per abbinare ad esso l’aggettivo in questione ed al quale l’aggettivo sostenibile si adatta perfettamente: parlo della Moda sostenibile.

Si tratta in pratica di definire le linee guida sui requisiti eco-tossicologici per gli articoli di abbigliamento, pelletteria, calzature ed accessori Tali linee si devono intendere applicate al prodotto finito ed ai materiali componenti e rivolti a quanti contribuiscono alla sua ideazione, realizzazione, distribuzione commercializzazione. Il fine è l’introduzione ed evoluzione di pratiche virtuose e sostenibili attraverso una corretta gestione dell’utilizzo delle sostanze chimiche nella filiera produttiva per garantire sugli articoli prodotti standard di sicurezza a beneficio dei consumatori

I riferimenti non possono che essere i principali regolamenti e leggi internazionali,a partire in questo periodo dal REACH, ma non solo: si pensi al CPSIA americano, ed agli standard cinesi e giapponesi ed i principali standard tecnici internazionali

Nell’ambito di utilizzo delle sostanze chimiche potenzialmente pericolose bisogna distinguere fra quelle che risultano ristrette sull’articolo e quelle che invece compaiono nel processo produttivo. Peraltro l’utilizzo delle sostanze nelle filiere produttive,chimiche e manifatturiere,può essere molto diverso in relazione alla quantità,alle miscele che si producono,alla tossicità,ai cicli lavorativi, alle macchine utilizzate.

Le sostanze chimiche in una filiera tessile possono svolgere fino ad 80 funzioni (es. ammorbidente, antimacchia, antipiega, batteriostatico, candeggiante ,detergente ,fissatore , disperdente, enzima proteasi, impermeabilizzante, ritardante, lubrificante, schiumogeno, uv assorbente …).

I coloranti, nello specifico, sono divisi in classi ed ognuna è ricca di composti finalizzati per l’uso in base al tipo di tessuto da trattare.

I composti chimici di base utilizzati nella filiera tessile sono di natura diversa:acidi (acetico, formico, solforico, cloridrico, ossalico), basici (ammoniaca, sodio idrossido, calcio idrossido), estratti vegetali (castagno, mimosa…..), depilanti (sodio solfidrato, sodio solfuro), concianti minerali (solfato basico di cromo, sali di Al, Zr, Ti, Fe), concianti organici (glutaraldeide, oxazolidina, sali di fosfonio)

Gli approcci adottati sono 2.

Proattivo: considera i limiti di presenza di residui di sostanze negli articoli

Avanzato : considera richieste di settore avanzate come obiettivi da raggiungere

Per ogni tipo di composto sono fissati dei limiti di presenza nel tessuto o prodotto finale e nell’impianto produttivo e dei metodi ufficiali ed accreditati di analisi.

Nota del postmaster: si vedano anche articoli prtecedenti sul medesimo tema:

https://ilblogdellasci.wordpress.com/2017/02/15/chimicamente-alla-moda-2/

https://ilblogdellasci.wordpress.com/2015/08/10/la-chimica-e-sempre-piu-di-moda-negli-istituti-tecnici-2-parte/

 

Le “seccature” di Seveso e Manfredonia: una riflessione.

Claudio Della Volpe

Nel 1976 mi sono laureato e dunque quell’anno me lo ricordo positivamente; finalmente avevo concluso un iter di studio e di crescita anche umana che mi hanno reso quel che sono, un chimico che è impegnato sulla barricata di un ambiente sostenibile e di una scienza democratica.

Mi ero iscritto nel 1968 e sarebbe stato impossibile per chiunque in quegli anni bollenti rimanere alla finestra mentre il mondo intero scendeva in piazza chiedendo una società nuova e rendendosi conto che, in fondo, era possibile.

I sogni e gli stimoli di quel tempo hanno fatto i conti con la realtà quotidiana, ma non sono mai morti.

Anzi non moriranno mai.

Per me che ero il primo della mia famiglia a laurearmi, ma credo per chiunque, Napoli era allora un crocevia di cultura e di innovazione; dove si seguivano le lezioni di Paolo Corradini, le conferenze di Liguori, di Prigogine, o di Enzo Tiezzi, dove ti prendevi il caffè discutendo (e non solo) di politica con Ennio Galzenati e Emilio Del Giudice, ti laureavi con Guido Barone, la sera passavi da Vittorio Elia o da Pina Castronuovo; gli studenti indicati come esempio si chiamavano Francesco Lely, il giorno della laurea avevi come compagno di prova Enzo Barone.

Insomma la chimica e la scienza napoletane non avevano nulla da invidiare a nessuno e costituivano un perenne stimolo culturale e scientifico.

Proprio in quell’anno di grazia 1976 ci furono due episodi che segnarono il clima dell’ambientalismo, della chimica, della scienza e che determinarono poi per anni a venire l’idea di chimica e di scienza del grande pubblico e vorrei ricordarli brevemente con voi: uno lo conoscete certamente, Seveso, l’altro di pochissimo successivo, forse non lo ricordate, ma è egualmente importante, Manfredonia.

Seveso è stato analizzato ripetutamente e magistralmente sulle pagine di C&I; ricordo qui brevemente due articoli che vi consiglio di leggere a questo riguardo e che sono scaricabili liberamente; uno di Ferruccio Trifirò che trae le lezioni tecniche dell’evento e l’altro di Jorg Sambeth, direttore tecnico della Givaudan-Roche che scrisse anche un libro sui retroscena di quell’evento, “Zwischenfall in Seveso”, purtroppo mai tradotto dal tedesco; nell’articolo Sambeth trae le lezioni strategiche da Seveso le stesse che ha esposto più ampiamente nel libro. Zwischenfall significa si incidente, ma nel senso proprio di contrattempo, seccatura, inconveniente che ti fa perdere tempo.

Ma anche per chi non conosce il tedesco e non può leggere il testo c’è una intervista rivelatrice in italiano che trovate qui.

Dottor Sambeth, perché ha preso la decisione di raccontare l’incidente con un libro.
«Innanzitutto – spiega – per ragioni personali: io ho voluto tirare fuori tutto dalla mia coscienza, come in un confessionale. L’incidente ha coinvolto tanta gente che ha sofferto. In secondo luogo, volevo dire alla mia famiglia e ai miei amici che cosa realmente è accaduto. C’è una terza ragione: raccontare alla gente, e soprattutto ai giovani, in che situazione mi ero trovato e che cosa non bisogna fare. Infine – sorride – c’è un quarto motivo: ho sempre voluto scrivere un libro. Avevo bisogno di una trama, e qual è una trama migliore di quella di Seveso?»

Quando visitò per la prima volta lo stabilimento di Seveso.
«Nel giugno del 1970. Ed ebbi subito l’impressione che sullo stabilimento non era stato investito abbastanza. Il reattore per il triclorofenolo, quello che poi sarebbe scoppiato, era abbastanza moderno. Una macchina non elegante, ma non così mal messa come il resto dello stabilimento, che era un disastro».
Intanto, però, si produceva triclorofenolo.
«La produzione era in corso da tempo ma la Roche non aveva ancora fatto nessuna ricerca documentaria sui possibili rischi e sugli incidenti precedenti. L’intero progetto per la produzione di triclorofenolo era sbagliato, non appoggiava sulla ricerca. La Roche non mi aveva detto niente, non so se per negligenza, stupidità o presunzione». «Il reattore era pronto ad esplodere Tutti sapevano, ma decisero di tacere»

Il rischio che la produzione di triclorofenolo potesse portare alla sintesi di diossina era noto da tempo, ma alla Givaudan non c’era alcun piano. Questo ribadisce Jorge Sambeth, l’ex direttore tecnico della Givaudan
«Nel 1971 – spiega – fummo un mio collaboratore ed io a leggere su Nature dell’incidente in Inghilterra durante il quale venne prodotta diossina a una temperatura di circa 230 gradi. E subito mandai all’Icmesa una copia di quel testo, con una disposizione precisa: mai superare i 170°. Di quella lettera c’è anche copia, è stato uno dei miei documenti di difesa più importanti».
Come controllavate la temperatura del reattore di Seveso?
«Con un impianto esterno di raffreddamento ad acqua. O, al limite, immettendo nel reattore acqua fredda da una cisterna di 3 mila litri. Con l’acqua la reazione non poteva continuare. Era assolutamente normale che, talvolta, la temperatura si alzasse di qualche grado sopra i 170. Negli anni prima dell’incidente era successo due o tre volte, ma la situazione rimase sempre sotto assoluto controllo proprio grazie all’immissione di acqua».
Non c’erano tuttavia strumenti automatici di controllo della temperatura e della pressione.
«No, non erano previsti perché il personale era per tutto il tempo lì davanti a controllare il processo».
L’Italia, allora, era considerata in Svizzera come un paese da Terzo Mondo?
«Assolutamente sì. Se c’erano ispezioni, si poteva dire: stiamo facendo, stiamo facendo. L’anno prossimo, l’anno prossimo. Si ammodernavano tutti gli impianti del mondo, quello italiano no. Questo non lo voglio negare».

Nel bene e nel male anche se solo un morto (ma decine di casi di cloracne migliaia di abbattimenti di animali e centinaia di miliardi di lire di allora di danni e spese per eliminare il terreno contaminato) fu effettivamente provocato dall’incidente, Seveso ha segnato le leggi e le persone; se oggi abbiamo una legislazione ambientale EUROPEA come quella che abbiamo lo dobbiamo all’evento Seveso. REACH ne è una conseguenza logica. Alcuni di quei miliardi furono usati per mantenere verifiche su ambiente e persone, perchè (nonostante tutto il bene che se ne possa dire) le diossine sono uno dei 12 POPs, ossia gli inquinanti ambientali persistenti banditi o controllati a livello mondiale.

Ultimo (ma non ultimo come qualità ed efficacia) ricordo il numero speciale di Sapere dedicato a Seveso e alle sue lezioni:

Eppure; eppure come la Roche svizzera considerava la Lombardia del 1976 “terzo mondo”, c’era un mondo che l’industria chimica italiana considerava “terzo mondo”: il sud dell’Italia.

L’incidente di Seveso avvenne il 10 luglio 1976; io mi ero laureato due mesi prima; il giorno dopo la laurea con alcuni amici carissimi (Cesare Fournier, Eugenio Chiaravalle, Enzo Santagada e quella che sarebbe diventata mia moglie Rita Cosentino) tutti giovani chimici, ci recammo in Puglia a cercare lavoro; la Puglia era la terra della campagna saccarifera che iniziava proprio allora, ma era anche una delle regioni del Sud che più stava cercando di riscattarsi da una atavica povertà e costruire una industria moderna. Quella volta andò buca e la vulgata è che ci scappò il soprannome di uno di noi (“Lenin”) giusto durante le presentazioni; ciò mise in sospetto l’incaricato delle assunzioni e fummo fregati; ma forse è una cattiveria.

Dopo qualche mese, 29 settembre, avvenne proprio in Puglia a Manfredonia un incidente chimico gravissimo.

Sul tema è difficile trovare notizie certe e assodate; c’è un libro in italiano, ma praticamente introvabile se non in biblioteca: I fantasmi dell’Enichem, Giulio Di Luzio, Ed Baldini Castoldi Dalai, 2003. C’è una tesi di Francesco Tomaiuolo (2005), ma si può scaricare solo a pagamento (che poi siano a pagamento le tesi degli studenti italiani fatte in università italiane è veramente un mistero per me: chi incamera i soldi pagati per le consultazioni su siti privati? Bah); ci sono parecchi articoli giornalistici che si trovano pubblicamente.

Fra gli altri segnalo l’articolo pubblicato qualche anno (2002) dopo su C&I (non ho l’elenco articoli pubblicato fra 1976 e 2000 su C&I): http://www.soc.chim.it/sites/default/files/chimind/pdf/2002_2_10_ca.pdf autore Mario Ghezzi; tuttavia su questo articolo, certamente ben basato dal punto di vista chimico, avanzo delle perplessità sull’approccio sociale e della salute. Interessante notare come la data dell’incidente nell’articolo citata più e più volte sia sbagliata (1984, 1974, ma in realtà l’incidente avvenne nel 1976 e questa trascuratezza è essa stessa una informazione, testimonia di quell’atmosfera che Sambeth chiama in tedesco Zwischenfall, contrattempo, seccatura, incidenti-seccatura per i proprietari e gli industriali chimici e forse anche per alcuni chimici industriali).

Bruno Zevi in un articolo apparso su «L’Espresso» del 3 dicembre 1967 dal titolo L’ENI a Manfredonia: una ghigliottina per il Gargano scrisse che quella scelta industriale fu un “atto masochistico”.

L’impianto Enichem è stato costruito alla fine degli anni ’60 nel comune di Monte sant’Angelo, a 1 km da Manfredonia. L’Anic, Azienda Nazionale Idrogenazione Combustibili, è stata l’azienda petrolchimica dell’ENI che fino al 1983 ha gestito le produzioni petrolchimiche del gruppo fino a confluire nell’EniChem e successivamente nel 2000 essere trasformata in Syndial. La scelta del posto, il litorale nei pressi di una città che viveva di pesca e agricoltura (facente parte del bacino elettorale di un politico di maggioranza e dirigente dell’ENI) è stata criticata per i rischi ambientali;( http://atlanteitaliano.cdca.it/conflitto/petrolchimico-enichem-di-manfredonia)

Su quei 160 ettari affacciati direttamente sul mare sorsero nel giro di qualche anno gli impianti per la produzione di urea e ammoniaca dell’ANIC e per la produzione altamente tossica di caprolattame della SCD (Società Chimica Dauna). La produzione fu avviata nel 1971,( http://www2.issm.cnr.it/demetrapdf/boll_12_2006/Pagine da demetra_imp 12_tomaiuolo.pdf)

In effetti già il 15 luglio 1972 ci fu una violenta alluvione e l’impianto rimase senza corrente non avendo un impianto elettrogeno; questo fece correre il rischio di malfunzionamento o perfino di esplosione (come a Seveso interrompere bruscamente una reazione chimica non è consigliabile); la commissione ministeriale formata dopo l’alluvione sottolineò che l’impianto era in una zona a rischio idrogeologico.

Comunque il ricatto lavoro-salute-ambiente è vecchio e forte. La fabbrica rimase dov’era.

Interessante notare quanto scrive Ghezzi sull’aspetto tecnico della fabbrica, che in certo senso ricorda le frasi di Sambeth su Seveso:

“l’ing. Gianmarco, veneziano e direttore della fabbrica Vetrocoke Azotati di Marghera, installata dalla Fiat e ceduta a Montecatini nel 1962, sviluppò negli anni Cinquanta un processo di abbattimento di anidride carbonica che impiegava una soluzione contenente sali assorbenti-desorbenti, per reazioni successive, di arsenico, più tardi sostituito da vanadio. Purtroppo detto processo non ebbe molta fortuna, risultò di difficile messa a punto a Marghera e causò gravi perdite di arsenico nei canali industriali di Marghera, che sono state oggi accertate e sono in via di bonifica. Non si capisce pertanto per quali motivi Anic negli anni Sessanta abbia commesso l’errore di impiegare nel progetto ammoniaca di Manfredonia il processo Gianmarco, visto che il mercato offriva processi migliori per il recupero di anidride carbonica da impiegare nel vicino impianto urea e che il suo impianto di Ravenna utilizzava il vecchio e collaudato lavaggio ad acqua: si è trattato probabilmente di un tentativo di aggiornamento tecnologico andato a male.”

Io un’idea la avrei, suggerita dalla lettura di Sambeth: forse perchè era meno costoso? Forse perchè nessuno avrebbe nel Sud affamato di lavoro di quegli anni protestato o controllato pur di avere un impianto sia pur vecchio o malposizionato: lavoro, lavoro, lavoro! Non si può vivere di bellezza. (O forse si?)

Racconta Tomaiuolo:

Il 26 settembre del 1976, poco prima delle 10 del mattino, un boato scosse la città, sulla quale si abbatté subito dopo una nube tossica dalla quale cominciò a cadere una fanghiglia giallastra molto leggera, che nel quartiere Monticchio – il più vicino allo stabilimento – in breve coprì ogni cosa. I bambini presero a giocare con quella che credevano neve fuori stagione. Nello stabilimento – specificamente nell’impianto per la produzione di ammoniaca – era scoppiata la colonna di lavaggio dell’anidride carbonica sprigionando nell’atmosfera decine di tonnellate di arsenico. Per fortuna l’incidente avvenne di domenica, quando erano presenti solo una ventina di operai in fabbrica. Ma la fortuna divenne disgrazia allorché i dirigenti dello stabilimento decisero di minimizzare l’accaduto consentendo agli oltre 1800 lavoratori di entrare normalmente in fabbrica l’indomani mattina. Quegli operai vennero contaminati da massicce dosi di arsenico e tra loro molti vennero adibiti a spazzare il pericoloso veleno a mani nude. Gli intossicati furono centinaia. Nelle campagne vicine allo stabilimento si assistette alla morte di migliaia di animali da cortile e anche in città si verificarono numerosi casi di intossicazione. Dell’incidente, che seguiva di pochi mesi quello di Seveso, se ne occuparono presto i giornali nazionali ed esteri. Fu inviato l’esercito a presidiare le aree contaminate mentre negli ospedali si eseguivano accertamenti clinici sommari sulla popolazione e sugli operai. Intanto venne costituita una commissione tecnico-scientifica per il disinquinamento, che decise di sottoporre i terreni contaminati a lavaggio con ipoclorito di calce e solfato di ferro, per ottenere l’ossidazione e l’insolubilizzazione dell’arsenico, evitando così che percolasse nella falda e quindi in mare. Le operazioni durarono poche settimane. La Procura aprì un’inchiesta che non arrivò mai neanche alla fase dibattimentale, poiché all’epoca era ancora troppo difficile stabilire un nesso di causalità tra esposizione ad arsenico e malattie tumorali.

L’arsenico, entrato ormai nella catena alimentare della popolazione di Manfredonia, ricominciò a far parlare di sé solo alcuni decenni più tardi, quando l’Organizzazione Mondiale della Sanità, effettuando uno studio di mortalità sulla popolazione nel periodo 1980-87, rilevò eccessi di tumori dello stomaco, della prostata e della vescica tra i maschi e della laringe, della pleura nonché di mieloma multiplo tra le donne. Così Manfredonia fu dichiarata area ad alto rischio cancerogeno e venne chiesta l’istituzione di un osservatorio epidemiologico permanente.

Lo stabilimento venne chiuso nel 1993; interessante il retroscena raccontato sempre da Tomaiuolo:

un procedimento giudiziario avviato nel 1988 dal pretore di Otranto portò al sequestro di due navi che l’Enichem utilizzava per il trasporto dei sali sodici – rifiuti tossici derivanti dalla produzione di caprolattame – che avrebbe dovuto scaricare nel Mar Libico. Il sequestro avvenne perché si accertò che lo scarico veniva abusivamente effettuato nel canale d’Otranto, provocando morie continue di pesci e delfini. L’azienda così, non potendo più smaltire gli scarti di lavorazione del caprolattame, che ammontavano a 198.615 tonnellate annue, decise la chiusura dell’impianto. L’economicità di gestione dell’intero sito industriale venne così a ridursi drasticamente e, in seguito al blocco europeo degli aiuti di stato all’Enichem, la società chiuse nel 1993 anche gli impianti per la produzione di ammoniaca.

Ora Ghezzi ha scritto che l’incidente di Manfredonia “non provocò alcun decesso, salvo quello della fabbrica e del contiguo stabilimento della Daunia”; rimane difficile credere che una ricaduta di materiale contenente arsenico per varie tonnellate (almeno 10) su una popolosa zona abitata non abbia avuto conseguenze mortali.

E’ pur vero che l’articolo di Ghezzi non era solo nell’approccio minimizzante: nel 1982 la rivista italiana “Medicina del Lavoro” ha negato ogni effetto sanitario sui lavoratori, sostenendo la tesi che l’arsenico elevato dipendesse dall’assunzione alimentare di crostacei.

Varie osservazioni. Già 30 anni fa l’Agenzia internazionale per la ricerca sul cancro (IARC) ha valutato l’arsenico (As) e i composti arsenicali come cancerogeni per l’uomo e ha considerato nel 2004 la cancerogenicità certa dell’arsenico in acqua per uso umano

I livelli di arsenico rilevati nelle urine dei soggetti esposti a Manfredonia erano altissimi ben superiori a qualunque limite poi stabilito; attualmente (dopo il 2001) il limite dell’As nelle acque potabili è di 10ppb (10mg/litro o 10gamma/litro); era di 50 nel 1988; ora si consideri che nei lavoratori esposti dell’Enichem le analisi effettuate dalla Medicina del Lavoro di Bari rilevano concentrazioni di arsenico nelle urine degli operai comprese tra 2000 e 5000 gamma/litro, contro un limite di tollerabilità fissato in 100 gamma/litro e che all’ inizio del 1977, su proposta del prof. Ambrosi, viene innalzato prima a 300 e poi a 800 gamma/litro il limite di arsenico nelle urine degli operai oltre il quale scatta la messa a riposo (un pò come nel caso atrazina!!); non v’è dunque dubbio alcuno che i lavoratori esposti potessero essere soggetti all’azione tumorale dell’As; la stima dei morti per effetto diretto portata in giudizio fu di 17.

Il 4 marzo riprende la produzione di caprolattame, seguita da quella di fertilizzanti nell’autunno seguente, dopo la sostituzione della colonna esplosa. Il 60 % della produzione agricola e il 30 % di quella zootecnica viene distrutta. I braccianti hanno perso giornate lavorative, mentre il pesce del golfo per intere settimane è stato respinto dai mercati. Alcuni paesi europei hanno minacciato di non ritirare più glutammato monosodico prodotto dall’ Ajinomoto di Manfredonia, e uno di essi ha preteso che i carichi fossero accompagnati da certificati (M. Apollonio, Diecimila in corteo a Manfredonia. La Gazzetta del Mezzogiorno, 18 ottobre 1976)

Negli anni seguenti ci furono rinnovate proteste e anche un processo partito per iniziativa di un operaio, Nicola Lovecchio, poi morto di tumore, che si è chiuso solo nel 2011 senza condanna dell’Enichem. A Lovecchio è dedicato il libro di Di Luzio.

Nel 1995 il Dott. Maurizio Portaluri, radioncologo dell’ospedale San Giovanni Rotondo e attivista di Medicina Democratica, assieme all’ex operaio Nicola Lovecchio ha effettuato un’indagine epidemiologica dal basso, mostrando un eccesso di tumori per i lavoratori e denunciando venti anni di violazioni dei loro diritti. Ne è seguito un processo penale contro dodici persone in cui sono stati coinvolti centinaia di operai, numerose associazioni, il comitato di donne Bianca Lancia, il comune di Manfredonia (poi ritiratosi) e lo Stato Italiano. Durante il processo l’Enichem ha offerto soldi in cambio del ritiro delle parti civili. Il processo è finito nel 2011 con l’assoluzione totale dell’Enichem nonostante che anche le relazioni dell’ISS (Istituto Superiore di Sanità) e della stessa OMS (Organizzazione Mondiale della Sanità) riconoscessero nell’incidente del 1976 la causa dei tumori degli operai. Il comitato Bianca Lancia nel 1998 ha ottenuto una sentenza favorevole della Corte Europea dei Diritti dell’Uomo, ma solo per “danni morali” dovuti alla mancanza di trasparenza nella gestione della fabbrica. Non c’è stato alcun riconoscimento del disastro ambientale. Dallo stesso anno Manfredonia è Sito di Interesse Nazionale per le bonifiche (CDCA).

Alla fine la Corte di Cassazione ha decretato l’inammissibilità del ricorso presentato dalla Procura di Bari che invece riteneva i vari dirigenti ENICHEM e medici del lavoro responsabili.

A differenza di Seveso, Manfredonia è rimasta senza colpevoli.

Una cosa che noto di passaggio; i lavori di bonifica del sito abbandonato dalla Enichem sono adesso condotti dalla Syndial, filiazione dell’ENI; la domanda è chi paga i lavori di bonifica per le sporcizie immesse in ambiente da Enichem? Noi o loro?

Ci sono due versi di canzoni della mia gioventù che mi risuonano in questo momento nelle orecchie, una è quella del pugliese Domenico Modugno

Sole alla valle, sole alla collina,
per le campagne non c’è più nessuno.
Addio, addio amore, io vado via

amara terra mia, amara e bella.

E gli risponde quella di Paolo Pietrangeli che risuonava per le strade del 68:

“Che roba Contessa all’industria di Aldo
han fatto uno sciopero quei quattro ignoranti
volevano avere i salari aumentati
gridavano, pensi, di essere sfruttati
e quando è arrivata la polizia
quei quattro straccioni han gridato più forte
di sangue han sporcato il cortile e le porte
chissà quanto tempo ci vorrà per pulire.”

documentazione: http://www.musilbrescia.it/minisiti/la_chimica_in_italia/contenuti/le_industrie_in_italia-casi_di_studio/7.Industria_e_ambiente_Il_caso_Seveso_Leoci_Nebbia_Notarnicola.pdf

Open Science in Europa.

Luigi Campanella

Ho parlato di Open Science in varie occasioni,in particolare ricordo a tutti la Tavola Rotonda in sede SCI del luglio 2016 nella quale furono discussi tutti gli aspetti di quella che è divenuta un’esigenza,una richiesta,quasi un diritto:rendere disponibili i risultati delle ricerche sì da consentire anche alle comunità scientificamente più deboli di crescere.

Leggo in questi giorni con piacere che sull’argomento si è mossa anche la Commissione Europea. La Piattaforma per una Politica di Open Science (OSPP) è costituita da un Gruppo di 25 esperti di alto livello che rappresentano i vari stakeholders coinvolti, quindi università, Enti di Ricerca, accademie, associazioni culturali riconosciute, editori, biblioteche, piattaforme sulla Open Science.

L’obiettivo principale della OSPP è consigliare la Commissione Europea sullo sviluppo e l’implementazione della Open Science.Il gruppo si è riunito già 3 volte. Il primo incontro è stato meramente introduttivo, mentre i successivi 2 sono stati focalizzati su temi quali la Scienza per i Cittadini, la Rete Europea di Open Science, le Pubblicazioni ad accesso libero.

La prima linea guida che è venuta da OSPP ha riguardato Horizon 2020 chiedendo che tutti i lavori scientifici prodotti in tale ambito siano ad accesso libero, con sanzioni a carico degli inadempienti.

La seconda linea guida ha invece proposto la messa disposizione dei ricercatori che vogliano pubblicare ad accesso libero i propri lavori di un posto dove pubblicare dopo avere superato il vaglio dei referee. Questa opportunità ha un costo con il conseguente problema di chi se l’accolla.

Un punto importante discusso anche in un incontro della Piattaforma riguarda le differenze fra discipline scientifiche, umanistiche, economiche riguardo l’accettazione ed il supporto all’OPEN Science. Infine si è discusso di modelli imprenditoriali sostenibili, assolutamente necessari per evitare che la Open Science venga affidata al volontarismo.

si veda https://ec.europa.eu/research/openscience/index.cfm

 

Qualcuno può aiutarmi a spiegare un fenomeno?

Maurizio D’Auria*

Da qualche tempo sto cercando di ricostruire le vicende che hanno permesso la nascita e la sedimentazione nella cultura scientifica italiana degli studi in ambito fotochimico. In questo ambito per molto tempo si è pensato che lo scoppio della I Guerra Mondiale sia coinciso con un periodo di lungo oblio della disciplina. Questo convincimento si è probabilmente diffuso per il fatto che Ciamician a Bologna dopo il 1914 non pubblicherà più nulla in termini di ricerche sperimentali in ambito fotochimico, e che anche Paternò a Roma sostanzialmente fece la stessa cosa.

Abbiamo altrove cercato di dimostrare che questo non è stato proprio vero. Allievi di Ciamician e di Paternò continuarono a sviluppare la disciplina, talvolta ottenendo anche risultati molto interessanti. Maurizio Padoa a Bologna tentò, per esempio, nel 1911 di effettuare una sintesi asimmetrica utilizzando luce circolarmente polarizzata. La reazione studiata da Padoa (Gazz. Chim. Ital. 1911, 41(I),469) fu la bromurazione dell’acido angelico e, ovviamente, non ebbe successo. L’insuccesso era dovuto al fatto che la luce interveniva nel processo solo per generare l’atomo di bromo per scissione omolitica del bromo, ma poi non aveva nessun ruolo nella successiva addizione di bromo all’acido angelico.

acido angelico

Fin qui nulla di strano quindi. Qualche giorno fa mi imbatto, però, in un articolo che mi ha messo in difficoltà. Mario Betti , successore di Ciamician sulla cattedra di Chimica Generale dell’Università di Bologna, nel 1942, pubblica una nota sui Rendiconti dell’Accademia delle Scienze dell’Istituto di Bologna (vol IX, pp. 203-214). In questo articolo viene descritta l’addizione di cloro (quindi sostanzialmente la stessa reazione esaminata da Padoa) al doppio legame del propene in fase gassosa sotto l’azione di luce polarizzata. Il processo è formalmente identico a quello visto precedentemente e quindi non c’era ragioni di attendersi una qualche catalisi asimmetrica. Invece, Betti dichiara di trovare una certa asimmetria. Arriva a determinare valori di a fino a 0.22. Se consideriamo che il (-)-1,2-dicloropropano liquido mostra una rotazione ottica di -4.33, il risultato indica una relativamente buona (ottima per l’epoca) induzione asimmetrica.

propene

Ma come si spiega tutto ciò? qualcuno è in grado di spiegarmi come è possibile che in questo caso si osservi una reazione chirale mentre nel caso precedente no?

*http://cla.unibas.it/contents/instance3/files/document/1001004D’Auria.pdf

Un tema emergente: depuratori come bioraffinerie.

Mauro Icardi

Con una certa ricorrente periodicità si leggono sui giornali notizie che parlano in maniera molto generica del potenziale energetico della FORSU, ovverosia della frazione umida dei rifiuti solidi urbani, e più in generale dei reflui fognari. Ho seguito, a livello di esperienze in scala di laboratorio questo tipo di sperimentazioni, e posso dire che funzionano. Ma occorre fare immediatamente alcune considerazioni e sgombrare il campo da possibili obiezioni o fraintendimenti. Questo tipo di tecnica, cioè la codigestione di frazione umida dei rifiuti, o di diverse tipologie di residui di origine organica, di sottoprodotti di lavorazioni agroindustriali insieme ai fanghi originati dalla depurazione a fanghi attivi tradizionale, non è da confondersi con la produzione di biogas da biomasse eventualmente coltivate o importate esclusivamente a questo scopo.

Si tratta di una possibilità diversa. La digestione anaerobica è circondata troppo spesso dalla solita confusione che si fa quando si parla di questioni tecniche. I fanghi di risulta dei depuratori vengono mandati al trattamento di digestione anaerobica sostanzialmente per ridurne il potenziale di putrescibilità e per essere parzialmente igienizzati. La riduzione della percentuale di sostanza organica permette successivamente un trattamento più agevole dei fanghi destinati ad essere resi palabili e smaltibili con un trattamento di disidratazione meccanica.

La possibilità di trattare insieme ai fanghi la frazione umida dei rifiuti solidi aumenta considerevolmente la produzione di metano. Il principio della codigestione si adatta al trattamento anaerobico della FORSU; infatti, la combinazione di biomasse eterogenee permette di ottenere una matrice da digerire che risponda meglio alle caratteristiche chimico-fisiche desiderate. Ad esempio, una corretta ed attenta miscelazione di matrici differenti può aiutare a risolvere problemi relativi al pH e al corretto rapporto acidi volatili/alcalinità.

La codigestione è pratica standard in diversi paesi europei, quali Francia e Norvegia.

Le matrici attualmente più utilizzate nella codigestione sono gli effluenti zootecnici, gli scarti organici agroindustriali e le colture energetiche. Gli scarti organici da utilizzare come co-substrati provengono dalle più svariate fonti e possiedono quindi forti differenze nella composizione chimica e nella biodegradibiltà. Alcune sostanze (quali percolati, acque reflue, fanghi, oli, grassi e siero) sono facilmente degradabili mediante digestione anaerobica senza richiedere particolari pretrattamenti, mentre altre (scarti di macellazione e altre biomasse ad elevato tenore proteico) necessitano di essere fortemente diluite con il substrato base, in quanto possono formare metaboliti inibitori del processo (ad esempio l’ammoniaca). Una vasta gamma di matrici richiede step vari di pretrattamento quali, ad esempio, il rifiuto organico da raccolta differenziata, gli alimenti avanzati e/o scaduti, gli scarti mercatali, i residui agricoli e gli scarti di macellazione. La codigestione, se gestita correttamente, è una buona pratica per migliorare la gestione e le rese di un impianto di digestione anaerobica.

Le modifiche impiantistiche dei digestori esistenti potrebbero riguardare la realizzazione di agitatori interni al comparto di digestione, e nel caso del trattamento di frazioni organiche solide di trituratori e coclee per il caricamento dei reflui nel comparto di digestione.

Oltre a problemi di tipo impiantistico e di gestione di processo occorre anche citare problemi di carattere autorizzativo e burocratico. Che permettano di agevolare l’eventuale uso di residui che da rifiuti si trasformino in materie prime secondarie.

Un ultima considerazione. Mediamente la produzione specifica di biogas dai soli fanghi di depurazione desunta da dati di letteratura e sperimentali è di circa sui 10 m3/t. Quella della FORSU raggiunge i 140 m3/t.

La sinergia è quindi ampiamente auspicabile.

Questo filmato mostra una prova di infiammabilità eseguita insieme a studenti dell’Università di Varese durante una delle sperimentazioni lab scale di codigestione.

Una piccola dedica ed un ricordo di anni proficui sia professionalmente che umanamente. Una piccola dedica ai ragazzi che ho seguito con affetto e passione.

Fatta questa lunga premessa, in questi giorni ho notato che la pubblicità di una nota industria petrolifera parla di sperimentazioni volte ad ottenere “tramite lo studio della decomposizione anaerobica dei primi organismi viventi” lo sviluppo di un processo che permette “di ottenere un bio olio da impiegare direttamente come combustibile o da inviare successivamente ad un secondo stadio di raffinazione per ottenere biocarburante da usare nelle nostre automobili”.

Questa affermazione mi lascia sinceramente perplesso. Il tema dell’ottenimento di petrolio dai rifiuti ricorda la vicenda ormai nota della Petrol Dragon.

E’ noto che per convertire sostanza organica in idrocarburi si debba lavorare ad alte pressioni e temperature. Uno studio sperimentale per convertire alghe in biocarburante identifica i parametri di processo in una temperatura di 350°C e pressione di 3000 psi.

Questo il link dello studio.

http://www.smithsonianmag.com/innovation/scientists-turn-algae-into-crude-oil-in-less-than-an-hour-180948282/?no-ist

Questo processo convertirebbe dal 50 al 70% della mistura di acqua e alghe in “una specie di petrolio greggio in meno di un’ora” .

Da quel che si deduce fino ad ora lo studio è fermo alla fase di realizzazione in scala impianto pilota.

Allo stesso modo un processo che volesse ottenere combustibili liquidi utilizzando come materia prima la FORSU e che dovrebbe subire lo stesso tipo di trattamento, da adito a diverse perplessità, vista l’eterogeneità del materiale di partenza.

La FORSU che sappiamo essere facilmente gassificabile dovrebbe produrre biogas che si dovrebbe convertire in gas di sintesi, se la quantità di metano fosse sufficientemente elevata, e successivamente tramite reazioni quali quella di Fischer Trops in carburante sintetico. Probabilmente troppi passaggi. E visto il prezzo ancora relativamente basso del petrolio probabilmente anche antieconomico.

L’ossigeno molecolare nello spazio

Diego Tesauro

Mentre stiamo leggendo questa pagina web stiamo immettendo nei nostri polmoni dell’aria che contiene per quasi il 21% della sua composizione la molecola di ossigeno. La molecola di ossigeno è la seconda componente dell’atmosfera terrestre e riveste un ruolo fondamentale per le forme di vita superiori. Questo dato ci spinge a porre una domanda. La molecola di ossigeno è presente ugualmente nel sistema solare e poi in altri sistemi planetari o nel gas interstellare?

L’ossigeno è il terzo componente dell’universo dopo l’idrogeno ed elio. Si è formato a seguito di processi di fusione nucleare di elio nei nuclei delle giganti rosse, stelle nella loro fase evolutiva avanzata quando nel nucleo della stella si raggiungono temperature di centinaia di milioni di gradi. Questa osservazione e le nostre conoscenze chimiche, per cui due atomi di ossigeno per raggiungere uno stato energeticamente più basso mettono in compartecipazione i loro elettroni, ci dovrebbero far concludere che la molecola di ossigeno sia ubiquitaria nell’universo. E così pensavano anche gli astronomi fino ad una ventina di anni fa quando cominciarono ad indagare le nubi interstellare diffuse in tutti i domini dello spettro elettromagnetico alla ricerca dell’ossigeno molecolare mediante osservatori posti al di fuori dell’atmosfera terrestre (la quale ovviamente interferisce con simili ricerche). Sorprendermente fino al 2006 non si aveva traccia della molecola di ossigeno nelle nubi interstellari fredde a 10-50 K in quanto nei grani di polvere non si rilevava l’ossigeno molecolare solido, ma solo combinato ad altri elementi.

L’osservatorio svedese Odin che operava nel dominio delle onde radio a 118,75 GHz, ritrovò la molecola di ossigeno, dopo una lunga analisi degli spettri per rimuovere i rumori di fondo, a una distanza di circa 500 anni luce nella nebulosa rho Oph A nella costellazione dell’Ofiuco, un luogo dove sono in formazione stelle (1) . L’abbondanza di O2 era però mille volte inferiore a quanto atteso. Il secondo rilevamento avvenne nel 2011 quando Herschel un osservatorio dell’ESA nel dominio del lontano infrarosso a tre frequenze legate a transizioni rotazionali della molecola di ossigeno 487 GHz, 774 GHz, e 1121 GHz individuò la molecola nella famosissima nebulosa M42 della costellazione di Orione, che possiamo facilmente osservare a occhio nudo nel rapporto di un milionesimo rispetto all’idrogeno molecolare. Ma se la scoperta della molecola era un evento raro, l’ossigeno era ben presente come previsto ma era per la maggior parte combinato con l’idrogeno nella molecola d’acqua e nel radicale ossidrile o con il carbonio nel monossido di carbonio (2). L’ossigeno aderendo alle polveri presenti nelle nebulosa si genera solo a temperature superiori ai 100-150 K mediante interazione con la radiazione elettromagnetica che ne permette, attraverso ben conosciuti meccanismi, l’estrazione dall’acqua. Pertanto bisognava concludere che l’ossigeno molecolare non era così abbondante nell’universo, ma era presente in quantità cospicua sulla Terra soltanto a seguito di generazione biocatalitica. Si sarebbe potuto quindi riscontrare abbondantemente in presenza di fenomeni vitali ed essere quindi un marcatore della vita nell’osservazione degli oggetti celesti.

La scarsa presenza di ossigeno molecolare nelle nebulose di gas interstellare era confermato dalla mancata rilevazione nelle chiome e nelle code delle comete che rappresentano gli oggetti che meglio conservano le caratteristiche delle nebulose primordiali dalle quali si formano tutti gli oggetti stellari. Questa conclusione veniva smentita nel 2015 dalla sonda Rosetta che rilevava nella chioma della cometa 67P Churyumov-Gerasimenko oltre l’acqua, il monossido e il biossido di carbonio, per la prima volta una grande quantità di ossigeno molecolare mediante lo spettrometro di massa ROSINA-DFMS (3). A questo punto essendo l’ossigeno molecolare volatile da dove proveniva? L’analisi dei gas della chioma della cometa presentava un rapporto di O2/H2O nell’arco dei nove mesi di osservazione costante. Questa osservazione permetteva di escludere la diretta radiolisi o fotolisi in quanto la quantità di radiazione che investiva la cometa non era costante. Un’analisi isotopica consentiva di avanzare l’ipotesi, non essendo certamente presenti organismi che svolgevano funzioni catalitiche ossidative dell’acqua, che l’ossigeno fosse intrappolato all’interno nel nucleo che progressivamente andava sciogliendosi per effetto della radiazione solare. Quindi la nebulosa, dalla quale si era formato il sistema solare, doveva essere molto più calda di quanto si supponesse per giustificarne un’origine abiotica. Recentemente un modello studiato da un ingegnere dei materiali, pubblicato su Nature Communications, mette in discussione tale ipotesi fornendo prove della formazione della molecola di ossigeno da acqua ionizzata in presenza di silicati ed ossidi di ferro presenti sulla superficie della cometa secondo il meccanismo di reazione di Eley–Rideal (4). La reazione procede a seguito di estrazione di un atomo di ossigeno dalla superficie cometaria da parte di H2O+ generando uno stato eccitato che a seguito della dissociazione i due atomi di idrogeno produce O2

Pertanto l’ossigeno si verrebbe formando in loco avanzando quindi una nuova possibile spiegazione per la formazione della molecola in condizioni abiotiche diverse da quelle ipotizzate in precedenti studi che la confinavano ad fenomeni di fotolisi a temperature intorno a 150 K. Il dibattito è ovviamente ancora aperto ed lontano da una definitiva conclusione.

  • Larsson, B. et al. Molecular oxygen in the r Ophiuchi cloud. Astrophys. 466, 999–1003 (2007).
  • Goldsmith, P. F. et al. Herschel measurements of molecular oxygen in Orion . J. 737, 96 (2011).
  • Bieler, A. et al. Abundant molecular oxygen in the coma of comet 67P/Churyumov-Gerasimenko. Nature 526, 678–681 (2015).
  • Y Yao and K.P. Giapis Nature Commun. 8, article number 15298 (2017) doi 10/1038. .
  • La nebulosa rho Oph A (foto di Alex Mellinger).

Young Stars in the Rho Ophiuchi Cloud Credit: NASA JPL-Caltech, Harvard-Smithsonian CfA

 

M42 posa di 30 s , a 800 ISO ripreso con Celestron CG 11 dall’osservatorio di Capodimonte (foto UAN)

OSIRIS wide-angle camera image acquired on 22 November 2014 from a distance of 30 km from Comet 67P/C-G. The image resolution is 2.8 m/pixel. Credits: ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA

Recensione. Energia per l’astronave Terra. 3 ed.

Claudio Della Volpe

Energia per l’astronave Terra. Nicola Armaroli e Vincenzo Balzani. Terza edizione. Zanichelli maggio 2017 296 pag. 13.90euro

 

La prima cosa da dire su un testo che in 10 anni ha già visto un’altra riedizione e numerose ristampe è che è un testo di successo; e lo è a ragion veduta.

Scritto in modo leggibilissimo, semplice, ma nel contempo rigoroso, completo ed aggiornato; se analizzate con un minimo di sguardo critico le edizioni vedrete che si è passati dalle 217 pagine della prima alle quasi 300 della terza; il corredo delle citazioni e dei documenti è diventato amplissimo, il che presuppone un intenso lavoro di aggiornamento personale e professionale, ma anche una passione travolgente. Nel 2009 ha vinto il premio Galileo per la divulgazione scientifica.

Il titolo è rimasto immutato, ma il sottotitolo ha segnato quell’aggiornamento di prospettiva che gli autori giustificano pienamente nell’introduzione alla terza edizione.

Si è passati da un testo essenzialmente illustrativo della situazione ad un approfondimento delle prospettive italiane e infine con questa terza edizione a quelle mondiali; come giustamente dicono gli autori:

…”le cose cominciano a cambiare e a dirlo sono i numeri. Da qualche anno il contributo relativo dei combustibili fossili alla domanda energetica mondiale ha iniziato a diminuire…….Nel 2016 la potenza da eolico e fotovoltaico ha sfiorato 800GW, coprendo il 5% della domanda elettrica globale.”

Dunque la transizione è iniziata, “è un processo inevitabile e ormai irreversibile”.

Gli autori sono anche convinti di una cosa basilare che avevano già espresso altrove:

Per fissare la barra verso l’unico futuro possibile occorrono anche buon senso, sobrietà, collaborazione e responsabilità”.

In altri termini non è questione solo di tecnologia, ma di cambiamenti sociali per realizzare quell’era delle rinnovabili che fa da sottotitolo all’ultima edizione.

Il libro è diviso in 10 capitoli ed è arricchito da un paragrafo sulle fonti dei dati, da uno intitolato “15 miti da sfatare” e concluso da una serie di informazioni puntuali ma non così ben conosciute; infine c’è un indice analitico che potrebbe risultare utile in un uso didattico del testo.

1 edizione pag. 217 Agosto 2008

2 ediz. pag. 288 Ottobre 2011

 

 

 

Quali sono i punti principali?

La prima parte introduce il concetto di energia e fa una stima molto accurata della situazione attuale dei consumi e delle risorse, come dei limiti nella stima dei combustibili fossili.

Segue un capitolo dedicato all’analisi dei danni climatici ed ambientali dovuti a questo uso ed al fallimento mondiale ormai acclarato del settore nucleare.

Dal 6 capitolo si affronta il tema delle energie rinnovabili e delle loro caratteristiche e dei loro limiti mentre negli ultimi due si affronta invece il tema della transizione energetica e dei problemi tecnici e sociali che tale transizione pone sul tappeto.

Alcuni punti che mi hanno colpito e vi riporto qui alcune frasi chiave:

State leggendo un libro; chiudete gli occhi e rimanete immobili per qualche secondo. Forse, penserete, in queste condizioni non si consuma energia. Non è vero:…..”

 

“Quanti candidati mettono al primo punto dei loro programmi elettorali la creazione di piste ciclabili sicure? Sarebbe un investimento straordinario per la qualità della vita e le casse pubbliche (ma non per il PIL) : meno inquinamento, meno obesità, meno strade rotte, meno costi per il sistema sanitario nazionale”.

 

“La transizione energetica richiede un cambiamento parziale dei nostri stili di vita, ma questo non significa che vivremo peggio: semplicemente vivremo in modo diverso. I cambiamenti maggiori riguarderanno probabilmente l’alimentazione e il nostro modo di muoverci e di viaggiare. Per intenderci: meno carne, meno frutta fuori stagione e più trasporti pubblici.”

 

“A livello internazionale le disuguaglianze , le guerre per le risorse e i cambiamenti climtici stanno causando migrazioni epocali. La nostra è la prima generazione che si rende conto di questa situazione di crisi e quindi è anche la prima – qualcuno dice che potrebbe essere l’ultima- che può e deve cercare rimedi.”

 

“E sembra quasi che la Natura si diverta a far dipendere le tecnologie energetiche più avanzate da risorse poco abbondanti, in particolare metalli rari ……Occorre perciò un cambiamento radicale del paradigma economico e industriale: infatti i “rifiuti” devono diventare preziose “risorse secondarie”.

 

“…la transizione non può essere guidata soltanto dal mercato e dallo sviluppo tecnologico: servono anche scelte politiche illuminate e tecnicamente fondate, che stanno faticosamente iniziando a emergere.”

 

Ovviamente nessun libro è perfetto; tutto è perfezionabile, ma diciamo che dopo due update questo testo mantiene e migliora le proprie qualità: chiarezza, completezza, semplicità, difficile trovare di meglio.

Come altri libri questo è un testo che considero contemporaneamente scientifico e militante. Non vi sembri questo un ossimoro, una contraddizione.

Oggi la scienza è in campo: deve schierarsi, anche socialmente, se vuole mantenere la propria coerenza e la propria immagine di strumento di liberazione umana. Se le scienze naturali arrivano a conclusioni che sono conflittuali con alcuni dei più frequenti luoghi comuni della ideologia economica, se le scienze naturali falsificano le ideologie della crescita continua e del libero mercato, che farebbe ricchi tutti, le loro conclusioni acquistano un dirompente significato sociale.

E questo è uno dei più importanti risultati di questo libro.

Orbitali ibridi: vizi e virtù.

Rinaldo Cervellati.

Come fece notare P. Mirone, gli orbitali (cioè le soluzioni dell’equazione di Schrødinger per l’atomo di idrogeno) fecero la loro comparsa nei libri di testo di chimica generale agli inizi della seconda metà del secolo scorso per descrivere la struttura elettronica degli atomi e spiegare le strutture molecolari. Durante gli anni ’70 gli orbitali apparvero anche nei testi di chimica per le scuole secondarie superiori, dove il loro uso didattico divenne generalizzato alla fine del decennio. Nel corso di questo processo di volgarizzazione, il concetto essenzialmente quantomeccanico di orbitale ha subito almeno due diverse distorsioni, la sua descrizione come “regione di spazio dove è alta la probabilità di trovare l’elettrone” o espressioni simili, o come sinonimo di “nuvola di carica”. Inoltre la formazione di orbitali ibridi viene descritta nella maggioranza dei libri come se fosse un fenomeno fisico piuttosto che un artificio matematico [1]. Queste distorsioni sono in larga misura presenti anche oggi, come esempio si veda la Figura 1.

Figura 1

Sul significato di orbitale si rimanda alle citazioni [1], qui mi sembra più importante risalire all’origine e analizzare l’evoluzione del concetto di orbitali ibridi [2].

La consapevolezza che la disposizione degli elettroni di valenza in un atomo isolato può essere considerevolmente alterata dall’entrata in una combinazione chimica risale al lavoro di G. N. Lewis e il suo postulato dell’atomo cubico statico, di cui abbiamo parlato in un precedente post. Nel suo ormai classico lavoro del 1916 (di cui l’anno scorso è stato il centenario) sul legame a condivisione di una coppia di elettroni [3], Lewis riconobbe che la disposizione cubica di un ottetto di elettroni di valenza che aveva postulato per l’atomo isolato era incompatibile con i fatti noti di stereochimica (struttura tetraedrica del metano) e incapace di razionalizzare un’interpretazione elettronica del triplo legame in termini di tre coppie di elettroni condivisi.

Di conseguenza egli ipotizzò che al momento della formazione del legame gli elettroni dell’atomo cubico isolato vengono costretti in una disposizione tetraedrica a quattro elettroni appaiati, un processo illustrato mediante lo schema riportato in figura 2 [3, p. 779-780].

Figura 2

Problemi anche più gravi divennero evidenti con l’atomo di Bohr (1885-1962)- Sommerfeld (1868-1951) con i suoi elettroni in rapido movimento su orbite ellittiche monocentriche. Ad esempio nel 1922 il chimico britannico Alfred Steward[1], osservò [4]:

L’atomo di Bohr appare notevolmente sopravvalutato, in particolare da coloro che sembrano averlo accettato ciecamente senza applicare alcun esame critico. Sembra fallire nei tentativi fatti per interpretare l’atomo di elio e quelli di elementi più pesanti. Per quanto riguarda i problemi di chimica e radiochimica è abbastanza inutile. In realtà non ha la pretesa di offrire una spiegazione di nessuno dei problemi più comuni della chimica.

Anche Lewis fu estremamente critico verso l’atomo di Bohr, affermò infatti:

Quali che siano i suoi meriti in spettroscopia, i suoi elettroni in rapido movimento su orbite atomiche centro-simmetriche sembrano essere totalmente incompatibili con i fatti della stereochimica e, in particolare, con la nota disposizione tetraedrica dei legami del carbonio in migliaia di composti organici e con la stabilità di centinaia di isomeri molecolari.[2]

Appariva quindi ovvio che dovesse avvenire un qualche riassetto delle orbite atomiche nella formazione del legame; nel 1923 il chimico tedesco Ludwig Knorr[2] postulò, per il metano, la formazione di otto orbite ciascuna a due centri disposte tetraedricamente come mostrato in figura 3[5].

Figura 3. Ludwig Knorr e il metano

In modo simile sebbene meno esplicito, anche altri, fra cui lo stesso Lewis, cercarono di conciliare l’atomo dinamico “della fisica” con l’atomo statico “della chimica”. Scrive Lewis:

[per fare ciò occorre] postulare che è l’orbita nel suo complesso, e non l’elettrone in una sua qualche una posizione, a essere la pietra costitutiva della struttura atomica e molecolare [6]

Fra la fine del 1920 e primi ‘30 l’atomo “planetario” di Bohr-Sommerfeld venne rapidamente eclissato dalla meccanica ondulatoria di Schrödinger (1887-1961) con il concetto di orbitali atomici, e il punto di vista probabilistico derivante dal principio di indeterminazione. L’energia degli elettroni (autovalori) corrispondente alle soluzioni accettabili dell’equazione di Schrödinger (autofunzioni o orbitali) è la sola grandezza direttamente osservabile. Ma gli orientamenti delle funzioni orbitali associate ai livelli energetici permessi ponevano nei riguardi della struttura molecolare e della stereochimica gli stessi (se non maggiori) problemi delle precedenti orbite dell’atomo di Bohr-Sommerfeld.

Nella prima applicazione del 1927 della meccanica ondulatoria al legame chimico, i fisici Heitler (1904-1981) e London (1900-1954), ignorarono completamente questi problemi tanto che Heitler, ancora nel 1945, era abbastanza soddisfatto della rappresentazione di acqua e ammoniaca con angoli di legame di 90° derivanti dall’interazione degli orbitali s di H con gli orbitali p di O e di N. I valori sperimentalmente determinati (104° e 107° rispettivamente) venivano considerati come solo “leggermente più grandi” rispetto agli angoli di legame teorici di 90° (7).

Al contrario, il chimico americano, Linus Pauling (1901-1994) (figura 4), che aveva scrupolosamente studiato i lavori di Lewis sulla teoria del legame covalente per condivisione di una coppia di elettroni, riuscì a dotarla di aspetti quantomeccanici per tener conto dei fatti stereochimici. In una nota del 1928 scrisse:

Nel caso di alcuni elementi della prima riga [della Tavola Periodica] l’energia di interscambio dovuta alla formazione dei legami a coppie elettroniche condivise è grande abbastanza per cambiare la quantizzazione, distruggendo i due sottogusci con l = 0 e l = 1 del guscio L. Che ciò si verifichi o meno dipende in gran parte dalla separazione fra il livello s (l = 0) e il livello p (l = 1) dell’atomo in esame; questa separazione è molto più piccola per boro, carbonio e azoto rispetto all’ossigeno e al fluoro o ai loro ioni, e di conseguenza la quantizzazione può cambiare per i primi tre elementi, ma non per gli altri due. Il cambiamento della quantizzazione rende possibile i legami a coppia elettronica condivisa molto stabili nei composti del carbonio saturi e i doppi legami relativamente stabili del carbonio… Questa rottura della l-quantizzazione stabilizza anche strutture in cui solo tre coppie di elettroni sono legate a un atomo centrale, come nelle molecole contenenti un triplo legame, gli anioni carbonato, nitrato e borato, il gruppo carbossilico e composti simili. È stato inoltre trovato che, come risultato del fenomeno della risonanza, la disposizione tetraedrica dei quattro legami dell’atomo di carbonio è la configurazione stabile.[8]

In questa nota Pauling non fornisce ulteriori dettagli annunciando un prossimo lavoro più completo. Tuttavia fu solo nel 1931 che Pauling si decise a fornire i dettagli, anche in seguito alla pubblicazione da parte di un giovane fisico del MIT, John Slater[3], dell’articolo “Directed Valence in Polyatomic Molecules”. Per essere stato scritto da un fisico, l’articolo di Slater era comprensibile anche da un chimico particolarmente interessato come Pauling. Esso infatti non richiedeva conoscenze di matematica avanzata ed era riccamente illustrato con immagini di modelli di tipiche molecole e cristalli fatti con palline di sughero e filo di ferro [9].

Figura 4. John Slater e Linus Pauling

John Slater e Linus Pauling

Mentre Pauling aveva invocato la separazione energetica tra i vari orbitali atomici nella sua breve nota del 1928 come criterio fondamentale per stabilire se potevano o non potevano variare la quantizzazione, Slater utilizzò il criterio della massima sovrapposizione fra gli orbitali dei legandi e quelli dell’atomo centrale. Per i composti degli elementi dei gruppi dal 7 al 5 Slater assunse che tutti gli angoli di legame fossero di 90° formati dalla sovrapposizione fra orbitali dei legandi con gli orbitali p dell’atomo centrale. Solo per i composti degli elementi del gruppo 4, in cui la stereochimica tetraedrica non poteva essere ignorata, invocò la necessità di massimizzare la sovrapposizione degli orbitali creando un nuovo set di orbitali orientati tetraedricamente attraverso una combinazione lineare appropriata degli orbitali atomici s e p. Anche se l’articolo di Slater fu pubblicato nel numero di marzo 1931 della Physical Review, Pauling era probabilmente a conoscenza del suo lavoro già nell’aprile del 1930, quando Slater tenne una conferenza sullo stesso tema alla riunione della Physical Society a Washington. Questo spiegherebbe perché Pauling fu in grado di sottoporre un lungo e dettagliato articolo sullo stesso argomento al Journal of the American Chemical Society, nel febbraio del 1931, pubblicato un mese dopo l’articolo di Slater, in aprile [10]. A questa pubblicazione Pauling fece seguire una lettera alla Physical Review che richiamava l’attenzione alla sua pubblicazione [11]. Pauling confessò in seguito che il ritardo rispetto alla nota del 1928 fu dovuto alla sua incapacità di trovare un modo accettabile di semplificare le funzioni d’onda in modo da rendere la “quantizzazione tetraedrica” matematicamente trattabile. Il breve articolo di Slater gli aveva fornito la chiave mancante suggerendo che si sarebbe potuto ignorare la parte radiale della funzione d’onda concentrandosi solo sulla parte angolare [12].

L’articolo di Pauling, che divenne il primo della sua famosa serie La natura del legame chimico, era molto più dettagliato di quello di Slater e, a differenza di quest’ultimo, nei disegni dei nuovi orbitali erano compresi quelli per geometrie diverse da quella tetraedrica e per gli elementi del blocco d, così come pure per gli elementi del blocco principale. Come tale, esso non solo ha segnato l’affermazione della teoria del legame di valenza (VB)[4], ma resta la fonte primaria delle nostre concezioni su ibridazione degli orbitali e stereochimica. Va notato che i termini “ibridazione” e “orbitale ibrido” non furono utilizzati da entrambi gli autori nei loro primi lavori. Pauling parlava in generale di “riquantizzazione” e ad esempio di “quantizzazione trigonale” o “quantizzazione tetraedrica” riferendosi a una specifica “riquantizzazione”. Sembrerebbe che il primo a usare il termine “ibridazione” per descrivere il processo di “mescolazione” (matematica) di orbitali sia stato il fisico americano, John Van Vleck[5] in un articolo del 1933 [13][6]. Pauling a quanto pare, trovò il termine di Van Vleck più congeniale rispetto a riquantizzazione e così lo impiegò nelle varie edizioni della sua famosa monografia sulla natura del legame chimico. Inoltre, solo verso la fine del suo articolo del 1931 Pauling introdusse simboli come sp3 e dsp2 e a parlare in termini di autofunzioni di legame sp3 o d2sp3. Allo stesso modo, nel suo articolo del 1933, Van Vleck parla di valenze sp3 o funzioni d’onda sp3, ma non di orbitali ibridi sp3.

Figura 5 John H. Van Vleck

Attualmente gli apici in tali simboli vengono interpretati come pesi numerici del contributo di ogni orbitale atomico all’orbitale ibrido finale. Tuttavia, come originariamente inteso da Pauling, questi simboli erano una semplice estensione di quelli per le configurazioni elettroniche degli atomi, in cui gli apici rappresentavano il numero di elettroni che occupano quegli orbitali (o, più correttamente il numero di elettroni con energia associata a quelle funzioni d’onda) e starebbero a significare, ad esempio, che gli ibridi tetraedrici sono formati da una ipotetica non ibridizzata configurazione elettronica s1p3, gli ibridi trigonali da una ipotetica configurazione s1p2, ecc.

Tornando al discorso didattico iniziale, i testi di chimica di base sono inondati da immagini tipo quelle riportate in figura 6:

Figura 6 rappresentazioni pittoriche degli orbitali ibridi sp, sp2 e sp3

che possono far pensare a una realtà fisica degli orbitali ibridi se non sono accompagnate da una spiegazione chiara che esse rappresentano solo l’orientamento di opportune combinazioni lineari di funzioni matematiche costruite per descrivere strutture molecolari assegnate secondo dati sperimentalmente osservati, ma non sono la struttura molecolare. Invece, la grande fortuna di cui godette la teoria VB fra i chimici (e che ancora gode nei testi elementari) sta proprio nel suo carattere intuitivo manifestatosi in disegni suggestivi degli orbitali ibridi che facilmente vengono confusi con la struttura molecolare, v. ad esempio la figura 7 relativa al metano. Accanto a ciò va anche ricordata la notevole abilità di Pauling come comunicatore e divulgatore.

Figura 7

Infine, una curiosità storica. Né Pauling né Slater furono inizialmente disposti a considerare la possibilità che la teoria dell’ibridazione potesse applicarsi anche ai composti dell’azoto e dell’ossigeno ed erano soddisfatti, come Heitler, della previsione teorica di un angolo di legame di 90° per l’acqua. Eppure, dieci anni prima, Eustace Cuy, un allievo di Lewis a Berkeley, aveva pubblicato una breve nota in cui utilizzava il modello di atomo statico tetraedrico di Lewis (figura 1) per prevedere correttamente che l’acqua aveva una struttura -“identica a una molecola di metano mancante di due atomi di idrogeno”- in breve che l’angolo di legame nell’acqua è circa 104°, una previsione molto più accurata del valore 90° teoricamente previsto dalla sovrapposizione degli orbitali atomici s (dell’idrogeno) e p (dell’ossigeno). Allo stesso modo, durante gli anni ‘20 un altro chimico di Berkeley, Maurice Huggins, pubblicò una serie di articoli sulla razionalizzazione delle strutture dei cristalli in base all’atomo tetraedrico di Lewis fornendo previsioni molto più vicine ai dati sperimentali di quelle ottenute con le strutture a 90° assunte da Slater. La transizione dall’atomo cubico isolato di Lewis al suo atomo tetraedrico legato chimicamente sarebbe diventata la base nel 1960 di una ri-elaborazione delle teorie originali di Lewis da parte del chimico britannico, John Linnett [14], nota come teoria del doppio-quartetto. Questa teoria si sarebbe poi evoluta nell’approccio alla previsione delle geometrie molecolari noto come teoria della repulsione fra coppie di elettroni nello stato di valenza o teoria VSEPR (Valence-Shell Electron-Pair Repulsion) [15].

[1] P. Mirone, Mezzo secolo di orbitali nell’insegnamento della chimica, Atti del X Convegno si Storia e Fondamenti della Chimica, 2003, p. 473-481, v. anche P. Mirone, Che cos’è un orbitale? CnS-La Chimica nella Scuola, 1980, 2, 8-15; R. Cervellati, D. Perugini, The Understanding of the Atomic Orbital Concept by Italian High School Students, J. Chem Educ., 1981, 58, 568-9.

[2] W.B. Jensen, The Origin of the Hybrid Orbital Concept, submitted to J. Chem. Educ., 2012

[3] G.N. Lewis, The Atom and the Molecule, J. Am. Chem. Soc., 1916, 38, 762-685

[4] A. W. Steward, Some Physico-Chemical Themes, Longmans, Green and Co: London, 1922, pp. 395-396.

[5] C. A. Knorr, Eigenschaften chemischer Verbindungen und die Anordunung der Electronenbahnene in ihren Molekülen, Zeit. anorg. Chem., 1923, 129, 109-140.

[6] G. N. Lewis, Valence and the Electron, Trans. Faraday Soc., 1924, 19, 452-458.

[7] W. Heitler, Elementary Quantum Mechanics, Clarendon: Oxford, 1945, p. 127.

[8] L. Pauling, “The Shared Electron Chemical Bond” Proc. Nat. Acad. Sci., 1928, 14, 359-362.

[9] J. C. Slater, Directed Valence in Polyatomic Molecules, Phys. Rev., 1931, 37, 481-489.

[10] L. Pauling, The Nature of the Chemical Bond. Application of Results Obtained from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the Structure of Molecules, J. Am. Chem. Soc., 1931, 53, 1367-1400.

[11] L. Pauling, Quantum Mechanics and the Chemical Bond, Phys. Rev., 1931, 37, 1185-1186.

[12] affermazione riportata da T. Hager, in: Force of Nature: The Life of Linus Pauling, Simon & Schuster: New York, NY, 1995, pp. 155-159.

[13] J. H. Van Vleck, On the Theory of the Structure of CH4 and Related Molecules. Part I, J. Chem. Phys., 1933, 1, 177-181.

[14] M. L. Huggins, Electronic Structure of Crystals. I, J. Am. Chem. Soc., 1922, 44, 1841-1850.

[15] R.J. Gillespie, I. Hargittai, Geometria Molecolare. Il modello VSEPR, Zanichelli, Bologna, 1994.

[1] Alfred Walter Stewart (1880 – 1947) chimico britannico e romanziere part-time. Scrisse 17 romanzi polizieschi e un racconto pionieristico di fantascienza fra il 1923 e il 1947 sotto lo pseudonimo di J.J. Connington. Ha lavorato nel campo della radioattività e ha scritto un trattato di chimica organica (Recent Advances in Organic Chemistry) che divenne molto popolare. Lecturer di Radiochimica e Chimica Fisica all’Università di Glasgow dal 1914 al 1944.

[2] Carl Angelo Knorr (1894-1960) chimico fisico tedesco. Professore a Innsbruck e a Monaco.

[3] John Clark Slater (1900-1976) fisico teorico statunitense, A Slater spetta la scoperta delle funzioni di calcolo che descrivono gli orbitali atomici e anche l’introduzione delle cosiddette regole di Slater, per il calcolo della carica nucleare efficace degli elettroni più esterni in un atomo.

[4] Fra la fine degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni di valenza dei due atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola.

[5] John Hasbrouck Van Vleck (1899-1980) fisico e matematico statunitense è considerate il fondatore della teoria quantistica del magnetismo e della teoria del campo cristallino per interpretare il legame chimico nei complessi metallici. Premio Nobel per la fisica 1977.

[6] Va notato che l’articolo di Van Vleck ha come scopo principale il confronto fra la teoria del legame di valenza (VB) di Pauling-Slater e la teoria dell’orbitale molecolare (MO) di Hund-Mulliken applicate alla molecola del metano. La prima considera solo gli elettroni di valenza degli atomi contraenti il legame, la seconda tiene conto di tutti gli elettroni di valenza di tutti gli atomi che formano la molecola. I successivi sviluppi della teoria MO hanno mostrato che essa è attualmente la più coerente e rigorosa, sebbene molti ritengano che a parte il differente formalismo matematico, le due teorie si equivalgano.

Molecole come gioielli.

Mauro Icardi.

Una delle ultime scoperte personali che ho fatto mentre curiosavo in vari mercatini insieme alla famiglia, è quella delle collane che hanno come ciondoli la rappresentazione di molecole.

Cercando sul web e sui cataloghi sono definite come le collane delle molecole della dipendenza.

Caffeina, teobromina, saccarosio sono le rappresentazioni più frequenti. Ma si trova in commercio anche la molecola della ketamina e quelle della serotonina e dell’ossitocina.

Devo dire che la mia prima reazione è stata di stupore. Ma dopo qualche riflessione ho cominciato a pensare al fatto che le molecole , e specialmente quelle dei composti organici hanno indubbiamente una loro eleganza strutturale. Una loro estetica definita che abbiamo imparato ad apprezzare. In special modo i chimici.

Ma mi domando che cosa significhi questo per chi non è un chimico. Alcune persone possono sfoggiare la molecola della caffeina per mostrare agli altri di essere incalliti consumatori di caffè, oppure incapaci di sfuggire alla tentazione di un pezzetto di cioccolato. Oppure più semplicemente questo genere di oggetti piacciono esclusivamente come oggetti di moda. In effetti li ho visti su bancarelle che sfoggiavano diverse tipologie di ciondoli con simboli di diverso tipo. Dal simbolo taoista dello yin e dello yang, fino a disegni di elfi o draghi che appartengono all’immaginario delle saghe fantasy.

Quando mi sono qualificato come chimico ai venditori sono rimasti lievemente spiazzati. Loro vendevano questi ciondoli enfatizzando alcune proprietà delle molecole stesse, tipo quelle della serotonina come molecola della felicità. Io ero invece tentato di acquistarle per spirito di appartenenza alla categoria.

In fin dei conti potrebbe non esserci nulla di male in questo, cioè nel fare una sorta di “marketing molecolare”. Qualcuno potrebbe usare questi monili per fare colpo sul ragazzo o la ragazza studenti di Chimica verso per il quale prova attrazione Ma sarebbe una cosa decisamente positiva se questa moda risvegliasse una curiosità più profonda.

Una curiosità che spinga le persone non solo a sapere quali sono le proprietà della molecola rappresentata sul ciondolo che hanno deciso di acquistare (cosa per altro positiva), ma anche di approfondire qualche nozione di chimica studiata in passato. Magari ricordarsi il principio di Avogadro. E volendo anche come lo stesso principio che più o meno tutti hanno studiato o enunciato : “Volumi uguali di gas diversi nelle stesse condizioni di temperatura e di pressione contengono lo stesso numero di molecole.”

Le molecole rappresentate mi hanno ricordato anche quanto scrive Primo Levi in “Azoto” il racconto del sistema periodico. Quello della mancata sintesi dell’allossana come colorante per le labbra.

Levi ne parla così “ Eccone il ritratto: dove O è l’ossigeno, C il carbonio, H l’idrogeno (Hydrogenium) ed N l’azoto (Nitrogenium). E una struttura graziosa non è vero? “

E su questa sua affermazione si può essere completamente d’accordo. Chimici o non chimici.

Per concludere questo articolo devo doverosamente citare due colleghi della redazione. Margherita Venturi e Vincenzo Balzani. Sul loro libro “Chimica! Leggere e scrivere il libro della natura” ci fanno conoscere le opere di uno scultore ungherese Vizi Bela che prende spunto dalle molecole per le sue opere.

Bela è ingegnere chimico oltre che scultore.

A breve accompagnerò mia figlia ad una mostra mercato di fumetti ed oggettistica dove so che posso trovare ciondoli di questo tipo. Non so se riuscirò a resistere alla tentazione di acquistarne uno. E oltre alle ragioni che ho provato a spiegare, credo ce ne sia una che le supera tutte. Il primo soprannome che mi venne dato quando avevo all’incirca sette anni, dai ragazzi più grandi del corso di minibasket che frequentavo fu proprio questo: molecola. Non ho mai capito il perché, forse perché ero piccolo di età e di costituzione fisica. Ma non posso negare che sia stato un soprannome in qualche modo profetico.

Per l’aiuto nello studio della chimica i modelli molecolari sono di grande aiuto. Perché non pensare che in qualche modo possano servire anche queste collane?

Le molecole sono gioielli non solo quando le acquistiamo in gioielleria o nei mercatini. Sono gioielli della natura e del nostro percorso di conoscenza.