Eni è prima. Ma anche ultima.

In evidenza

Claudio Della Volpe

Come promesso, Trump ha riaperto alle trivellazioni petrolifere i territori artici dell’Alaska. Si tratta di una tragica scelta che contribuirà alla distruzione di uno degli ambienti ancora relativamente inviolati del pianeta Terra per prolungare la vita dei colossi petroliferi di qualche anno; la cosa dovrebbe preoccuparci ed indignarci.

Ma ancor più come italiano mi fa indignare che la prima azienda che ha battuto tutte le altre sul filo dei lana nel chiedere permessi sia la nostra ENI , quella che si fa pubblicità sostenendo di essere verde e di difendere l’ambiente. Ne abbiamo parlato altrove (https://ilblogdellasci.wordpress.com/2017/06/16/la-pubblicita-di-eni-2-quanto-e-verde-la-chimica-verde/).

Allora vediamo cosa ha ottenuto e cosa reclama di poter fare il cane a 6 zampe.

La filiale americana dell’azienda (l’Eni Us Operating Co. Inc.) ha ottenuto il via libera dal Boem (Bureau of Ocean Energy Management) per la trivellazione di quattro pozzi in Alaska, nel mare di Beaufort, ma solo a scopo di esplorazione. I lavori dovrebbero iniziare a dicembre di quest’anno, per andare avanti fino al 2019, esclusivamente in inverno quando in zona ci sono meno balene e orsi polari. (La Repubblica del 17 luglio)

Bontà loro.

In effetti nel dicembre del 2016, alla fine del suo mandato Obama con un atto che aveva vigore di legge (che si rifaceva ad una legge del 1953 che consente di bloccare anche le future estrazioni, quindi più difficile da ribaltare e da sospendere) aveva bloccato le estrazioni e le esplorazioni in una parte del Mare dei Ciukci, che mette in comunicazione il mare di Bering con l’Oceano Artico, e la maggior parte del mare di Beaufort :”off limits a tempo indeterminato per future concessioni per le trivellazioni petrolifere e del gas”. “Queste azioni, e quelle parallele del Canada, vogliono proteggere un ecosistema unico e fragile“, aveva dichiarato Obama, sottolineando che anche con massimi standard di sicurezza i rischi di fuoriuscita di petrolio in un ambiente così remoto sarebbero troppo alti.

Tuttavia teniamo presente che (sempre Repubblica 21 dicembre 2016):

La mossa, comunque, non avrà effetti sulle licenze già concesse ed esclude un’area vicino alla costa del mare di Beaufort. Si ritiene che avrà un effetto minimo sull’industria petrolifera americana che ha un’attività molto limitata nella regione dove gli investimenti infrastrutturali sono molto costosi. Appena lo 0,1% della produzione offshore del greggio Usa è arrivata dalla regione lo scorso anno.

Proprio nel mare di Beaufort ENI ha dal 2007 un suo giacimento operativo: Nikaitchuq; questo non è stato toccato dall’ordine del Presidente Obama.

Il giacimento in questione posto a bassa profondità (3m) (http://www.offshore-technology.com/projects/nikaitchuqoilfieldal/) con un contenuto stimato di 220 Mboe, ha cominciato a produrre nel 2011. La spesa per farlo partire assommava già allora a oltre 1.5Geuro. Il giacimento produce circa 28000 bd e ne ha prodotti fino al 2016 22 Mboe.

Il permesso accordato ad ENI da Trump per il momento riguarda non nuovi pozzi estrattivi, ma nuovi pozzi esplorativi. Con questi nuovi pozzi ENI probabilmente pensa di estendere la portata del giacimento. Altre notizie sul giacimento e il suo futuro si trovano qui e risalgono a qualche mese fa, dove si vede che il rapporto con il nuovo governo era già attivo (http://www.petroleumnews.com/pntruncate/385547015.shtml).

Le nuove esplorazioni saranno condotte da pontoni appositamente attrezzati per questo ambiente estremo, probabilmente uno di questo tipo, Doyon rig 15.

Per capire il ruolo di questi giacimenti e valutarne la portata economica tenete presente che quando i prezzi sono scesi nel 2015 sotto i 40-45 dollari ENI ha sospeso le estrazioni volontariamente; possiamo quindi capire che quel tipo di estrazioni ha un costo più alto della media degli altri pozzi, come è logico, date le difficoltà.

ENI sostiene che ha l’esperienza per condurre in porto la ricerca dato che è sua un’altra base di estrazione posta nel mare Artico, la gigantesca Goliat; si tratta di una base estrattiva, una FPSO (Floating Production Storage and Offsloading) costruita in Corea e trasportata nel Nord della Norvegia dove è in funzione da più di un anno (sia pure con due anni di ritardo sul previsto). Il giacimento in questione in territorio norvegese non è sfruttato dalla Norvegia, ma la Norvegia lo concede ad altri controllando le modalità di estrazione attraverso un apposito ente e da questo nascono, come vedremo, parecchie polemiche.

Viene dunque naturale informarsi su cosa faccia Goliat al largo della Norvegia, nel mare di Barents 65km dalla costa; eccovi serviti.

Goliat è una nave cilindrica da 64000 ton di stazza e un diametro di oltre 100 metri, ben alta sul pelo dell’acqua; è stata trasportata dal luogo di costruzione in Sud Corea fino al mare di Barents.

Il giacimento norvegese è in produzione dal marzo 2016 ma con vari problemi, che possono darci un’idea di cosa potrebbe succedere nelle analoghe condizioni del Mare di Beaufort.

La Stampa del 6 settembre 2016 scriveva:

L’avviamento del campo Goliat nel Mare di Barents , a 65 km di distanza dalle coste settentrionali della Norvegia, è stato salutato come un grande successo tecnologico. Tuttavia, la suggestiva pagina del sito Eni che ci racconta di questo mirabile bidone in mezzo ai ghiacci omette qualche recente novità che pare interessante.

Lo scorso 1 settembre il Ministro del Lavoro e dell’Inclusione Sociale Anniken Hauglie ha infatti convocato la potentissima e indipendente Autorità norvegese per la sicurezza delle attività petrolifere, la Petroleum Safety Autority (PSA) “dopo oltre una dozzina di incidenti che hanno coinvolto quest’anno il campo Goliat”.

Eni è da tempo ai ferri corti con i sindacati norvegesi per questioni legate alla sicurezza a bordo di Goliat. Critiche che, tra l’altro, non risparmiano nemmeno SAIPEM, che opera nel campo Goliat con la piattaforma da trivellazione Scarabeo 8. L’incidente più grave di cui abbiamo notizia è accaduto lo scorso 25 giugno quando un operatore della Apply Sorco (una ditta subcontraente di Eni) è stato ferito alla testa durante la consegna di macchinari a bordo della piattaforma. Le condizioni dell’operatore sono state definite gravi, ma per fortuna non è mai stato in pericolo di vita.

Dai media norvegesi si apprende inoltre che a luglio alcuni Rappresentanti per la Sicurezza avrebbero scritto una lettera al management di Eni chiedendo di fermare l’impianto per le opportune verifiche: fino ad allora la PSA aveva già ricevuto in cinque mesi di attività dell’impianto “non meno di sei notifiche di perdite di gas o di rilevamenti di gas sulla piattaforma”. Oltre a questi: fumo in un generatore, dispersione di un fluido idraulico e altro ancora, compreso l’incidente al subcontractor di cui sopra. Le stesse fonti ci informano che sono ancora in corso indagini su emissioni di sostanze chimiche da Goliat e sulla caduta in mare di un lavoratore, lo scorso febbraio, dalla piattaforma di trivellazione Scarabeo 8.

Insomma, ai sindacati che chiedevano lo stop di una o due settimane di Goliat per le necessarie verifiche/migliorie, Eni avrebbe risposto che “Eni Norvegia ha preparato piani per aumentare l’efficienza operativa e la manutenzione senza alcun bisogno di fermare a lungo l’impianto”. Una risposta che non ha di certo soddisfatto i sindacati, che hanno lamentato la presenza di alcuni manager Eni “senza alcuna competenza della cultura e del regime lavorativo” norvegese.

Ma anche la PSA non deve aver dormito sonni tranquilli e così, dopo che lo scorso 27 agosto si è verificato un black out al sistema elettrico di Goliat, l’Autorità – il 29 agosto – ha chiesto a Eni di interrompere le operazioni fino al 5 settembre, ordinandogli nel frattempo “di identificare e applicare misure necessarie, dopo l’incidente del 27 agosto 2016, per giungere a conformità rispetto alla legislazione sulla salute, la sicurezza e l’ambiente”. Un piano che Eni è chiamata a presentare in queste ore, con le scadenze vincolanti per la sua applicazione.

Ma se il Ministro del Lavoro convoca la PSA, evidentemente ci dev’essere dell’altro. L’impressione è che ci sia una latente sfiducia (tra i sindacati e i politici) verso Eni o, per essere esatti, verso gli standard applicati nella costruzione di piattaforme petrolifere che, si sostiene per risparmiare, invece che in Norvegia sono costruite altrove. Ad esempio in Corea del Sud, dove (a Ulsan) è stata costruita Goliat.

Per avere notizie più aggiornate occorre però rivolgersi ai giornali stranieri o perfino a quelli norvegesi:

Sul The independent Barents observer del febbraio 2017 in un articolo intitolato efficacemente Goliat oil: On-off-on-off-on-off si scrive (https://thebarentsobserver.com/en/industry-and-energy/2017/02/goliat-oil):

Since production at Goliat, the world’s northernmost offshore oil platform, officially started in March last year, oil pumping has been on-off-on-off several times.

Head of Communication with ENI Norge, Andreas Wulff, says to Teknisk Ukeblad the reason is a failure in a valve. Wulff estimates production to be online again within some few days. In August last year, the Goliat platform lost all power and personnel was brought to land.

Quindi l’incidente di agosto è stato così grave da dover riportare tutto il personale a terra, cosa non menzionata da La Stampa.

After the shut-down in Christmas, Norway’s Petroleum watchdog wrote a notice of order expressing concern about the Italian oil company. «Eni has revealed a limited ability to implement existing plans,» the Petroleum Safety Authority stated.

Questa l’opinione dei norvegesi sulle capacità dell’ENI; non sappiamo se gli americani ne siano a conoscenza.

Dovremmo però noi italiani farci portavoce della situazione verso la nostra opinione pubblica; la ricerca e l’estrazione del petrolio diventano sempre più costose, ha senso spendere tanti soldi per cercare tutto sommato limitate quantità di nuovi idrocarburi in zone del pianeta così difficili da esplorare e così delicate dal punto di vista ambientale invece di investire sulle nuove energie rinnovabili? Noi non abbiamo una filiera italiana del FV, non abbiamo una filiera italiana dell’accumulo elettrochimico, l’ENI non è coinvolta seriamente in nessuno dei tentativi di costruirle come le piccole startup che si occupano di celle al litio (come la Lithops S.r.l. di Torino), di riciclo delle terre rare, di produzione di silicio per FV (ex MEMC di Merano); in compenso ammantandosi di immeritata verginità ambientale per l’uso del metano e per altre ragioni che potete trovare nella diffusa pubblicità, ENI si rifiuta di cambiare la sua politica che tanti guasti ha prodotto in Nigeria (https://ilblogdellasci.wordpress.com/2017/06/09/la-pubblicita-di-eni-il-metano-ci-da-una-mano-o-no/) e adesso nell’Artico.

ENI è prima a reclamare nuove trivellazioni nell’Artico, ma ultima sulla strada di una nuova e necessaria politica energetica. La nuova SEN in discussione adesso dovrebbe sancirlo.( https://ilblogdellasci.wordpress.com/2017/06/12/alcune-considerazioni-sulla-strategia-energetica-nazionale-2017/)

Henry A. Bent (1926-2015): un chimico poco noto− Parte II

In evidenza

Rinaldo Cervellati

Henry A. Bent, “il professore che ha provato come la chimica può essere divertente” [1], nella sua lunga carriera di docente e ricercatore ha pubblicato più di 60 articoli a carattere prevalentemente didattico sul Journal of Chemical Education, dal 1960 al 2007. Gli argomenti sono fra i più disparati: dall’analisi dei concetti e alla loro proponibilità nell’insegnamento scolastico, dalla convinzione che la chimica è un linguaggio alle sue proposte di esperimenti dimostrativi per studenti e un pubblico più vasto, alle recensioni di libri di testo. Illustrare in poco spazio questa incredibile mole (è il caso di usare questo termine) di lavoro è praticamente una “mission impossible”. Ci proverò scegliendo due contributi, il primo riguardante le fiamme, il secondo sul concetto di orbitale.

Bent e le fiamme

Bent e le fiamme

Nel primo dei due, intitolato Flames: A Demonstration Lecture for Young Students and General Audiences[1], l’autore si propone di mostrare come con materiali di uso comune (zucchero, acqua, bicarbonato, aceto, candela, più una striscia di magnesio) si può capire di cosa si occupa la chimica e anche iniziare a comprenderne il linguaggio [2].

Bent dice:

Bent e le fiamme

Lasciatemi però spiegare dapprima la differenza fra fisica e chimica.

La fisica è la scienza delle proprietà generali della materia – la gravitazione universale, per esempio. Lascio cadere questo fiammifero. Questa è fisica. La distanza di caduta s è proporzionale al quadrato del tempo di caduta t. La distanza e il tempo sono concetti familiari. Ora sfrego il fiammifero. Una fiamma! Calore e luce. È illuminante! Questa è chimica. La chimica, vorrei dire, è più spettacolare della fisica. La chimica è la scienza delle proprietà particolari della materia, l’infiammabilità per esempio. C’è molto di completamente nuovo nelle trasformazioni chimiche della materia. [2, p. 151]

Bent invita quindi il pubblico a guardare la fiamma di una candela[2].

L’incandescenza della candela proviene dalla presenza nelle parti luminose della fiamma di particelle calde e solide. Possiamo raccoglierle con una spatola. A temperatura ambiente sono nere. Le chiamiamo fuliggine. È carbonio quasi puro, uno degli elementi chimici. Sopra la parte incandescente della fiamma, la fuliggine calda viene ossidata dall’ossigeno dell’aria formando un gas invisibile, il biossido di carbonio. I chimici scrivono:

C(s) + O2(g) → CO2(g) p

Possiamo dimostrare la presenza di biossido di carbonio nei prodotti finali della combustione della candela raccogliendoli in un pallone rovesciato. Poi aggiungiamo una soluzione di idrossido di calcio, comunemente chiamata calce, e scuotiamo. L’acqua di calce diventa presto color bianco latteo. Il precipitato bianco è carbonato di calcio, CaCO3. Il carbonato di calcio è il componente principale del calcare. Il calcare costituisce la maggior parte di molte delle nostre montagne.

La cera di candela è costituita da sostanze che sono principalmente composti del carbonio e dell’idrogeno. Il calore della fiamma della candela fonde la cera. Ulteriore calore vaporizza la cera dalla sporgenza. Infine, il calore trasforma le molecole del vapore di cera in carbonio e piccole molecole contenenti carbonio e idrogeno. Tali intermedi sono infine ossidati dall’ossigeno dell’aria sovrastante in anidride carbonica e acqua. [2, p. 152]

Bent continua a usare la candela in questo modo: un pezzo di cera viene posto in un becher che viene riscaldato con una fiamma esterna:

La cera fonde rapidamente in un liquido incolore. Il liquido comincia a fumare. Nelle pareti superiori fredde del becher parte del vapore si condensa in piccole particelle di cera liquida e solida. Continuando il riscaldamento, il vapore della cera, il fumo e l’aria formano una miscela combustibile, sviluppando una fiamma nel becher, che allontana momentaneamente il fumo. Ora abbiamo una fiamma continua: una fiamma di candela senza candela. Ma, a differenza della fiamma di candela, questa fiamma non è autosufficiente. Rimuovendo il calore ausiliario, la fiamma si spegne. [2, p. 152]

La dimostrazione prosegue:

Guardiamo ora cosa succede se spruzziamo un poco di acqua liquida con uno spruzzatore sulla cera nel becher. Il fuoco non si spegne ma si disperde in tanti fuocherelli appena l’acqua ha toccato il grasso. Le gocce d’acqua si sono messe a bollire trasformandosi in vapore spruzzando intorno goccioline di grasso infiammabili ravvivando il fuoco. Si tratta di “iniezione di carburante per generazione di vapore”. Un processo largamente sfruttato nell’industria. Non è certo il modo per allontanare l’ossigeno molecolare dal grasso caldo. Un panno umido sopra il becher avrebbe funzionato meglio.[2, p. 152].

A questo punto Bent spiega, con esempi pratici come l’aumento di contatto fra due o più corpi favorisce il verificarsi di trasformazioni chimiche:

Gran parte della moderna civiltà-scientifica, industriale, e tecnologica, deriva dal riconoscimento chimico che le molecole per reagire devono prima collidere, urtarsi.

Si passa quindi alle fiamme degli idrocarburi della serie del metano ma Bent inizia spiegando che le singole molecole della cera di candela contengono circa 18 atomi di carbonio, legati fra loro in catene a zig-zag.

Le molecole del polietilene dello spruzzatore contengono migliaia di atomi di carbonio, ciascuno legato ad atomi di idrogeno. È anche combustibile, vedete… Andando a pesi molecolari inferiori, otteniamo liquidi come il kerosene. Il cherosene, come la candela, non è molto volatile. Ha un valore relativamente alto di punto di infiammabilità. Possiamo costruire un fiammifero con il kerosene, ma non provate con la benzina!

L’idrocarburo più semplice è CH4, chiamato metano o gas naturale. È il gas per cui è stato costruito il bruciatore Bunsen nel quale entra un flusso del gas. Premesso che dalla base del bruciatore si può regolare la quantità d’aria che si mescola col gas, se si lascia che tutta l’aria entri, il metano brucia con una fiamma molto calda e relativamente poco luminosa, come quella che abbiamo visto con l’accendino a propano (a destra in figura). Bloccando l’ingresso dell’aria, il metano brucia con fiamma meno calda e luminosa, simile a quella della candela. Evidentemente, in queste condizioni si forma una certa quantità di fuliggine (a sinistra in figura) [2, p.152-153].

Fiamme bunsen

Bent mostra ora le fiamme prodotte dalla combustione di acetilene, alcol isopropilico e zucchero, facendo notare che tutte le sostanze usate contengono carbonio e idrogeno e le fiamme sono causate dalla reazione chimica con l’ossigeno dell’aria.

La combustione dello zucchero ha portato a una massa nera di carbonio in fondo alla provetta e a goccioline di acqua di condensa nella parte superiore. Introduce il termine carboidrati.

A questo punto proverà a bruciare separatamente carbonio e idrogeno.

Il semplice riscaldamento della provetta contenente il carbonio mostra che la sua ossidazione è molto lenta. Dobbiamo fornire più ossigeno al carbonio. Facciamo scorrere l’ossigeno nella provetta attraverso un tubo di vetro collegato a una bombola di ossigeno. È spettacolare! È la reazione di C + O2, solo con ossigeno puro, piuttosto che in miscela con aria. Il carbonio sta ora bruciando con un colore rosso fuoco. La provetta si è deformata ma non si è rotta. Alla fine è pulitissima, tutto il carbonio ha reagito. [2, p. 153]

Lampadine Edison a filamenti di carbonio

L’idrogeno si ottiene facilmente, basta avere un opportuno metallo e una soluzione acquosa di un acido forte, per esempio zinco e acido cloridrico. Mescoliamoli:

Si ottiene una massa frizzante, il metallo si scioglie e si sviluppano bollicine di un gas incolore e inodore, il gas più leggero conosciuto, l’idrogeno. Possiamo raccoglierne un poco in un bicchiere capovolto. Nel frattempo, riempiamo un piccolo palloncino con idrogeno proveniente da una bombola, e poi avviciniamo un fiammifero. Boom! Piccola esplosione e luce. Chiaramente anche l’idrogeno ha un’alta affinità per l’ossigeno! I chimici scrivono

H2(g) + 1/2O2(g) ® H2O(g)

La luminosità che abbiamo notato è probabilmente dovuta in gran parte alla polvere che impregna i palloncini per impedire di attaccarsi a se stessi o ad altri. La polvere riscaldata dall’esplosione della miscela idrogeno-ossigeno diventa luminosa. L’idrogeno puro brucia in ossigeno con una fiamma quasi incolore, come si vede se accendiamo la miscela idrogeno-aria nel becher dove avevamo raccolto un po’ di idrogeno. E che cosa si è depositato nelle pareti più fredde del becher? Sembra una rugiada fine. È acqua liquida. Come indicato dalla nostra ultima equazione, l’acqua è l’unico prodotto della combustione dell’idrogeno nell’ossigeno.[2, p. 153].

Bent passa poi a mostrare la reazione fra un pezzettino di potassio metallico e acqua tracciata con poche gocce di fenolftaleina. Fa avvenire la reazione sia in un becher sia in una capsula Petri posta su una lavagna luminosa:

In entrambi i casi si nota una reazione violenta, il pezzetto di potassio si incendia girando vorticosamente sulla superficie dell’acqua che si colora in viola, segno che è diventata basica. I chimici scrivono:

2K(s) + H2O(l) ® H2(g) + 2KOH(aq)

Infine il potassio sparisce del tutto.

Il potassio brucia in acqua

Nella capsula Petri il calore della lavagna luminosa fa rapidamente evaporare l’acqua lasciando un residuo bianco di idrossido di potassio.[2, p. 154].

Scaldiamo un sottile nastro di magnesio, esso brucia in aria rapidissimamente e con una straordinaria brillantezza formando una polvere bianca chiamata ossido di magnesio. I chimici scrivono:

2Mg(s) + O2(g) ® 2MgO(s)

Questo fenomeno è stato ampiamente sfruttato nei flash delle macchine fotografiche.

Lampo di magnesio

Dagli effetti provocati dalla combustione del magnesio si potrebbe pensare che esso abbia un’affinità per l’ossigeno maggiore rispetto al carbonio e all’idrogeno.[2, p. 154].

Per verificare l’ipotesi, Bent fa un ulteriore esperimento.

Mettiamo un po’ acqua a bollire in un becher. Il vapore eliminerà tutta l’aria quindi ora sarà pieno di molecole di H2O. Un fiammifero acceso immerso in questo vapore si spegne immediatamente. Guardiamo cosa fa il magnesio. Sorpresa! Il magnesio brucia ancora più vigorosamente nel vapore acqueo che nell’aria! In aria solo un quinto delle molecole contiene ossigeno. Nel vapore tutte le molecole contengono ossigeno. I chimici scrivono:

Mg(s) + H2O(g) ® H2(g) + MgO(s)

L’ossido di magnesio non è molto solubile in acqua. Però con l’aggiunta di qualche goccia di fenolftaleina diventa rosa. Questo è caratteristico delle soluzioni di ossidi metallici, essi formano idrossidi che neutralizzano gli acidi. Una sospensione di idrossido di magnesio in acqua si chiama latte di magnesia e viene usato per combattere l’acidità di stomaco. [2, p. 154]

Per controllare se il magnesio è in grado di sottrarre ossigeno al carbonio serve una sorgente di biossido di carbonio. Si può facilmente ottenere facendo reagire il carbonato di calcio con acido cloridrico oppure, più semplicemente bicarbonato di sodio con aceto.

L’aceto è una soluzione di acido acetico, mettiamone un poco in un becher e aggiungiamo il bicarbonato, l’anidride carbonica che si forma è più densa dell’aria e tende a concentrarsi nel fondo del becher. Un fiammifero acceso immerso in CO2 si spegne subito. E il magnesio? Il magnesio brucia nel biossido di carbonio. Si forma lo stesso ossido bianco insieme a chiazze nere. Come la fuliggine queste sono formate da carbonio. I chimici scrivono:

2Mg(s) + CO2(g) ® 2MgO(s) + C(s)

Ecco il motivo per cui non si possono spegnere gli incendi da magnesio con acqua o anidride carbonica. Se ne sono accorti i britannici durante la battaglia delle Isole Falkland. Alcune navi britanniche avevano sovrastrutture in leghe leggere contenenti magnesio e altri metalli che hanno affinità per l’ossigeno. Quando una delle navi è stata colpita da un missile, le sovrastrutture si sono incendiate bruciando sul ponte producendo più danni del missile stesso. [2, p. 154]

Il secondo contributo, del 1984, è intitolato Should Orbitals be X-Rated in Beginning Chemistry Courses? [3]

Bent affida inizialmente la risposta a Linus Pauling, definendolo, a ragione, “the father of the mathematical theory of orbitals for molecules”:

Non vedo alcun motivo per menzionare gli orbitali molecolari in un corso iniziale in chimica, scrive Linus Pauling in un recente numero di The Science Teacher [4]. Gli orbitali molecolari hanno un valore speciale nella discussione degli stati eccitati delle molecole, continua il padre della teoria matematica degli orbitali molecolari, ma sono piuttosto fuori luogo in un testo elementare di chimica.

Scrive Bent:

È vero tuttavia che l’apprendimento passivo e la ripetizione delle proprietà geometriche degli orbitali ibridi danno agli studenti la sicurezza di partecipare ad un’attività sofisticata con regole definite e facilmente memorizzabili. Dà agli insegnanti la sicurezza di fare domande con risposte definite e facilmente classificabili. Inoltre, permette a studenti e insegnanti di non insistere per avere un insegnamento pratico in laboratorio evitando le difficoltà di preparare da un lato e valutare dall’altro esercitazioni di laboratorio. Sicuramente, taglia i costi della scuola. Ma a quale prezzo? A costo di non sapere come funziona la scienza. E continua:

È stato detto che l’educazione è ciò che si ricorda dopo che tutto ciò che si è imparato è stato dimenticato. Quindi, come sono educati i nostri studenti di chimica? Che cosa ricordano dopo che tutto quello che gli è stato detto sugli orbitali è stato dimenticato? Che la chimica è un mistero, da memorizzare? Il problema non è lì. Gli orbitali sono il paradigma attuale. Il problema è come ci si arriva. Il gioco degli orbitali, per parafrasare Pauli, non è nemmeno sbagliato. È un gioco, tutto lì. Ma non è il gioco della scienza. La regola suprema, la regola generale, la regola del gioco, è assente.[4, p. 421].

Questa regola o Regola della Restrizione e stata enunciata da Lavoisier[3]:

Nel cominciare lo studio [o la presentazione] di una scienza fisica, ha scritto Lavoisier, non dobbiamo formulare [o anticipare] nessuna idea, ma quali sono le conseguenze e gli effetti immediati di un esperimento o una osservazione [5].

La regola di restrizione di Lavoisier è il regno sovrano della scienza. È la regola del buon senso di non saltare a conclusioni prima di conoscere i fatti. È stato solo attenendosi a questa regola che sono state formulate la teoria della termodinamica, della relatività di Einstein, della meccanica quantistica di Heisenberg, dell’operativismo di Bridgman.

Ma, prosegue Bent, la regola di Lavoisier è una regola difficile da giocare. La scienza (e l’insegnamento scientifico) non sono affatto facili.

Purtroppo la popolarità della volgarizzazione degli orbitali nel corso di chimica nei licei dipende anche dai contenuti del syllabus e dei test previsti dagli Advanced Placement Exams il cui superamento è richiesto da molti College e Università. Scrive Bent:

Il gioco di raccontare e ripetere piace tanto a insegnanti e studenti perché permette di ottenere voti alti agli esami. Il punteggio di quattro o cinque negli esami AP può essere dovuto all’esposizione delle regole per la formazione di orbitali, purtroppo nella mente di molti studenti questo può essere il loro uso principale. Insiste Bent:

L’adesione rigorosa alla Regola di Lavoisier richiede che i fatti siano esposti in modo induttivo, per catturare le idee, non di formulare ipotesi in modo meramente deduttivo.

Per esempio, c’è un solo isomero con formula molecolare CH2C12, da questo fatto i chimici hanno supposto che l’atomo di carbonio ha una struttura tetraedrica. Questa supposizione, basata sui fatti, ha dato luogo alla branca della stereochimica.

Solo molto più tardi fu riportato da Pauling e Slater, che la più semplice descrizione delle valenze tetraedricamente dirette dell’atomo di carbonio in termini di armoniche sferiche centrate su esso potevano essere interpretate da orbitali ibridi sp3. L’ibridazione è conseguente ai fatti, non i fatti dall’ibridazione.[4, p. 422]

Dopo altri esempi, Bent conclude:

È un fatto che gli studenti arrivano al college con una scarsa conoscenza della chimica descrittiva. Con riluttanza, il Comitato per la Formazione Professionale (CPT) dell’American Chemical Society ha raccomandato una maggior flessibilità nei programmi dei corsi di chimica di base valorizzando gli argomenti di chimica descrittiva, istituendo eventualmente corsi avanzati per approfondimenti.

Se la raccomandazione fosse accolta, dice Bent, ci sarebbero meno ripetizioni. Infatti, tutto il discorso sui moderni “orbitali molecolari” (e anche sulla termodinamica formale), viene generalmente ripetuto all’università. [4, 422]

Non mi sembra che la raccomandazione del CPT e le considerazioni di Bent siano state recepite, voi che ne dite?

 

Bibliografia

[1]”Pitt professor proved chemistry can be fun”, nel titolo del necrologio sulla scomparsa di Bent pubblicato dalla Pittsburg Post-Gazette l’11 gennaio 2015 a firma Jill Harkins.

http://www.post-gazette.com/news/obituaries/2015/01/11/Pitt-professor-proved-that-science-can-be-fun/stories/201501080119

[2] H.A. Bent, Flames: A Demonstration Lecture for Young Students and General Audiences, J. Chem. Educ., 1986, 63, 151-155

[3] H.A. Bent, Should Orbitals be X-Rated in Beginning Chemistry Courses?, J. Chem. Educ., 1984, 61, 421-423

[4] L. Pauling, Throwing the Book at Elementary Chemistry, The Science Teacher, 1983, 50, 25-29

[5] A.L. Lavoisier, Traité Elémentaire de Chimie, Couchet, Paris, 1789, pp.vi e viii, scaricabile da

http://www.labirintoermetico.com/01Alchimia/Lavoisier_A_L_de_Traite_elementaire_de_chimie(1789).pdf

 

 

 

 

 

 

[1] L’articolo è basato su una conferenza dimostrativa tenuta alla Gonzaga University Spokane, Washington, 7 marzo 1985.

[2] L’osservazione e la descrizione della fiamma di candela è un fenomeno molto utilizzato nelle dimostrazioni. Per molti anni Faraday ha tenuto una serie di Christmas Lectures per un pubblico giovane su “La storia chimica di una candela” [2, p.151].

[3] In realtà Lavoisier non ha mai chiamato Regola il suo pensiero espresso nella citazione [5] che invece, più argomentato, si trova precisamente dove l’ha trovato Bent nella traduzione inglese del famoso Traité Elémentaire de Chimie (Elements of Chemistry, Dover, 1965).

Sensoristica e lenti a contatto

In evidenza

Luigi Campanella, ex Presidente SCI

La sempre maggiore diffusione nell´acquisto di lenti a contatto (lc) in sostituzione degli occhiali, ha fatto si che l´industria del settore impiegasse maggiore attenzione alla ricerca di nuovi polimeri con particolari caratteristiche chimico fisiche, tali da risultare più funzionali ed efficaci per la visione e per la prevenzione di possibili danni all´occhio procurati dall´uso delle lc.

L´ossigeno è essenziale per la sopravvivenza e il buon funzionamento delle cellule aerobiche come quelle che costituiscono l´occhio. Il consumo corneale di O2 può essere stimato in 3 microlitri/ora/cm2. Dal film lacrimale l´ossigeno passa all´interno delle cellule corneali attraverso tre differenti meccanismi:

-sciolto nella fase acquosa che attraversa le membrane cellulari;

-per trasporto attivo;

-a causa del gradiente di pressione.

L´entrata di ossigeno fa sì che le normali reazioni metaboliche possano assicurare alle cellule la fonte energetica necessaria al trasporto attivo degli ioni; questa operazione è d´importanza fondamentale per la trasparenza corneale verso l´esterno. Una carenza d´ossigeno fa rallentare l´attività metabolica, e quindi diminuisce la riserva d´energia disponibile per il funzionamento della pompa ionica e la quantità di H2O che può venire trasportata; di conseguenza la cornea va rapidamente incontro ad accumulo di acqua ed al pericolo di edema. Visto il ruolo ricoperto dall´ossigeno nella dinamica delle cellule corneali diventa subito evidente l´importanza della presenza in quantità sufficiente di questo elemento.

Ne consegue che fra le caratteristiche di una buona lente a contatto c´è il grado di permeabilità della stessa all´ossigeno che è importante per l´integrità delle cellule aerobiche come quelle che costituiscono l´occhio; quindi più la permeabilità è elevata e migliore è la lente. In questo tipo di valutazione, però, si trascura di verificare se, all’aumentare della permeabilità all’ossigeno, non aumenti anche quella a sostanze potenzialmente dannose.

La chimica ed in particolare la sensoristica è venuta incontro anche alla soluzione di questo problema.E’stato messo a punto un metodo per misurare la permeabilità di varie tipologie di lc sia all´ossigeno e sia ad alcuni comuni inquinanti presenti nell´aria (benzene, anidride solforosa). Il metodo per determinare le permeabilità consiste nell’utilizzare il materiale costituente le lc come membrana di un elettrodo di Clark.

Sensore di Clark: elettrodi di Pt (A) e Ag/AgCl (B) soluzione di KCl (C) membrana (D) anello di gomma (E) potenziostato (F) galvanometro (G)

E’ questo un sensore dell’ossigeno che, passando attraverso la membrana posta alla sua base, produce una corrente riducendosi al catodo di Pt, mentre all’anodo di Ag /AgCl si ossida l’Ag. La corrente diviene quindi l’indicatore della permeabilità all’ossigeno del materiale studiato. Introducendo poi fra membrana permeabile ed elettrodo una seconda membrana che immobilizza cellule di lievito aerobiche queste attraverso la loro attività respiratoria inibita o meno individuano possibili permeabilità a sostanze nocive testate. Sostanzialmente ripetendo l’esperienza in presenza ed in assenza della specie di cui si vuole essere certi non ci sia passaggio dall’esterno verso l’interno dell’occhio a causa della permeabilità ad essa del materiale testato si rileva se ci sia differenza nella corrente misurata: ove non ci sia permeabilità alla sostanza testata, come si auspica i lieviti consumano l’ossigeno che passa e la corrente si abbassa;in presenza di un tossico che permea insieme all’ossigeno la capacità respiratoria si riduce e l’intensità della corrente aumenta.

 

Il calorico è solo un inutile idea del passato. O no?

In evidenza

Claudio Della Volpe

Forse vi scandalizzerò, ma il mio primo approccio con la termodinamica è stato di delusione. Delusione per non tener fede al suo nome: termodinamica; dinamica del calore; ma dove è la dinamica in una situazione in cui l’oggetto dello studio sono gli equilibri, anzi l’equilibrio, una situazione fisica del tutto ipotetica e che si realizza solo parzialmente in particolari condizioni. E la dinamica che fine ha fatto? Questo mi sono chiesto per un po’.

E badate non sono il solo ad essersi posto questo problema apparentemente metafisico; me ne sono reso conto mentre studiavo per l’esame di Chimica Fisica. Nella Napoli del 1971, studente del terzo anno, avevo come insegnante il mitico Vincenzo Vitagliano (con cui ho poi collaborato per qualche anno da ricercatore); Vincenzo è un ricercatore in gamba, ma consentitemi di confessare che come insegnante era difficile da seguire. Io preferivo leggere i libri da solo e spulciando spulciando mi ero guardato il testo consigliato da lui “Lewis e Randall”(Lewis and Randall, Thermodynamics, nella revisione di Pitzer e Brewer ed. Wiley 1970), un testo ormai datato, ampio, classico, discorsivo che spesso sui punti chiave mi sembrava nicchiasse. Bello ampio, pieno di informazioni, ma dispersivo, e a volte anche vago, non mi era piaciuto. C’erano molti esercizi, questo si, ma mi sembrava fosse sfuggente in certe cose; so che non tutti saranno d’accordo.

Ho già trattato il tema dell’insegnamento della termodinamica. In particolare in un precedente gruppo di post (cercate nel blog “quanto è chimico il potenziale chimico” *) ho affrontato il tema di come presentare il potenziale chimico. Il potenziale chimico insieme con l’entropia si presenta come il concetto più astratto e difficile da presentare a tutti i livelli.

L’entropia è un classico dell’astrazione e della difficoltà formale; allo studente universitario che ha da poco superato l’apprendimento del calcolo differenziale ed integrale si apre uno scenario ancora più complesso con l’introduzione dei differenziali incompleti o non esatti, le famigerate (ma come vedremo non troppo) grandezze di processo, calore e lavoro; nella maggior parte dei casi questo concetto rimarrà un punto oscuro.

Ma è necessario un così astratto trattamento dell’entropia?

Ci sono varie soluzioni al problema:

1) l’approccio di Callen; è un approccio ancora molto formale, ma nel quale almeno la parte matematica viene chiarita e formalmente strutturata; le proprietà matematiche delle funzioni vengono introdotte usando essenzialmente il calcolo differenziale tradizionale; alcuni aspetti, come l’importanza della proprietà di omogeneità del primo ordine** (in pratica il modo matematico di introdurre le grandezze estensive (omogenee del primo ordine) e di differenziarle da quelle intensive (omogenee di ordine zero)) che non sono assolutamente presenti nel trattamento storico vengono introdotti e ben fondati, così come la relazione formale fra le varie funzioni (le funzioni tradizionali, entalpia, energia libera, etc. introdotte come trasformate di Legendre dell’energia o dell’entropia, dunque sostituendo ad una o più variabili estensive alcune variabili intensive, come hamiltoniano e laplaciano in meccanica). Il libro è molto ben scritto, anche se denso e compatto, analizza le questioni della stabilità dei sistemi e nella sua seconda edizione si estende alle proprietà di simmetria, al teorema di Noether perfino, ma anche per esempio ad argomenti tabù in certi settori di ricerca come il criterio endoreversibile per le macchine termiche, un approccio che tenta di superare ancora una volta l’astrattezza del teorema di Carnot sull’efficienza usando una geniale idea: la irreversibilità nei processi termomeccanici è essenzialmente concentrata nei salti termici, non nel dispositivo meccanico che, specie quando usato alla massima potenza, può essere assimilato ad un dispositivo ideale. In questo modo ed applicando un semplice criterio di linearità nello scambio di calore fra sorgente e macchina termica, i valori effettivi di efficienza delle macchine termiche diventano calcolabili senza modellazioni sofisticate e complesse. In fisica tecnica la cosa non ha avuto successo, ma non me ne meraviglio, gli ingegneri sono (in genere) sostanzialmente conservatori, più attenti alle applicazioni che ai principi. Herbert Callen, Termodinamica, pubblicato negli anni 60 è diventato con lenta sicurezza un classico.

Il libro aveva un sottotitolo: “an introduction to the physical theories of equilibrium thermostatics and irreversible thermodynamics”.

Questa cosa mi predispose bene; era un libro scritto da uno che si era posto il mio stesso problema!

(un breve riassunto del Callen lo trovate in J. Non-Newtonian Fluid Mech. 96 (2001) 5–17 Equilibrium thermodynamics — Callen’s postulational approach Robert J.J. Jongschaap, Hans Christian Öttinger)

2) l’approccio di Prigogine; qua si va verso lo scandalo; Prigogine introduce il tempo fin dall’inizio, non ci sono grandezze di stato e di processo, i differenziali sono tutti esatti; il calore o il lavoro corrispondono semplicemente all’energia termica o meccanica trasferita nell’unità di tempo; e dunque la legge del trasferimento termico o la potenza meccanica vengono usate per esprimere queste grandezze; la differenza fra reversibilità ed irreversibilità è chiarita secondo me in modo trasparente; il libro originale di Prigogine e Kondepudi (MODERN THERMODYNAMICS From Heat Engines to Dissipative Structures, Wiley 1988)e anche la seconda edizione (INTRODUCTION TO MODERN THERMODYNAMICS, Kondepudi, 2008 ed Wiley) scritta dal solo Kondepudi (che è l’autore fra l’altro di un bel lavoro sulla rottura di simmetria nei sistemi chimici, con l’esempio di come la semplice agitazione in un sistema sovrasaturo di clorato di sodio può catalizzare la formazione di cristalli di un solo tipo chirale, Kondepudi, D. K., Kaufman, R. J. & Singh, N. (1990). “Chiral Symmetry Breaking in Sodium Chlorate Crystallization”. Science 250: 975-976), tuttavia presentano un elevato numero di errori di stampa che ne indeboliscono e rendono difficoltoso l’uso (i segni sbagliati possono essere micidiali) ; ma se corretti (e spero lo siano stati nelle ristampe successive) comunque questi libri sono molto utili nel superare la assurda dicotomia fra processi di equilibrio e di non equilibrio.

3)La terza soluzione è la più recente e per me anche la più stimolante; si tratta della scuola tedesca, Hermann e Fuchs in particolare; teniamo presente che i tedeschi hanno conservato una tradizione incredibile nella quale la didattica della fisica è non solo studiata come disciplina a parte, ma è basata su centri di eccellenza e gruppi di ricerca che ne fanno una disciplina viva; i fisici hanno questa tradizione in tutto il mondo, ma in certi paesi più che in altri; noi chimici dovremmo imparare da loro e non considerare chi studia la didattica uno studioso di serie b: al contrario insegnare bene le cose necessita non solo di averle ben capite ma anche di riuscire a comprendere come insegnarle: scienza e pedagogia. Nel caso della termodinamica stiamo parlando di libri come quello recente di Hans U. Fuchs. The dynamics of heat (sottotitolo: A unified approach to thermodynamics and heat transfer) ed. Springer, 2010.

Qua si parte dall’idea di dare una visione unificata della meccanica, dell’elettricità e della termodinamica basata sulle “grandezze che fluiscono”, la quantità di moto, la carica, il calore; si dimostra che da questo punto di vista le varie discipline fisiche usano il medesimo approccio concettuale e arrivano perfino a scrivere le stesse relazioni matematiche.

La scuola tedesca in questo caso arriva ad una conclusione importante: la entropia di oggi non è altro che il calorico di due secoli fa.

Mentre il libro di Fuchs è massiccio, quasi 700 pagine, vi consiglio, se volete entrare in questo punto di vista un articoletto tutto sommato datato (G. Falk, Entropy, a resurrection of caloric, Eur. J. Phys (1985)108-115).

L’idea che il vecchio calorico fosse in realtà una concezione sbagliata del calore ma una molto precisa dell’entropia non è nuova.

Nel 1911 H.L. Callendar (padre del Guy Callendar che per primo rese quantitativa l’dea del ruolo serra del diossido di carbonio antropogenico e di altri gas) nella cerimonia con cui accettava la prestigiosa carica di presidente della società inglese di Fisica (Proc. Phys. Soc London, 23, 153-189) arrivò essenzialmente alla medesima conclusione, che Carnot cioè avesse sviluppato in realtà sulla base del calorico una visione moderna ed aggiornata, solo che stava chiamando calorico l’entropia. Analogamente K. Schreber, che tradusse in tedesco nel 1926 il lavoro di Clapeyron del 1834 con cui illustrava per la prima volta i risultati del defunto Carnot (Clapeyron E. 1834, J. de l’Ecole polytechnique 14) scriveva (Ostwalds Klassiker 216, 41) che gli sarebbe sembrato meglio usare il termine entropia invece che calorico nella presentazione del lavoro di Carnot e che questo avrebbe ridotto le differenze fra le idee di Carnot e quelle moderne nell’analisi dei processi termici.

Occorre sostituire il calore non con un differenziale inesatto, ma con il corrispondente flusso entropico.

Carnot non aveva l’idea dell’energia; non a caso il suo libro più famoso si chiama: Riflessioni sulla potenza motrice del fuoco, il termine energia non compare nelle sue riflessioni. Fu solo dopo il 1840 che la scoperta di Mayers e Joule della conservazione dell’energia cambiò le cose. Il calorico non si conservava se non a metà, poteva essere prodotto ma non poteva essere distrutto, solo scambiato. Lavorando in condizioni adiabatiche si può dimostrare che esso viene prodotto, ma non può essere distrutto. Gli esperimenti a riguardo sono suggestivi e quella linea di ricerca è stata poi completamente cambiata dall’uso del concetto di energia. Chi ricorda più oggi il tentativo di Davy (On Heat, Light and Combinations of Light,” 1799) di dimostrare che strisciando due pezzi di ghiaccio fra di loro a zero gradi si ottiene fusione del ghiaccio? Chi ricorda più la lampada pneumatica? Ossia la accensione di un pezzo di stoffa ottenuto in un cilindro trasparente di vetro tramite la compressione dell’aria contenuta con un pistone scorrevole? Si tenga infine presente che il calorico era a sua volta diviso in due tipologie: libero, legato alla temperatura e legato, connesso ad altre transizioni.

La questione fondamentale può esser posta così: nell’approccio di Carnot il calorico è una forma di energia?

Noi oggi diciamo che la variazione di energia interna di un corpo è data dalla somma di calore più lavoro; e dunque anche se lo consideriamo una grandezza di processo diamo al calore le stesse unità di misura dell’energia.

Ma ragioniamo con un approccio da calorico, consideriamo questo fluido immaginario, ma non più della carica elettrica o della quantità di moto.

Paragoniamo tre processi: accelerare una pietra, caricarla elettricamente e riscaldarla; nel primo cediamo quantità di moto alla pietra ed essa viene accelerata; nel secondo ancora più chiaramente se carichiamo elettricamente la pietra, la sua energia aumenta ma noi le abbiamo introdotto della carica elettrica che ovviamente non è energia.

Se cediamo calorico alla pietra essa si riscalda; in tutti i casi la sua energia aumenta, ma nel primo abbiamo ceduto momento e nel secondo carica, nel terzo calorico e come il momento o la carica elettrica non sono energia così non lo è il calorico.

Un altro modo di comprendere la cosa è paragonare il flusso di massa in un salto di potenziale e quello di calorico nel produrre energia; nel primo caso l’energia è proporzionale al potenziale gravitazionale gh secondo la massa, W= m(gh1-gh2); nel caso del calorico il fluido o la grandezza estensiva è il calorico stesso e il potenziale la differenza di temperatura: W=q*(T1-T2); ma questa equazione equivale a considerare che le dimensioni del calorico q* siano q/T, ossia un’entropia (si veda anche Eur. J. Phys. 30 (2009) 713–728 -Carnot to Clausius: caloric to entropy, Ronald Newburgh).

Il fluido che Carnot avrebbe immaginato di cedere alla pietra è nient’altro che l’odierna entropia.

Insomma una unica intuizione, una unica descrizione concettuale per proprietà meccaniche, termiche od elettriche aiuta a meglio comprendere il comportamento dei sistemi e chiarisce che il vecchio calorico non era un modello sbagliato di calore ma un modello, sia pur primitivo, e certamente originale ed avanzato per i suoi tempi, di entropia.

Qualcuno oggi tenta di riutilizzare a scopo didattico questo modello concettuale. Pensiamoci.

********************************************************************

* https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/

https://ilblogdellasci.wordpress.com/2013/10/25/quanto-e-chimico-il-potenziale-chimico-3-parte/

https://ilblogdellasci.wordpress.com/2014/04/28/quanto-e-chimico-il-potenziale-chimico-iv/

https://ilblogdellasci.wordpress.com/2014/06/17/quanto-e-chimico-il-potenziale-chimico-v/

**omogeneità del primo ordine equivale a dire che se in una funzione U(S,V,N) moltiplico per una costante a ciascuna variabile indipendente allora tutta la funzione U viene moltiplicata per la medesima variabile, a1; aU= U(aS,aV,aN), U è estensiva; il primo ordine è l’esponente della a; ordine zero vuol dire che se faccio lo stesso per una funzione poniamo T(S,V,N), allora la funzione rimane moltiplicata per a0 e dunque non cambia valore, T è intensiva. T=T(aS,aV,aN).

 

Smontare i mattoncini.

In evidenza

Mauro Icardi

L’idea del titolo mi è venuta facendo una riflessione sulla vicenda della diffusione ambientale dei PFAS.

Il problema della diffusione nell’ambiente e della concentrazione nell’organismo umano, e particolarmente nel sangue dei composti perfluoroalchilici è attualmente uno dei problemi ambientali più gravi. Grave perché ,sia in Italia e particolarmente in Veneto, ma anche in vaste zone degli Stati Uniti questo tipo di composti , massicciamente e capillarmente diffusi nell’ambiente hanno contaminato le falde acquifere da cui si prelevano acque destinate all’uso idropotabile.

Nella zona di Vicenza si è ipotizzato che la responsabilità sia da attribuire ad una azienda che utilizza questo tipo di composti organici, e che non ha gestito correttamente il ciclo di depurazione dei propri reflui.

Per quanto riguarda gli Stati Uniti, ed in particolare nella zona di Portsmouth nel New Hampshire la concentrazione di questi composti nell’acqua potabile sembra sia invece dovuta alle esercitazioni antincendio che venivano effettuate in una base dell’aeronautica militare degli Stati Uniti. Nell’area di questa base venivano dati alle fiamme vecchi aerei per esercitazione. Gli addetti della base provvedevano a spegnere gli incendi così provocati con estintori nei quali questo tipo di composti erano presenti. Le schiume percolavano nel terreno, e da qui hanno raggiunto le falde acquifere. Nessuno si è mai preoccupato delle conseguenze di questo tipo di attività, francamente piuttosto discutibile e gestita con una incredibile superficialità.

Se si può pensare che non fossero ancora note le caratteristiche di tossicità di questi composti, e anche vero che negli Stati Uniti venne pubblicato fin dal 1962 un bestseller dell’ambientalismo : “Primavera silenziosa” di Rachel Carson. In questo libro si parlava dell’uso indiscriminato di DDT e pesticidi.Ma in ogni caso si metteva già in luce il meccanismo di accumulo di composti tossici principalmente nelle zone adipose del corpo umano, e anche nel latte materno. Questo avrebbe dovuto essere uno spunto per l’adozione di un principio di precauzione. La capacità dell’essere umano di ragionare in prospettiva e di andare oltre ai presunti benefici immediati, e di pensare a limitare il proprio impatto sull’ambiente, sembra essere un insormontabile limite ancestrale. Quasi che molte nostre azioni siano legate al cervello arcaico, quello che ci impedisce ogni attività pensata, pianificata e guidata dalla razionalità.

Tornando ai PFAS si stanno cominciando a prendere le contromisure del caso, si stanno cercando di identificare dei limiti adeguati. Gli studi sono condotti dall’EPA (Enviromental Protection Agency) e dall’OMS. Si sa che nel caso di questi composti l’accumulo avviene principalmente a livello del sangue. Così come si è riusciti a capire che i composti a lunga catena di carbonio (in generale da otto atomi di carbonio e oltre) sono quelli che tramite il meccanismo di riassorbimento nei tubuli renali transitano nei reni e sono eliminati solo parzialmente attraverso l’eliminazione urinaria.

I composti a catena di carbonio più corta invece riescono ad essere espulsi dal corpo umano nel giro di pochi giorni. Per questa ragione i principali produttori di PFAS negli Staiti Uniti, Europa e Giappone hanno aderito ad un accordo volontario per eliminare i composti a lunga catena di carbonio quali l’acido perfluoroottanoico (PFOA) e il perfluoroottanosulfonato (PFOS). Ma le aziende che non hanno aderito a questo accordo volontario continuano a produrre, importare o usare questo tipo di composti a lunga catena di carbonio. Circa 500 tonnellate/anno sono ancora prodotte dalle industrie cinesi.

I dati sulla tossicità di questi composti sono ancora oggetto di studio, ma l’accordo ha permesso di conseguire qualche risultato che da qualche speranza. Se all’inizio dei controlli sistematici la concentrazione di PFAS nel sangue dei cittadini americani era pari a circa 5 ng/lt, nel 2012 questa concentrazione è risultata all’incirca dimezzata. Composti di questo tipo, usati per realizzare tessuti impermeabili all’acqua, in particolare per uso sportivo, nella schiuma per estintori, e nei rivestimenti d i cartoni per alimenti sono come si può intuire inquinanti persistenti ed ubiqui. Oltre all’ingestione di acqua contaminata vengono molto spesso assorbiti attraverso il consumo di pesce contaminato.

La produzione di composti a catena corta che non subiscono accumulo persistente nell’organismo è una vittoria solo parziale. Perché sposta il problema a livello ambientale. Nel corso degli anni sono stati prodotti ed immessi sul mercato almeno 3000 tipologie di molecole di questo tipo. Molecole costruite sulla base del legame carbonio-fluoro, dalla grande stabilità strutturale ma praticamente impossibili a degradarsi per via naturale dalle comunità di microrganismi. L’unica possibilità attuale è la diluizione e la dispersione, che come si può ben intuire è la peggiore delle soluzioni.

A questo punto la sfida che l’industria chimica dovrebbe affrontare è quella di un nuovo modo di costruire le molecole. Pensando a renderle meno stabili, meno indistruttibili alla fine del ciclo di vita. Questa è a mio parere forse la sfida più grande che la chimica industriale deve affrontare. Ma che non può più essere rimandata per molto tempo ancora. Affrontare questo impegno avrebbe il duplice effetto di diminuire una tendenza alla cronicizzazione di effetti tossici ancora non provati, ma che potrebbero essere responsabili di gravi patologie, quali tumori, problemi ormonali e diabete. La seconda quella di cambiare l’immagine della chimica, che sconta comunque sempre in maniera non corretta una specie di peccato originale. La chimica industriale negli anni ha raccolto ed esaudito le istanze che venivano anche dai consumatori. Le belle catene di molecole che sembravano i mattoncini delle costruzioni devono essere smontate e ricomposte in altro modo. Qualcosa di simile a quanto avvenuto con la linearizzazione delle molecole dei tensioattivi. Ora che ci siamo resi conto che i rischi sono superiori, o non proporzionali ai benefici, anche i semplici cittadini possono e devono orientare le scelte delle aziende. Con le loro scelte personali. In fin dei conti nel passato ci si riparava dalle piogge con la tela cerata.

Gli ultimi attori di questo cambiamento devono essere gli esponenti della classe politica. Ritrovando l’essenza del concetto di polis, di arte del governo devono destinare fondi alla ricerca. Perché non ci sono solo i PFAS che si concentrano nell’ambiente. Anzi potrebbero essere solo la punta dell’iceberg.

 

Henry A. Bent (1926-2015): un chimico poco noto− Parte I

In evidenza

Rinaldo Cervellati

Conoscevo il nome di Bent per alcuni suoi scritti provocatori sul Journal of Chemical Education, ad es. Should the Mole Concept be X-Rated? (1985, 62, 59) o Should Atomic Orbital Be X-Rated in Beginning Chemistry Courses ? (1984, 61, 421-423) in cui la domanda è: dovrebbe il tale concetto (mole, orbitali…) essere vietato ai minori? La curiosità di saperne di più mi è venuta quando, lavorando al post sulla teoria del legame di valenza, mi sono imbattuto nella “regola di Bent” riguardante l’ibridizzazione degli orbitali. Anzitutto un poco di biografia.

Henry Albert Bent (Cambridge, MA 1926 – Pittsburgh, PA 2015), figlio di Henry E. Bent professore di chimica all’Università di Pittsburgh, ereditò dal padre la passione per la chimica. Completò il B.Sc in chimica fisica all’Oberlin College (contea di Lorain, Ohio). Nella seconda Guerra Mondiale Bent ha servito in Marina come tecnico radar.

Henry A. Bent

Ottenne il Ph.D. in Chimica nel 1952 all’Università di Berkeley, in un ambiente vivace e stimolante, dove si proseguivano le ricerche sviluppate dal Gruppo del professor G.N. Lewis, scomparso nel 1949. La dissertazione di dottorato ebbe come argomento la decomposizione del nitrato d’ammonio fuso.

Prima del suo arrivo in Minnesota nel 1958, era stato professore di chimica fisica all’università del Connecticut.

All’Università del Minnesota, è stato professore di chimica inorganica fino al 1969, per poi passare alla North Carolina State University a Raleigh e, infine nel 1990 all’Università di Pittsburgh (PA). Ritiratosi nel 1992, ha continuato a interessarsi attivamente di temi e problemi di didattica e promozione della chimica; come direttore del programma Van Outreach effettuò una serie di esperimenti dimostrativi per gli studenti di tutta la zona di Pittsburgh.

I suoi principali interessi di ricerca sono stati la termodinamica, la teoria del legame chimico e la didattica della chimica, tutti argomenti molto sentiti dal gruppo di Berkeley, come ricordato più volte in altri post.

Vignetta satirica (1868) su G. Hirn1

Per quanto riguarda la termodinamica, nel 1962, Bent propose un approccio di analisi globale dell’entropia concepito per valutare la spontaneità dei processi chimico-fisici-chimici[1]. Nel 1977, nel contesto della termodinamica filosofica[1], Bent ha coniato la frase “etica dell’entropia personale”.

In un articolo, suggerisce che per superare le crisi energetiche bisogna anzitutto essere etici negli aspetti energetici della vita basati sulla conoscenza della seconda legge della termodinamica. In particolare, al posto di una politica energetica nazionale, Bent afferma:

“What we need is a personal entropy ethic.” (“Quello di cui abbiamo bisogno è un’etica personale di entropia”) [2].

Nello stesso 1977, Bent condusse i “Workshops su termodinamica, arte, poesia e ambiente” per la National Science Foundation, discutendo con gli studenti, fra l’altro, una critica dell’asserzione “non creare inutilmente Entropia”.

Nella teoria del legame chimico il suo principale contributo è stato l’aver dimostrato empiricamente che per interpretare la struttura e le proprietà delle molecole degli elementi della prima riga della Tavola Periodica si doveva ammettere l’ineguaglianza degli orbitali ibridi dell’atomo centrale legato ad atomi o gruppi diversi fra loro e aver correlato questa disuguaglianza all’elettronegatività dei legandi (“regola” di Bent). Di ciò ci occuperemo con qualche dettaglio in questo post.

Riguardo all’insegnamento e alla didattica, il suo entusiasmo per la chimica lo ha condotto a pubblicare decine di articoli e note sul J. Chem. Educ. E’ stato un insegnante molto popolare trattando argomenti che vanno dalle fiamme e dalle esplosioni ai fondamenti della scienza e all’arte astratta. Particolare insistenza ha posto su insegnare chimica attraverso esperimenti e dimostrazioni pratiche. Per questo è stato insignito di numerosi premi per l’educazione e la formazione chimica.

L’entusiasmo e l’amore per gli atomi e le molecole furono una forza trainante nel lavoro e nella vita di Bent. La sua lunga carriera di chimico e insegnante è culminata in idee non convenzionali, come quella di collocare l’elio sul berillio nella tavola periodica, l’utilizzo di modelli di sfera di valenza per simulare i profili di densità elettronica nelle molecole, la rivalutazione degli esperimenti dimostrativi nell’insegnamento.

La “regola” di Bent

Nella versione originale della teoria del legame di valenza [3], si ipotizza che gli elettroni di valenza degli elementi del blocco p siano ibridizzati spn, con n = 1, 2 o 3. Inoltre, si assume che gli orbitali ibridi sono tutti equivalenti (cioè gli n+1orbitali spn hanno lo stesso carattere p). I risultati di quest’approccio sono in generale soddisfacenti, ma possono essere migliorati ammettendo che gli orbitali ibridizzati possono avere carattere ineguale, cioè non essere equivalenti.

Nel fascicolo di giugno 1961, la rivista Chemical Reviews pubblicò un lungo lavoro intitolato: “An Appraisal of Valence-Bond Structures and Hybridization in Compounds of the First-Row Elements” [4], in cui Bent illustrava in dettaglio la sua teoria, peraltro già conosciuta come “regola di Bent”, come si vedrà più avanti[2].

La regola di Bent fornisce un’indicazione precisa su come questi orbitali non equivalenti dovrebbero essere costruiti [4].

Secondo Bent:

Atomic s character concentrates in orbitals directed toward electropositive substituents. Or, atomic p character concentrates in orbitals directed toward electronegative substituents.

([4], p. 291), ovvero:

L’atomo centrale legato a più gruppi esterni in una molecola, si ibridizzerà in modo che orbitali con un maggior carattere s siano diretti verso gruppi elettropositivi, mentre orbitali con maggior carattere p saranno diretti verso i gruppi più elettronegativi.

Rimuovendo l’ipotesi che tutti gli orbitali ibridi spn siano equivalenti, Bent ottenne migliori interpretazioni di proprietà come la geometria molecolare (angoli e lunghezze di legame), l’energia di legame, l’effetto induttivo e le costanti di accoppiamento J 1H−13C in spettrometria NMR.

Come esempio prendiamo gli angoli di legame:

Consideriamo dapprima gli angoli di legame nelle tre molecole metano, etene ed etino:

e tenendo conto che il carbonio ibridizza sp3 nella prima, sp2 nella seconda e sp nella terza appare chiaro che all’aumentare del carattere p degli orbitali ibridi diminuisce l’angolo di legame.

Nel suo lavoro, Bent propone, per gli angoli, il seguente esempio:

In queste quattro molecole (etere dimetilico, alcol metilico, acqua, difluoruro di ossigeno), l’atomo di ossigeno centrale, tenendo conto dei doppietti elettronici non condivisi è ibridizzato sp3, l’elettronegatività dei sostituenti aumenta nell’ordine F > H > CH3[3] sicché in base all’ipotesi di Bent ci si deve aspettare che FOF < HOH < HOCH3 < H3COCH3, infatti all’aumentare dell’elettronegatività del sostituente deve corrispondere un aumento del carattere p dell’ibrido verso il sostituente stesso e di conseguenza diminuire l’angolo di legame come riscontrato sperimentalmente (FOF(103,8)<HOH(104,5°)<HOCH3(107-109°)< H3COCH3(111°)) [4, p.288].

Scrive Bent:

Spesso è suggestivo considerare gli elettroni non condivisi come elettroni in un legame con un atomo di elettronegatività molto bassa (zero). Questa visione porta a supporre che i gruppi elettronegativi influenzino l’ibridazione atomica e, per inferenza… proprietà molecolari come angoli di legame, lunghezze di legame, costanti di accoppiamento C13 e costanti induttive. (1961, p. 287)

Nel prevedere l’angolo di legame dell’acqua, la regola di Bent suggerisce che gli orbitali ibridi con maggior carattere s dovrebbero essere diretti verso le coppie solitarie, meno elettronegative, lasciando così orbitali con un maggior carattere p orientati verso gli idrogeni.

Questo aumentato carattere p in quegli orbitali diminuisce l’angolo di legame tra di essi rispetto al valore tetraedrico (109,5). La stessa logica può essere applicata all’ammoniaca, l’altro esempio canonico di questo fenomeno.

La “regola” può essere generalizzata anche agli elementi del blocco d.

Di orbitali ibridi non equivalenti si trova un primo cenno nel libro di Charles A. Coulson [6, p. 206-7] che in seguito svilupperà gli aspetti formali della regola di Bent (v. Formal Theory section at: https://en.wikipedia.org/wiki/Bent%27s_rule).

In una breve nota, comparsa nel 1982, Bent racconta la storia della sua regola [5]:

Nel 1955, in qualità di assistente ricercatore presso l’Università del Minnesota, lavoravo ad un progetto sugli spettri infrarossi delle fiamme dei propellenti per razzi, e un forte assorbimento non identificato mi portò a scoprire e a identificare la struttura di un nuovo dimero di N2O4. Ne nacque una crescente curiosità sulle relazioni fra struttura e proprietà molecolari.

Già dopo la Prima Guerra, le implicazioni delle informazioni provenienti dalla diffrazione dei raggi X e degli elettroni sulla teoria strutturale erano state interpretate da Pauling nel suo classico libro La Natura del Legame Chimico… Dopo la Seconda Guerra Mondiale, gli impieghi in tempo di pace della tecnologia a microonde del radar [spettroscopia rotazionale a microonde] hanno reso possibile la determinazione delle strutture molecolari con maggiore precisione. Nel 1956 mi sembrava che i risultati sperimentali non si accordassero con la teoria degli orbitali ibridi convenzionale. Ho quindi trovato la prova per la tesi che l’ibridazione orbitale ha effetto non solo sugli angoli di legame, ma anche sui momenti dipolari, sulle costanti induttive e quelle di accoppiamento, sulle costanti del campo di forza, sulle energie di dissociazione e le lunghezze di legame. Gli effetti sono stati riassunti in una “regola”, talvolta citata come “regola di Bent”. Ho costruito la teoria in base alle ben note idee di G.N. Lewis e di Pauling, estendendo il concetto di elettronegatività…

Per diversi anni i miei lavori sulla “regola” sono stati rifiutati dal Journal of the American Chemical Society… Una serie di brevi articoli e note sono state pubblicate…. nel Journal of Chemical Physics*, prima che comparisse una review completa… sostenuta da un ampio numero di dati e da una linea di ragionamenti ben condivisa… Forse ho trovato una spiegazione fisica semplice, non mistica per il carattere s, tuttavia ancora prima di ciò che la regola può spiegare, sta il fatto che non è mai stata proposta da altri autori.[5, p. 22]

*Ho trovato alcune di queste note, si tratta di Letters to the Editor, le riporto nelle citazioni bibliografiche [7-9]

Infine, è il caso di ricordare che recentemente è stata provata la validità della teoria (io preferisco chiamarla così) di Bent su 75 tipi diversi di legami con atomi dei gruppi principali della Tavola Periodica [10].

Per le note biografiche mi sono servito delle seguenti fonti:

http://www.eoht.info/page/Henry+Bent

https://cse.umn.edu/news-feature/in-memoriam-henry-albert-bent/

http://www.post-gazette.com/news/obituaries/2015/01/11/Pitt-professor-proved-that-science-can-be-fun/stories/201501080119

http://garfield.library.upenn.edu/classics1982/A1982PE54500001.pdf

Bibliografia

[1] (a) H.A. Bent, The Second Law: an Introduction to Classical and Statistical Thermodynamics. Oxford University Press, 1965; (b) H. A. Bent, Haste Makes Waste: Pollution and Entropy, Chemistry, 1971, 44, 6-15.

[2] H. A. Bent, Entropy and the Energy Crisis, The Science Teacher, 1977, May, 25-30.

[3] (a) L. Pauling, The Nature of the Chemical Bond. Application of Results Obtained from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the Structure of Molecules, J. Am. Chem. Soc., 1931, 53, 1367-1400. (b) L. Pauling, The Nature of the Chemical Bond and the Structure of Molecules and Crystals: An Introduction to Modern Structural Chemistry, Oxford University Press, London, 1939. Trad ital.: La natura del legame chimico, Franco Angeli, Milano, 2011 (ripubblicato, tradotto in italiano la prima volta dopo la Liberazione).

[4] H.A. Bent, An Appraisal of Valence-Bond Structures and Hybridization in Compounds of the First-Row Elements, Chem. Rev., 1961, 61, 275-311.

[5] Current Contents/Physical Chemical & Earth Sciences, n.37, September, 13, 1982, p. 22

[6] C.A. Coulson, La Valenza, Zanichelli, Bologna, 1964 (Trad. it. Sulla II Ed.Amer., 1961)

[7] H.A. Bent, Electronegativities from Comparison of Bond Lengths in AH and AH +, J. Chem. Phys., 1960, 33, 1258-1259

[8] H.A. Bent, Correlation of Bond Shortening by Electronegative Substituents with Orbital Hybridization, J. Chem. Phys., 1960, 33, 1259-1260.

[9] H.A. Bent, Bond Shortening by Electronegative Substituents, J. Chem. Phys., 1960, 33, 1260-

[10] I.V.Alabugin, S. Bresch, M. Manoharan, Hybridization Trends for Main Group Elements and Expanding the Bent’s Rule Beyond Carbon: More than Electronegativity, J. Phys. Chem. A 2014, 118, 3663– 3677.

[1]La termodinamica filosofica studia le implicazioni termodinamiche sul modo di vivere (etica), quali tipi di oggetti esistono e quali sono le loro essenze naturali (metafisica); ricerca del significato della conoscenza (epistemologia). Ricerca i corretti principi di ragionamento (logica). Può essere datata dal 1869 anno di pubblicazione del libro Philosophical Implications of Thermodynamics, del fisico francese Gustave Hirn (1815-1890), http://www.eoht.info/page/Philosophical+thermodynamics

[2] Vale la pena notare che nel numero di dicembre 1960 del J. Chem. Educ. era stato pubblicato un articolo di Bent molto simile a quello comparso su Chem. Rev. (H.A. Bent, Distribution of Atomic s-Character in Molecules and Its Chemical Implications, J. Chem. Educ., 1960, 37, 616-624.)

[3] Nel suo lavoro originale, Bent, considera che l’elettronegatività del gruppo metile sia inferiore a quella dell’atomo di idrogeno perché la sostituzione del metile riduce le costanti di dissociazione dell’acido formico e dell’acido acetico.

Cronache dell’ISPRA.

In evidenza

 

All’ISPRA si sta sviluppando una dura lotta sindacale che non può non coinvolgere tutti coloro che abbiano a cuore sia la situazione della ricerca che dell’ambiente in Italia; abbiamo chiesto al collega Nicola Lugeri, fisico, di raccontarcene la storia.

Nicola Lugeri

 

Ogni programma elettorale di una forza politica o di una coalizione che punti al governo del Paese non trascura di promettere di investire sull’ambiente e sulla ricerca. Salvo poi dimenticarsi delle promesse o al massimo concentrare i finanziamenti alla sola componente privata della ricerca e sviluppo.

La vertenza attuale dell’ISPRA si innesta in entrambe queste tematiche, in quanto Ente Pubblico di Ricerca ambientale. L’ISPRA, Istituto per la Protezione e Ricerca Ambientale, nasce nel 2008 dalla fusione di due istituti di ricerca (l’ICRAM sul mare e l’INFS sulla fauna selvatica) e dell’Agenzia per la Protezione dell’Ambiente e per i Servizi Tecnici (APAT, a sua volta già derivante dall’accorpamento dell’ANPA e dei Servizi Geologico e Idrografico del Dipartimento per i Servizi Tecnici Nazionali). L’ISPRA è un Ente Pubblico di Ricerca “vigilato” dal MATTM, in pratica il suo “braccio tecnico”. È il principale ente pubblico di riferimento per le tematiche ambientali nel nostro Paese e svolge anche attività di ricerca funzionale all’implementazione dei numerosi compiti attribuitigli per legge , garantendo il supporto tecnico-scientifico alle istituzioni. Un Ente cosiddetto “strumentale” alle azioni del Ministero in tema di politiche ambientali. Ci sarebbe da aspettarsi, pertanto, un’attenzione particolare del Ministro di riferimento Galletti e del governo; invece, i fatti dicono altro: dal 2008 ad oggi, meno 13 milioni di euro (da 93 a 80, dati non rivalutati) al contributo ordinario per l’Ente da parte dello Stato; meno 43% registrato per i fondi esterni (da circa 23 a circa 13 M€) principalmente causato da una governance che ha emarginato le attività di ricerca; un disavanzo di bilancio, ormai strutturale di 6,3 milioni di euro, ed una contrazione delle unità di personale scese dalle 1650 del 2008 alle attuali 1200, compresi i precari, a fronte di sempre più numerosi e gravosi compiti attribuiti per legge, ultima delle quali quella istitutiva del Sistema Nazionale a rete per la Protezione dell’ambiente (SNPA, L.132/2016). Tutto ciò mentre il Ministero finanzia lautamente una società in-house, la SoGeSid, le cui procedure assunzionali e manageriali non seguono le rigide regole della Pubblica Amministrazione.

Le conseguenze immediate saranno il blocco di numerose attività, già ora asfittiche per mancanza di fondi e il licenziamento di circa 90 precari storici. Infatti, tutte le attività in capo all’Ente subiscono da anni forti ripercussioni, ora acuite dalla fine dei risparmi degli esercizi precedenti e dalla vacanza degli organi di vertice dell’Istituto (dal primo giugno l’ISPRA è senza Presidente e CdA e con l’attuale DG in attesa di ratifica della propria nomina a Presidente).

Oltre alle enormi difficoltà di portare avanti -fra l’altro- la realizzazione della Carta Geologica e della Carta degli Habitat (entrambe alla scala 1:50.000, su tutto il territorio nazionale), visto il risibile budget per i rilievi in campo, vogliamo focalizzare questo intervento in particolare sulle strutture laboratoristiche, che dovrebbero essere il fiore all’occhiello dell’Istituto e costituire riferimento a livello nazionale per le analisi e le misure in campo ambientale.

I laboratori del Servizio di Metrologia Ambientale assicurano la confrontabilità e l’accuratezza dei dati analitici derivanti dalle attività di monitoraggio/controllo ambientale attraverso la produzione di Materiali di Riferimento, l’organizzazione di Confronti Interlaboratorio e la predisposizione di manuali, linee guida e metodi validati. Per quanto riguarda la qualità dell’aria, l’ISPRA elabora, a livello nazionale, i principali indicatori e pubblica rapporti tecnici ed è anche National Reference Centre per la qualità dell’aria nell’ambito della rete Eionet dell’Agenzia Europea per l’Ambiente. L’Istituto approfondisce a livello tecnico scientifico il tema dell’inquinamento generato dalle sorgenti naturali (es. materiale particolato di origine sahariana). L’Istituto sviluppa modelli empirici e conduce ricerche relative alla valutazione della variabilità spaziale e temporale delle particelle ultrafini in ambito urbano. Per le polveri sottili, il laboratorio di riferimento dell’ISPRA è risultato il miglior laboratorio sulle misure di PM10 e PM2,5 al confronto interlaboratorio europeo.

Eccellenza mondiale per il monitoraggio della radioattività in aria, le attrezzature e le procedure adottate dal Laboratorio ISPRA per le rilevazioni radiometriche rappresentano lo stato più avanzato della tecnologia attualmente disponibile a livello internazionale. Il Laboratorio è una delle 16 strutture mondiali operanti nel Sistema Internazionale di Monitoraggio (IMS).

Tra le attività svolte da ISPRA a tutela della salute pubblica e della qualità ambientale vanno poi segnalate quelle relative all’impatto dei fitosanitari di sintesi sulla qualità delle acque, gli habitat naturali e le aree e specie protette. Sullo Stato delle acque periodicamente viene pubblicato il Rapporto Nazionale Pesticidi nelle Acque, che indica regolarmente una notevole diffusione di sostanze tossiche negli ambiti acquatici.

Il laboratorio di Genetica della conservazione di Ozzano è il riferimento nazionale per la fauna sulle analisi CITES (Convention on International Trade in Endangered Species of Wild Fauna and Flora) e si occupa inoltre di genetica forense e dei monitoraggi su scala nazionale delle principali specie di interesse conservazionistico in particolare di carnivori e non solo.

Esperienza pluridecennale vantano anche i laboratori che si occupano dell’ambiente marino e che monitorano la qualità dell’acqua, dei sedimenti, la biodiversità e gli impatti delle attività antropiche e le emergenze in mare. Proprio in ambito marino, recentemente l’Istituto ha promosso e coordinato attività di formazione su scala nazionale relativamente ai monitoraggi previsti dalla Direttiva Europea 2008/56 “Marine Strategy”. Centinaia di operatori delle ARPA e non solo hanno avuto la possibilità sia di effettuare training on-line su decine di differenti tematiche che attività pratiche,nel polo laboratoristico di Castel Romano e sul vascello oceanografico di proprietà dell’Ente.

Anche il Servizio Geologico d’Italia si avvale di laboratori ubicati nella sede di Castel Romano, dove vengono realizzate prove geotecniche, analisi sedimentologiche e preparati per lo studio degli aspetti paleontologici, mineralogici e petrografici delle rocce.

A quasi dieci anni di distanza dall’istituzione dell’ISPRA, non è stato ancora perfezionato il coordinamento dei laboratori ed è capitato che, pur essendo dotati di sofisticati macchinari per analisi chimiche, si è dovuto ricorrere a forniture esterne di servizi. La crisi attuale, con la scadenza dei contratti di numerosi addetti che l’Amministrazione non intende stabilizzare ed i limiti di budget già espressi, che non permetteranno l’acquisto dei consumabili e dei servizi di manutenzione e di certificazione, rischia di rappresentare il colpo di grazia ad una situazione già critica, fatta di difficoltà nell’effettuare acquisti, procedure di gara ed affidamenti interminabili per via della normativa eccessivamente restrittiva e degli ostacoli burocratici che invece di semplificare e snellire, appesantiscono e dilatano le tempistiche anche per la più semplice procedura.

Per questi (e non solo questi) problemi, ricercatori, tecnologi, tecnici e personale amministrativo dell’ISPRA, organizzati dall’Unione Sindacale di Base, sono al quarantaseiesimo giorno di occupazione. La base dell’occupazione è nella sala conferenze dell’ISPRA nella sede di Via Brancati 48, dalla quale il personale si organizza per una serie di iniziative “lampo”. L’ultima in ordine temporale è stata quella organizzata sul tetto del polo laboratoristico dell’ISPRA a Castel Romano venerdì 30 giugno (vedi tg3 h.19 del 1/7). Essa voleva rappresentare ciò che potrebbe accadere ai laboratori se non matureranno le condizioni per garantire la continuità lavorativa di quei colleghi precari che in essa operano e che scadranno alla spicciolata da qui a dicembre.

I primi 35 contratti sono scaduti il 30 giugno scorso e nonostante si tratti di personale specializzato che opera da decenni nell’Ente, con tutti i requisiti per rientrare nei processi di stabilizzazione previsti dal “Nuovo Testo Unico” del pubblico impiego (DLgs 75/2017) ed essere pertanto mantenuto in servizio, solo 14 hanno visto il proprio contratto prorogato. Tutti gli altri sono fuori per diversi cavilli, e partecipano attivamente alla lotta, per forzare lo sviluppo degli eventi verso una soluzione favorevole per sé e per l’Istituto.

È necessario che la Politica capisca che non si può abbandonare il comparto degli Enti Pubblici di Ricerca, di cui l’ISPRA è parte, ad una “sopravvivenza” senza prospettive. Devono essere assolutamente inseriti nuovi finanziamenti stabili da parte della finanza pubblica (basterebbe l’1% di quanto stanziato per “salvare” le banche delle recenti crisi) per stabilizzare i 10.000 precari storici e rilanciare gli Enti con una governance superiore a quella dei singoli ministeri vigilanti. Questa è la piattaforma che l’USB sta portando avanti in tutte le sedi competenti, rafforzata dalla lotta del personale.

Il mare, le schiume, le alghe e gli zucchini S.Pasquale

In evidenza

Raffaele Attardi*

Secondo il mito, Venere sarebbe nata dalla schiuma del mare, è quindi è noto da tantissimi anni che nel mare si formano delle schiume , ovvero un aggregato instabile di bolle d’aria in acqua .

Nel Golfo di Napoli , e non solo lì , da alcuni anni le schiume si formano sempre più frequentemente , vagano spinte dalla corrente  ed è facilissimo incontrale . Le foto seguenti, disponibili su internet,   documentano, la formazione di schiume di eccezionali dimensione , che talvolta si formano.

Figura 1 Sorrento Località Capo di Sorrento

 

Figura 2 Sorrento località Marina Grande

Purtroppo nessuno più crede nel mito di Venere anzi le schiume destano preoccupazione, perché molti ipotizzano che siano dovute a scarichi abusivi di varia natura e viene attribuito alternativamente a carenze nel sistema fognario, o a sversamenti dovuti alle navi da crociera e\o allo sversamento di scarichi abusivi provenienti da abitazioni e alberghi che affacciano sul mare. E c’è anche chi ritiene che la presenza di schiume sia dovuta al fatto che in taluni periodi la popolazione residente aumenta in maniera esponenziale e quindi si scaricano a mare tonnellate di detersivi provenienti da strutture ricettive e ristoranti.

Per smentire queste ipotesi allarmanti sono venute più volte rassicurazioni dalle Autorità, che hanno precisato che queste schiume sono dovute a fenomeni naturali, e che non costituiscono un pericolo, ma ci sono pochi riferimenti a studi fatti per approfondire lo studio delle cause di questo fenomeno, e ancor meno le ipotesi di lavoro per determinare le misure più idonee per contrastarlo .

Eppure questo aspetto è di grande rilevanza perchè , fare il bagno nella schiuma , consente forse di uscire più puliti dall’acqua, ma non è cero gratificante .

Sorrento con le sue terrazze affacciate sul mare, offre un osservatorio privilegiato per studiare questo fenomeno, perché talvolta , invece di chiudersi in laboratorio e mettersi al microscopio, le cose si vedono meglio guardandole dall’alto.

La prima evidenza che si può trarre studiando l’evoluzione del fenomeno è che si tratta di un fenomeno stagionale : inizia pressappoco con la prima luna di primavera, aumenta durante tutta la primavera, raggiunge il breack even point in estate e finisce poi con lo ridursi in autunno , per poi scomparire durante l’inverno.

La seconda evidenza è che la comparsa delle schiume non è casuale: le schiume si generano durante le giornate con elevato modo ondoso, quando le onde sbattono contro gli scogli , o nella scia degli aliscafi Gli aliscafi infatti sono spinti nella quasi totalità dei casi da idrogetti , ovvero da turbine che producono forti getti d’aria e determinano la formazione di bolle d’aria: le schiume cioè si formano a mare né più ne meno come quando si sbatte una saponata in una vaschetta o si avvia la vasca idromassaggio . Le foto che seguono danno evidenza in modo chiaro come si forma la schiuma .

Figura 3 schiume formate dal moto ondoso

Figura 4 schiume formate dagli idrogetti

Ma dove derivano le sostanze tensioattive che si trovano a mare e determinano l’abbassano della tensione superficiale, consentendo la formazione della schiuma?

Il fatto che la presenza di schiume sia stagionale e non direttamente legata al variare delle presenze turistiche sembra contraddire che possano derivare dai detersivi scaricati direttamente a mare. E c’è anche anche una considerazione stechiometrica che mi porta a questa conclusione : per produrre cambiamenti significativi nella formazione di schiume, tali da giustificare la variabilità delle fenomeno delle schiume, in un recettore così grande, come è il mare profondo della penisola sorrentina occorrerebbero variazioni consistenti e repentine della concentrazione dei detersivi nel mare , cosa che comporterebbe variazioni altrettanti consistenti e repentine nella quantità di detersivi scaricati a mare, incompatibili con la pur elevata variazione dovuta ai flussi turistici

Si deve perciò presumere che le sostanze tensioattive che si trovano in mare siano di origine naturale, prodotte cioè dal microalghe costituenti il fitoplancton .

Questa ipotesi trova conferma nel fatto che non solo la presenza di schiume è variabile con le stagioni, ma anche con le fasi lunari. In più occasioni si verifica infatti che la scia lasciata dallo stesso aliscafo, sia più o meno consistente a seconda della fase lunare . Il fitoplancton sembra cioè comportarsi come una specie vegetale diffusamente coltivata in penisola sorrentina, lo zucchino S. Pasquale , che ha un periodo di produzione che inizia in primavera e finisce ad estate in inoltrata, e che cresce vista d’occhio durante la luna crescente. Le immagini seguenti evidenziano la diversa formazione di schiume, a parità di condizioni, a seconda della fase lunare. E l’ipotesi che i tensioattivi siano prodotti dalle alghe spiegherebbe anche perché si verificano nella stessa stagione variazioni così significative – Le microalghe del microplancton non crescono in maniera lineare, ma seguono una legge esponenziale , si raddoppiano di volte in volta : impiegano un certo tempo per occupare la metà di un bacino idrico , poi però, raddoppiandosi ancora una volta , solo un attimo per colonizzarlo completamente.

E si verifica repentinamente anche il fenomeno inverso: una volta terminato il loro periodo di crescita, muoiono tutte insieme e cadono sul fondo, come le foglie degli alberi in autunno . Finiscono così con il soffocare tutte le specie che vivono sul fondo, causando l’impoverimento dei fondali. E quando questq gelatina viene gonfiata dai gas di putrefazione , sale a galla , dando origine alla mucillagine. Questo fenomeno non si evidenzia molto nel Golfo di Sorrento, a causa della tipologia dei fondali, ma basta andare in giro con una maschera per notare come in certi periodi, una specie di lanugine copra il fondale e le poseidonie .

Nelle immagini sottostanti si evidenzia come lo stesso in periodi diversi la scia lasciata dallo stesso aliscafo sia completamente diversa, fenomeno che dimostra come sia repentina la variazione di concentrazione dei tensioattivi contenuti nelle acque

Conclusioni

Le considerazioni semiempiriche esposte in precedenza devono trovare conferma in studi sulla natura chimica delle schiume e sulla natura delle microalghe che producono i tensioattivi naturali e sui fenomeni che ne regolamentano la crescita.

Ma nel frattempo che il Chimico ed i tanti professionisti coinvolti in questa tematica studiano, bisogna evitare che il malato muoia .

Quando si parla del mare l’attenzione dell’opinione pubblica e quella dei media è largamente concentrata su di un solo indicatore: la balneabilità o meno dello specchio d’acqua. Ma la balneabilità dipende prevalentemente solo dalla presenza o meno di batteri patogeni nelle acque. E per di ottenere la balneabilità si fa largamente ricorso alle condotte sottomarine, che consentono di allontanare i liquami dalla costa .

Ma questa soluzione equivale a scopare e mettere i rifiuti sotto il tappeto: si ottiene il risultato di diluire e distruggere i batteri , ma tutto il carico chimico e biologico presente nei liquami viene scaricato a mare ed alimenta il fitoplancton. E’ del tutto evidente che questo fatto sta contribuendo, insieme alle mutate condizioni climatiche ad un grave rottura degli equilibri naturali .

Pochi pongono attenzione alla formazione sempre delle schiume e un numero ancora minore di persone cerca di risalire alle cause di questo fenomeno e a spingere per fare in modo che vengano attuate le azioni correttive necessarie per rimuoverle .

In penisola sorrentina è nato un movimento Facebook ‘La Grande Onda’ che sta cercando di fare proprio questo . E pur rimanendo aperto il dibattito sulle cause di questo fenomeno e più in generale , sulle cause dell’inquinamento del mare, continuamente sposta l’attenzione sulle azioni che bisogna fare per ridurre l’impatto dell’inquinamento .

E ha ottenuto, senza marce, senza flash mobing, senza manifestazioni eclatanti, ma stimolando attraverso una lunga e continua ‘ chiacchierata ‘ via internet , che ha coinvolto più di 10.000 persone , che si mantenesse concentrata l’attenzione sul completamento di un’opera l’impianto di depurazione di Punta Gradelle, che oggi dopo 40 anni di attesa è stato finalmente avviato. Questo impianto separa oltre 1000kg al giorno di solidi sospesi che prima finivano a mare ( e guardano la tipologia dei rifiuti separati , nella foto sottostante, ci sarebbe tanto da dire su quanto contribuiscono le fogne a far crescere le isole di plastica e la concetrazione di microplastiche nel mare ) e che tratta tutti i liquami dei comuni della penisola, abbattendo drasticamente il carico chimico biologico scaricato a mare .

Si tratta solo il primo del primo passo a cui devono far seguito, parlando solo dei fatti nostri, analoghi interventi nel Golfo di Napoli, e nell’area Sarnese Vesuviana .

La ‘chiacchierata’ sta continuando e sta mettendo in evidenza come in altre zone non solo ci siano impianti di depurazione non ancora completati, ma che ci siano situazioni ancor più gravi, conosciute da anni, ma non sufficientemente portate all’attenzione dell’opinione pubblica e che accanto a poche situazioni di eccellenza ci sia un vero e propri museo degli orrori in cui è possibile trovare Città di decine di migliaia di abitanti senza fogne, e dove i liquami vengono scaricati in canali che scorrono fra le case a cielo aperto , opere idrauliche realizzate dai Borboni per risanare paludi e favorire lo sviluppo agricolo e industriale, trasformate in collettori fognari largamente fuori controllo, taluni senza sbocco, luoghi in cui si utilizzano invasi naturali per scaricarvi le fogne, e perfino Città, che pur avendo sul proprio territori impianti di depurazione non lo utilizzano per mancanza di collettori di collegamento e scaricano le acque fognarie direttamente nel fiume .

Bisogna rimuovere le cause di questo disastro e ognuno può collaborare a questo risultato ,il mondo scientifico che non può limitarsi a sollecitare nuovi studi, ma che deve contribuire ad una corretta divulgazione scientifica,   gli organi di informazione che devono porre costantemente all’attenzione questo problema e diffondere corrette informazioni sui procedimenti in corso per risolverli . Bisogna far crescere il coinvolgimento dei Cittadini e sono i Cittadini che devono impegnarsi in prima persona e costantemente sollecitare Città per città i loro Amministratori provvedimenti da adottare. L’inquinamento è un mostro dai mille tentacoli , ci vogliono mille braccia per combatterlo. Ognuno deve mettere a disposizione le sue.

Bisogna smetterla di sollecitare grandi progetti e pensare che tutto si risolva costruendo impianti di depurazione : non si può disinquinare un fiume in cui ci finisce di tutto alla foce .

Per risolvere questo problema bisogna costruire una visione comune : neanche una goccia di liquame non trattato deve finire in invasi naturali , canali , fiume o a mare .

Unitevi a noi nel gruppo Facebook ‘ La grande Onda ‘ per portare un vostro contributo e continuare questa chiacchierata.

*Raffaele Attardi, chimico, iscritto all’Ordine dei Chimici di Napoli, fondatore del gruppo FaceBook La Grande Onda

Il segreto di un grande vino? Chimica organica

In evidenza

Rinaldo Cervellati

Come noto, il vino negli USA è principalmente prodotto in California, probabilmente però non tutti sanno che con circa i tre quarti della superficie della Francia, la California rappresenta quasi il 90% della produzione americana di vino. Se la California fosse un paese separato, sarebbe il quarto produttore di vino del pianeta [1]. Nel 2016, infatti, gli USA hanno raggiunto il quarto posto nella produzione mondiale di vino con il 9% (California circa 8%), preceduti da Italia (19%), Francia (16%) e Spagna (15%). Anche le esportazioni verso paesi diversi da Canada e Giappone sono andate notevolmente aumentando dal 2010 al 2016 [2]. A parte la diatriba fra Zinfaldel californiano e Primitivo pugliese, in California, oltre alle varietà classiche (Chardonnay, Sauvignon blanc, Cabernet, Merlot, Pinot noir) si coltivano vitigni che vanno dal Barbera al Sangiovese, dal Riseling al Pinot blanc.

Vini californiani


La crescita del successo dei vini californiani è largamente dovuta al Wine Executive Program, sviluppato dall’University of California a Davis, appositamente progettato per insegnare i fondamenti della produzione del vino e fare acquisire le competenze di vinificazione e di gestione necessarie per un’odierna redditizia e dinamica industria vitivinicola.
Protagonista di questo programma è senza dubbio Andrew L. Waterhouse, professore di enologia e viticoltura alla UC di Davis, recentemente intervistato da B. Halford per C&EN newsletter [3].

AndrewJ. Waterhouse

Quando a Waterhouse viene chiesto di scegliere un vino per un pranzo in famiglia o una cena con amici, si può scommettere che sceglierà il migliore, poiché gode di larga fama come educatore di una generazione di viticoltori durante i suoi 26 anni di insegnamento alla Davis, dice Halford.
Ma Waterhouse non è sempre stato un enologo. Nato a Redding, in California, ha dovuto spostarsi spesso per motivi di famiglia. Nel 1977 ottenne il bachelor in chimica con lode all’Università di Notre Dame, conseguì il dottorato in chimica organica all’Università di Berkeley nel 1983. Con l’esperienza in sintesi di prodotti naturali ha iniziato la carriera insegnando chimica organica nei corsi preparatori alla Facoltà di Medicina in diverse istituzioni fra cui l’Università di Tulane in Lousiana, compiendo ricerche sull’analisi conformazionale di polisaccaridi. Dice all’intervistatore che un giorno, mentre era in volo, sfogliando proprio una copia di Chemistry & Engineering News, notò che l’Università di Davis bandiva un posto per assistente professore di enologia e viticoltura. Poiché desiderava tornare in California sottopose la sua candidatura e ottenne il posto.
Appena ho saputo che avevo ottenuto il lavoro, ho iniziato a leggere, ricorda. Professionalmente, non sapevo niente. Ero un amante del vino, ma non avevo idea di cosa fosse veramente il vino, se non che conteneva alcool .
Waterhouse dice che quando ha iniziato la sua attività presso l’Università a Davis, ha cercato di insegnare la chimica organica ai futuri viticoltori allo stesso modo in cui la insegnava nei corsi propedeutici per medicina.

Non funzionava, dice, per esempio quando spiegavo che i terpeni, importanti composti che influenzano il sapore in alcuni vini come i Riesling, discutevo come questi subiscono un riarrangiamento durante l’invecchiamento, catalizzato dall’ambiente acido. Stavo mostrando agli studenti la formazione, il riarrangiamento dei cationi allilici e la loro eliminazione, ma ciò era completamente inutile per loro.

Prosegue poi:

Certamente questi studenti devono sapere qualcosa sui terpeni, ma non è necessario che conoscano il meccanismo dettagliato delle loro trasformazioni.

Queste considerazioni indussero Waterhouse a ripensare completamente il suo insegnamento per i futuri viticoltori.

Era necessario mettere più in risalto la chimica che sarebbe stata utile per la loro professione, la produzione di vino. Ecco perché seguono questo corso: vogliono imparare cosa accade durante le fasi della vinificazione in modo che possano gestire al meglio il proprio lavoro. Una chimica molto pratica, dunque.

Waterhouse trovò inoltre un atteggiamento molto diverso fra gli studenti del corso di enologia e quelli del corso di chimica organica propedeutico a medicina. I primi, sia che intendano fermarsi al bachelor o proseguire per un master o un dottorato, affrontano gli argomenti con grande passione. I secondi, invece, considerano il corso di chimica organica quasi come un ostacolo al loro ingresso in Facoltà di Medicina e per questo il loro studio era finalizzato solo all’ottenimento del voto massimo. Al contrario gli studenti della Davis volevano acquisire informazioni e sapere quanto esse potessero essere utili nella loro professione.

Accanto all’insegnamento Waterhouse intraprese ricerche sull’ossidazione dei vini e sull’assorbimento e il metabolismo delle antocianine e altri polifenoli contenuti nel vino che si suppone diano benefici nella prevenzione di disturbi legati allo stress ossidativo cellulare. Queste ricerche si concretizzeranno in più di 160 pubblicazioni [4]

Nel 1997 diviene professore associato di enologia e nel 2000 full professor di questa disciplina, sempre alla Davis University.

Nel 2016, dopo 25 anni come “chimico del vino”, Waterhouse ha deciso di scrivere un libro che fosse una risorsa anche per altri potenzialmente interessati a insegnare l’argomento o per i chimici interessati a conoscere di più la chimica del vino. Insieme a Gavin L. Sacks dell’Università di Cornell e a David W. Jeffery, dell’Università di Adelaide, è coautore del volume “Understanding Wine Chemistry“.

Questo libro, secondo Waterhouse, è diverso da altri testi sulla chimica del vino, perché si concentra sulla chimica organica del vino.

La maggior parte dei chimici del settore sono chimici analitici e sono molto bravi in questo, ma quando ne scrivono, si concentrano troppo su questioni analitiche, come il confronto dei risultati analitici con il gusto e i risultati sensoriali.

Anche se ciò è importante, Waterhouse sostiene che lui e i suoi coautori intendevano scrivere un libro sulle reazioni chimiche che avvengono nel vino.

Solo capendo la chimica puoi intervenire in modi molto semplici. Ad esempio, i vini Sauvignon blanc della Nuova Zelanda sono noti per un aroma fruttato del guava, ma questa nota fruttata spesso si perde dopo l’immagazzinamento. Un chimico organico ha capito che l’aroma proviene da un estere che può idrolizzarsi perdendo l’odore. Ora, i vignaioli della Nuova Zelanda mantengono il sauvignon blanc freddo fino a quando non viene imbottigliato e spedito conservando così l’aroma. Quindi la comprensione della chimica è molto importante nella produzione di vino, sottolinea Waterhouse.

Tuttavia, termina l’intervista Waterhouse:

Quello che ho scoperto è che non è unicamente la chimica che rende il vino interessante o prezioso. C’è molto di più dietro la storia del vino che la chimica….la realtà è che la gente ama il vino. E la gente ama il vino non solo per l’aroma o il gusto. Ama il vino per molte ragioni. Quando sei un viticoltore una delle cose chiave che devi fare è trasmettere un messaggio sul tuo prodotto: una storia su di te o sulla terra o sulla storia della proprietà. Queste cose sono, in qualche modo, più importanti per un bevitore di vino che il suo buon sapore.

C’è qualche lezione che dobbiamo apprendere dall’intervista del professor Waterhouse? Certamente ben poco riguardo la produzione del vino, la tradizione italiana con i suoi e numerosissimi vitigni è data da centinaia d’anni rispetto alla giovane tradizione californiana (che, fra l’altro non ha vitigni autoctoni, ha importato diverse specie europee). Probabilmente qualcosa da imparare è sul marketing, in questo campo gli americani potrebbero in futuro darci dei punti, che già ci danno i francesi che i loro prodotti (a volte ‘tagliati’ con i nostri vini del sud), li sanno “vendere” meglio di noi. Anche sulla chimica del vino abbiamo poco da imparare, in questo settore abbiamo centri di ricerca di eccellenza come ad es. quello di San Michele all’Adige.

Una cosa possiamo apprendere dal breve excursus sulla carriera del prof. Waterhouse: quando si ottiene un insegnamento non direttamente collegato a esperienze precedenti ci vuole molto studio e molto tempo per costruire un percorso didattico adeguato alla situazione. Non ci si può improvvisare chimici del vino anche se si possiede un dottorato in chimica organica, ci dice in sostanza Waterhouse. Invece è proprio quello che accade in Italia con i raggruppamenti disciplinari che contengono di tutto e di più, inoltre versare acqua da un vaso o accendere un fuoco è assolutamente irrilevante ai fini dell’avanzamento di carriera…

Bibliografia

[1] T. Stevenson, Sotheby’s Wine Encyclopedia (4 ed.)., 2007 Dorling Kindersley. p. 462

[2] http://www.inumeridelvino.it/tag/usa

[3] B. Halford, The secret to great wine? Organic chemistry, c&en, web date: June 6, 2017

[4] [https://scholar.google.com/citations?user=yY-df4UAAAAJ&hl=en]

 

Ancora qualcosa sulla birra.

In evidenza

Mauro Icardi

la prima parte di questo post è pubblicata qui.

Dopo la cronaca di una giornata particolarmente interessante, credo che valga la pena di aggiungere ancora qualcosa sulla birra. Per prima cosa partire dal cereale che ne ha dato origine. L’orzo, facile da coltivare che trasforma l’uomo da nomade a stanziale, 13000 circa anni fa Il perfezionamento delle tecniche agricole che portano alla produzione di un surplus di cereali che occorreva immagazzinare. La necessità di proteggere l’orzo da parassiti e roditori porta una donna ad inventare una tecnica di conservazione che prevede di conservare i chicchi di orzo in vasi colmi di acqua. A quel punto la germinazione ed i lieviti naturalmente presenti produssero   la fermentazione. Altre tesi parlano di un pane lasciato inumidito per errore da una donna sumera che la fermentazione trasformò in una pasta inebriante. L’uomo che si nutriva dell’acqua o del pane fermentato si rinvigoriva e si sentiva più felice, finendo per attribuire questa sensazione di benessere all’intervento divino. I sumeri producevano fino ad una ventina di tipi di birra dimostrando di saper gestire in maniera pratica processi di tipo catalitico-enzimatico che sarebbero stati compresi solo nel XIX secolo. La birra di malto, la più pregiata era chiamata sikaru (pane liquido). Nel codice di Hammurabi si trovano regolamentazioni molto precise per la fabbricazione della birra che arrivano fino alla condanna a morte per chi non rispettava i codici di qualità e le regole di fabbricazione della birra, o apriva locali di vendita non autorizzati.

Gli Egizi attribuirono ad Osiride protettore dei morti l’invenzione della birra ed ipotizzarono il legame tra birra ed immortalità. Da questo probabilmente discende lo slogan pubblicitario “chi beve birra campa cent’anni” che a partire dagli anni trenta e fino alle soglie dei sessanta inviterà a consumare la millenaria bevanda,

Il papiro Ebers offre seicento prescrizioni mediche per alleviare le sofferenze dell’umanità a base di birra.

Successivamente i Galli miglioreranno le tecniche di produzione di birra utilizzando pietre riscaldate per la cottura, e le botti per la sua conservazione.

Per concludere questo piccolo excursus storico sulla birra vale la pena di menzionare che le donne (a partire da quella sumera) hanno un ruolo importante nelle storia della bevanda. Scoprono che masticando i grani di cereali la birra fermenta meglio (grazie alla ptialina della saliva) che trasforma gli amidi in zuccheri adatti alla fermentazione. Questo rituale di birrificazione è praticato ancora oggi in America Latina.

In Europa almeno fino al medio evo si mantiene questa forte impronta femminile sul commercio e la fabbricazione della birra.

E l’uso di luppolare il mosto di birra si deve all’opera e alle ricerche di una religiosa e celebre botanica Suor Hilgedard von Bingen. E l’olio essenziale di luppolina utilizzato per l’amaricazione e la conservazione della birra si ottiene dall’infiorescenza femminile della pianta del luppolo.

Reso il giusto omaggio storico all’altra metà del cielo nella storia della produzione birraria vorrei parlare di un ingrediente spesso sottovalutato, o dato per scontato ma importantissimo nella fabbricazione della birra. Cioè l’acqua. Partendo proprio dalla fontana degli ammalati di Valganna che venne acquistata dal lungimirante Angelo Poretti. Un interessante articolo di Giorgio Rodolfo Marini dell’Università dell’Insubria di Varese intitolato “Acque salutari nel Varesotto” ci dà qualche indicazione in più. Nell’Aprile del 1868 il professor Luigi Sironi di Varese analizzava l’acqua confermando la presenza di Calcio, Magnesio, Ferro, Cloruro, Solfato, Bicarbonato e Silice. L’analisi dell’acqua è riportata nell’opera di    G.C. BIZZOZZERO, Varese e il Suo Territorio. Guida descrittiva, Tipografia Ubicini, Varese 1874.

L’acqua… risulta contenere per ogni chilogrammo: Bicarbonato di magnesia Gr. 0.20 Bicarbonato di calce   Gr. 0.16 Bicarbonato di ferro   Gr. 0.06 Cloruro di calcio   Gr. 0.08 Solfato di calce e magnesia Gr. 0.06 Silice e materie organiche Gr. 0.07   Totale materie fisse   Gr. 0.63

La prima birra di Poretti non sarà prodotta fino al Dicembre del 1877, ma già dall’analisi di Sironi vergata in puro stile ottocentesco si riesce a capire che l’acqua ha un giusto equilibrio di sali ed è adatta alla produzione di diverse tipologie di birra.In generale la birra è composta al 90-95% di acqua. E se è facile produrre una birra discreta, diverso è produrre una ottima. Generalmente alcuni sali che possono essere presenti come solfati, cloruri e magnesio possono interagire con la sensazione al palato dell’amaro dato dal luppolo.

Una buona acqua potabile, magari dopo l’eliminazione del cloro residuo può essere una buona base per la produzione di una birra.

Ma gli stili birrari variano nel mondo anche in funzione delle caratteristiche dell’acqua. La regola empirica è quella di partire da un’acqua possibilmente poco carica di sali e con bassa durezza, ed eventualmente addizionarla dei Sali necessari quando carente. Relativamente allo ione calcio, mentre per una birra Pilsen la sua concentrazione è di 7mg/lt, quella per una birra tipo dortmund può arrivare fino a 250.

Il D. Lgs. 31 del 2 febbraio 2001 che regola la fornitura di acque per il consumo umano trova applicazione anche per le acque destinate alla produzione alimentare, e oltre ai parametri chimico fisici prevedono anche dei parametri microbiologici, analizzati per mezzo dei terreni di coltura imposti dal D. Lgs. 31 del 2 febbraio 2001, precisamente la conta della carica batterica totale e la determinazione degli Enterococchi e dei Coliformi.

Non rimane che brindare con ovvia moderazione con la birra. E magari dedicare il brindisi ai mastri birrai ed alla chimica. Perché come si può vedere anche nella birra la chimica c’entra. E sulla birra si potrebbero scrivere non solamente due articoli, ma interi trattati. La birra che partita dai sumeri arriva fino ai giorni nostri. Per fortuna oserei dire…

 

O.T. Cosa è l’immunità di gregge: un punto di vista algebrico.

In evidenza

Claudio Della Volpe

Può sembrare strano che il nostro blog si occupi di questo argomento; ma se ci pensate la vita è la reazione chimica meglio riuscita e il diffondersi di una epidemia è semplicemente una reazione indesiderata da controllare; dunque OT ma fino ad un certo punto. Visto che l’argomento è caldo discuterne non fa male.

Cosa è l’immunità di gregge: un punto di vista algebrico. Perchè è importante vaccinarsi.

La parola immune viene dal latino immunis formato da in- e munus ; in ha qui senso negativo e munus cioè “obbligo, servizio, imposta“; significa quindi “esente da obblighi”. Si riferiva allora all’esenzione dal servire qualcuno contro qualcun altro.

Al momento immune si riferisce al fatto di essere libero dalla possibilità di ammalarsi di una certa infezione; si può divenire immuni o perchè si è avuta la malattia o perchè si è stati vaccinati.

Supponete di avere un gregge di n pecore e di volerlo rendere immune ad una delle numerose malattie di cui le pecore soffrono. Vaccinare gli animali non è semplice; supponete di averle vaccinate tutte meno una e di chiedervi a che prò dobbiate fare questo ultimo sforzo. Dopo tutto anche se quest’ultima pecora si ammalasse dato che le altre n-1 sono state tutte vaccinate la malattia non si potrebbe diffondere oltre. In fondo ragionando così il gregge che avete vaccinato tutto meno una pecora (n-1) sarebbe immune a parte quella pecora particolare.

Se avete un gregge abbastanza grande potreste fare il medesimo ragionamento anche fermandovi ad n-2. Dovreste essere proprio sfortunati se giusto di quelle due pecore non vaccinate una si ammalasse e venissero in contatto proprio loro in quella massa enorme.

In effetti questo ragionamento se avete un gregge grandissimo potreste estenderlo anche ad un 10% di pecore lasciandole senza protezione e così via.

Ora supponete che parta una epidemia; supponete che voi abbiate un gregge totalmente non protetto; ogni pecora ne infetterebbe un certo numero; se l’epidemia parte questo vuol dire che il numero R0 di pecore che si infettano dopo che la prima si è ammalata deve essere >1; se R0 >1 allora l’epidemia si estende

Ma cosa succederebbe nel caso del vostro gregge parzialmente protetto? Quanti casi secondari ci sarebbero?

Possiamo chiamare questo numero Rp, dove p sta per protetto. Questo nuovo numero è uguale ad R0 moltiplicato la probabilità di incontro con una pecora suscettibile all’infezione. Supponiamo di avere un vaccino perfetto che funziona bene e di avere un mescolamento casuale perfetto del gregge: il nuovo numero sarà uguale ad

Rp = R0 × (1-Vc)

dove Vc è semplicemente la frazione di pecore vaccinate.


La domanda che viene naturale è: quale percentuale del gregge dovete vaccinare per prevenire una epidemia? Dato che l’epidemia parte se il numero di casi secondari è maggiore di 1, allora il limite sarà: Rp < 1. Ossia 
 
1 > R0 × (1- Vc) 
 
o usando ancora l’algebra:

Vc > 1-1/ R0

Così il gregge è protetto a condizione che voi abbiate vaccinato almeno la proporzione

Vc > 1-1/R0. Come vedete Rp è scomparso ma R0 è rimasto.

Per esempio se R0 per una certa malattia in una data comunità è 2 allora la copertura sufficiente a bloccare il contagio epidemico è il 50%.

Se invece R0 è 10, allora è necessario il 90% e se è 20 è il 95%.

Conclusione: potete eradicare una malattia vaccinando anche meno della intera popolazione; tuttavia questo è vero a condizione che voi abbiate vaccini perfetti, che convertono sierologicamente tutti i vaccinati e che i contatti siano ben controllati (ossia che il vostro sistema non preveda immissioni dall’esterno).

Qui sotto trovate le percentuali di copertura necessarie secondo questo semplice modello (abbastanza limitato) a tenere sotto controllo l’infezione; prendiamo un caso semplice; la rosolia, e pensiamo di vaccinare solo le ragazze sulla base del fatto che tanto il problema è solo per le donne in gravidanza; questo, a parte che tecnicamente non è vero perchè le complicanze della rosolia colpiscono anche gli uomini, sarebbe in conflitto con l’esigenza di coprire una fetta di popolazione superiore all’80% dato un R0 di 6. Dunque anche questo semplice modello ha un uso pratico.

Il modello è basato su due ipotesi: (1) vaccino perfetto (ipotesi non realistica, la sieroconversione avviene in un numero di casi ridotto (poniamo 90%)) e inoltre (2) sistema in studio non chiuso, capace di scambi con le altre popolazioni. Dato che le due condizioni non sono banali da controllare o modificare, l’unico modo di ottenere una efficace immunità di gregge è di avere una percentuale di vaccinazione molto alta, la più alta possibile, vicina al 100%. Per le malattie ad alta infettività come il morbillo, per il quale R0 è prossimo a 20, il 90-95% sarebbe comunque necessario. In altri casi potrebbe bastare di meno, ma averne la sicurezza non è banale; è più facile aumentare la percentuale di vaccinati.

Esiste tuttavia anche un altro aspetto che occorre considerare: cosa succede se la percentuale di sieroconversione è inferiore a quella teorica? Per esempio, alcuni vaccini vengono ripetuti perché la efficacia di sieroconversione è E=90%; dunque la prima volta avremo un successo del 90%; poi ripeteremo la vaccinazione e verosimilmente adesso raggiungeremo un valore maggiore perché anche chi la prima volta non aveva reagito reagirà; e dunque arriveremo poniamo al 99%. Ha senso ripetere la vaccinazione?

Rimaniamo al caso del 90%; la equazione di Vc diventerà Vc > (1-1/R0) /E; adesso se E è troppo bassa potremmo avere l’impossibilità di rispettare la condizione; Vc non può superare 1 mentre se supponiamo R0 =20 e E=0.9, cioè una malattia molto infettiva ed un vaccino efficace solo al 90%, avremo che Vc dovrebbe superare il 100%, il che è impossibile! In questo caso, con una malattia che produce 20 casi secondari, occorre un vaccino efficace almeno al 95%. Con il morbillo che sembra dia fra 12 e 18 casi secondari l’efficacia E dovrebbe essere molto simile nel caso peggiore mentre potrebbe scendere al 92% nel caso migliore.

Per comprendere bene l’importanza di questo parametro E considerate che anche se R0 è solo 2 il vaccino non può essere meno efficace del 50% altrimenti anche tutta la popolazione vaccinata non servirà a nulla.

Dunque per affrontare l’epidemia ci vogliono vaccini efficaci oppure nel caso ciò non sia possibile nemmeno ripetendo il vaccino occorre disporre l’isolamento dei malati per ridurre Rp. Questo dipende dall’organizzazione sanitaria o da un controllo poliziesco o alternativamente e meglio dalla cosciente collaborazione della popolazione, che a sua volta si può ottenere o sotto la spinta della paura nell’immediatezza dei fatti (pensate all’epidemia di Ebola per esempio dove un vaccino non c’era e che è stata fermata abbassando Rp), o della conoscenza e della trasparenza in qualunque momento. A voi la scelta.

PS Noto di passaggio che degli oltre 3000 casi di morbillo avvenuti in Italia nei primi 6 mesi dell’anno il 96% si è avuto fra persone non vaccinate o vaccinate una volta sola; questo conferma l’efficacia della strategia della doppia vaccinazione; ma ben 237 fra operatori sanitari. A quando l’obbligo di vaccino EFFETTIVO per gli operatori sanitari?

Ringrazio per gli utili commenti Marco Pagani e Paolo Marani.

Libera traduzione ed adattamento di Claudio Della Volpe dal sito: http://www.mathepi.com/maindir/herd.html.

Per approfondire:

https://en.wikipedia.org/wiki/Herd_immunity

https://en.wikipedia.org/wiki/Mathematical_modelling_of_infectious_disease

http://www.maa.org/press/periodicals/loci/joma/the-sir-model-for-spread-of-disease-introduction

VACCINES d CID 2011:52 (1 April) d 911 https://academic.oup.com/cid/article/52/7/911/299077

 

Dai lavori scientifici ai testi didattici: il caso del Numero di Avogadro.2.

In evidenza

Rinaldo Cervellati

La prima parte di questo post è pubblicata qui.

Un tempo ancora maggiore dovrà comunque passare affinché la costante o numero di Avogadro entri a far parte dei contenuti dei libri di testo di chimica a livello di liceo. Secondo Jensen [1] occorre aspettare gli anni ’50 del secolo scorso. Quali e quante modifiche sono intervenute in questo lasso di tempo nei libri per il liceo?

Esamineremo anzitutto l’edizione 1918 del libro Essentials of Modern Chemistry, di Charles E. Dull[1] [2], professore di chimica nella South Side High School di Newark, N.J.

Sebbene gli argomenti oggetto del nostro studio siano presentati solo nei Capitoli XII (Teoria atomica-Pesi atomici) e XIII (Leggi dei Gas-Pesi molecolari) analogamente al testo di Cooley (destinato al college), l’esposizione è diversa. Dull si dilunga sul concetto di peso equivalente o di combinazione per introdurre la teoria atomica di Dalton e interpretare le leggi ponderali delle combinazioni chimiche. Il passaggio ai pesi atomici è sintetizzato come segue:

I pesi atomici relativi sono stati determinati per via indiretta. L’atomo più leggero è l’idrogeno. Il suo peso viene posto uguale a 1. Poiché l’atomo di ossigeno è 16 volte più pesante di quello di idrogeno, il peso atomico dell’ossigeno è 16. Il peso atomico di qualsiasi elemento è il rapporto fra il peso del suo atomo e il peso dell’atomo di idrogeno. [2, p. 113]

Chiarisce poi che i pesi atomici usati nel libro sono approssimati e basati su una scala più conveniente in cui lo standard è la sedicesima parte del peso atomico dell’ossigeno posto uguale a 16. Tratta poi la composizione centesimale, le formule dei composti e come ottenere la formula più semplice.

Nel capitolo successivo, partendo dalle leggi di Gay-Lussac sui rapporti fra i volumi delle combinazioni in fase gas ne deriva l’ipotesi di Avogadro chiamandola volta a volta legge o teoria. Da questa ipotesi fa derivare il fatto che le molecole degli elementi gassosi contengono due atomi, poi scrive:

Dalla teoria di Avogadro i rapporti fra i volumi non cambiano se si sostituisce il termine molecola al termine volume. [2, p. 120-121]

Il contributo fondamentale di Cannizzaro e il lungo periodo trascorso per arrivare a questo risultato sono completamente ignorati da Dull.

In compenso viene definita la mole come:

Una mole può essere definita come il peso grammo-molecolare di una sostanza. Una mole di ogni sostanza è il suo peso molecolare in grammi. Ad esempio una mole di idrogeno è 2 grammi. Una mole di ossigeno è 32 g…una mole di acqua è 18 grammi.[2, p. 121]

Introduce poi il concetto di volume molare di un gas stabilendo che:

…una mole di qualsiasi gas occupa un volume di 22.4 litri in condizioni standard di pressione e temperatura. [2, p. 122]

Si serve poi di questo fatto per la determinazione del peso molecolare delle sostanze gassose. Per i composti non volatili ricorre quindi alle proprietà colligative abbassamento del punto di congelamento e innalzamento del punto di ebollizione. Segue la determinazione delle formule molecolari dei composti. Due curiosità:

Nella prefazione, Dull suggerisce che se il libro viene usato per studenti che non si stiano preparando per il College, i capitoli sulla teoria della ionizzazione e sull’equilibrio possono essere omessi. Il libro termina con brevi biografie di importanti chimici.

Il libro di Dull vide diverse edizioni successive. In quella del 1936 [3], i capitoli relativi a quanto ci interessa non sono sostanzialmente cambiati rispetto alla prima edizione. Accanto alle leggi dei gas viene presentata, nella forma PV/T = P’V’/T’ la “Legge del Gas” (Gas Law). Come nell’edizione precedente l’enfasi viene posta sul concetto di mole e volume molare dei gas e sulle proprietà colligative per la determinazione della formula dei composti.

La novità sta nel capitolo sulla valenza. Dopo la definizione “classica”, cioè capacità di un dato atomo di legarsi o sostituirsi con uno o più atomi di idrogeno [3, p. 177], Dull introduce la teoria elettronica della valenza. Il modello atomico è quello planetario. L’autore è comunque ancora lontano da concetti come legame ionico e legame covalente.

Per trovare la definizione di numero di Avogadro e il suo valore numerico si deve aspettare l’edizione di Modern Chemistry del 1958 [4].

Dopo aver definito il peso grammo atomico come il peso di un elemento in grammi uguale al suo peso atomico, comunemente riferito come grammo-atomo, si afferma che il fatto più significativo riguardante i pesi grammo-atomici è che grammo atomi di tutti gli elementi contengono lo stesso numero di atomi. Questo numero viene chiamato numero di Avogadro, il cui valore moderno accettato è 6.0238×1023atomi per grammo atomo di qualsiasi elemento. Allo stesso modo definisce la grammo-molecola, affermando che…Grammo-molecole di tutte le sostanze contengono lo stesso numero di molecole. Questo numero è il numero di Avogadro, 6.0238×1023molecole per grammo-molecola.[4, p. 176]. Prosegue poi:

Il peso grammo-molecolare è un’unità così utile per i chimici che a esso è stato dato un nome corto: mole. Il concetto di mole è stato esteso per includere quelle sostanze che non hanno molecole. Così il peso della grammo-formula (il peso della formula in grammi) del cloruro di sodio è… [4, p. 177]

La valenza è presentata dal punto di vista elettronico in termini di legame ionico e covalente e di strutture di Lewis e, in precedenza, la struttura atomica è presentata in base alla teoria di Bohr. Questa edizione del libro riporta ancora il nome di Dull, sebbene egli fosse deceduto nel 1947. Successivamente Harold Clark Metcalfe[2] curò insieme a J.E. Williams e J.F. Castka ben 12 edizioni di Modern Chemistry, sempre per la Holt, Rinehart & Winston Inc. con grande successo.

In particolare la traduzione italiana dell’edizione 1974, tradotta e adattata da F. Cotta Ramusino e A. Pepe per Edizioni Cremonese, Roma, 1975, conobbe un enorme boom di adozioni negli anni fra l’uscita e il decennio successivo.

Nota. Se il corso introduttivo di chimica per il biennio della media superiore (15-16 anni di età, compimento dell’obbligo) è quindi un insegnamento destinato a tutti per una formazione culturale completa ci si può chiedere, come già è stato fatto in questo blog,

(https://ilblogdellasci.wordpress.com/2015/12/02/la-mole-nascosta/), se questi argomenti sono proprio necessari.

Bibliografia

[1] W. B. Jensen, Avogadro’s Number How and When Did It Become Associated with Avogadro’s Name?, J. Chem. Educ., 2007, 87, 223.

[2] Charles E. Dull, Essentials of Modern Chemistry, Henry Holt & Co., New York, 1918

https://archive.org/details/essentialsmoder01dullgoog

[3] Charles E. Dull, Modern Chemistry, Henry Holt & Co., New York, 1936

https://archive.org/details/in.ernet.dli.2015.260885

[4] H.C. Metcalfe, John E Williams, Charles E. Dull, Modern Chemistry, Henry Holt & Co., New York, 1958

https://archive.org/details/modernchemistry00dull_0

 

 

[1] Charles Elwood Dull (1878-1947) è stato Direttore del Dipartimento di Scienze della West Side High Scool e Supervisore di Scienze per le Junior e Senior High Schools, Newark, NJ.

[2] Harold Clark Metcalfe (1919-2001) è stato Direttore del Dipartimento di Scienze nella Wilkinsburg Senior High School, Wilkinsburg, PA.

Analisi chimica in archeologia

In evidenza

Luigi Campanella, ex Presidente SCI.

Da un punto di vista chimico i sistemi archeologici sono molto complessi, per lo più risultando costituiti da molte specie chimiche in miscela disomogenee. Poiché è impossibile descrivere completamente un sistema complesso, l’interesse si appunta usualmente su uno o più analiti, mentre l’insieme dei componenti viene chiamato matrice; è da sottolineare che i risultati delle determinazioni di ogni singolo analita sono grandemente influenzati da quest’ultima .

La chimica analitica in un passato anche abbastanza recente richiedeva campioni di dimensioni eccessive, i suoi metodi non erano sufficientemente sensibili e le sue conoscenze sulle matrici archeologiche scarse; oggi e in prospettiva, è in grado di analizzare campioni sempre più piccoli e analiti a concentrazione sempre più bassa, e ha sviluppato una maggiore sensibilità sul problema delle matrici e sui criteri generali per tener conto dei loro effetti.

Questo si riflette in una maggiore rispondenza alle esigenze dell’archeologia, sia perché i campioni richiesti sono di dimensioni talmente ridotte da rendere il loro prelievo praticamente non-distruttivo, sia perché gli analiti in tracce vanno assumendo un preponderante significato diagnostico.

Tre sono i tipi di intervento dell’analisi chimica in archeologia:

  • analisi di poco o nessun peso sulla diagnosi;
  • analisi con metodi analitici acriticamente mutuati da altri campi applicativi;
  • analisi con metodi appropriati, appositamente sviluppati.

Con riferimento ai campi 2 e 3 le nuove tecnologie applicate ai beni culturali sono in parte mutuate dalla medicina, dalla biologia molecolare, dalla chimica e dalla fisica. Per esempio le indagini di medical imaging e morfometria geometrica si applicano ai reperti fossili per lo studio dell’evoluzione umana; l’analisi degli isotopi stabili fornisce chiarimenti sul rapporto tra alimentazione e mobilità nelle popolazioni umane del passato; tecniche microanalitiche sono utilizzate per le gemme; l’illuminazione applicata ai beni culturali è impiegata a individuare i sistemi di illuminazione più adatti e meno dannosi a cui i sistemi biologici sono sottoposti nel tempo.

L’invecchiamento delle proteine è un processo non ancora ben compreso tuttavia è noto che le proteine invecchiate sono soggette a modificazioni della catena polipeptidica che producono ad esempio diminuzione di solubilità, aumento del calore di denaturazione; inoltre variazioni di umidità ambientale e pH possono causare l’idrolisi del legame peptidico, causando variazioni del peso molecolare e reazioni di disidratazione. Lo studio sistematico di queste modificazioni, attraverso una sperimentazione in laboratorio, e quindi sottoponendo i campioni di composizione nota ad un invecchiamento accelerato, apre ampie prospettive sulla possibilità di datare i reperti archeologici a partire dall’interazione della matrice proteica con l’ambiente.

La Proteomica

Le strategie proteomiche sono procedure ormai consolidate in ambiti scientifici, soprattutto in biochimica e biologia, prevedono come processo di estrazione, quello della digestione enzimatica che riduce le proteine a polipeptidi più piccoli o singoli amminacidi idrolizzando i legami peptidici; questo comporta che da ogni singola proteina ottenuta viene liberato un set specifico di peptidi che ne costituisce l’impronta digitale. La mistura proteica ottenuta, viene poi identificata con una tecnica cromatografica accopiata alla spettrometria di massa, evidenziando i cambiamenti della sequenza amminoacidica e le eventuali modifiche delle catene laterali.

Nel settore della diagnostica applicata ai beni culturali la caratterizzazione delle sostanze organiche è estremamente importante ed è di particolare interesse per diversi settori che vanno dall’archeologia alle indagini pittoriche.

Dietro, anzi dentro i dipinti e gli affreschi dei più grandi maestri della pittura sono presenti i più svariati derivati vegetali e animali, molto spesso custoditi nel segreto di quei meravigliosi colori che non smettono mai di incantare: l’accecante giallo di Van Gogh, le ombre di Michelangelo, l’indefinibile blu di Picasso, lo sforzo oro di Klimt, in ogni cromia si nasconde una insondabile miscela chimica di natura organica. Senza considerare che il più delle volte, indipendentemente dalle miscele adoperate per creare i colori, sono di natura organica i leganti, collanti e siccativi utilizzati per fissare i colori sulle superfici da dipingere.

I componenti pittorici di tipo organico sono caratterizzati da un’enorme variabilità chimica, sono presenti in quantità esigue e sono fortemente affetti da problemi di alterazione. Infatti, in generale, la caratterizzazione e lo studio del sistema proteico sono piuttosto complessi, poiché a differenza del genoma, che può essere considerato virtualmente statico, il proteoma cambia continuamente introducendo drastiche modificazioni nella composizione di diversa natura; ad esempio la formazione di radicali liberi per azione della radiazione UV può indurre reazioni con le funzionalità libere degli amminoacidi nei peptidi formando complessi metallici con i pigmenti e siccativi inorganici.

Da sottolineare che l’individuazione della componente proteica in un’opera pittorica, conduce anche alla conoscenza delle tecniche di esecuzione, alla comprensione dell’evoluzione degli stili pittorici, alla determinazione dei parametri che ne permettono un’autenticazione; inoltre identificare eventuali alterazioni relative al contenuto vitale, ovvero organico e proteico, presenti nei materiali pittorici diventa un compito sempre più importante per valutare e progettare delle strategie di intervento.

L’approccio proteomico può inoltre condurre ad importanti scoperte nell’ambito delle ricostruzioni ecologiche, delle paleopatologie, delle paleodiete e l’organizzazione civile della popolazione d’interesse, sottoponendo all’indagine sia manufatti archeologici di uso quotidiano, che reperti di ossa e/o denti umani e di origine animale.

Esistono alcuni studi condotti sulle ceramiche in contesti archeologici che dimostrano la forte tendenza delle proteine di legarsi alle matrici ceramiche e di rimanere nelle stesse per lunghi periodi di tempo. Le procedure proteomiche vantano la possibilità di individuare le proteine anche se la disponibilità del campione è ridotta (dell’ordine dei nanometri) e forniscono un’identificazione precisa della sequenza peptidica, definendone l’impronta digitale.

La presenza nelle matrici ceramiche di alcune proteine piuttosto che altre, può indurre al riconoscimento non solo del tipo di nutrimento, individuando la paleodieta dell’individuo o del gruppo di individui a cui appartiene il manufatto, ma anche la tipologia di animale, ad esempio, e la sua specie, portando ad affinare le conoscenze relative alla fauna che occupava il territorio in un certo periodo archeologico.

Aldilà delle analisi condotte sui manufatti di uso quotidiano (es. ceramiche per la cottura di cibi, utensili utilizzati per la caccia, ecc…), l’indagine proteomica può essere condotta direttamente sui reperti.

Un’altra rilevante applicazione della proteomica riguarda l’identificazione quando il riconoscimento non è possibile su base morfologica: un ritrovamento di enormi quantità di ossa, ad esempio ossa animali, deposte in maniera casuale, non può essere ricostruito se non con un approccio scientifico che permetta di discriminare inequivocabilmente ogni reperto osseo e di attribuirlo ad una specie ben definita.

Un ultimo aspetto da non trascurare è la possibilità di datare i reperti archeologici, con metodi del tutto innovativi e che possono fornire interessanti scoperte. Esistono già dei metodi che si basano sull’identificazione degli amminoacidi come il metodo della racemizzazione. Esso si basa sul fatto che negli organismi viventi è presente soltanto la forma levogira degli amminacidi che inizia a diventare destrogira dopo la morte, fino a raggiungere uno stato di equilibrio tra i due isomeri ottici, nel quale la luce non sarà più deviata. Il metodo della racemizzazione mette in relazione il rapporto tra la concentrazione dei due enantiomeri con il tempo.

Oltre a questo metodo si può pensare di applicare le strategie proteomiche procedendo con uno studio approfondito sulle modificazioni che subiscono le proteine con l’avanzare del tempo servendosi di invecchiamenti simulati accelerati, verificati e confrontati a fini di calibrazione. con quelli naturali

Un chimico in birreria.

In evidenza

Mauro Icardi

Avere la possibilità di visitare il birrificio Angelo Poretti è una di quelle opportunità che vanno colte al volo. E in effetti tutte le volte che l’azienda apre le porte al il pubblico, i posti disponibili si esauriscono nel giro di poche ore. La fabbrica di birra che si trova nel territorio di Induno Olona all’ingresso della Valganna, territorio che si estende a pochissimi chilometri da Varese, rappresenta un esempio di imprenditoria illuminata. Ricorda un modo diverso di concepire il lavoro, e racconta di visioni di lungo periodo. Ho approfittato di uno degli open day che si svolgono quattro volte all’anno per visitarla. Con l’intenzione di scrivere della visita ad uno stabilimento storico, e dei legami che la produzione della birra (bevanda millenaria) ha con la chimica che potrei definire ancestrale o primordiale. La chimica che i nostri progenitori praticavano empiricamente, senza averla ancora codificata in regole o leggi scientifiche.

Ma prima di arrivare a parlare di questo bisogna raccontare la storia che ci parla di Angelo Poretti classe 1829 che da Vedano Olona in provincia di Varese, parte per andare in Boemia. Dove troverà lavoro farà fortuna occupandosi di appalti ferroviari, e ritornerà in Italia con una moglie boema Franziska Peterzilka. E con l’idea di mettersi a produrre birra in un Italia da poco unificata, e che ancora non ha una propria tradizione birraria.

Dalla Boemia importerà i macchinari e il luppolo per produrre la birra, in Valganna troverà l’altro ingrediente indispensabile: l’acqua. Un’acqua con la giusta concentrazione di sali minerali adatta a produrre birre sia chiare che scure. L’acqua di questa fontana è rinomata per la sua salubrità. Ed è così descritta dall’Ingegner Mazzocchi del Consorzio del fiume olona, che censisce le fonti tributarie del fiume.

FONTANA DEGLI AMMALATI

Sgorga dalla roccia in sponda destra d’Olona, ramo di Valganna. E’ una rinomata sorgente perenne nota per la salubrità delle sue acque. Lo scarico di questa sorgente è sufficiente a muovere un rodigino, anche nei periodi di siccità.

Di proprietà del Consorzio d’Olona venne ceduta nel 1877 alla Birreria Poretti.

Il 26 dicembre 1877 viene prodotta la prima cotta della prima pilsner tutta italiana, che comincia a mietere fin da subito un importante successo di vendite, consolidato dal vero e proprio exploit che birra e birrificio ottennero a Milano nel 1881, l’anno dell’Esposizione Universale. Successo che portò Angelo Poretti, oltre ad essere un imprenditore di successo, a diventare anche nel 1884 presidente del Comitato Permanente dell’Associazione dei Birrai.

In seguito alla morte del fondatore avvenuta nel 1901 la birreria, ormai ben avviata, viene ceduta per lascito testamentario dello stesso Poretti , che non ha avuto figli dal suo matrimonio agli eredi, i nipoti Angelo e Tranquillo Magnani, Francesco Bianchi ed Edoardo Chiesa.

E saranno proprio loro a rinnovare lo stabilimento incaricando lo studio di architettura tedesco Bihl e Woltz, che rinnoverà ed amplierà lo stabilimento nel caratteristico stile Jugendstil che altro non è che lo stile liberty germanico. Il risultato sarà il perfetto connubio tra tecnologia industriale e arte che ancora oggi si può ammirare. I lavori iniziati nel 1905 e terminati nel 1912 consegnano il rinnovato stabilimento ad una Varese che in quegli anni si guadagna il nome di città giardino, e vive uno dei momenti più brillanti della sua storia. Lanciata verso il futuro e capace di attrarre centinaia di turisti.

La storia della fabbrica di birra prosegue poi con la cessione nel 1939 ai conti Bassetti di Gallarate che già proprietari della fabbrica di birra di Chiavenna rilanciano l’azienda nel dopoguerra acquisendo il marchio Splugen da quest’ultimo.

A questo punto entra in scena il quarto attore protagonista di questa storia, la Carlsberg (che allora si chiamava ancora United Breweries Copenhagen). Nel 1975 la famiglia Bassetti sigla un primo accordo con i danesi della Carlsberg per la produzione e la commercializzazione dei marchi Tuborg e Carlsberg in Italia. Nel 2002 la multinazionale danese acquista il restante 25% del capitale sociale, ottenendone la piena proprietà.

Ma una nuova strategia di marketing aziendale ripropone il marchio storico Birrificio Angelo Poretti e l’idea rafforza il legame con il lavoro del fondatore e con il territorio.

Proprietà danese, ma spirito varesino e forte legame con la Valganna fin dal 26 Dicembre 1877, giorno della prima cotta della birra di Angelo Poretti.

Questa è la prima parte di quello che viene raccontato durante la visita alla birreria. Con competenza e passione dai lavoratori. E questo si percepisce immediatamente.

La seconda parte della visita che si svolge all’interno della storica sala di cottura del 1908, che ha ripreso dopo alcune modifiche ad essere utilizzata per la produzione della birra. La sala di cottura con il quadro sinottico è un vero e proprio monumento al liberty industriale.

In questo locale viene spiegato il processo di produzione di un prodotto antico. Millenaria la birra. Ma solo centenario l’utilizzo del luppolo come amaricante ed antibatterico.

Ma qui le parole risvegliano le mie fibre di chimico curioso. Le parole sono quelle che sempre mi rendono attento e curioso. La germinazione dell’orzo per produrre il malto. L’orzo “ingannato” (sono queste le parole che pronuncia la persona che ci sta spiegando il processo produttivo). L’orzo che messo a bagno in acqua svilupperà enzimi che permetteranno di trasformare l’amido in esso contenuto in zuccheri solubili in acqua. Lo si mette a bagno, lo si estrae e lo si rimette a bagno. Poi lasciato a riposo per circa una settimana perché possa germinare. È in questa fase che gli amidi si trasformano in maltosio (destinato nel prosieguo della fermentazione a diventare alcol e anidride carbonica) e destrine, il cui compito è quello di completare il sapore della futura birra. Quando i germogli misurano tre quarti della lunghezza del chicco, si effettua il blocco della germinazione, per far sì gli zuccheri appena creati, indispensabili per la trasformazione in alcol, non vadano dispersi. Il malto verde così ottenuto viene essiccato in appositi forni per due giorni: le diverse modalità con cui può essere effettuato questo processo danno origine a vari tipi di malto di diverso colore, in grado di conferire un carattere particolare al prodotto finito. Quello più scuro, infatti, avrà delle nette note tostate, mentre il più chiaro offrirà una gamma di sapori freschi e vegetali.

I chicchi essiccati sono ora il malto d’orzo. Mescolato con acqua calda. Questa fase, denominata amilasi, avviene a una temperatura di 63 °C, dura circa trenta minuti e trasforma l’amido in destrine e maltosio: le prime danno alla birra il tipico gusto “pieno”, mentre il secondo fermenta. Il mosto viene poi filtrato e separato dalle trebbie, ovvero dalle scorze del malto d’orzo, che vengono riciclate come alimento per il bestiame. Successivamente seguirà la luppolatura. All’interno della sala di cottura si può ammirare una “luppoloteca”, dove ci si può sbizzarrire a vedere le tante varietà di luppolo, e percepirne i diversi sapori e profumi.

La luppolatura è la fase successiva, ed è l’operazione che caratterizza una birra. Nella caldaia di cottura avviene l’ultima fase della lavorazione del mosto, che vede entrare in gioco l’elemento amaricante, ovvero il luppolo. Oltre a donargli il caratteristico aroma, il luppolo chiarifica la birra, rallenta la riproduzione dei batteri (per una conservazione ottimale) e migliora la stabilità della spuma. In questa fase della lavorazione ulteriori accorgimenti daranno alla futura bevanda i suoi caratteri identificativi: chiara o scura, forte o leggera, dolce o amara, pastosa o secca.

Usciti dalla sala di cottura la visita prosegue fino alla villa che il fondatore Angelo Poretti non vedrà mai terminata. Villa Magnani si trova sulla collina che sovrasta la fabbrica di birra. Per arrivarci si attraversano anche le tracce di quello che era la linea tranviaria che collegava Varese con Luino, ed attraversava la birreria. Altro esempio di archeologia industriale. Il vecchio tram che trasportava i turisti di allora a degustare la birra di Valganna.

A villa Magnani riceviamo il giusto premio per la nostra attenzione e per combattere la giornata soleggiata e calda. La degustazione della birra!

La visita durata circa un’ora e mezza mi lascia completamente soddisfatto. Conoscevo già la fabbrica, ma la visita è stata interessante ed utile. E non è casuale che questa visita sia inserita nella proposta turistica “Varese Liberty Tour” un viaggio nell’art noveau varesina, un tuffo negli anni della belle epoque.

Ma rimangono ancora delle cose da dire. Sulla birra e la sua produzione. Sulla chimica ancestrale ed inconsapevole dei Sumeri e degli Egizi. Sull’epoca delle birre prodotte dai religiosi medioevali. E altre cose interessanti.

 

 

Dai lavori scientifici ai testi didattici: il caso del Numero di Avogadro.1.

In evidenza

Rinaldo Cervellati

A. Avogadro

Sebbene l’ipotesi di Avogadro, secondo cui “volumi uguali di gas diversi nelle stesse condizioni di temperatura e pressione contengono un ugual numero di molecole” [1] diventasse la base per la determinazione delle masse molecolari e atomiche relative poco tempo dopo la pubblicazione del famoso Sunto di Stanislao Cannizzaro del 1858 [2], l’argomento fu trattato nei testi elementari di chimica americani solo nella seconda metà degli anni ’80 del XIX secolo [3].

  • S. Cannizzaro

W.B. Jensen afferma che il motivo di questi 25 anni di ritardo è dovuto al fatto che gli argomenti della determinazione dei pesi atomici e molecolari e le leggi quantitative dei gas erano considerati, prima di questi anni, troppo avanzati per testi elementari di chimica [3]. A tale proposito cita l’edizione del 1886 di un testo molto popolare per studenti di college in cui comparirebbe l’ipotesi di Avogadro come guida ai pesi molecolari, che non è citata nella precedente edizione del 1869 e in quella successiva del 1875. La curiosità mi ha spinto a cercare su internet l’edizione 1886 del testo citato: A Guide to Elementary Chemistry for Beginners di Le Roy C. Cooley[1] [4] e a esaminarne il contenuto.

Cooley, dopo aver chiarito la differenza fra fatti e teorie, nel senso che i primi si riferiscono a fenomeni riconosciuti come veri, mentre le seconde si riferiscono a ipotesi che si suppongono vere, considera la teoria molecolare come interpretazione dei fatti relativi all’espansione dei gas.

Questi e altri fatti, scrive Cooley, condussero Avogadro, nel 1811 a supporre che “volumi uguali di gas diversi, nelle stesse condizioni di temperatura e pressione contengono un ugual numero di molecole”. Questa è la teoria di Avogadro, ma spesso è chiamata legge. [4, p. 122]

La molecola viene definita come:

la più piccola particella in cui può essere suddivisa una sostanza, molecole di una stessa sostanza sono uguali fra loro, molecole di sostanze diverse sono diverse fra loro.[4, p. 122]

Partendo dalla decomposizione dell’acqua e dell’ossido mercurico, Cooley introduce il concetto di atomi come particelle costituenti le molecole. Scrive Cooley:

Questi [atomi] sono i più piccoli pezzetti di materia [very smallest pieces of matter] che prendono parte a un cambiamento chimico. Essi non possono essere suddivisi ulteriormente in un qualsiasi processo noto. Tutti i corpi sono costituiti da molecole e le molecole sono costituite da atomi.

Se gli atomi di una molecola sono tutti uguali, la sostanza è un elemento, ma se gli atomi in una molecola sono diversi, la sostanza è un composto.[4, p. 122]

I postulati della teoria atomica sono presentati praticamente nello stesso modo in cui li presentò Dalton nel suo New System of Chemical Philosophy (1808) e la teoria atomica viene utilizzata come interpretazione delle leggi ponderali delle combinazioni chimiche, in particolare la legge delle proporzioni multiple:

essa [teoria atomica] è ben verosimigliante in chimica perché non soltanto interpreta queste [leggi ponderali] ma si è trovato che spiega fatti nuovi appena scoperti…. ai nostri giorni. [4, p.123]

I pesi atomici sono introdotti da Cooley facendo riferimento ai pesi di combinazione, definiti in un capitolo precedente. Qui però l’autore fa un po’ di confusione, infatti scrive:

Non abbiamo idea di quanto realmente pesi un atomo di idrogeno, ma riteniamo che qualunque sia il suo peso, quello dell’atomo di cloro è 35.5 volte questo peso. Non possiamo dire il peso di entrambi in grammi o once, ma se possiamo dire che l’atomo di idrogeno pesa 1 [non sappiamo cosa], possiamo ritenere che un atomo di cloro pesa 35.5.

Questi numeri sono gli stessi che abbiamo chiamato pesi di combinazione, a p. 98. Noi sappiamo che essi sono i più piccoli pesi relativi di questi elementi che si combinano; questo è un fatto riscontrato sperimentalmente. Si ritiene che essi rappresentino i pesi degli atomi di questi elementi. Ciò fa parte della teoria atomica. [4, p. 125]

A p. 98 il peso di combinazione dell’ossigeno è riportato come 16, che in effetti è il suo peso atomico relativo nella scala H = 1, ma il peso di combinazione dell’ossigeno in realtà è 8 (quantità in g di un elemento che si combina o si sostituisce con 1 g di idrogeno). In seguito, a p. 118 è riportata una tabella dei 71 elementi e relativi pesi atomici noti all’epoca e per l’ossigeno è riportato il peso atomico giusto, cioè 16.

Cooley si preoccupa di non addentrarsi in argomenti “avanzati”, a fine p. 98 avvisa infatti:

Trovare i valori dei pesi di combinazione è uno dei problemi più difficili in chimica. Lo studente non è ancora pronto per vedere come ciò possa realizzarsi. Ma è stato fatto per tutti gli elementi noti. A ogni elemento è stato assegnato un peso di combinazione. [4, p. 98]

Così facendo avrà però indubbiamente creato una certa confusione fra peso di combinazione e peso atomico. Difficile sostenere che Cooley avesse le idee poco chiare, egli è consapevole che la formula dell’acqua è H2O e la usa nel paragrafo successivo per calcolarne il peso molecolare con i pesi atomici giusti. Scrive infatti:

Vi sono tre atomi nella molecola d’acqua, H2O, due di idrogeno e uno di ossigeno. Il peso di un atomo di idrogeno è 1, e di un atomo di ossigeno è 16, e il peso dei tre atomi insieme sarà 18. Il peso molecolare dell’acqua, H2O, è quindi 18. [4, p. 126]

Tuttavia, qualche perplessità sulla biatomicità delle molecole dei gas Cooley la deve aver avuta perché ripetutamente compaiono equazioni in cui l’idrogeno si sviluppa in forma atomica, ad es. a p. 127: Na + HCl = NaCl + H; p. 131: Zn + H2SO4 = ZnSO4 + H2; p. 132: Na + H2O = NaOH + H; p. 143: Fe + 2HCl = FeCl2 + 2H

Vale la pena notare che il contributo di Cannizzaro alla determinazione corretta dei pesi atomici e delle formule dei composti non viene mai menzionato eppure doveva essere ben noto ai chimici americani dell’epoca. Il libro non affronta la questione della concentrazione delle soluzioni in termini di grammo-molecola.

La Tavola di Mendeleev con gli elementi suddivisi in ordine crescente di peso atomico, in serie orizzontali e gruppi verticali comprendenti elementi con proprietà chimico fisiche simili viene accennata in Classification, l’ultimo capitolo del libro:.

All’aumentare del peso atomico appaiono a intervalli regolari le stesse proprietà. Ciò è noto come legge periodica. [4, p.266]

Va ricordato che ancora agli inizi del 1900 la realtà della struttura particellare della materia non era accettata da tutti gli scienziati. Oppositori all’atomismo e alla teoria cinetica molecolare furono in questo periodo due fisici, Ernst Mach e Pierre Duhem e un chimico, Wilhelm Ostwald. Essi erano assertori dell’energetismo, concezione filosofica che negava realtà agli atomi e alle molecole sostenendo il primato dell’energia sulla materia, la materia essendo soltanto una manifestazione dell’energia[2]. È curioso ricordare che proprio a Ostwald si deve l’introduzione del termine mole, attorno al 1900, al posto dei vari g-atomo, g-molecola, g-formula che comunque resistettero per decenni. R. Zingales in un saggio su atomismo ed energetismo fa comunque presente che la “costellazione” degli energetisti era alquanto variegata, accanto a chi rigettava, a priori, l’ipotesi atomica, vi erano eminenti chimici che pur riconoscendo l’impatto e l’utilità della teoria atomica, evitavano accuratamente di schierarsi sul tema della struttura della materia che essa presumeva [5]. Ci sembra di poter inserire Cooley in questo secondo gruppo, insieme alla verifica di quanto sostenuto da Jensen.

Ancora più tempo dovrà comunque passare affinché la costante o numero di Avogadro entri a far parte dei contenuti dei libri di testo di chimica generale a livello di college.

Ovviamente Avogadro non ebbe niente a che fare con la determinazione di questo numero. L’interesse per calcolare il numero effettivo di molecole in uguali volumi di gas a STP fu dovuto ai fisici impegnati nello sviluppo della teoria cinetica dei gas nella seconda metà del XIX secolo, più interessati ai volumi che alle moli. La prima stima del numero di molecole contenute in un millilitro di qualunque gas a STP fu riportata nel 1865 dal fisico e chimico Joseph Loschmidt[3] (1821-1895), come 2.88×1019 molecole/mL [6]. Il valore odierno è 2.69×1019 chiamato appunto numero di Loschmidt in suo onore.

Sia il passaggio al numero di molecole per mole, grandezza chimicamente più rilevante, che l’associazione del nome di Avogadro con il valore risultante si sono verificati nella prima decade del XX secolo e sono largamente associati allo studio teorico e sperimentale del moto browniano. Il moto browniano è il movimento disordinato caotico di particelle di pulviscolo atmosferico o polline di grandezza micrometrica in sospensione in un liquido a riposo. Fu osservato per la prima volta al microscopio dal botanico scozzese Robert Brown nel 1827. Nel 1905, Albert Einstein, studiando tale movimento, dimostrò teoricamente l’esistenza delle molecole e calcolò le dimensioni molecolari [7]. Profondamente colpito all’analogia del comportamento delle molecole di gas con quelle del soluto in soluzione diluita proposta da J. Van’t Hoff (1852-1911), all’inizio dell’articolo scrive:

… nella formula per la pressione osmotica:

p = (RT/N) ·ν

N denota il numero effettivo di molecole per grammo-molecola [7, p. 551]. E, nel calcolo finale, a p. 559 dice: prendendo per N il valore 6×1023

Il che mostra che il numero di molecole per mole era ben noto ai fisici. Le evidenze sperimentali che il movimento browniano era dovuto ai continui urti fra le molecole del liquido e le micro particelle del solido surnatante furono riportate dal fisico francese Jean Perrin[4] nel 1908. In questo primo articolo la costante N è definita allo stesso modo di Einstein. In un lavoro dell’anno successivo Perrin propose infine di dare a N il nome di Avogadro [8]. Dopo aver stabilito che:

L’enunciato di Avogadro [sui volumi uguali di gas] corrisponde quindi al seguente:

Due grammo-molecole qualsiasi contengono lo stesso numero di molecole

scrive:

Questo numero invariabile N è una costante universale e sembra giusto chiamarla costante di Avogadro. [8, p. 16]

Suggerimento ribadito nel suo famoso libro Les atomes del 1913 [9]

A. Einstein

J. Perrin

Sebbene il chimico scozzese William Ramsay abbia riportato la proposta di Perrin in un libro divulgativo già nel 1912 [3], Jensen afferma che i testi americani furono molto più lenti nell’accettarla sicché il termine numero o costante di Avogadro e relativo valore compaiono nei testi universitari introduttivi di chimica solo negli ultimi anni ‘30 del secolo scorso. A sostegno di ciò cita differenti edizioni di diversi libri. Per curiosità ne ho trovati alcuni in internet e li ho esaminati non solo a scopo di verifica ma anche per avere un’idea del tempo che intercorre fra l’acquisizione di nuove scoperte e la loro ricaduta nella pratica didattica. Mi è sembrato interessante esaminare dapprima l’edizione del 1918 del testo Principles of Chemistry di Joel H. Hildebrand[5] [10]. Questo perché dal 1913 Joel H. Hildebrand fu chiamato da Gilbert N. Lewis a far parte del suo gruppo all’Università di Berkeley (v. nota 5). Anzitutto la scansione degli argomenti, per quanto ci interessa, è completamente diversa da quella di Cooley e non poteva essere altrimenti visto che sono passati più di 30 anni ed è appena finita la prima guerra mondiale[6].

Dopo il primo capitolo sui diversi aspetti della materia, nel Capitolo II si affrontano le leggi dei gas e la teoria cinetica, nel III i Rapporti in peso nelle Combinazioni Chimiche e la Teoria atomica, e nel IV Il Volume dei Gas e i Pesi Molecolari. Si capisce quindi che Hildebrand vuole arrivare il prima possibile ad affermare la realtà di atomi e molecole.

Nel Capitolo II dopo aver esposto le leggi dei gas scrive:

Ora, la domanda è: quale struttura deve avere un gas per mostrare questi fenomeni? L’immagine più soddisfacente è quella fornita dalla Teoria Cinetica, che assume un gas costituito da particelle chiamate molecole, le cui dimensioni sono molto piccole in confronto alla distanza fra esse, che ogni molecola sia in rapido movimento, urtandosi con altre molecole e con le pareti del recipiente che le contiene. [10, p. 17]

È importante la nota in fondo a pagina 17 nella quale l’autore dà un’idea delle dimensioni delle molecole:

A una atmosfera di pressione e a 0°C, un centimetro cubo di ossigeno contiene 28×1018 molecole che viaggiano a una velocità media di 0.66 kilometri per secondo. Ogni molecola viaggia mediamente 1000 volte il suo diametro prima di urtarsi con un’altra molecola. [10, nota a p. 17]

2.8×1019 è il numero stimato da Loschmidt per il numero di molecole contenuto in 1mL di qualsiasi gas, il valore attuale è 2.67×1019. Il Numero o costante di Avogadro si riferisce invece al numero di molecole contenuto in 1 mol di sostanza.

Dopo aver illustrato altre proprietà dei gas e delle miscele gassose, Hildebrand illustra la regola o ipotesi di Avogadro facendo notare che fu presentata nel 1811.

Nel capitolo III l’autore discute le leggi che descrivono i rapporti in peso nelle combinazioni chimiche e illustra i principi della teoria atomica. Scrive:

Vi sono due modi in cui possiamo immaginare come sia costituita la materia, o essa è continua, come appare agli occhi, sicché possiamo suddividerla indefinitamente senza raggiungere mai una qualche porzione, comunque piccola che possa essere ulteriormente suddivisa senza perdere la propria identità, oppure la materia ha una struttura granulare sicché quando l’avessimo suddivisa fino a questi ultimi grani, nessuna ulteriore sarebbe possibile senza alterare profondamente la natura del materiale. [10, p. 37-38]

E prosegue:

[Che] quest’ultima assunzione corrisponda ai fatti è fortemente indicata dal successo della Teoria cinetica nello spiegare le proprietà fisiche dei gas e lo studio delle trasformazioni chimiche conduce alla stessa conclusione. Se aggiungiamo a ciò le evidenze fornite dai fenomeni radioattivi e dallo studio dei colloidi [sistemi dispersi]…possiamo ben ritenere che la struttura atomica della materia sia ben più di una mera teoria, è piuttosto un fatto ben stabilito. [10, p. 38]

Il capitolo procede poi con la definizione di peso atomico e molecolare, la scelta del peso atomico dell’ossigeno posto = 16 come riferimento per la scala dei pesi atomici relativi e l’interpretazione delle formule chimiche. Si arriva quindi alla definizione di grammo-atomi e grammo-molecole o moli. Il capitolo termina con il metodo di calcolo dei pesi atomici e delle formule chimiche.

Tutto il capitolo successivo è dedicato ai pesi molecolari e al volume dei gas. Ampio spazio è dedicato all’uso della “regola” di Avogadro a questo scopo. Viene introdotto il concetto di volume molare, il cui valore è molto prossimo a 22.4 litri per qualunque gas in condizioni standard. [10, p. 2]. Tutto il resto del capitolo è dedicato ai vari metodi per la determinazione dei pesi molecolari.

Purtroppo anche in questo volume il contributo di Cannizzaro non viene menzionato.

La struttura atomica è descritta in termini di nucleo ed elettroni esterni e il legame chimico con la messa in comune di coppie di elettroni del guscio di valenza utilizzando le strutture di Lewis. Gli elementi nella Tavola periodica sono ordinati per numero atomico crescente.

Nell’ultimo capitolo, dedicato ai sistemi dispersi, Hildebrand discute il moto Browniano giungendo alla conclusione che il moto Browniano fornisce un’evidenza diretta della realtà della teoria cinetica [10, p. 291] e dell’esistenza delle molecole [10, p. 292].

Infine, la termodinamica chimico-fisica classica (termochimica, equilibrio chimico) e velocità di reazione sono presentate in maniera moderna ed efficace.

Mi sono dilungato su questo libro perché è mia opinione che esso sia se non il primo, uno dei primi testi introduttivi moderni di chimica generale, infatti se si esclude il numero di Avogadro e il suo valore numerico, tutte le principali scoperte dell’epoca sono riportate e discusse.

D’altronde questo era lo scopo principale dell’autore come si può evincere dalla prefazione in cui è riportata fra l’altro una raccomandazione agli insegnanti di chimica da parte di Le Chatelier (in francese).

Il libro di Hildebrand conobbe diverse successive edizioni, Jensen afferma che in quella del 1947 la costante di Avogadro e il suo valore numerico sono riportati in un apposito paragrafo. Non ho trovato questa edizione, nella successiva (la sesta) del 1952 sono riportati anche alcuni metodi per la determinazione del valore numerico di N (quello famoso della goccia d’olio, dovuto a Millikan e quello diffrattometrico più accurato). https://archive.org/details/principlesofchem030353mbp

Nota. Se N (o NA) è considerato in realtà il fattore di conversione da unità di massa atomica (u) a grammi (g) come già fatto notare anche da Hildebrand, allora è più corretto chiamarlo costante di Avogadro.

Bibliografia

[1] A. Avogadro, Essai d’une manière de déterminer les masses relatives des molécules élémentaires des corps, et les proportions selon lesquelles elles entrent dans les combinaisons, Journal de Physique, Chimie, d’Histoire Naturelle et des Arts, 1811, 73, 58-66.

[2] S. Cannizzaro, Sunto di un Corso di Filosofia Chimica fatto nella R. Università di Genova, Nuovo Cimento, 1858, 7, 321-366.

[3] W. B. Jensen, Avogadro’s Number How and When Did It Become Associated with Avogadro’s Name?, J. Chem. Educ., 2007, 87, 223.

[4] LeRoy C. Cooley, A Guide to Elementary Chemistry for Beginners, Ivison, Blakeman, Taylor & Co., 1886.

https://archive.org/details/aguidetoelement00coolgoog

[5] R. Zingales, Il dibattito sull’atomismo e la struttura atomica, http://math.unipa.it/~grim/dott_HD_MphCh/3_struttura_atomica_zingales.pdf

[6] L. Loschmidt, Zur Grosse der Luftmolecküle, Sitz. K. Akad. Wiss. Wien: Math-Naturwiss. Kl., 1865, 52, 395-413; Engl. transl. J. Loschmidt with William Porterfield and Walter Kruse, trans. (October 1995) On the size of the air molecules, Journal of Chemical Education, 1995, 72, 870-875. http://www.chemteam.info/Chem-History/Loschmidt-1865.html

[7] A. Einstein, Uber die von der molekularkinetischen Theorie der Warme geforderte Bewegung von in ruhenden Flussigkeiten suspendiert Teilenchen, Ann. Phys., 1905, 17, 549-560. Engl. Transl.

On the Motion of Small Particles Suspended in Liquids at Rest Required by the Molecular-Kinetic Theory of Heat,

https://pdfs.semanticscholar.org/9c1d/91a9f0a37e578ee9a6605b224ad554ec6e86.pdf

[8]J. Perrin, Movement Brownien et Réalité Moléculaire, Ann. chim. phys., 1909, 18, 1-144.

http://hermes.ffn.ub.es/luisnavarro/nuevo_maletin/Perrin_1909.pdf

[9]J. Perrin, Les atomes, Alcan, Paris, 1913; Trad. Ital. Gli atomi, Editori Riuniti, Roma, 1981.

[10] Joel H. Hildebrand, Principles of Chemistry, MacMillan Co., New York, 1918.

https://archive.org/details/principleschemi00hildgoog

[1] Le Roy C. Cooley (1833-1916) è stato uno stimatissimo professore di fisica e chimica nel prestigioso Vassar College, istituzione elitaria fondata a New York nel 1861.

[2] Gli energetisti non erano poi lontanissimi dalla realtà se si considera la più famosa equazione di Einstein: E = mc2.

[3] Josef Loschmidt (1821-1895), fisico austriaco, ha svolto un ruolo fondamentale in fisica (termodinamica, ottica, elettrodinamica) e in chimica (forme cristalline).

[4] Jean Baptiste Perrin (1870-1942), fisico francese, oltre a verificare l’interpretazione di Einstein del moto browniano confermando in tal modo la natura atomica della materia, per cui ottenne il Premio Nobel per la Fisica nel 1926, spiegò l’energia solare in termini di reazioni termonucleari dell’idrogeno. Vale la pena ricordare che Ostwald riconobbe la realtà di atomi e molecole in base agli esperimenti sul moto browniano di J. Perrin.

[5] Joel Henry Hildebrand (1881-1983), chimico americano distintosi come didatta e ricercatore. Pioniere nella ricerca in chimica fisica dei liquidi non elettrolitici, ottenne il Premio Gibbs nel 1953 e la medaglia Priestley nel 1962. Chiamato a Berkeley nel 1913 come istruttore chimico e poi assistente, divenne professore ordinario nel 1918 e infine full professor nel 1919. Successe a G.N. Lewis come Direttore del College of Chemistry nel 1949. Ritiratosi nel 1952 rimase a Berkeley come professore emerito fino alla morte.

[6] La Prefazione alla prima edizione del libro è datata: France, April 1918. Già divenuto professore associato, Hildebrand partecipò come capitano alla Prima Guerra Mondiale nel Servizio Chimico della Forza di Spedizione USA in Europa.

“Tutto è chimica!”, breve intervista a Cristiana Capotondi.

In evidenza

La redazione del blog.

Abbiamo intervistato via mail Cristiana Capotondi, la brava e giovane interprete della fiction televisiva “Di padre in figlia”, cui avevamo già accennato in un breve post; Cristiana ha acconsentito a rispondere brevemente a qualche domanda in esclusiva per noi. La ringraziamo insieme alla signora Cristiana Mainardi che ha fatto da tramite.

 D. Signora Capotondi si è resa conto di questi aspetti almeno in parte contraddittori con alcuni “memi” attuali:
la chimica positiva, la scienza di “tutto è chimica” mentre oggi l’aggettivo chimico corrisponde spesso a sporco, inquinante, o comunque non è positivo, è contrapposto a naturale?  Lei personalmente cosa pensa di questo contrasto? Se ci fosse un seguito di questa fiction in tempi più vicini a noi lei crede che il personaggio che lei ha interpretato avrebbe dei ripensamenti? Avrebbe ancora il seggio di Galileo come punto focale della sua vita?

R. Credo che si debba informare la gente su ciò che significhi chimica. Ricerca, nuove possibilità e scienza senza la quale moriremo anche solo per una semplice influenza.

D.: Pensa lei che oggi la laurea e in particolare in una materia scientifica sia ancora uno strumento di emancipazione femminile? O che l’emancipazione passi altrove? un padre proibirebbe ancora alla figlia di studiare la chimica? Lei che rapporto ha avuto con la Chimica come materia di studio? Ha mai pensato di svolgere un lavoro di questo tipo?

R.:Le materie scientifiche sono la parte esposta di un lavoro umanistico ancora più profondo, ovvero rispondere alle urgenze della popolazione che sono sempre in divenire. Quindi, si mi piacerebbe lavorare in questa direzione e credo che lo studio delle materie scientifiche aperto alle donne sia una conquista.

D.: parlare bene di chimica in una fiction e non parlarne mai o quasi nelle trasmissioni più culturali o di servizio come report poniamo: lei crede che questa sia una scelta condivisibile del mezzo pubblico? Tutto sommato lei ha detto quella frase Tutto è chimica con splendido accento veneto (anche se è romana de roma) davanti a vari milioni di persone: quella scena l’avete fatta una volta o più volte? le è venuto naturale o no? le è sembrato “forzato”? la figura della chimica e non poniamo della fisica o della matematica, da dove è venuta fuori? ci può raccontare?
Cosa interpreterà prossimamente? Ancora figure da scienziata/ricercatrice e da donna in carriera o da donna tout court?

R.:Tutto è chimica, così funziona la vita. Con azioni e reazioni che ci cambiano a livello molecolare. È utile ragionare su queste tematiche anche per raccontare come l’uomo psichicamente incida sulla sua fisicità. È utile per rilanciare laicamente il concetto di uomo come sinolo storico.
Qualunque palco è adatto, che sia informazione o fiction.
L’idea della chimica nasce dalla sua utilità nel mondo della distillazione.
Lavorerò al nuovo film di Marco Tullio Giordana dal titolo Nome di donne.

La pubblicità di ENI.2. Quanto è verde la chimica verde?

In evidenza

Claudio Della Volpe

(la prima parte di questo post è pubblicata qui)

Da quando Anastas e Warner pubblicarono nel 1998 il loro famoso libro Green Chemistry Theory and Practice* è passata parecchia acqua sotto i ponti e la definizione e l’importanza della “chimica verde” si sono estese; i 12 principi originali sono i seguenti 

Ma di fatto la complessità del problema ha reso necessario un approccio polifattoriale per definire e verificare quanto è verde la chimica che è espresso nello schema qui sotto.

Nella storia recente il verde è stato un colore abusato; si pensi alla cosiddetta rivoluzione verde, un approccio ai temi della produzione agricola che, attraverso l’impiego di varietà vegetali geneticamente selezionate, fertilizzanti, fitofarmaci, acqua e altri investimenti di capitale in forma di mezzi tecnici, ha consentito un incremento significativo delle produzioni agricole in gran parte del mondo tra il 1940 e il 1970 (il nome di riferimento è Norman Borlaug, premio Nobel per la pace nel 1970). Tuttavia tale incremento ha costituito la premessa di una serie di grandi problemi; da una parte non ha risolto il problema della fame che attanaglia ancora alcune parti del pianeta, dall’altra la sua applicazione ha sconvolto i cicli del carbonio, dell’azoto e del fosforo, attraverso l’incremento della produzione di metano, l’introduzione di nitrati sintetizzati a partire da ammoniaca e l’incremento della estrazione di fosfati; dunque la soluzione di una parte del problema della fame ha prodotto altre rilevanti tensioni fra noi e il nostro ambiente.

Sperando che questo non sia il caso della chimica verde approfondiamo un pò come la vede ENI.

La bioraffineria produce biocarburanti da oli vegetali e, a breve, da materie prime non convenzionali quali oli di frittura, grassi animali e scarti della produzione alimentare. Quello realizzato nelle nostre bioraffinerie è un biocarburante di altissima qualità la cui produzione nel 2020 raggiungerà il milione di tonnellate.”

Al momento ENI si dedica alla produzione di “biocarburanti” a partire da olio di palma recentemente demonizzato per usi alimentari, ma attenzione:

Nella Bioraffineria di Venezia utilizziamo olio di palma certificato, cioè frutto di coltivazioni esistenti da molti anni, quindi sicuramente non causa di deforestazione – ha spiegato Giacomo Rispoli, “l’inventore” di questa tecnologia, ora Supply manager di Eni – e inoltre verifichiamo con audit locali, in Malesia e Indonesia. Ma la nostra tecnologia Ecofining® è flessibile, quindi potrà trasformare in green diesel l’olio ricavato dalle microalghe che già stiamo testando a Gela, oppure gli olii waste, oppure ancora i grassi animali e gli olii microbici da biomasse»

Il consumo italiano di carburanti ha piccato nei primi anni 2000 sui 37-38 Mton ed attualmente viaggia su circa 30; dunque la prospettiva ENI è di incrementare la quota “bio” di questi carburanti, in particolare diesel, adesso usando olio di palma e in futuro arrivare ad un qualche percento del totale (1/30) usando microalghe, scarti vegetali e simili.

Ringrazio Terenzio Longobardi per questo grafico

Ma quanto sono verdi queste strategie?

Anche con la migliore tecnica agricola non si superano 1-1.5 toe/ettaro come energia netta. Dunque stiamo parlando di 1-2 milioni di ettari assoggettati per arrivare ai limitati fini di ENI, ossia fra i 10 e i 20.000 chilometri quadri; anche questo obiettivo tutto sommato di nicchia richiederebbe un decimo di tutta la superficie italiana usata per agricoltura e se vi fate un conto immediato anche se tutta la superficie agricola fosse convertita ad uso carburante non basterebbe ai nostri bisogni e nemmeno tutta la superficie dello stato basterebbe.

Insomma una tecnica del genere ci obbliga a rimanere importatori di energia e farebbe concorrenza comunque in certo grado alla produzione agricola.

Ci sono state altre esperienze perchè questa strategia (produrre la quota “bio” dei carburanti) è stata scelta da altre aziende italiane ma con scarso successo (una fra tutte Mossi& Ghisolfi, Crescentino, biocarburanti dalla canna selvatica Arundo Donax, un argomento che ho analizzato in dettaglio su C&I e che si rivela un investimento fallimentare). Crescentino è in profonda crisi e le prospettive occupazionali sono pessime. Si veda un mio articolo a riguardo https://www.soc.chim.it/system/files/private/chimind/pdf/2016_5_62_ca.pdf

Non è che non si possa fare chimicamente; si può fare, ma il ritorno energetico è ridicolmente basso e le difficoltà pratiche notevoli. Anche i biocarburanti di seconda generazione mostrano dei limiti; in due parole a parte la bassa resa superficiale e la sia pur ridotta concorrenza con l’alimentare rispetto ai biocarburanti di prima generazione, il problema è che se sottraete alla terra i residui vegetali delle piante dovete poi restituirglieli sotto forma di concimi sintetici e dunque il bilancio energetico complessivo di questa strategia complessiva in realtà non può essere granchè positivo.

Ma l’idea che sta dietro alla bioraffineria è molto più ampia e per certi aspetti sconvolgente; leggete con me un recente libro dedicato al tema delle bioraffinerie:

The present use of biomass is mainly limited to food and feed and a much smaller but still increasing part is applied for production of energy and fuels. The amount of biomass that is used for human consumption (food and non-food) represents only 13% of the annual global biomass production by photosynthesis that accounts for 155,000 million ton/year (see Section 1.2.2). This indicates a biomass potential to contribute significantly also to industrial sectors, including energy and chemicals (Marquardt et al., 2012).

(EFFICIENCY OF BIOMASS ENERGY An Exergy Approach to Biofuels, Power, and Biorefineries Krzysztof J. Ptasinski, Wiley 2016 cap. 17)

Dunque l’idea è: dato che sfruttiamo SOLO(sic!) un settimo circa del totale del flusso fotosintetico la bioraffineria sarebbe il modo di assoggettare una parte crescente o perfino tutta la biosfera alle necessità umane; la cosa ha un che di apocalittico e anche di spaventoso. Se tutta la biomassa venisse usata per scopi umani cosa ne sarebbe della biodiversità? E ancor più sarebbe questa prospettiva sostenibile? La biosfera è una rete integrata di relazioni non una macchina fatta di pezzi sostituibili; se assoggettiamo quelle relazioni solo ai nostri bisogni allora distruggeremo la macchina. Si potrebbe crescere nell’intercettazione del flusso fotosintetico senza alterare in modo ancora maggiore il funzionamento della biosfera( biodiversità, grandi cicli degli elementi, etc)? La mia risposta è: molto difficile se non impossibile.

Facciamo qualche riflessione su grande scala.

La società umana usa un quantitativo di energia primaria, ossia relativo alle sorgenti energetiche presenti in natura e quindi non derivanti dalla trasformazione di nessuna altra forma di energia, dell’ordine di 12-14 GTOE/anno, che al momento viene da energia fossile in percentuale dominante. La dimensione di questo consumo è tale che pone due limiti.

Il primo è che sebbene il flusso annuale di energia attraverso la biosfera sia di gran lunga maggiore di quello effettivamente usabile senza alterare in modo significativo i cicli naturali e la biosfera medesima i due diventano nondimeno “comparabili”; considerate per esempio che se è vero che il rapporto fra flusso di energia luminosa dal Sole e consumo totale primario è dell’ordine di 10.000:1 su tutto il globo, riducendosi (per motivi pratici e politici) all’area interna di un paese fortemente industrializzato come il nostro il rapporto scende a 200:1 e in paesi ancora più “concentrati” del nostro e dalle caratteristiche territoriali diverse, come l’Olanda può arrivare a solo 100:1; per cui l’incremento assoluto della quantità di energia comincia diventare significativo rispetto all’uso della biosfera. Siamo dunque non lontani da limiti insuperabili.

In secondo luogo se è concepibile trarlo da sorgenti interamente rinnovabili (solare, eolico, idro, maree, biomasse) le biomasse non potranno mai giocarvi un ruolo predominante; basti infatti pensare che la superficie atttualmente usata per scopi agricoli è stimabile in circa 40 milioni di kmq; dato che la produttività massima di specie usabili anche con le metodiche di seconda generazione equivale come detto al massimo a circa 1-1.5TOE/ettaro, se pure volessimo usare TUTTA la superficie agricola per scopi energetici e seppure questo, con sviluppi tecnologici oggi non concepibili, NON alterasse la resa agricola corrispondente, quindi se avessimo una ipotetica agricoltura OGM che producesse contemporaneamente cibo ed energia non supereremmo 4-5 GTOE anno, meno della metà delle nostre esigenze attuali.

Ovviamente si può immaginare una serie di scenari diversi usando le foreste attuali, il mare etc, (e questa è la prospettiva della “bioraffineria”) ma tutti questi scenari infrangono il limite della non ulteriore interferenza con la biosfera, la cui decadenza (ho detto giusto decadenza) misurata attraverso la riduzione della biodiversità è già manifesta e non tenendo conto che l’incremento prevedibile della numerosità umana nei prossimi 100 anni potrebbe essere dell’ordine di almeno 2-3 miliardi di altri individui con le corrispondenti richieste di cibo ed energia. Si tenga presente per esempio che attualmente la biomassa terrestre di vertebrati umani o asserviti all’uomo è il 98% del totale della biomassa di analogo livello (umani+asserviti+ selvatici)!!

In parole povere la biomassa non potrà giocare nemmeno nello scenario più favorevole se non un ruolo secondario nella nostra produzione energetica a meno di non rischiare un ulteriore impoverimento del sistema e perfino un suo danneggiamento irreversibile. Probabilmente nessuna sorgente primaria sarà assoluta o raggiungerà mai un ruolo dominante così esclusivo come gioca attualmente il fossile, ma se si può pensare ad una sorgente principe il pensiero non può che correre al solare nelle sue varie forme, accompagnato dall’eolico, dall’idrico e della maree/onde. Il nucleare attuale non è rinnovabile per nulla, avendo già superato il suo picco dell’uranio (non faccio menzione qui dei problemi di riciclo che pure non sono stati al momento risolti).

Diverso è il discorso se pensiamo ad usi NON energetici; qui le esigenze sono quantitativamente molto più ridotte, di ordini di grandezza e quindi si può pensare ad un ruolo chiave dei materiali di origine “naturale” e non fossile con limiti che dipendono dalle singole risorse (un esempio banale sono le fibre tessili naturali come canapa e lana, che oggi sono abbandonate o perfino considerate rifiuti).

Ma se le cose stanno così, perchè il nostro paese persegue una politica della chimica verde legata a visioni tipo biocarburanti? Perchè non sottolinea le biomasse come sorgente di materiali prima che di energia? Perchè le nostre major chimiche invece di investire nella produzione di materiali per il solare dei vari tipi (silicio, film sottile, o perfino perovskite) puntano alle biomasse; per esemplificare perchè si cerca a tutti i costi di mantenere Crescentino (Mossi e Ghisolfi) o Venezia-Marghera (ENI) ma si abbandonano di fatto Catania o Merano(SGS e MEMC)? Perchè non si supportano quei coraggiosi tentativi di startup sui temi dell’accumulo (come questo l’unico produtore italiano di celle al litio ione)?

*Anastas, Paul T., and Warner, John C. (1998). Green Chemistry Theory and Practice. New York: Oxford University Press

 

Il mio legame con la chimica.

In evidenza

Mauro Icardi

E’ da qualche giorno che sto riflettendo sul mio legame con la chimica. Alla chimica devo il fatto di avere un lavoro che svolgo ormai da quasi trent’anni. E che mi permette di esercitare uno dei primi doveri dell’uomo, cioè provvedere a sé stesso e alla famiglia. In tutto questo tempo sono riuscito a resistere a lusinghe di vario genere. Lusinghe che mi avrebbero dirottato dietro ad una scrivania ed un computer, ed alle quali ho opposto sempre dei cortesi ma risoluti dinieghi.

Ancora adesso provo un certo piacere sottile nell’entrare in Laboratorio, verificare se tutto è in ordine, se gli strumenti che hanno funzionato durante la notte hanno terminato le loro determinazioni e se tutto è in ordine. Operazioni abituali, ma che allenano all’osservazione e a capire al volo se ci sono problemi e come risolverli.

Mi occupo di acqua ed i campioni che analizzo non sono di matrice particolarmente complessa, come potrebbero essere rifiuti e fanghi, ma un campione di ingresso di un’acqua di un depuratore presuppone una certa capacità di gestione. L’acqua reflua solitamente ha una propria carta d’identità precisa in termini di colore, odore, pH . Bisogna cercare di evitare grossolani errori nel trattamento preliminare, errori che potrebbero falsare il risultato dell’analisi. Capire subito se il campione per esempio necessita di una diluizione, se deve essere filtrato e in che modo.

Sono accorgimenti pratici che trovano la loro ragione di essere nella chimica di un tempo. La chimica degli albori, quella che non aveva ancora incontrato e stabilito legami con la fisica e la meccanica quantistica. La chimica studiata sui mai archiviati testi di analisi quantitativa, e in particolare sulle tecniche di gravimetria.

Quella che ritengo personalmente la base di preparazione indispensabile, o almeno difficilmente sostituibile di chi in laboratorio ci lavora.

Oggi lavoriamo con strumentazione sofisticata ed in parte la nostra formazione ed i nostri studi si sono ovviamente modificati. Dobbiamo alle scoperte della fisica se nei laboratori utilizziamo tutte le conosciute e affermate tecniche analitiche e gli strumenti indispensabili, dallo spettrofotometro, fino al gas massa.

Ci aiutano ad essere produttivi e, perdonatemi il mio essere “chimicocentrico” ormai fanno parte del nostro bagaglio di esperienze. Approfondiamo le basi della tecnica, seguiamo corsi di formazione sulle nuove tecniche. Ma alla fine un campione pretrattato o diluito, una retta di taratura preparata correttamente è cosa da chimici, ed affonda le radici in tempi lontani.

Lavorare nel settore idrico mi ha portato a stabilire curiosità ed interesse per la biologia. Almeno per quanto riguarda l’esecuzione delle analisi microbiologiche. Nella lettura delle piastre la mia formazione mi porta sempre ad utilizzare i modi di esprimersi del chimico. La diluzione di un campione d’ingresso di acque reflue su cui fare la semina dei coli totali è sempre 1/1000. Sarebbe più elegante esprimerlo come 10-3 ed in effetti così lo esprimo scrivendolo sulle piastre. Sembrano piccoli dettagli, ma forse non lo sono.

Mi aiutano nel lavoro le nozioni di chimica industriale e di chimica fisica, da applicare nei trattamenti di depurazione.

Ma non sono solamente queste le riflessioni di questi giorni. Rifletto sull’evoluzione, anzi visto che si parla di chimica, sulla trasformazione della chimica e dei chimici. Da sempre conviviamo con una pessima reputazione. Eppure molti di noi sono impegnati a pieno titolo nel settore ambientale. Altri certamente nel trovare nuove vie per far sì che la chimica si rinnovi. La buona parte dello studio della chimica organica nel passato consisteva nello studio dei composti del petrolio. Sul petrolio si è costruito il nostro benessere e buona parte delle nostre conoscenze di chimici. Non mi sembra fuori luogo pensare che su queste basi possiamo essere utili a capire come potremo diventare parsimoniosi nell’utilizzarlo. Come lo sostituiremo e come sostituiremo le migliaia di prodotti che da esso abbiamo ottenuto.

La chimica sposa l’aggettivo “verde”. Cerca di riabilitarsi, ma in realtà è la visione che la maggior parte delle persone ne ha, che deve cambiare, anche se mi rendo conto che è molto difficile.

Oggi ho acquistato l’ultimo numero de “Le Scienze” e per coincidenza, mentre lo sfogliavo ho aperto subito la rivista su un articolo che parla di inquinamento da Pfas nelle acque potabili negli Stati Uniti. Qualcosa si rimette in moto. Curiosità che divora. La sensazione che mi porta a pensare che anche solo impegnandomi nel mio lavoro giornaliero possa contribuire a qualcosa. Questi composti, come altri organici e persistenti si stanno diffondendo nell’ambiente, entrano nel sangue delle persone, sono accusati di produrre (ma non è ancora nota la correlazione secondo l’autore) problemi al sistema immunitario e ingrossamenti del fegato.

Verranno certamente normati, si stabilirà il limite ammissibile, e dovremo determinarli. Solo pochi giorni fa ne ho parlato con altri colleghi che lavorano in aziende del settore idrico.

Mi sento davvero a volte un “chimico militante” come scriveva Primo Levi. Sono un tecnico e non un ricercatore. Sconto il paradosso di avere sviluppato l’interesse per la chimica proprio negli anni in cui è diventata lo spauracchio di molti. Gli anni degli allarmi sui coloranti alimentari, di Seveso.

Eppure sono ancora totalmente rapito da questo mestiere. Mi piace riflettere e mi piace riaprire i libri di testo, i libri di divulgazione chimica. Non mi sono mai spiegato razionalmente il perché. Ma ci sento una familiarità. Mi fa star bene aprire un libro di chimica. Un piacere che è simile a quello di un giro in bicicletta.

“Ma guardate l’idrogeno tacere nel mare
guardate l’ossigeno al suo fianco dormire:
soltanto una legge che io riesco a capire
ha potuto sposarli senza farli scoppiare.
Soltanto la legge che io riesco a capire.”

Fabrizio de Andrè   “Un chimico”

Nonostante la cattiva fama io credo e spero in un futuro per la chimica. Una chimica trasformata, che dialoga con le altre discipline scientifiche. E che finalmente supera una reputazione negativa, che fondamentalmente non merita. Che ha molto da dire. Che aiuta ad avere un atteggiamento mentale pratico e concreto.

Ma a mio parere la chimica non risolve solo problemi pratici e materiali, perché se la si conosce meglio ci si trovano metafore ed analogie che aiutano a costruire un filosofia spicciola per la vita quotidiana.

 

Alcune considerazioni sulla Strategia Energetica Nazionale 2017

In evidenza

Alcune considerazioni del Gruppo di Scienziati di Bologna

energiaperlitalia.it (Coordinatore: Vincenzo Balzani)

sulla  Strategia Energetica Nazionale 2017

 

La bozza della Strategia Energetica Nazionale (SEN) presentata dal Governo il 10 maggio si propone tre obiettivi:

  1. Competitività (ridurre il gap di prezzo dell’energia rispetto ai prezzi UE);
  2. Ambiente (raggiungere obiettivi in linea con COP21);
  3. Sicurezza (flessibilità di approvvigionamento).

Esame della SEN

Dopo un’attenta lettura della bozza SEN, si possono fare le seguenti considerazioni.

Coordinamento. Considerata la stretta connessione fra la scelta delle fonti energetiche e le conseguenze che ne possono derivare su clima e ambiente, risulta difficile capire le motivazioni per cui il Ministero delle Sviluppo Economico prepari una Strategia Energetica Nazionale e, allo stesso tempo, il Ministero dell’Ambiente prepari una Strategia energia-clima. In altri paesi si procede solitamente alla preparazione di un unico programma che, oltre a rispettare gli accordi di Parigi e gli obiettivi UE, tiene conto delle caratteristiche e delle esigenze specifiche del paese.

Fonti rinnovabili. L’obiettivo della SEN è in linea con quelli europei (27% di rinnovabili nei consumi finali al 2030; ad oggi la stima è del 17,5%). C’è però chi pensa che sia necessario giungere al 35% di energia rinnovabile per rispettare lʼaccordo di Parigi. LʼItalia, in ogni caso, deve e può fare di più. Alla fine del 2015 avevamo circa 19 mila MW di fotovoltaico installato e circa 9 mila MW di eolico. Il nostro paese ha conosciuto un forte sviluppo delle fonti rinnovabili fino al 2013, ma da più di tre anni è in stasi con la conseguente perdita di migliaia di posti di lavoro.

Più in dettaglio, non si può che essere d’accordo con l’obiettivo della SEN di promuovere l’autoconsumo per i possessori di piccoli impianti, soluzione finora fortemente scoraggiata dalla burocrazia e persino impedita da alcune norme. Parallelamente sarà però necessario facilitare la diffusione di metodi di accumulo. Positiva anche la decisione di promuovere la costruzione di grandi impianti fotovoltaici. A questo proposito, non si capisce perché Enel sia così attiva nel costruire grandi impianti di energie rinnovabili all’estero e del tutto assente, in questo campo, in Italia. Forse perché disturberebbe altri importanti operatori del settore energetico?

Efficienza energetica. La SEN riconosce che è necessaria una riqualificazione energetica su larga scala del nostro patrimonio edilizio, agendo su palazzi, agglomerati di edifici e interi quartieri con metodologie simili a quelle adottate con successo in altri paesi ed intervenendo, contemporaneamente, sulle criticità sismiche. Perché il programma abbia successo, è però necessario un piano adeguato di incentivi per anticipare le risorse necessarie.

Uscita dal carbone. Nella SEN è prevista tra il 2025 e il 2030. Nel caso in cui ciò si verificasse nel 2025, secondo la SEN si dovrebbero pagare circa 3 miliardi di euro di compensazione ai proprietari delle centrali non ancora ammortizzate. A questo proposito ci si chiede: 1) Possibile che impianti così vecchi non saranno ancora del tutto ammortizzati nel 2025? 2) E’ stato calcolato il risparmio dovuto ai benefici sanitari e climatici che deriverebbero dall’uscita anticipata, considerato che lʼAgenzia Europea per lʼAmbiente ha stimato in oltre 500 milioni di euro lʼanno gli impatti della sola centrale di Brindisi? 3) E’ stato calcolato il risparmio generato dalla mancata importazione del carbone?

In ogni caso, il problema delle compensazioni per impianti non adeguatamente sfruttati deve insegnarci che le grandi opere nel settore energetico vanno valutate in base all’effettivo bisogno che ci sarà in futuro (vide infra).

Investimenti per il gas. La SEN prevede di investire sul gas per ottenere elettricità in sostituzione del carbone, come risorsa di back up delle fonti rinnovabili e per diversificare le fonti di approvvigionamento. A questo proposito bisogna anzitutto notare che il consumo di gas, che era di circa 85 Gm3 all’anno nel periodo 2005-2008, è diminuito negli ultimi anni (71 Gm3 nel 2016) e certamente continuerà a diminuire. C’è quindi il rischio di costruire infrastrutture che rimarranno inutilizzate o sotto utilizzate, come è accaduto per i rigassificatori, con spreco di denaro pubblico o con la necessità di successive compensazioni per il mancato uso. Poiché in futuro per vari motivi si produrrà e si userà sempre più energia elettrica, sarebbe meglio investire in sistemi di accumulo dell’elettricità piuttosto che in centrali a gas di back up o in impianti di stoccaggio geologico del gas di importazione.

Trasporti. La SEN propone di estendere l’uso del gas come combustibile. Questo è anche quanto sostiene Eni nelle numerose pagine pubblicitarie sulla stampa e nei frequenti spot TV: il metano come ponte verso l’uso (remoto) delle fonti rinnovabili. Bisogna notare, però, che l’utilizzo del metano abbatte solo in parte l’inquinamento atmosferico e non porta alcun vantaggio per quanto riguarda il cambiamento climatico. E’ vero, infatti, che a parità di energia prodotta la quantità di CO2 generata dal gas naturale è inferiore di almeno il 20% di quella generata quando si usano derivati del petrolio, ma è anche vero che il metano è un gas serra 72 volte più potente di CO2 quando l’effetto è misurato su 20 anni e 25 volte più potente quando misurato su 100 anni. Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, è chiaro che passando al metano non si combatte affatto il cambiamento climatico.

Sempre nel campo dei trasporti, la SEN fa molto affidamento sui biocombustibili. Nulla da obiettare sul biometano ottenuto da prodotti di scarto, ma la figura riportata a p. 17 della SEN prevede che dal 2021 al 2030 si avrà solo un piccolo aumento della penetrazione delle rinnovabili nei trasporti e questo sarà principalmente dovuto a biocombustibili. Ancora una volta, questo è quanto sostiene Eni nelle sue pagine pubblicitarie, in una delle quali è scritto a caratteri cubitali che “Il carburante si otterrà dalle bucce delle mele. In Italia” (Corriere della Sera, 13 maggio 2017)

Va sottolineato che la presa di posizione di SEN e Eni in favore dei biocombustibili è in netta contraddizione con la realtà dei fatti. Numerosi studi scientifici dimostrano che nella filiera che porta dalle biomasse alle auto alimentate da biocombusibili l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è inferiore allo 0.1%, mentre per la filiera che dal fotovoltaico porta alle auto elettriche l’efficienza è 5,4%, cioè almeno cinquanta volte maggiore. In effetti, quello che gli esperti prevedono non è una sostituzione significativa dei combustibili fossili con biocombustibili, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici non inquinano, non producono CO2, sono quattro volte più efficienti dei motori a combustione interna e sono molto più facili da riparare e da mantenere.

Mentre l’Unione Petrolifera stima che nel 2030 i veicoli elettrici saranno solo lo 0,5% del parco di autoveicoli, gli esperti sono concordi nel prevedere una vera e propria rivoluzione nel campo dei trasporti. Nel 2020 potremo scegliere fra 120 modelli diversi di auto elettriche, nel 2025 il 30% delle auto vendute saranno elettriche e nel 2030 il 60% dei veicoli circolanti saranno elettrici. Anche Cina e India, i due mercati su cui hanno a lungo puntato le compagnie petrolifere e i costruttori di vetture con motori a combustione interna, hanno recentemente deciso di sviluppare rapidamente la mobilità elettrica.

In Italia, quindi, non servono altre bioraffinerie alimentate da olio di palma proveniente dalla Malesia (in attesa di usare le bucce delle nostre mele), ma fabbriche di pannelli fotovoltaici, di batterie e di auto elettriche.

Il futuro

E’ ormai chiaro che il fotovoltaico sarà la fonte energetica in più rapida crescita nei prossimi anni. Secondo Irena, tra il 2015 e il 2025 il costo di installazione degli impianti fotovoltaici si ridurrà del 57%. Nel frattempo, l’efficienza dei moduli più comuni aumenta (18-20%) e la diminuzione di efficienza nel tempo è così piccola da permettere un utilizzo medio di 35 anni. Il fotovoltaico è una tecnologia dirompente che, con effetto sinergico, potenzia due altre tecnologie: batterie (anche per uso stanziale) e auto elettriche. Il fotovoltaico servirà anche a produrre combustibili solari, indispensabili per i trasporti aerei e marittimi: utilizzando energia fotovoltaica per compiere l’elettrolisi dell’acqua si ottiene, infatti, idrogeno che può essere utilizzato per produrre combustibili liquidi come metanolo e gasolio sintetico.

E’ necessaria la riconversione di molte industrie. Un proverbio cinese dice: “Quando soffia il vento del cambiamento alcuni costruiscono muri, altri pale eoliche”. Saipem e Enel l’hanno capito. E’ urgente che la riconversione di Eni verso le rinnovabili diventi reale, non solo di facciata. Quella che era la “nostra” grande industria automobilistica (FCA) non è interessata ai veicoli elettrici e si ostina a produrre automobili tradizionali che entro non molti anni saranno fuori mercato. Questa incapacità di capire in che direzione va il mercato automobilistico rischia di lasciarci fuori dallo sviluppo industriale di questo settore e lo consegna ancor più nelle mani di industrie straniere. Sia le industrie petrolifere che quelle automobilistiche dovrebbero tener conto che c’è una rapida evoluzione nella tecnologia e che non si possono vincere sfide andando contro corrente. Purtroppo la SEN non è in linea con le previsioni degli esperti e non si pone obiettivi chiari nel campo dei trasporti. Se veramente si vuole svecchiare il parco veicolare (p. 16 della bozza SEN) per ridurre l’inquinamento e combattere i cambiamenti climatici, bisogna investire nella realizzazione di una infrastruttura diffusa di ricarica elettrica e fornire incentivi per lʼacquisto di veicoli elettrici e non di veicoli a combustione interna, particolarmente dopo gli inganni che hanno perpetrato in questo campo le industrie automobilistiche.

Per quanto riguarda il gas, la SEN dovrebbe tener presente che c’è il forte rischio di costruire gasdotti e impianti di rigassificazione e stoccaggio in eccesso. Come già accennato, i consumi di gas sono in diminuzione e continueranno a diminuire sia per combattere i cambiamenti climatici che per l’inarrestabile sviluppo delle rinnovabili. Secondo le previsioni UE, nel 2030 si importeranno 328 miliardi di m3 di gas all’anno, la metà della capacità di importazione delle infrastrutture già oggi disponibili. Con la realizzazione di tutte le infrastrutture programmate l’Europa avrebbe una capacità di importazione addirittura tre volte maggiore di quella necessaria. Un discorso simile si può fare per quanto riguarda le bioraffinerie, data la rapida diffusione di auto elettriche.

La netta presa di posizione dei governi italiano, francese e tedesco contro la decisione del presidente Trump di ritirarsi dall’accordo di Parigi deve ora declinarsi in azioni e fatti concreti. La transizione energetica dai combustibili fossili alle energie rinnovabili è non solo necessaria, ma inevitabile. Nella letteratura scientifica internazionale ci sono molti studi sull’argomento. Ricordiamo solo quello di scienziati delle università di Stanford, Berkeley e Berlino, nel quale è dimostrato che la transizione è tecnicamente possibile ed economicamente conveniente. In tutti i 139 paesi presi in esame, entro il 2050 si possono sostituire totalmente i combustibili fossili con l’energia rinnovabile del sole, del vento e del’acqua. Per quanto riguarda specificamente l’Italia, lo studio prevede che la transizione energetica porterà da qui al 2050 un risparmio di circa 6.700 dollari per persona all’anno e un aumento complessivo di circa 770.000 posti di lavoro, considerando anche i circa 150.000 posti persi con l’abbandono dei combustibili fossili.

Conclusioni

Definire le linee di indirizzo per una valida Strategia Energetica Nazionale è un problema complesso, che deve essere affrontato congiuntamente da almeno cinque prospettive diverse: scientifica, economica, sociale, ambientale e culturale.

A nostro parere gli obiettivi principali delle Strategia Energetica Nazionale per un paese come l’Italia dovrebbero essere due, come già avemmo modo di segnalare al precedente governo:

  1. Ridurre il consumo di energia, obiettivo che deve essere perseguito mediante un aumento dell’efficienza energetica e, ancor più, educando alla cultura della parsimonia, principio di fondamentale importanza per vivere in un mondo che ha risorse limitate.
  2. Facilitare e accelerare la transizione dall’uso dei combustibili fossili a quello delle energie rinnovabili, anche nell’ottica di una più generale transizione dall’economia lineare all’economia circolare.

Perseguendo questi due obiettivi, si potrebbero raggiungere importanti risultati:

riduzione delle importazioni di combustibili fossili;

– maggiore indipendenza energetica;

– miglioramento nella bilancia dei pagamenti;

– riduzione (non espansione!) fino a totale cessazione dell’estrazione di combustibili fossili nel nostro suolo e nei nostri mari, evitando così la degradazione del paesaggio e il rischio di incidenti che potrebbero compromettere il turismo, che è un’enorme fonte di ricchezza certa per l’economia nazionale;

– superamento dei modesti obiettivi dichiarati dal nostro paese alla COP21, con un conseguente maggiore abbattimento non solo di gas serra, ma anche delle sostanze inquinanti e quindi dei costi sociali ed economici da esse provocati; ricordiamo che secondo l’Agenzia Europea per l’Ambiente in Italia avvengono più di 90 mila morti premature ogni anno (in termini di anni di vita persi, circa 16 anni ogni 1000 abitanti).

– creazione di nuovi posti di lavoro particolarmente nel settore manifatturiero.

E’ importantissimo che la riduzione dei consumi non sia basata solo su un aumento di efficienza perché in tal caso può verificarsi l’effetto rebound: i soldi risparmiati con l’aumento di efficienza vengono spesi altrove, con ulteriori consumi energetici. Prima che sull’efficienza, è necessario che l’azione del governo sia volta a diffondere una cultura della sufficienza per far sì che le persone diventino consapevoli dei vantaggi di vivere in un modo sobrio, riducendo volontariamente i consumi di energia e di ogni altra risorsa. Il governo potrebbe dare il buon esempio riducendo il limite di velocità sulle autostrade, incoraggiando i cittadini ad acquistare auto che consumino e inquinino meno, incentivando l’uso delle biciclette e dei mezzi pubblici, trasferendo per quanto è possibile, con la massima urgenza, il trasporto merci dalla strada alla rotaia o a collegamenti marittimi e, soprattutto, organizzando una campagna di informazione e formazione culturale, a partire dalle scuole, per mettere in luce i vantaggi dello sviluppo delle fonti rinnovabili, della riduzione dei consumi individuali e collettivi e più in generale della sobrietà. Se il denaro speso dall’Eni per la sua intensa e irritante campagna pubblicitaria fosse usato dal governo per una campagna culturale su questi temi, si potrebbero gettare le fondamenta per una società a 2000 W come quella scelta dagli svizzeri col referendum del 21 maggio 2017, che ha approvato la strategia energetica svizzera 2050. (NOTA: attualmente, un cittadino americano usa 12.000 watt di potenza e un cittadino europeo 6.000 watt. 2000 watt era la potenza pro capite complessiva usata in Europa negli anni ’60 ed è proprio questo l’obiettivo che la Svizzera si è posta di raggiungere nel 2050: 2000 watt di potenza corrispondono infatti ad una quantità di energia sufficiente per soddisfare tutte le necessità dei cittadini e per permettere una vita più che agiata).

Bisogna rendersi conto che il mondo deve cambiare, perché, come dice papa Francesco nell’enciclica Laudato si’, “l’idea di una crescita infinita o illimitata, che ha tanto entusiasmato gli economisti, i teorici della finanza e della tecnologia suppone la menzogna circa la disponibilità infinita dei beni del pianeta, che conduce a “spremerlo” fino al limite e oltre il limite. Si tratta del falso presupposto che esiste una quantità illimitata di energia e di mezzi utilizzabili, che la loro immediata rigenerazione è possibile e che gli effetti negativi delle manipolazioni della natura possono essere facilmente assorbiti».

Compito della SEN è gettare le basi per il passaggio dal consumismo e dall’usa e getta dell’economia lineare ad una economia circolare caratterizzata dalla sobrietà. L’Italia, un paese che per decenni ha vissuto al di sopra delle proprie risorse economiche, caricando pesanti debiti sulle spalle delle future generazioni, può e deve trovare nella transizione energetica l’occasione per un netto cambiamento di rotta che le permetterebbe anche di assumere un ruolo di guida all’interno della Unione Europea.

4 giugno 2017

Gruppo di scienziati di Bologna energiaperlitalia.it

Vincenzo Balzani (coordinatore), Dipartimento di Chimica “G. Ciamician”, Università; Nicola Armaroli, Istituto ISOF-CNR; Alberto Bellini, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università; Giacomo Bergamini, Dipartimento di Chimica “G. Ciamician”, Università; Enrico Bonatti, ISMAR-CNR; Alessandra Bonoli, Dipartimento di Ingegneria Civile, Chimica, dell’Ambiente e dei Materiali, Università; Carlo Cacciamani, Servizio IdroMeteoClima, ARPAE; Romano Camassi, INGV; Sergio Castellari, Divisione servizi climatici, CMCC e INGV; Daniela Cavalcoli, Dipartimento di Fisica ed Astronomia, Università; Marco Cervino, ISAC-CNR; Maria Cristina Facchini, ISAC-CNR; Sandro Fuzzi, ISAC-CNR; Luigi Guerra, Dipartimento di Scienze dell’Educazione «Giovanni Maria Bertin», Università; Giulio Marchesini Reggiani, Dipartimento di Scienze Mediche e Chirurgiche, Università; Vittorio Marletto, Servizio IdroMeteoClima, ARPAE; Enrico Sangiorgi, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università; Leonardo Setti, Dipartimento di Chimica Industriale, Università; Micol Todesco, INGV; Margherita Venturi, Dipartimento di Chimica “G. Ciamician”, Università; Stefano Zamagni, Scuola di Economia, Management e Statistica, Università; Gabriele Zanini, UTVALAMB-ENEA

 

La pubblicità di ENI. Il metano ci dà una mano. O no?

In evidenza

Claudio Della Volpe

Con un fatturato annuo di oltre 67 miliardi di euro nel 2016, sia pure in fortissima diminuzione rispetto al passato (i dipendenti si sono ridotti a meno di 30.000 dagli oltre 100.000 degli anni 90) ENI rimane la seconda o terza azienda italiana (dopo EXOR-FCA, ossia l’ex Fiat e dopo ENEL, nel 2016), pagando la riduzione dei costi del greggio e il deconsolidamento di Saipem e Versalis; se enrambe fossero rimaste nel perimetro ENI, la società oggi avrebbe un fatturato di oltre 80 miliardi. Ma nonostante questo, la fama di “stato-nello-stato” guadagnata fin dai tempi di Mattei non viene scalfita, ed ENI continua a svolgere un ruolo chiave sia politico che materiale. Basti pensare al caso Shalabayeva e alle contestazioni contro ENI della Nigeria e di alcune ONG; a febbraio la Procura della Repubblica di Milano ha chiesto il rinvio a giudizio per l’amministratore delegato dell’Eni Claudio Descalzi e per altri 12 indagati, tra cui l’ex ad Paolo Scaroni e Luigi Bisignani, per un presunto caso di corruzione legato all’acquisizione dei diritti di sfruttamento del mega blocco petrolifero OPL245, in Nigeria: si parla di oltre un miliardo di euro.

OPL 245 è un immenso blocco estrattivo situato in Nigeria sfruttato da ENI e Shell; la Nigeria è uno degli stati da cui provengono oggi più immigrati nel nostro paese e che lamenta una maggiore ingerenza nella sua Natura e nella sua economia da parte dell’Italia; è da pensarci quando si parla di immigrazione. La comunità Ikebiri oggi, come quella Bodo ieri contro la Shell dimostrano che l’emigrazione nigeriana non nasce dal nulla. Il caso Ken Saro-Wiwa degli anni 90 (difensore del popolo Ogoni) dimostra anche che questi contrasti sono ben fondati, essendo iniziati con la scoperta stessa del petrolio nigeriano nel 1956.

Kenule Beeson Saro-Wiwa, uno dei maggiori intellettuali africani, impiccato nel 1995*

Ma questo post non vuole solo dare qualche informazione sulla politica internazionale di ENI, che per i chimici italiani rimane una azienda “di riferimento”, ma soprattutto svelare quanto ci sia di greenwashing, di falso ambientalismo in una politica energetica del nostro paese che è in grave ritardo.

Oggi ci occupiamo della parola d’ordine sul metano come alternativa fossile “verde” al petrolio e al carbone. E’ veramente così?

ENI ne è convinta perchè sulle pagine del Fatto pubblicizza la sua strategia con grande enfasi e cerca di sfatare quelli che chiama i miti sul gas; alcune cose sono vere, ma di quelle più importanti ENI non dice nulla, anzi nicchia (al mito 3 dice esplicitamente una bufala che oggi contesteremo). Andatevela a leggere anche se prima potete riflettere sul fatto che il giornale in questione ha avuto una ampia polemica con ENI a proposito della pubblicità proprio qualche mese fa in rapporto all’informazione, denunciando che a causa degli articoli sulla questione nigeriana Eni voleva tagliare la pubblicità; oggi ENI sta facendo pubblicità proprio sul Fatto e vedremo se il Fatto continuerà a fornire informazioni sulla questione nigeriana. Siamo “su con le rece” come si dice a Trento, su con le orecchie, vedremo.

Allora il metano è un gas combustibile; facciamo un confronto fra i tre principali combustibili, carbone, petrolio e gas metano e vediamo quanti gas serra producono nella loro combustione.

I dati a cui si riferisce anche ENI sono riportati qui; e sono anche facilmente calcolabili; facciamo un po’ di stechiometria, prendiamo una tabellina adeguata:

C+O2=CO2 + 32.5MJ/kg di C

CH2+1.5O2=CO2 +H2O+ 42MJ/kg di CH2

CH4+2O2=CO2 +2H2O+ 55.5MJ/kg di CH4

Carbone (antracite), composizione approssimata C, entalpia di combustione= 32.5MJ/kg, CO2 emessa per kg 44/12=3.67kg, CO2 emessa per MJ 0.114kg

Petrolio, composizione approssimata CH2, entalpia di combustione=42 MJ/kg, CO2 emessa per kg 44/14=3.14kg , CO2 emessa per MJ 0.074kg

Metano, composizione approssimata CH4, entalpia di combustione=55.5MJ/kg CO2 emessa per kg 44/16=2.75kg; CO2 emessa per MJ 0.049kg

Sorvolo sui dettagli delle composizioni, giusto per far capire i ragionamenti ai non addetti; dunque il rapporto per unità di energia prodotta ottenuto con questo semplice conto ci dice che il carbone produce più del doppio del diossido rispetto al metano e il petrolio circa il 50% in più (2:1.5:1).

I dati dell’EIA sono leggermente diversi e ovviamente più precisi, sono espressi in libbre di diossido per milione di BTU: (228.6:161.3:117 ossia 1.95:1.38:1) e perfino più sfavorevoli al metano, ma qui vale il senso generale più che il valore numerico.

Ma questo risultato è quello definitivo? La risposta è no. Perchè quando si usa un combustibile occorre indagare tutta la catena della estrazione, produzione, distribuzione. E qui le cose cambiano.

L’estrazione ha a che fare con l’EROEI del combustibile, ossia col suo costo energetico e da questo punto di vista il carbone con il suo bassissimo costo estrattivo batte sia il petrolio che il gas; d’altronde riperde poi posizioni nella parte trasporto, dove la bassa densità lo sfavorisce. Trasportare carbone è semplice ma costoso (occupa grandi volumi in rapporto all’energia offerta). Per questo il carbone è prevalentemente utilizzato in prossimità dei luoghi di produzione (in generale, in Italia abbiamo casi di carbone importato dall’altra parte dell’oceano).

Ma il dato più eclatante da considerare è che il metano è esso stesso un gas serra e anche molto più potente del diossido di carbonio. L’effetto serra del metano espresso come forzante termica nei confronti dell’atmosfera varia nel tempo poichè la sua vita media è relativamente breve, dell’ordine del decennio, dopo si trasforma essenzialmente ma non solo in diossido; ancora una volta facciamo una approssimazione ma consideriamo solo l’effetto principale.

Per stimare l’effetto serra di una sostanza si usa una scala che dipende dalla sostanza e dal tempo considerato, ossia dalla velocità con cui la sostanza una volta immessa in atmosfera viene poi riciclata; questa scala vale 1 per la CO2 qualunque sia t e viene chiamata GWPXX, dove XX indica il periodo di tempo considerato in anni; dunque se cerchiamo il GWP20 o il GWP100 per il metano troveremo due valori che sono 84-87 e 28-36 rispettivamente; il che significa che a parità di concentrazione dopo 20 anni o dopo 100 anni l’assorbimento serra comporterà una forzante rispettivamente 84-87 volte o 28-36 volte superiore a quella di una eguale quantità di CO2.

Questi valori sono i più recenti valori stimati dall’IPCC; il metano è un potente gas serra che fortunatamente è presente in concentrazione molto più bassa di altri in atmosfera anche se rapidamente crescente.

Ricordo che uno degli ambiti di studio di Guido Barone, mio tutor di tesi a Napoli (e che ci ha lasciati da poco) era proprio questo, capire il ruolo potenziale del metano disciolto in acqua di mare (che è una quantità stratosferica nel permafrost e in prossimità delle coste dei mari polari). Io stesso feci una tesi sulla capacità delle soluzioni acquose di solubilizzare piccole molecole di idrocarburo nelle cavità dell’acqua “strutturata”, anche se allora 40 anni fa lo scopo era diverso, era di comprendere meglio la struttura terziaria delle proteine.

Il metano, l’etano sono parecchio solubili in acqua, specie a bassa temperatura e ad una pressione di qualche atmosfera; la formazione di idrati contenenti questi gas nei grandi impianti di pompaggio del gas naturale è uno dei problemi di funzionamento principali e il loro potenziale rilascio da parte del permafrost e dei ghiacci polari uno dei maggiori rischi ambientali e climatici. (si veda qui)

Torniamo a noi; bruciando metano produco 100 parti di diossido di carbonio e bruciando petrolio ne produco circa il 40-50% in più, 150 parti; bruciando carbone circa il doppio; ma questo vantaggio del metano può venire rapidamente soverchiato dalle perdite di metano dovute all’estrazione, al trasporto e allo stoccaggio di metano; il caso Alysso canyon lo abbiamo raccontato da poco.

Si stima che alcuni percento del totale della massa di metano usata come combustibile vengano persi nelle varie fasi; per ogni percento perso l’effetto serra del metano aumenta di una quantità stimabile dall’84-87% al 28-36% in più a seconda se consideriamo un lasso di tempo di 20 anni o 100 anni; dunque è facile comprendere che questo “piccolo” livello di perdita dell’1% renderebbe il metano comparabile su alcune scale temporali con il petrolio; se la perdita cresce perfino col carbone!

Dice EPA:

Methane (CH4) is estimated to have a GWP of 28–36 over 100 years. CH4 emitted today lasts about a decade on average, which is much less time than CO2. But CH4 also absorbs much more energy than CO2. The net effect of the shorter lifetime and higher energy absorption is reflected in the GWP. The CH4 GWP also accounts for some indirect effects, such as the fact that CH4 is a precursor to ozone, and ozone is itself a GHG.

(https://www.epa.gov/ghgemissions/understanding-global-warming-potentials – Learn why)

Possiamo schematizzare così:

CO2 equivalente prodotta da …(effetto a 20 anni)

Metano sola combustione= 100

Petrolio sola combustione=150

Metano con perdite 1%= 184-187

Carbone sola combustione=200

Metano Con perdite 2%=268-274

Metano Con perdite 3%=352-361

CO2 equivalente prodotta da …(effetto a 100 anni)

Metano sola combustione= 100

Petrolio sola combustione=150

Metano con perdite 1%= 128-136

Metano Con perdite 2%=156-172

Metano Con perdite 3%=184-208

Carbone sola combustione=200

A quanto ammontano le perdite di metano?

Negli anni recenti ci sono stati parecchi ricercatori che hanno cercato di rispondere a questa domanda; e la cosa è arrivata al grande pubblico tramite i grandi giornali esteri (non sia mai che quelli italiani se ne occupino); dati definitivi non mi risulta ci siano, ma citerò qui due o tre articoli secondo me importanti per capire le cose.

Il primo è un lavoro di PNAS del 2012 nel quale si conclude:

We find that a shift to compressed natural gas vehicles from gasoline or diesel vehicles leads to greater radiative forcing of the climate for 80 or 280 yr, respectively, before beginning to produce benefits. Compressed natural gas vehicles could produce climate benefits on all time frames if the well-to-wheels CH4 leakage were capped at a level 45–70% below current estimates. By contrast, using natural gas instead of coal for electric power plants can reduce radiative forcing immediately, and reducing CH4 losses from the production and transportation of natural gas would produce even greater benefits. There is a need for the natural gas industry and science community to help obtain better emissions data and for increased efforts to reduce methane leakage in order to minimize the climate footprint of natural gas

Nel secondo lavoro su Environmental Science and Technology del febbraio di quest’anno si conclude che

Presently, there is high uncertainty in estimates of methane (CH4) emissions from natural gas-fired power plants (NGPP) and oil refineries, two major end users of natural gas. … At NGPPs, the percentage of unburned CH4 emitted from stacks (0.010.14%) was much lower than respective facility-scale losses (0.100.42%), and CH4 emissions from both NGPPs and refineries were more strongly correlated with enhanced H2O concentrations (R2avg = 0.65) than with CO2 (R2avg = 0.21), suggesting noncombustion-related equipment as potential CH4 sources. Additionally, calculated throughput-based emission factors (EF) derived from the NGPP measurements made in this study were, on average, a factor of 4.4 (stacks) and 42 (facility-scale) larger than industry-used EFs. Subsequently, throughput-based EFs for both the NGPPs and refineries were used to estimate total U.S. emissions from these facility-types. Results indicate that NGPPs and oil refineries may be large sources of CH4 emissions and could contribute significantly (1.5 ± 0.8 Tg CH4/yr, 95% CL) to U.S. emissions.

Nel terzo, un bel lavoro italiano (Environmental Pollution 164 (2012) 125e131) fatto dai colleghi dell’IBIMET-CNR di Firenze e della Fondazione Edmund Mach di S. Michele all’Adige, in Trentino a pochi chilometri da me (fra l’altro col sempreverde Franco Miglietta) si analizza la situazione di una grande città come Firenze concludendo che:

Long-term fluxes of CO2, and combined short-term fluxes of CH4 and CO2 were measured with the eddy covariance technique in the city centre of Florence. CO2 long-term weekly fluxes exhibit a high seasonality, ranging from 39 to 172% of the mean annual value in summer and winter respectively, while CH4 fluxes are relevant and dont exhibit temporal variability. Contribution of road traffic and domestic heating has been estimated through multi-regression models combined with inventorial traffic and CH4 consumption data, revealing that heating accounts for more than 80% of observed CO2 fluxes. Those two components are instead responsible for only 14% of observed CH4 fluxes, while the major residual part is likely dominated by gas network leakages. CH4 fluxes expressed as CO2 equivalent represent about 8% of CO2 emissions, ranging from 16% in summer to 4% in winter, and cannot therefore be neglected when assessing greenhouse impact of cities.

In tutti e tre i casi si riconosce un ruolo importante e ancora non completamente valutato alle emissioni dirette di metano dagli impianti di produzione, trasporto e distribuzione; questi risultati ci costringono a concludere che la sostituzione del metano agli altri due fossili carbone e petrolio non è necessariamente un vantaggio, ma anzi in alcuni casi potrebbe peggiorare la situazione specie nella sostituzione al petrolio a meno di non ridurre significativamente le perdite di metano in ogni fase della catena produttiva.

I dati americani sembrano più ampi e precisi, quelli europei sono pochi; c’è stato un congresso dedicato nel 2016, partito dalla constatazione che:

If methane leakage  accounts  for  more  than  2.7%  of  gas  produced,  advantages  of  natural  gas  versus coal are lost in the immediate2……  This  raises  the  question  of  what  the  true  carbon  footprint  of  natural gas is once regional leakage rates are taken into account, and therefore its real benefits as  a  “transition”  fuel.

E ancora:

At     a     global     scale,     self reporting   methane   emissions   from   the   O&G   sector   notify   significant   discrepancies:   in   the   Middle   East     areafor     instance,     Kuwait     report    leakage     rates     26     times     lower     than     Bahrain,   although   they   show   similar   natural   gas   production   profiles.   Amongst   the   20   largest   NG   producers, while the US,     Canada     and     Russia     report     gas     leakages     between     1%     and     3%,   other     countries   like   Qatar,     Saudi     Arabia,     China,     Norway     and     the     Netherlands     report     almost   no   emission.

E infine in un lavoro su Nature della fine 2016 dà una valutazione globale vicina al 2%:

We find that total fossil fuel methane emissions (fossil fuel industry plus natural geological seepage) are not increasing over time, but are 60 to 110 per cent greater than current estimates owing to large revisions in isotope source signatures. We show that this is consistent with the observed global latitudinal methane gradient. After accounting for natural geological methane seepage, we find that methane emissions from natural gas, oil and coal production and their usage are 20 to 60 per cent greater than inventories. Our findings imply a greater potential for the fossil fuel industry to mitigate anthropogenic climate forcing, but we also find that methane emissions from natural gas as a fraction of production have declined from approximately 8 per cent to approximately 2 per cent over the past three decades.

Quindi questa stima è che attualmente ci sia una emissione dell’ordine del 2% a livello mondiale.

Non è facile fare i conti; per esempio ENI dichiara da parte propria dei dati come questi; consideriamo solo le emissioni di metano incombusto e da emissioni fuggitive (non stiamo dunque esaurendo il totale delle emissioni di metano nelle varie fasi estrattive, di trasporto e produttive):
2014- 124.000 ton

2015- 99.000 ton

2016- 85.000 ton

Se consideriamo il potenziale GHG di questo metano in termini di CO2 eq a 20 anni troveremo che solo in questi tre anni ha emesso l’equivalente di quasi 27Mton, e ha in programma al 2025 di ridurle al 20% del 2014 , circa 24.000 ton ossia oltre 2 Mton equivalenti.

Nel 2016 l’ENI ha manipolato circa 60Mton di gas naturale (83Gm3), che produrrebbero circa 165Mton di CO2, ma aggiungendoci questa sola parte del metano fuggitivo le emissioni crescerebbero di altri 7 Mton equivalenti; e il resto?

Proprio per questo motivo dare per scontato il vantaggio del metano ed investire sul metano potrebbe costituire una strategia sbagliata; nell’immediato i dati mondiali sono tali da concludere che la sostituzione è nei primi 20 anni certamente peggiorativa rispetto al petrolio e potrebbe risultare utile solo rispetto al carbone sul lungo periodo. Sul lungo periodo, nel quale le cose migliorerebbero da qua a cento anni, dovremo comunque essere passsati ad altre fonti e la conclusione è che il metano non ci da una mano, anzi è peggiorativo rispetto al passaggio diretto all’elettrico.

La strategia in corso nel mondo è il passaggio alle rinnovabili; la strategia da attuare per tener fede all’impegno di Parigi 2015 è passare alle rinnovabili; non ci sono alternativi o trucchi fossili di alcun tipo. Occorre con rapidità stimare le perdite di metano in Europa e porvi rimedio se possibile per sostituire il metano al carbone in alcune delle centrali elettriche, ma in tutti i casi in cui il confronto è metano- petrolio questo è un falso problema e la scelta di una nuova sorgente sarà per l’elettrico non per il gas naturale.

Mentre scrivo queste righe leggo della folle scelta di Trump: uscire da Parigi 2015? Avrà le sue ragioni, ma nulla di razionale; il processo di transizione energetica è inarrestabile. Ma allora direte voi perchè ti preoccupi: beh prima di tutto il diavolo è nei dettagli (ed oggi ne abbiamo visto uno) e inarrestabile non vuol dire che non può essere rallentato; e a noi manca il tempo.

Prossimamente analizzeremo altri elementi della pubblicità di ENI.

 

  • *« “…tutti noi siamo di fronte alla Storia. Io sono un uomo di pace, di idee. Provo sgomento per la vergognosa povertà del mio popolo che vive su una terra molto generosa di risorse; provo rabbia per la devastazione di questa terra; provo fretta di ottenere che il mio popolo riconquisti il suo diritto alla vita e a una vita decente. Così ho dedicato tutte le mie risorse materiali ed intellettuali a una causa nella quale credo totalmente, sulla quale non posso essere zittito. Non ho dubbi sul fatto che, alla fine, la mia causa vincerà e non importa quanti processi, quante tribolazioni io e coloro che credono con me in questa causa potremo incontrare nel corso del nostro cammino. Né la prigione né la morte potranno impedire la nostra vittoria finale…” . »
    (Ken Saro-Wiwa)

Note sulla chimica del tabacco

In evidenza

Luigi Campanella ex Presidente SCI

Le prime manifatture del tabacco risalgono agli anni 1712 e 1743. Prima di queste due date si conoscevano soltanto singole operazioni:essiccazione e macinazione.Il Laboratorio Chimico dei Monopoli di Stato in via della Luce a Trastevere,Roma,deve essere invece considerato la prima istituzione scientifica statale impegnata nel settore del tabacco.

La prima applicazione della Chimica all’industria del tabacco risale ad oltre un secolo dopo la prima manifattura, precisamente al 1877, ma in realtà non portò a risultasti significativi e comunque di un qualche interesse.

Le prime reazioni chimiche di rilievo trattate nel settore del tabacco con metodo scientifico, un vero e proprio salto di qualità rispetto al passato risalgono a Cannizzaro (1893), chimico, scienziato, patriota, senatore.

La reazione che porta il suo nome è la ben nota

         Aldeide benzoica + formaldeide (in ambiente di idrossido di sodio)——-formiato di sodio (o acido formico) + alcool benzilico

A Cannizzaro si deve peraltro anche la determinazione dei pesi atomici di 31 elementi.Tra i suoi studi più significativi quelli sulle condizioni igienico sanitarie nelle solfatare,nelle industrie dei fiammiferi,nella stessa industria del tabacco..Cannizzaro ha svolto anche ricerche nell’analisi dei tabacchi.delle sostanze impiegate nella sua manifattura,dei suoli sui quali la pianta viene coltivata,nonché sugli indicatori a contrasto delle frodi. Le innovazioni a lui dovute nell’industria del tabacco sono tre: fermentazione, lavaggio, macerazione. Per quanto riguarda la fermentazione enzimatica su tabacco essiccato (T=30-60 °C,30-40 gg) l’amido viene ossidato a CO2,si ottengono come prodotti secondari acido acetico,composti amidici e NH3,con perdita di nicotina, nitrato, acidi organici e materia grassa.

La sostanza del tabacco sottoposta ad analisi chimica elementare risulta composta da C,H,O,gruppi acidi ( acido oleico, stearico, palmitico), gruppi alcoolici (glicerolo); risulta inoltre non polare, insolubile in acqua,con densità pari a 0,90-0,98 g/cc. L’analisi chimica rivela anche carbonato di calcio (7-65%) nel residuo insolubile in acqua,la presenza di sali organici (probabilmente per l’addizione che si fa di citrato, malato, tartrato) e quella di carbonato di potassio (1-30%) dopo la combustione.(1 h,circa) .Con analisi qualitative molto accurate è possibile anche evidenziare tracce di numerosi altri composti,quali acido solforico,acido fosforico,acido nitrico,acido cloridrico,anidride solforosa,idrossido di calcio e di sodio,silice.,oltre ovviamente a quanto già detto prima,in particolare la nicotina.E’ questa la componente più rilevante: si tratta di un liquido trasparente, leggermente giallo,di sapore acre ed odore simile a quello della piridina, igroscopico (+177% di acqua all’aria,persa a 150°C),.di densità 1.01, capace di deviare il piano della luce polarizzata verso sinistra e che si accumula nel ciclo vegetativo, con carbonio % fra 0,2 e 10.

A seconda del contenuto in carbonio distinguiamo tabacchi forti con contenuto % in carbonio fra 3 e 10,e tabacchi leggeri con contenuto % in carbonio minore di 3.La nicotina viene estratta per distillazione che può così essere schematizzata

Matrice ____H2SO4 —-evaporazione —-carbonato di ammonio   nicotina———solubilizzazione in alcool etilico——-distillazione

Un’alternativa è il metodo di Schloesing che si basa sulla insolubilizzazione in NaCl della nicotina libera,conseguente precipitazione, dissoluzione in etere e soluzione di carbonato di potassio con ripartizione fra le due fasi e confronto con un tabacco di riferimento per il valore % di nicotina,da fornire come caratteristica.

Esiste anche un terzo metodo,più complesso, ma anche più accurato. Si tratta del Metodo di Pezzolato che si basa sulla distillazione in corrente di vapore acqueo della nicotina liberata per idrolisi basica e poi fissaggio della stessa su acido solforico che viene titolato.

Si può concludere che la chimica ha avuto un ruolo e lo conserva anche oggi nell’industria manifatturiera e nella caratterizzazione dei tabacchi, che nel tempo questa partecipazione si è evoluta da metodi empirici a di natura organolettica a metodi quantitativi affidabili, che ancora si registra una certa carenza di dati sostenuti statisticamente, che per il futuro è da auspicare una standardizzazione delle metodiche analitiche riferite al tabacco.

Si veda anche :

http://media.accademiaxl.it/memorie/S5-VXXXIII-P2-2009/Lenci451-463.pdf

Diverse culture alimentari a confronto.

In evidenza

Marino Melissano*

Vegetariani e vegani: sono sinomini?

La distinzione tra le due culture alimentari, che a un primo sguardo potrebbe apparire molto sottile, segna al contrario una profonda distanza tra due scelte che hanno implicazioni assai divergenti.

Vegetarianesimo

In questa categoria sono inclusi tutti coloro che escludono dalla propria alimentazione la carne di ogni animale (di terra, di aria e d’acqua), senza però rinunciare a prodotti di derivazione animale, come latte, uova, formaggi e latticini, sulla base di motivazioni etiche, religiose e igienistiche.

Questo modello è anche detto latto-ovo-vegetarianismo

Un vegetariano, dunque, non si nutre di pesce. In questa categoria alcuni comprendono anche i cosiddetti semi-vegetariani che, come dice il termine, sono vegetariani… ma non del tutto! I semivegetariani sono coloro che si nutrono di carne, pesce e volatili con una frequenza inferiore a una volta alla settimana. È comunque fuori luogo mettere nel gruppo chi esclude solamente un tipo di carne dalla sua alimentazione e si nutre abitualmente di altre carni (per esempio quella di pesce).

Il termine “vegetariano” non esisteva prima dell’ottocento. In precedenza, ogni regime alimentare di questo tipo era chiamato “pitagorico”, in onore del pioniere di questo tipo di alimentazione in occidente: il matematico Pitagora appunto. L’etimo è il latino “vegetus”, che significa: sano, vigoroso.

Latto-vegetarianismo

A differenza del latto-ovo-vegetarianismo, questo modello alimentare esclude anche le uova. E’ frequente nei Paesi asiatici e indiani in particolare.

Le origini

Le prime attestazioni sul vegetarianismo si ritrovano nelle culture religiose e filosofiche della Grecia e dell’India antiche.

In ambito pitagorico (VI secolo a.C.) è nota l’ingiunzione di astenersi dal cibarsi degli animali (ἔμψύχον ἀπέχου).

Dall’orfismo (VI-V secolo a.C.) deriva l’obbligo dell’astinenza dalle uccisioni, eredità del dramma cosmico dello sbranamento del dio Dioniso da parte dei Titani.(http://www.portalefilosofico.com>orfismo_testo).

Dall’induismo deriva la nozione di ahiṃsā (lett. “astenersi dal recare danno”), che verrà promossa come regola di vita sia dai brahmini, sia dal jainismo, sia dal buddhismo.

I rituali primitivi di caccia

Lo studioso americano Stanley Walens scrive:

molti rituali sintetizzano l’immagine del cacciatore e della sua preda o con l’imitazione mimetica dell’animale o con formule verbali. Le immagini di questi rituali sottolineano la necessità della collaborazione tra cacciatore e preda, affermando che tale collaborazione rientra nel giusto ordine dell’universo. Una volta stabilito il rapporto morale e simbolico corretto, si crede che la preda accetti la morte di buon grado. (Stanley Walens, Animali in “Enciclopedia delle religioni”, vol. 4. Milano, Jaca Book, 1998, p. 70)

E ancora: in molti rituali di caccia si parla non di uccisione, ma di nutrizione e crescita, come se la preda animale dovesse ricevere le stesse cure degli animali domestici e del raccolto. In entrambi si evidenzia la rigenerazione, il ciclo della rinascita e il riconoscimento dei processi dell’universo, di fronte ai quali l’uomo resta impotente. Il mondo antico ritualizza l’uccisione e la conseguente manducazione degli animali, all’insegna del senso di colpa e della riparazione, come nel caso del sacrificio greco, per il quale è indispensabile ottenere l’assenso della vittima, per mezzo dello “hypokyptein”, ed è presente “l’urlo funerario-ololughé”, pronunciato dalle donne al momento dello sgozzamento dell’animale.

Lo storico Vernant nota che i sacrifici cruenti si accompagnano con sacrifici in cui non c’è alcuna uccisione di animali, come nel caso di Apollo Genetor e di Zeus Hypatos in Attica: ciò che viene offerto alla divinità si limita a frutta, olio, focacce e miele. Tali sacrifici, a differenza di quelli cruenti, sono cosiddetti “puri”, e a questo modello sacrificale si appelleranno le scuole vegetariane, orfiche e pitagoriche, che, invece, arrivano a considerare empio il sacrificio dell’animale e la manducazione delle sue carni.

Il vegetarianesimo nel ‘600 e nel ‘700

La Gran Bretagna è considerata la patria del vegetarianismo moderno. Il primo paladino è il cappellaio Roger Crab (1621-1680), che emerge sulla scena inglese durante la rivoluzione degli anni quaranta del Seicento.

Nella seconda metà del Seicento, durante l’espansione coloniale inglese, si aggiungono in favore del vegetarianismo nuovi argomenti. Una figura emblematica di questa fase è lo scrittore e mercante inglese Thomas Tryon (1634-1703), che denuncia il comportamento dell’europeo cristiano, definendolo un oppressore intollerante verso uomini ed animali: abbandona ogni lusso e sposa una dieta vegetariana. The Way to Health è un saggio del 1697, in cui la poetessa Aphra Behn, nell’introduzione, elogia in versi la sua dieta.

Nel Settecento il vegetarianismo inizia ad essere un argomento sostenuto e diffuso anche dai medici (Linneo e discepoli), in nome della salute e delle caratteristiche dell’anatomia e della fisiologia umana che, a partire dall’apparato digerente, dalla dentatura e dalle mani, dimostrerebbero la natura vegetariana dell’uomo. (www.circolovegetarianocalcata.it).

IL VEGETARISMO MODERNO

In Inghilterra il fermento del   vegetarianismo nel panorama  culturale porterà, nella prima metà dell’Ottocento, alla nascita di un movimento vegetariano e alla costituzione della Vegetarian Society, fondata il 30 settembre 1847 a Ramsgate (http://www.vegsoc.org).

Nei decenni successivi sorsero altre società vegetariane anche in altri paesi: nel 1867 il teologo Eduard Baltzer fondò la prima società vegetariana della Germania; verso la fine dell’Ottocento viene fondata la Société Végétarienne de France (http://AVF-www.vegetarisme.fr), mentre l’Associazione Vegetariana Italiana viene fondata a Perugia nel 1952 (http://www.vegetariani.it), con il nome di Società Vegetariana Aldo Capitini, dal grande intellettuale gandhiano, che vedeva nel vegetarismo un ampliamento dell’unità d’amore, in cui tutti gli animali diventano soggetti di una dignità propria da valorizzare e rispettare affettuosamente..

Tra le figure celebri del periodo: Alphonse de Lamartine, Richard Wagner, Lev Tolstoj, Gandhi, Bernard Shaw.

VEGANISMO O VEGETALISMO

La categoria dei vegani è composta da tutti coloro che escludono dalla loro alimentazione animali e prodotti da questi derivati. La loro alimentazione prevede solo l’assunzione di cibi di origine vegetale. Quindi, i vegani, a differenza dei vegetariani, non mangiano né latte né uova, né i prodotti derivati o che contengono questi due cibi. La scelta vegana è una filosofia, uno stile di vita improntato ad un rispetto etico del mondo che ci circonda: vengono esclusi tutti i prodotti derivati dallo sfruttamento degli animali e, quindi, cuoio, lana, seta,pellicce e così via. I vegani non utilizzano inoltre alcun prodotto cosmetico testato su animali, e non partecipano agli spettacoli circensi o a sport come la caccia o l’ippica.

La parola “vegano” è stata coniata per la prima volta nel 1944 da Donald Watson, che fondò, insieme ad alcuni amici, la “Vegan Society” ed è stata formata prendendo la parola inglese “vegetarian” e tenendone solo gli estremi (veg….an): l’inizio e la fine del vegetariano. Watson, già da piccolo, osservando degli animali presenti nella fattoria di suo zio, ebbe modo di dire: “Ero circondato da animali interessanti. Tutti loro “davano” qualcosa: il cavallo della fattoria trainava l’aratro, un altro tirava il calesse, le vacche “davano” il latte, le oche “davano” le uova e il gallo era un’utile sveglia. All’epoca non avevo ancora realizzato che avesse anche un’altra funzione. Le pecore “davano” la lana. Non riuscivo a capire cosa “davano” i maiali, ma mi sembravano delle creature tanto amichevoli, sempre felici di vedermi.” Poi ebbe modo di assistere alla macellazione dei maiali e divenne vegetariano all’età di 4 anni.

Data la mancanza di carne, pesce, formaggi e derivati sono diffusi surrogati, quali soia e suoi derivati (latte, yogurt, burro, panna di soia, tofu e lecitina) o seitan, ricavato da cereali deglutinati. Dall’alimentazione vegana sono esclusi alcolici, tabacco e bevande stimolanti, come caffè e tè, anche se è consentito un uso limitato di tè verde, sostituito dal tè kukicha, infuso ottenuto dalla Camellia Sinesis, privo di teina e ricco di calcio e ferro.

Sono consigliati cibi arricchiti artificialmente, come si può vedere dalla piramide vegana, per far fronte soprattutto alla carenza di Vi. B12.

CRUDISMO VEGANO (Raw food)

Ammette esclusivamente cibi vegetali non sottoposti a trattamenti termici oltre i 42 °C (è ammessa l’essiccazione). Questo modello dietetico è composto prevalentemente da frutta (70-80%), verdura, soprattutto a foglia verde (10-20%), noci e semi vari (5%), oltre a cereali e legumi germogliati. È da distinguersi dal crudismo non vegano, in cui si utilizzano latticini non pastorizzati e perfino carne e pesce crudi.

LA MACROBIOTICA (Makròs+bios = lunga vita)

Antichissima filosofia orientale, nata oltre 5000 anni fa, il cui orientamento è rappresentato da una visione olistica dell’uomo: ogni elemento è in equilibrio con gli altri e il cibo è fondamentale per mantenere l’armonia tra la mente e il corpo.

Diffusa dal medico e filosofo giapponese Sakurazawa, noto con lo pseudonimo di Ohsawa, nato a Tokyo nel 1893, è l’applicazione dei principi filosofici orientali alla pratica giornaliera, dove l’equilibrio, anche alimentare, è raggiunto attraverso gli “occhiali magici”, cioé I principi dello Yin (forza centrifuga-cibi acidi, come latte e derivati, frutta,tè, spezie) e dello Yang (forza centripeta-cibi alcalini come sale, carne, pesce, pollo, uova). Questi due principi sono opposti, ma complementari.

Secondo Ohsawa, seguendo quotidianamete una corretta alimentazione, è possibile mantenere l’equilibrio Yin-Yang e, dunque, un buon livello di salute. Esistono comunque dei cibi “bilanciati”, quali, ad esempio, i cereali, i legumi e i semi oleosi.

La dieta macrobiotica abolisce i cibi sofisticati e predilige alimenti di produzione naturale. I cereali devono essere non raffinati, integrali e, in questo gruppo, rientrano il “kokoh”, mix di farine provenienti da cereali differenti, arricchite con sesamo e soia e “l’arrowroot”, fecola ricavata dall’omonima pianta.

Tra gli alimenti macrobiotici ricordiamo:

– il tahin, succedaneo del burro, ricavato dal sesamo, aggiunto spesso alla salsa di soia per il condimento di zuppe;

– il gomasio, ricavato dalla lavorazione del sale marino, unito ai semi di sesamo;

– le alghe: tra le più note l’iziki, che si consuma con il tamari (salsa di soia); il wakame; il kombu;

la nato; il dashi; la dulse, dal colore rosso porpora;

– i legumi, soprattutto: lenticchie, ceci, soia e azuki (fagiolo rosso di soia). L’acqua di cottura dei legumi è consigliata come bevanda, perché ricca di sali minerali e vitamine.

Tra le regole da osservare: l’eliminazione di zucchero, dolci, caramelle e miele, frutti esotici, patate, pomodori, melanzane, latte e derivati, verdure surgelate, spezie, sale comune, caffé (al suo posto si possono usare surrogati, quali il “jannoh”, ricavato dall’unione tra frumento, soia, bardana e radici di tarassaco torrefatte; o il “dendelio”, ottenuti da radici di tarassaco e cicoria torrefatte).

La macrobiotica predilige i prodotti della pesca alla carne e consiglia una prolungata la masticazione al fine di garantire l’efficacia digestiva e l’appagamento gustativo.

(da Marino Melissano – Alimenti e alimentazione – Edagricole)

ALIMENTAZIONE ONNIVORA

In biologia un organismo è quello che si alimenta sia con prodotti di origine animale (carne, uova, latte e derivati, pesce e prodotti del mare), che vegetale (frutta, verdura, cereali e legumi).

Secondo i principi della Scienza dell’Alimentazione questo sarebbe il regime alimentare più adatto anche all’uomo, che ha bisogno di una dieta bilanciata composta da proteine, carboidrati, grassi, vitamine e minerali.

Nell’ambito dell’alimentazione onnivora la Dieta mediterranea è la più famosa e la più equilibrata.

Essa si basa su un consumo moderato di grassi da prodotti animali, privilegiando frutta, verdura, legumi, cereali integrali, frutta secca, pesce e olio di oliva Anche il vino, bevuto moderatamente durante i pasti, , rappresenta una forma di protezione per il suo contenuto di antiossidanti.

Per tutti i motivi descritti, i suoi sostenitori ritengono che la dieta mediterranea sia quella più adeguata a coprire i normali fabbisogni nutrizionali.

Essa normalmente prevede cinque pasti giornalieri di cui tre principali (colazione, pranzo e cena) e due spuntini, a metà mattinata e nel pomeriggio. La composizione media degli alimenti

comprende:

dal 55 al 65% di carboidrati, dei quali circa il 90% costituiti da zuccheri complessi e circa il 10% da zuccheri semplici;

dal 10 al 15% di proteine, delle quali i 2/3 di origine animale e 1/3 di origine vegetale dal 25 al 30% di grassi, soprattutto insaturi.

EQUILIBRIO NUTRIZIONISTICO

Le quantità giornaliere raccomandate di macro-nutrienti (Lipidi-Protidi-Glicidi) e di micronutrienti (vitamine e Sali minerali) sono le seguenti:

Glucidi: 315-350 g;

Protidi: 55-60 g;

Lipidi: 45-55 g;

Vit. A: 500 mcg; (fonti di origine animale, sedano, broccoli, cavoli, frutta colorata);

Vit. B1: 1,0 mg; (fonti di origine animale, lievito di birra, soja, legumi, asparagi, germe di

grano, cereali integrali, noci, cicoria, spinaci, bietole, alga spirulina)

Vit. B2: 1,3 mg; (fegato e frattaglie, latte, lievito di birra, muesli, germe di frumento, radicchio verde, soja secca)

Vit. B12: 2,0 mcg; (vongole, ostriche, polipo, sgombri, salmone, crostacei, sardine e aringhe, fegato, uova, yogurt, latte e latticini, cereali e prodotti di soia fortificati)

Niacina (Vit. PP): 14 mg;

Vit. C: 60 (donne)-75 mg (uomini); (succo d’uva, peperoni, latte, kiwi, cavoli e cavolfiori,broccoli, fragole, agrumi, radicchio verde, pomodori)

Vit. D: 10 mcg; (olio di fegato di merluzzo, sgombro, anguilla, trota, salmone affumicato, pesce spada, uova)

Fe: 10 mg; (frattaglie, carne rossa, carne di tacchino, merluzzo, spigole, salmone, molluschi, seppia, alici

DIETE A CONFRONTO

L’alimentazione tradizionale, e specialmente la dieta mediterranea, per 2.000 Kcal mediamente occorrenti ad un adulto in attività lavorativa moderata, fornisce:

325 g di glucidi (65%)

55 g di lipidi (25%)

57 g di proteine   (10%) e, se ben equilibrata, tutti gli oligoelementi; quindi, risulta nutrizionisticamente equilibrata.

Premesso che in Italia il numero di vegetariani e vegani ha raggiunto un picco storico dell’8% della popolazione, pari a quasi 5 milioni di cittadini (dati Eurispes 2016), che il 7,1% si dichiara vegetariano (contro il 5 del 2015) e l’1% vegano, corrispondente a 600.000 persone;

la dieta vegetariana, contrariamente ad altre correnti di pensiero simili, risulta sostenibile e potenzialmente equilibrata.

La dieta vegetariana costituisce un regime alimentare ricchissimo di antiossidanti, provitamine A (beta-carotene), vitamina C, acido folico, potassio, magnesio, fitosteroli e fibra alimentare.

La dieta vegana non può essere classificata quale regime alimentare equilibrato e, per essere protratta nel lungo termine, necessita dell’utilizzo di alimenti fortificati o di integratori alimentari; essa, oltre a non apportare le giuste quantità di alcuni nutrienti, contiene notevoli concentrazioni di agenti anti-nutrizionali chelanti, come: tannini (antiossidante), ossalati e fitati, che contribuiscono a ridurre ulteriormente l’assorbimento di minerali come ferro, calcio, zinco e selenio.

D’altro canto, la dieta vegana risulta molto utile nella prevenzione dell’aterosclerosi.

Concludiamo che, con le giuste integrazioni, anche le diete vegetariane e vegane possono risultare equilibrate.

Polemiche in corso

Ma allora, perché tante polemiche e opposti estremismi? Scontri ideologici accesissimi su giornali, tv e FB: abbiamo letto frasi quali animalisti talebani, nazivegani e, in risposta, carnivori assassini, macellai killer!

Giuseppe Cruciani, di Radio 24, conduttore de “La Zanzara”, contestato da un gruppo di animalisti.

Bimbo di 15 mesi, che pesava quanto uno di 3 mesi, ricoverato in stato di malnutrizione a causa di una dieta rigidamente vegana, che il Tribunale di MI ha tolto ai genitori ed affidato ai nonni.

Eppure, l’indagine Eurispes ci dice che il 46,7% di coloro che si dichiarano vegetariani o, ancor più, vegani, sono mossi da ragioni salutistiche; il 30% dalla sensibilità verso gli animali; il 12% dall’attenzione per l’ambiente.

Lo chef Fabio Picchi, autore di “Firenze-Passeggiate tra cibo e laica civiltà”, inno all’orgoglio carnivoro, rispettosamente dice: “sono così rispettoso del pensiero altrui, che non riesco a deridere chi non mangia carne. Rispetto i vegani e pretendo rispetto. Tuttavia, trovo barbaro incolpare chi mangia un piccione una volta l’anno e sottacere chi avvelena la terra e le nostre vite”.

Questa è la strada da seguire, quella del rispetto reciproco, ma occorre anche un’informazione-formazione capillare di tutti i cittadini, in modo che tutti, nel rispetto dei differenti stili di vita, imparino come cibarsi in modo equilibrato.

Riferimenti.

http://veganogourmand.it/consigli/differenza-tra-vegetariano-e-vegano/

https://it.wikipedia.org/wiki/Vegetarianismo

https://it.wikipedia.org/wiki/Diete_vegetariane

http://www.gazzettadelgusto.it/alimentazione-diete/alimentazione-onnivora/

http://www.my-personaltrainer.it/alimentazione/esempio-dieta-vegana.html

*Marino Melissano è stato fino a poco tempo fa vicepresidente di Altroconsumo, uno dei pochi chimici (già docente universitario, libero professionista, coordinatore di progetti europei, membro dell’ordine dei Chimici in Trentino) in una posizione chiave nelle associazioni di consumatori e ambientalisti.

La costante R nell’equazione di stato dei gas.

In evidenza

Rinaldo Cervellati

La bontà (validità) di una teoria scientifica dipende essenzialmente da due fattori: in primo luogo deve riprodurre tutte le osservazioni e i dati sperimentali da cui è scaturita con un processo principalmente induttivo, deve poi prevedere fatti nuovi, processo essenzialmente deduttivo, accessibili di verifica sperimentale. Questa seconda caratteristica identifica il potere di previsione della teoria, quanto maggiori sono le conseguenze verificabili (e verificate), tanto più alto è il potere di previsione della teoria che ne allarga anche l’ambito di applicazione.

La teoria cinetica dei gas è un esempio tipico di un’ottima teoria, ne abbiamo parlato diffusamente in un precedente post. Dall’elaborazione fisico-matematica del più semplice modello pensabile per un gas, Krönig e Clausius dedussero un’equazione che riproduceva anzitutto le leggi empiriche sul comportamento di una massa gassosa contenuta in un recipiente al variare di volume, pressione e temperatura a due a due mantenendo la terza costante.

L’ingegnere e fisico francese Benoit-Paul Emile Clapeyron[1] nel 1834 combinando la legge di Boyle-Mariotte con quella di Gay Lussac ottenne quella che è oggi nota come equazione di stato:

pv = R(267 + t), con:

R = povo/(267 + to)

dove il pedice o indica la stessa massa di gas a temperatura to diversa da t [1].

Benoit Clapeyron

Nel 1850, il fisico e matematico Rudolf Clausius (1822-1888) ricalcolò il valore della costante entro parentesi in base ai risultati più precisi del chimico e fisico francese Henri Victor Regnault[2], riscrivendo l’equazione di stato come:

pv = R(273 + t)

e, nel 1864 semplificò ulteriormente l’equazione sostituendo la temperatura assoluta T alla quantità entro parentesi, sicché:

pv = RT

Henri-Victor Régnault

Rudolf Clausius

Da buon francese Clapeyron attribuì interamente (trascurando del tutto Boyle) a Edmé Mariotte la legge pv = k, Clausius non trovò nulla da dire, anzi propose esplicitamente che l’equazione fosse chiamata di Mariotte-Gay Lussac o, in breve, legge M-G. [2]

Sia Clapeyron sia Clausius utilizzarono il volume specifico (volume per unità di massa) piuttosto che il volume molare di gas nelle loro equazioni. Ciò significava che la loro costante dei gas R non era universale per tutti i gas, ma era piuttosto una costante specifica il cui valore variava da un gas all’altro ed era, come nota Clausius, approssimativamente inversamente proporzionale alla densità del gas in questione.

La prima persona a convertire la costante specifica di Clapeyron e Clausius in una costante universale dei gas sembra essere stato il chimico tedesco, allievo di Clausius, F. Horstmann[3], che nel 1873 ha riscritto l’equazione di stato come:

up = RT

F. Horstmann

dove p e T hanno il loro significato precedente ma u è “il volume di un peso molecolare [cioè di una mole] del gas”, R è la costante della legge G-M per quanto riguarda il volume molare [3].

Ci si domanda perché Clapeyron abbia scelto proprio la lettera R per la costante nella sua equazione? Poiché egli non scrisse nulla in proposito, si possono formulare due ipotesi speculative: o si tratta di una scelta casuale, oppure proviene dal latino ratio, ovvero dall’equivalente francese rapport o raison visto che Clapeyron aveva notato che il valore della costante per ogni gas poteva essere ottenuto valutando la costanza del rapporto pv/(267 +t) su un intervallo di pressioni e temperature, osservazione ribadita da Clausius con il rapporto migliorato pv/(273 +t) [4].

Dato la tendenza della IUPAC a assegnare nomi di scienziati famosi alle costanti, W.B. Jensen [4] suggerisce che potrebbe essere opportuno affermare che la lettera R sia in onore di Regnault, i cui dati sperimentali accurati furono utilizzati da Clausius non solo per correggere il fattore di conversione tra le scale centigrada e assoluta di temperatura, ma anche per valutare il valore di R utilizzando il rapporto di cui sopra.

È poi interessante notare che Clausius era consapevole che i dati di Regnault dimostravano chiaramente che:

più lontano, per quanto riguarda la pressione e la temperatura, un gas è dal suo punto di condensazione, più sarà la legge corretta [cioè più costante il valore di R]. Sebbene la sua precisione per i gas permanenti [reali] nel loro stato comune sia così elevata, che nella maggior parte delle indagini può essere considerata perfetta, per ogni gas si può immaginare un limite, fino al quale la legge è perfettamente vera; e nelle pagine seguenti, dove i gas permanenti vengono trattati come tali, presumeremo l’esistenza di questa condizione ideale.[5]

Nel 1864, Clausius si riferì a questa condizione ideale coniando il termine gas perfetto, come riportato nella nota a piede di pagina 22 del rif. [2].

Bibliografia

[1] E. Clapeyron, Mémoire sur la puissance motrice de la chaleur, J. l’ecole polytechnique, 1834, 14, 153-190. Scaricabile da internet

[2] R. Clausius, The Mechanical Theory of Heat, Van Voorst: London, 1867, p. 259 consultabile in internet

[3] A. F. Horstmann, Theorie der Dissociation, Ann. Chem., 1873, 170, 192-210.

[4] W.B. Jensen, The Universal Gas Law Constant, J. Chem. Educ., 2003, 80, 731-732

[5] R. Clausius, Über die bewegende Kraft der Wärme, und die Gesetze, welche sich daraus fur die Warmelehreselbst ableiten lassen, Ann. Phys., 1850, 79, 368-397.

[1]Benoit-Paul Emile Clapeyron (1799-1864) fisico francese è considerato uno dei fondatori della termodinamica, a lui si deve la presentazione in maniera analitico-grafica del lavoro di Carnot, la precisazione del concetto di trasformazione reversibile e l’enunciato del principio di Carnot come 2° Principio della Termodinamica. Sue le equazioni che caratterizzano le transizioni di fase.

[2] Henri Victor Regnault (1810-1878), chimico e fisico francese, è noto per le sue accurate e precise misure delle proprietà termiche dei gas, fu mèntore di William Thomson (lord Kelvin).

[3] August Friedrich Horstmann (18421929), chimico tedesco, fu allievo di Clausius, noto specialmente per il suo contributo allo sviluppo del concetto di mole. v. anche: G. Moretti: La legge dei gas ideali: dalla formula specifica per ogni gas alla costante molare R, Atti del XIV Convegno Nazionale Storia e Fondamenti della Chimica, Rendiconti della Accademia Nazionale delle Scienze detta dei XL, Serie V, vol. 35, Parte II, Tomo II, 263-279.

Due parole su chi controlla le acque potabili.

In evidenza

Mauro Icardi

La scorsa settimana una delle “Pillole di Mercalli”, filmati che il noto climatologo dedica ai temi ambientali e che vanno in onda su Rai News, è stata dedicata all’eccessivo consumo di acqua in bottiglia da parte degli Italiani.

Terzi a livello mondiale dopo Messico e Tailandia.

Ho visionato il filmato sul sito della Rai e ho voluto vedere qualche commento a proposito. A parte il solito schierarsi a favore o contro il consumo di acqua in bottiglia per ragioni diverse (sostenibilità ambientale su tutte, ma anche abitudini e gusti personali), ho potuto notare come al solito il proliferare di luoghi comuni decisamente banali.

Si sa che in generale le persone si lamentano dell’odore di cloro dell’acqua potabile (problema che è risolvibilissimo con il semplice utilizzo di una caraffa dove far riposare l’acqua per circa trenta minuti).

Molti sono addirittura convinti che l’acqua potabile sia nociva per la salute. E non è semplice far capire che un gestore di acquedotto ricorre alla disinfezione per consegnare l’acqua completamente esente da microorganismi potenzialmente patogeni.

Devo dire che ormai mi sono quasi rassegnato a questo tipo di commenti. Ma non ho resistito a dover rispondere ad un commento che in maniera superficiale e direi offensiva, sosteneva che la fiducia nell’acqua in bottiglia risiedesse nel fatto che le aziende imbottigliatrici “fanno i controlli”, e che conseguentemente i controlli effettuati dai gestori del ciclo idrico fossero insufficienti, o addirittura mancanti.

Ho risposto al commentatore, scrivendo che, se era così sicuro che gli addetti al controllo delle acque potabili della sua zona adottassero comportamenti omissivi nello svolgimento delle analisi , non gli restava che presentare una circostanziata denuncia alla Procura della Repubblica.

Assumendosi l’onere e la responsabilità di quanto affermava. Inutile dire che non ho ricevuto nessuna risposta a questo mio commento.

Forse avrei dovuto ignorare questo commento, come molti altri. Commenti che riguardano gli argomenti più diversi. Sulla possibilità che il web amplifichi quelle che un tempo erano le chiacchiere da bar si espresse già Umberto Eco. E sulla propagazione di bufale e leggende per meccanismi di conferma che si sviluppano per esempio tra chi crede alle scie chimiche, e sulla facilità con cui queste possono prendere piede ci sono già molti studi, e molti interessanti articoli. Uno molto interessante a firma di Walter Quattrociocchi è uscito sul numero 570 de “Le scienze” nel Febbraio 2016.

Ma su una cosa di questa importanza, non ho voluto far finta di niente. Mi sono sentito chiamato in causa in prima persona, ed ho pensato anche a tutte le persone che conosco negli incontri di lavoro, e che si occupano di qualità dell’acqua potabile.

Le società di gestione e conseguentemente gli addetti sono tenuti a rispettare quanto disposto dal Dlgs 31 che regola i controlli sulle acque destinate al consumo umano.

I controlli sono sia interni, cioè svolti dall’azienda di gestione dell’acquedotto, che esterni cioè effettuati dalle aziende sanitarie locali. I gestori sono soggetti ad un numero definito di analisi in funzione del volume di acqua erogata.

Questo il link del Dlgs 31.

https://www.arpal.gov.it/images/stories/testi_normative/DLgs_31-2001.pdf

Mi chiedo come si possa pensare che le aziende sanitarie, i gestori di acquedotto possano mettere in pratica comportamenti omissivi.

Siamo tenuti a conservare i risultati delle analisi per cinque anni, a pubblicare i rapporti di prova sul sito della nostra azienda per ottemperare a criteri di qualità e di trasparenza.

Ma soprattutto siamo coscienti di fornire un servizio. Come addetti al laboratorio poi siamo impegnati in un lavoro continuo di aggiornamento sia normativo che analitico. Le aziende acquedottistiche dovranno nel futuro sviluppare un proprio “Water Safety Plan” , cioè monitorare i fattori di rischio non solo a livello analitico, ma territoriale e di rete.

Siamo consapevoli dell’importanza della risorsa acqua.

Io ho come hobby il ciclismo. E ogni volta che faccio uscite in bicicletta rivolgo sempre un ringraziamento ai colleghi di altre aziende, quando sosto presso una fontanella o ad una casa dell’acqua. Al loro lavoro che mi permette di combattere sete e caldo, soprattutto in questi giorni.

Ma vorrei dire un’ultima parola a chi crede che non si facciano i controlli. Come chimici, come biologi, come tecnici di rete siamo vincolati ad un importante valore. Sappiamo di svolgere un servizio e conosciamo cosa significa una parola: etica. La conosco personalmente come chimico che in qualche caso ha rinunciato a ferie o permessi per terminare un’analisi urgente o la lettura di una piastra di microbiologia.

La conoscono i colleghi che a qualunque ora del giorno e della notte sono chiamati ad intervenire per ripristinare la fornitura dell’acqua. Lo sostengo da sempre. Non è con la demagogia o il sensazionalismo che si possono affrontare questi problemi. E questa cosa vale non solo per la mia azienda.

Riflettere un attimo prima di dire cose insensate è una virtù ormai scomparsa.

Moda sostenibile.

In evidenza

Luigi Campanella, ex Presidente SCI

L’aggettivo sostenibile è usato ed abusato, talvolta anche a sproposito. Ogni campo dell’attività umana si compiace di essere definito sostenibile: dal turismo alla produzione, dalla pratica alla sicurezza, dall’economia alla medicina.

Oggi vi voglio proporre un settore a cui forse pochi pensano per abbinare ad esso l’aggettivo in questione ed al quale l’aggettivo sostenibile si adatta perfettamente: parlo della Moda sostenibile.

Si tratta in pratica di definire le linee guida sui requisiti eco-tossicologici per gli articoli di abbigliamento, pelletteria, calzature ed accessori Tali linee si devono intendere applicate al prodotto finito ed ai materiali componenti e rivolti a quanti contribuiscono alla sua ideazione, realizzazione, distribuzione commercializzazione. Il fine è l’introduzione ed evoluzione di pratiche virtuose e sostenibili attraverso una corretta gestione dell’utilizzo delle sostanze chimiche nella filiera produttiva per garantire sugli articoli prodotti standard di sicurezza a beneficio dei consumatori

I riferimenti non possono che essere i principali regolamenti e leggi internazionali,a partire in questo periodo dal REACH, ma non solo: si pensi al CPSIA americano, ed agli standard cinesi e giapponesi ed i principali standard tecnici internazionali

Nell’ambito di utilizzo delle sostanze chimiche potenzialmente pericolose bisogna distinguere fra quelle che risultano ristrette sull’articolo e quelle che invece compaiono nel processo produttivo. Peraltro l’utilizzo delle sostanze nelle filiere produttive,chimiche e manifatturiere,può essere molto diverso in relazione alla quantità,alle miscele che si producono,alla tossicità,ai cicli lavorativi, alle macchine utilizzate.

Le sostanze chimiche in una filiera tessile possono svolgere fino ad 80 funzioni (es. ammorbidente, antimacchia, antipiega, batteriostatico, candeggiante ,detergente ,fissatore , disperdente, enzima proteasi, impermeabilizzante, ritardante, lubrificante, schiumogeno, uv assorbente …).

I coloranti, nello specifico, sono divisi in classi ed ognuna è ricca di composti finalizzati per l’uso in base al tipo di tessuto da trattare.

I composti chimici di base utilizzati nella filiera tessile sono di natura diversa:acidi (acetico, formico, solforico, cloridrico, ossalico), basici (ammoniaca, sodio idrossido, calcio idrossido), estratti vegetali (castagno, mimosa…..), depilanti (sodio solfidrato, sodio solfuro), concianti minerali (solfato basico di cromo, sali di Al, Zr, Ti, Fe), concianti organici (glutaraldeide, oxazolidina, sali di fosfonio)

Gli approcci adottati sono 2.

Proattivo: considera i limiti di presenza di residui di sostanze negli articoli

Avanzato : considera richieste di settore avanzate come obiettivi da raggiungere

Per ogni tipo di composto sono fissati dei limiti di presenza nel tessuto o prodotto finale e nell’impianto produttivo e dei metodi ufficiali ed accreditati di analisi.

Nota del postmaster: si vedano anche articoli prtecedenti sul medesimo tema:

https://ilblogdellasci.wordpress.com/2017/02/15/chimicamente-alla-moda-2/

https://ilblogdellasci.wordpress.com/2015/08/10/la-chimica-e-sempre-piu-di-moda-negli-istituti-tecnici-2-parte/

 

Le “seccature” di Seveso e Manfredonia: una riflessione.

In evidenza

Claudio Della Volpe

Nel 1976 mi sono laureato e dunque quell’anno me lo ricordo positivamente; finalmente avevo concluso un iter di studio e di crescita anche umana che mi hanno reso quel che sono, un chimico che è impegnato sulla barricata di un ambiente sostenibile e di una scienza democratica.

Mi ero iscritto nel 1968 e sarebbe stato impossibile per chiunque in quegli anni bollenti rimanere alla finestra mentre il mondo intero scendeva in piazza chiedendo una società nuova e rendendosi conto che, in fondo, era possibile.

I sogni e gli stimoli di quel tempo hanno fatto i conti con la realtà quotidiana, ma non sono mai morti.

Anzi non moriranno mai.

Per me che ero il primo della mia famiglia a laurearmi, ma credo per chiunque, Napoli era allora un crocevia di cultura e di innovazione; dove si seguivano le lezioni di Paolo Corradini, le conferenze di Liguori, di Prigogine, o di Enzo Tiezzi, dove ti prendevi il caffè discutendo (e non solo) di politica con Ennio Galzenati e Emilio Del Giudice, ti laureavi con Guido Barone, la sera passavi da Vittorio Elia o da Pina Castronuovo; gli studenti indicati come esempio si chiamavano Francesco Lely, il giorno della laurea avevi come compagno di prova Enzo Barone.

Insomma la chimica e la scienza napoletane non avevano nulla da invidiare a nessuno e costituivano un perenne stimolo culturale e scientifico.

Proprio in quell’anno di grazia 1976 ci furono due episodi che segnarono il clima dell’ambientalismo, della chimica, della scienza e che determinarono poi per anni a venire l’idea di chimica e di scienza del grande pubblico e vorrei ricordarli brevemente con voi: uno lo conoscete certamente, Seveso, l’altro di pochissimo successivo, forse non lo ricordate, ma è egualmente importante, Manfredonia.

Seveso è stato analizzato ripetutamente e magistralmente sulle pagine di C&I; ricordo qui brevemente due articoli che vi consiglio di leggere a questo riguardo e che sono scaricabili liberamente; uno di Ferruccio Trifirò che trae le lezioni tecniche dell’evento e l’altro di Jorg Sambeth, direttore tecnico della Givaudan-Roche che scrisse anche un libro sui retroscena di quell’evento, “Zwischenfall in Seveso”, purtroppo mai tradotto dal tedesco; nell’articolo Sambeth trae le lezioni strategiche da Seveso le stesse che ha esposto più ampiamente nel libro. Zwischenfall significa si incidente, ma nel senso proprio di contrattempo, seccatura, inconveniente che ti fa perdere tempo.

Ma anche per chi non conosce il tedesco e non può leggere il testo c’è una intervista rivelatrice in italiano che trovate qui.

Dottor Sambeth, perché ha preso la decisione di raccontare l’incidente con un libro.
«Innanzitutto – spiega – per ragioni personali: io ho voluto tirare fuori tutto dalla mia coscienza, come in un confessionale. L’incidente ha coinvolto tanta gente che ha sofferto. In secondo luogo, volevo dire alla mia famiglia e ai miei amici che cosa realmente è accaduto. C’è una terza ragione: raccontare alla gente, e soprattutto ai giovani, in che situazione mi ero trovato e che cosa non bisogna fare. Infine – sorride – c’è un quarto motivo: ho sempre voluto scrivere un libro. Avevo bisogno di una trama, e qual è una trama migliore di quella di Seveso?»

Quando visitò per la prima volta lo stabilimento di Seveso.
«Nel giugno del 1970. Ed ebbi subito l’impressione che sullo stabilimento non era stato investito abbastanza. Il reattore per il triclorofenolo, quello che poi sarebbe scoppiato, era abbastanza moderno. Una macchina non elegante, ma non così mal messa come il resto dello stabilimento, che era un disastro».
Intanto, però, si produceva triclorofenolo.
«La produzione era in corso da tempo ma la Roche non aveva ancora fatto nessuna ricerca documentaria sui possibili rischi e sugli incidenti precedenti. L’intero progetto per la produzione di triclorofenolo era sbagliato, non appoggiava sulla ricerca. La Roche non mi aveva detto niente, non so se per negligenza, stupidità o presunzione». «Il reattore era pronto ad esplodere Tutti sapevano, ma decisero di tacere»

Il rischio che la produzione di triclorofenolo potesse portare alla sintesi di diossina era noto da tempo, ma alla Givaudan non c’era alcun piano. Questo ribadisce Jorge Sambeth, l’ex direttore tecnico della Givaudan
«Nel 1971 – spiega – fummo un mio collaboratore ed io a leggere su Nature dell’incidente in Inghilterra durante il quale venne prodotta diossina a una temperatura di circa 230 gradi. E subito mandai all’Icmesa una copia di quel testo, con una disposizione precisa: mai superare i 170°. Di quella lettera c’è anche copia, è stato uno dei miei documenti di difesa più importanti».
Come controllavate la temperatura del reattore di Seveso?
«Con un impianto esterno di raffreddamento ad acqua. O, al limite, immettendo nel reattore acqua fredda da una cisterna di 3 mila litri. Con l’acqua la reazione non poteva continuare. Era assolutamente normale che, talvolta, la temperatura si alzasse di qualche grado sopra i 170. Negli anni prima dell’incidente era successo due o tre volte, ma la situazione rimase sempre sotto assoluto controllo proprio grazie all’immissione di acqua».
Non c’erano tuttavia strumenti automatici di controllo della temperatura e della pressione.
«No, non erano previsti perché il personale era per tutto il tempo lì davanti a controllare il processo».
L’Italia, allora, era considerata in Svizzera come un paese da Terzo Mondo?
«Assolutamente sì. Se c’erano ispezioni, si poteva dire: stiamo facendo, stiamo facendo. L’anno prossimo, l’anno prossimo. Si ammodernavano tutti gli impianti del mondo, quello italiano no. Questo non lo voglio negare».

Nel bene e nel male anche se solo un morto (ma decine di casi di cloracne migliaia di abbattimenti di animali e centinaia di miliardi di lire di allora di danni e spese per eliminare il terreno contaminato) fu effettivamente provocato dall’incidente, Seveso ha segnato le leggi e le persone; se oggi abbiamo una legislazione ambientale EUROPEA come quella che abbiamo lo dobbiamo all’evento Seveso. REACH ne è una conseguenza logica. Alcuni di quei miliardi furono usati per mantenere verifiche su ambiente e persone, perchè (nonostante tutto il bene che se ne possa dire) le diossine sono uno dei 12 POPs, ossia gli inquinanti ambientali persistenti banditi o controllati a livello mondiale.

Ultimo (ma non ultimo come qualità ed efficacia) ricordo il numero speciale di Sapere dedicato a Seveso e alle sue lezioni:

Eppure; eppure come la Roche svizzera considerava la Lombardia del 1976 “terzo mondo”, c’era un mondo che l’industria chimica italiana considerava “terzo mondo”: il sud dell’Italia.

L’incidente di Seveso avvenne il 10 luglio 1976; io mi ero laureato due mesi prima; il giorno dopo la laurea con alcuni amici carissimi (Cesare Fournier, Eugenio Chiaravalle, Enzo Santagada e quella che sarebbe diventata mia moglie Rita Cosentino) tutti giovani chimici, ci recammo in Puglia a cercare lavoro; la Puglia era la terra della campagna saccarifera che iniziava proprio allora, ma era anche una delle regioni del Sud che più stava cercando di riscattarsi da una atavica povertà e costruire una industria moderna. Quella volta andò buca e la vulgata è che ci scappò il soprannome di uno di noi (“Lenin”) giusto durante le presentazioni; ciò mise in sospetto l’incaricato delle assunzioni e fummo fregati; ma forse è una cattiveria.

Dopo qualche mese, 29 settembre, avvenne proprio in Puglia a Manfredonia un incidente chimico gravissimo.

Sul tema è difficile trovare notizie certe e assodate; c’è un libro in italiano, ma praticamente introvabile se non in biblioteca: I fantasmi dell’Enichem, Giulio Di Luzio, Ed Baldini Castoldi Dalai, 2003. C’è una tesi di Francesco Tomaiuolo (2005), ma si può scaricare solo a pagamento (che poi siano a pagamento le tesi degli studenti italiani fatte in università italiane è veramente un mistero per me: chi incamera i soldi pagati per le consultazioni su siti privati? Bah); ci sono parecchi articoli giornalistici che si trovano pubblicamente.

Fra gli altri segnalo l’articolo pubblicato qualche anno (2002) dopo su C&I (non ho l’elenco articoli pubblicato fra 1976 e 2000 su C&I): http://www.soc.chim.it/sites/default/files/chimind/pdf/2002_2_10_ca.pdf autore Mario Ghezzi; tuttavia su questo articolo, certamente ben basato dal punto di vista chimico, avanzo delle perplessità sull’approccio sociale e della salute. Interessante notare come la data dell’incidente nell’articolo citata più e più volte sia sbagliata (1984, 1974, ma in realtà l’incidente avvenne nel 1976 e questa trascuratezza è essa stessa una informazione, testimonia di quell’atmosfera che Sambeth chiama in tedesco Zwischenfall, contrattempo, seccatura, incidenti-seccatura per i proprietari e gli industriali chimici e forse anche per alcuni chimici industriali).

Bruno Zevi in un articolo apparso su «L’Espresso» del 3 dicembre 1967 dal titolo L’ENI a Manfredonia: una ghigliottina per il Gargano scrisse che quella scelta industriale fu un “atto masochistico”.

L’impianto Enichem è stato costruito alla fine degli anni ’60 nel comune di Monte sant’Angelo, a 1 km da Manfredonia. L’Anic, Azienda Nazionale Idrogenazione Combustibili, è stata l’azienda petrolchimica dell’ENI che fino al 1983 ha gestito le produzioni petrolchimiche del gruppo fino a confluire nell’EniChem e successivamente nel 2000 essere trasformata in Syndial. La scelta del posto, il litorale nei pressi di una città che viveva di pesca e agricoltura (facente parte del bacino elettorale di un politico di maggioranza e dirigente dell’ENI) è stata criticata per i rischi ambientali;( http://atlanteitaliano.cdca.it/conflitto/petrolchimico-enichem-di-manfredonia)

Su quei 160 ettari affacciati direttamente sul mare sorsero nel giro di qualche anno gli impianti per la produzione di urea e ammoniaca dell’ANIC e per la produzione altamente tossica di caprolattame della SCD (Società Chimica Dauna). La produzione fu avviata nel 1971,( http://www2.issm.cnr.it/demetrapdf/boll_12_2006/Pagine da demetra_imp 12_tomaiuolo.pdf)

In effetti già il 15 luglio 1972 ci fu una violenta alluvione e l’impianto rimase senza corrente non avendo un impianto elettrogeno; questo fece correre il rischio di malfunzionamento o perfino di esplosione (come a Seveso interrompere bruscamente una reazione chimica non è consigliabile); la commissione ministeriale formata dopo l’alluvione sottolineò che l’impianto era in una zona a rischio idrogeologico.

Comunque il ricatto lavoro-salute-ambiente è vecchio e forte. La fabbrica rimase dov’era.

Interessante notare quanto scrive Ghezzi sull’aspetto tecnico della fabbrica, che in certo senso ricorda le frasi di Sambeth su Seveso:

“l’ing. Gianmarco, veneziano e direttore della fabbrica Vetrocoke Azotati di Marghera, installata dalla Fiat e ceduta a Montecatini nel 1962, sviluppò negli anni Cinquanta un processo di abbattimento di anidride carbonica che impiegava una soluzione contenente sali assorbenti-desorbenti, per reazioni successive, di arsenico, più tardi sostituito da vanadio. Purtroppo detto processo non ebbe molta fortuna, risultò di difficile messa a punto a Marghera e causò gravi perdite di arsenico nei canali industriali di Marghera, che sono state oggi accertate e sono in via di bonifica. Non si capisce pertanto per quali motivi Anic negli anni Sessanta abbia commesso l’errore di impiegare nel progetto ammoniaca di Manfredonia il processo Gianmarco, visto che il mercato offriva processi migliori per il recupero di anidride carbonica da impiegare nel vicino impianto urea e che il suo impianto di Ravenna utilizzava il vecchio e collaudato lavaggio ad acqua: si è trattato probabilmente di un tentativo di aggiornamento tecnologico andato a male.”

Io un’idea la avrei, suggerita dalla lettura di Sambeth: forse perchè era meno costoso? Forse perchè nessuno avrebbe nel Sud affamato di lavoro di quegli anni protestato o controllato pur di avere un impianto sia pur vecchio o malposizionato: lavoro, lavoro, lavoro! Non si può vivere di bellezza. (O forse si?)

Racconta Tomaiuolo:

Il 26 settembre del 1976, poco prima delle 10 del mattino, un boato scosse la città, sulla quale si abbatté subito dopo una nube tossica dalla quale cominciò a cadere una fanghiglia giallastra molto leggera, che nel quartiere Monticchio – il più vicino allo stabilimento – in breve coprì ogni cosa. I bambini presero a giocare con quella che credevano neve fuori stagione. Nello stabilimento – specificamente nell’impianto per la produzione di ammoniaca – era scoppiata la colonna di lavaggio dell’anidride carbonica sprigionando nell’atmosfera decine di tonnellate di arsenico. Per fortuna l’incidente avvenne di domenica, quando erano presenti solo una ventina di operai in fabbrica. Ma la fortuna divenne disgrazia allorché i dirigenti dello stabilimento decisero di minimizzare l’accaduto consentendo agli oltre 1800 lavoratori di entrare normalmente in fabbrica l’indomani mattina. Quegli operai vennero contaminati da massicce dosi di arsenico e tra loro molti vennero adibiti a spazzare il pericoloso veleno a mani nude. Gli intossicati furono centinaia. Nelle campagne vicine allo stabilimento si assistette alla morte di migliaia di animali da cortile e anche in città si verificarono numerosi casi di intossicazione. Dell’incidente, che seguiva di pochi mesi quello di Seveso, se ne occuparono presto i giornali nazionali ed esteri. Fu inviato l’esercito a presidiare le aree contaminate mentre negli ospedali si eseguivano accertamenti clinici sommari sulla popolazione e sugli operai. Intanto venne costituita una commissione tecnico-scientifica per il disinquinamento, che decise di sottoporre i terreni contaminati a lavaggio con ipoclorito di calce e solfato di ferro, per ottenere l’ossidazione e l’insolubilizzazione dell’arsenico, evitando così che percolasse nella falda e quindi in mare. Le operazioni durarono poche settimane. La Procura aprì un’inchiesta che non arrivò mai neanche alla fase dibattimentale, poiché all’epoca era ancora troppo difficile stabilire un nesso di causalità tra esposizione ad arsenico e malattie tumorali.

L’arsenico, entrato ormai nella catena alimentare della popolazione di Manfredonia, ricominciò a far parlare di sé solo alcuni decenni più tardi, quando l’Organizzazione Mondiale della Sanità, effettuando uno studio di mortalità sulla popolazione nel periodo 1980-87, rilevò eccessi di tumori dello stomaco, della prostata e della vescica tra i maschi e della laringe, della pleura nonché di mieloma multiplo tra le donne. Così Manfredonia fu dichiarata area ad alto rischio cancerogeno e venne chiesta l’istituzione di un osservatorio epidemiologico permanente.

Lo stabilimento venne chiuso nel 1993; interessante il retroscena raccontato sempre da Tomaiuolo:

un procedimento giudiziario avviato nel 1988 dal pretore di Otranto portò al sequestro di due navi che l’Enichem utilizzava per il trasporto dei sali sodici – rifiuti tossici derivanti dalla produzione di caprolattame – che avrebbe dovuto scaricare nel Mar Libico. Il sequestro avvenne perché si accertò che lo scarico veniva abusivamente effettuato nel canale d’Otranto, provocando morie continue di pesci e delfini. L’azienda così, non potendo più smaltire gli scarti di lavorazione del caprolattame, che ammontavano a 198.615 tonnellate annue, decise la chiusura dell’impianto. L’economicità di gestione dell’intero sito industriale venne così a ridursi drasticamente e, in seguito al blocco europeo degli aiuti di stato all’Enichem, la società chiuse nel 1993 anche gli impianti per la produzione di ammoniaca.

Ora Ghezzi ha scritto che l’incidente di Manfredonia “non provocò alcun decesso, salvo quello della fabbrica e del contiguo stabilimento della Daunia”; rimane difficile credere che una ricaduta di materiale contenente arsenico per varie tonnellate (almeno 10) su una popolosa zona abitata non abbia avuto conseguenze mortali.

E’ pur vero che l’articolo di Ghezzi non era solo nell’approccio minimizzante: nel 1982 la rivista italiana “Medicina del Lavoro” ha negato ogni effetto sanitario sui lavoratori, sostenendo la tesi che l’arsenico elevato dipendesse dall’assunzione alimentare di crostacei.

Varie osservazioni. Già 30 anni fa l’Agenzia internazionale per la ricerca sul cancro (IARC) ha valutato l’arsenico (As) e i composti arsenicali come cancerogeni per l’uomo e ha considerato nel 2004 la cancerogenicità certa dell’arsenico in acqua per uso umano

I livelli di arsenico rilevati nelle urine dei soggetti esposti a Manfredonia erano altissimi ben superiori a qualunque limite poi stabilito; attualmente (dopo il 2001) il limite dell’As nelle acque potabili è di 10ppb (10mg/litro o 10gamma/litro); era di 50 nel 1988; ora si consideri che nei lavoratori esposti dell’Enichem le analisi effettuate dalla Medicina del Lavoro di Bari rilevano concentrazioni di arsenico nelle urine degli operai comprese tra 2000 e 5000 gamma/litro, contro un limite di tollerabilità fissato in 100 gamma/litro e che all’ inizio del 1977, su proposta del prof. Ambrosi, viene innalzato prima a 300 e poi a 800 gamma/litro il limite di arsenico nelle urine degli operai oltre il quale scatta la messa a riposo (un pò come nel caso atrazina!!); non v’è dunque dubbio alcuno che i lavoratori esposti potessero essere soggetti all’azione tumorale dell’As; la stima dei morti per effetto diretto portata in giudizio fu di 17.

Il 4 marzo riprende la produzione di caprolattame, seguita da quella di fertilizzanti nell’autunno seguente, dopo la sostituzione della colonna esplosa. Il 60 % della produzione agricola e il 30 % di quella zootecnica viene distrutta. I braccianti hanno perso giornate lavorative, mentre il pesce del golfo per intere settimane è stato respinto dai mercati. Alcuni paesi europei hanno minacciato di non ritirare più glutammato monosodico prodotto dall’ Ajinomoto di Manfredonia, e uno di essi ha preteso che i carichi fossero accompagnati da certificati (M. Apollonio, Diecimila in corteo a Manfredonia. La Gazzetta del Mezzogiorno, 18 ottobre 1976)

Negli anni seguenti ci furono rinnovate proteste e anche un processo partito per iniziativa di un operaio, Nicola Lovecchio, poi morto di tumore, che si è chiuso solo nel 2011 senza condanna dell’Enichem. A Lovecchio è dedicato il libro di Di Luzio.

Nel 1995 il Dott. Maurizio Portaluri, radioncologo dell’ospedale San Giovanni Rotondo e attivista di Medicina Democratica, assieme all’ex operaio Nicola Lovecchio ha effettuato un’indagine epidemiologica dal basso, mostrando un eccesso di tumori per i lavoratori e denunciando venti anni di violazioni dei loro diritti. Ne è seguito un processo penale contro dodici persone in cui sono stati coinvolti centinaia di operai, numerose associazioni, il comitato di donne Bianca Lancia, il comune di Manfredonia (poi ritiratosi) e lo Stato Italiano. Durante il processo l’Enichem ha offerto soldi in cambio del ritiro delle parti civili. Il processo è finito nel 2011 con l’assoluzione totale dell’Enichem nonostante che anche le relazioni dell’ISS (Istituto Superiore di Sanità) e della stessa OMS (Organizzazione Mondiale della Sanità) riconoscessero nell’incidente del 1976 la causa dei tumori degli operai. Il comitato Bianca Lancia nel 1998 ha ottenuto una sentenza favorevole della Corte Europea dei Diritti dell’Uomo, ma solo per “danni morali” dovuti alla mancanza di trasparenza nella gestione della fabbrica. Non c’è stato alcun riconoscimento del disastro ambientale. Dallo stesso anno Manfredonia è Sito di Interesse Nazionale per le bonifiche (CDCA).

Alla fine la Corte di Cassazione ha decretato l’inammissibilità del ricorso presentato dalla Procura di Bari che invece riteneva i vari dirigenti ENICHEM e medici del lavoro responsabili.

A differenza di Seveso, Manfredonia è rimasta senza colpevoli.

Una cosa che noto di passaggio; i lavori di bonifica del sito abbandonato dalla Enichem sono adesso condotti dalla Syndial, filiazione dell’ENI; la domanda è chi paga i lavori di bonifica per le sporcizie immesse in ambiente da Enichem? Noi o loro?

Ci sono due versi di canzoni della mia gioventù che mi risuonano in questo momento nelle orecchie, una è quella del pugliese Domenico Modugno

Sole alla valle, sole alla collina,
per le campagne non c’è più nessuno.
Addio, addio amore, io vado via

amara terra mia, amara e bella.

E gli risponde quella di Paolo Pietrangeli che risuonava per le strade del 68:

“Che roba Contessa all’industria di Aldo
han fatto uno sciopero quei quattro ignoranti
volevano avere i salari aumentati
gridavano, pensi, di essere sfruttati
e quando è arrivata la polizia
quei quattro straccioni han gridato più forte
di sangue han sporcato il cortile e le porte
chissà quanto tempo ci vorrà per pulire.”

documentazione: http://www.musilbrescia.it/minisiti/la_chimica_in_italia/contenuti/le_industrie_in_italia-casi_di_studio/7.Industria_e_ambiente_Il_caso_Seveso_Leoci_Nebbia_Notarnicola.pdf

Open Science in Europa.

In evidenza

Luigi Campanella

Ho parlato di Open Science in varie occasioni,in particolare ricordo a tutti la Tavola Rotonda in sede SCI del luglio 2016 nella quale furono discussi tutti gli aspetti di quella che è divenuta un’esigenza,una richiesta,quasi un diritto:rendere disponibili i risultati delle ricerche sì da consentire anche alle comunità scientificamente più deboli di crescere.

Leggo in questi giorni con piacere che sull’argomento si è mossa anche la Commissione Europea. La Piattaforma per una Politica di Open Science (OSPP) è costituita da un Gruppo di 25 esperti di alto livello che rappresentano i vari stakeholders coinvolti, quindi università, Enti di Ricerca, accademie, associazioni culturali riconosciute, editori, biblioteche, piattaforme sulla Open Science.

L’obiettivo principale della OSPP è consigliare la Commissione Europea sullo sviluppo e l’implementazione della Open Science.Il gruppo si è riunito già 3 volte. Il primo incontro è stato meramente introduttivo, mentre i successivi 2 sono stati focalizzati su temi quali la Scienza per i Cittadini, la Rete Europea di Open Science, le Pubblicazioni ad accesso libero.

La prima linea guida che è venuta da OSPP ha riguardato Horizon 2020 chiedendo che tutti i lavori scientifici prodotti in tale ambito siano ad accesso libero, con sanzioni a carico degli inadempienti.

La seconda linea guida ha invece proposto la messa disposizione dei ricercatori che vogliano pubblicare ad accesso libero i propri lavori di un posto dove pubblicare dopo avere superato il vaglio dei referee. Questa opportunità ha un costo con il conseguente problema di chi se l’accolla.

Un punto importante discusso anche in un incontro della Piattaforma riguarda le differenze fra discipline scientifiche, umanistiche, economiche riguardo l’accettazione ed il supporto all’OPEN Science. Infine si è discusso di modelli imprenditoriali sostenibili, assolutamente necessari per evitare che la Open Science venga affidata al volontarismo.

si veda https://ec.europa.eu/research/openscience/index.cfm

 

Qualcuno può aiutarmi a spiegare un fenomeno?

In evidenza

Maurizio D’Auria*

Da qualche tempo sto cercando di ricostruire le vicende che hanno permesso la nascita e la sedimentazione nella cultura scientifica italiana degli studi in ambito fotochimico. In questo ambito per molto tempo si è pensato che lo scoppio della I Guerra Mondiale sia coinciso con un periodo di lungo oblio della disciplina. Questo convincimento si è probabilmente diffuso per il fatto che Ciamician a Bologna dopo il 1914 non pubblicherà più nulla in termini di ricerche sperimentali in ambito fotochimico, e che anche Paternò a Roma sostanzialmente fece la stessa cosa.

Abbiamo altrove cercato di dimostrare che questo non è stato proprio vero. Allievi di Ciamician e di Paternò continuarono a sviluppare la disciplina, talvolta ottenendo anche risultati molto interessanti. Maurizio Padoa a Bologna tentò, per esempio, nel 1911 di effettuare una sintesi asimmetrica utilizzando luce circolarmente polarizzata. La reazione studiata da Padoa (Gazz. Chim. Ital. 1911, 41(I),469) fu la bromurazione dell’acido angelico e, ovviamente, non ebbe successo. L’insuccesso era dovuto al fatto che la luce interveniva nel processo solo per generare l’atomo di bromo per scissione omolitica del bromo, ma poi non aveva nessun ruolo nella successiva addizione di bromo all’acido angelico.

acido angelico

Fin qui nulla di strano quindi. Qualche giorno fa mi imbatto, però, in un articolo che mi ha messo in difficoltà. Mario Betti , successore di Ciamician sulla cattedra di Chimica Generale dell’Università di Bologna, nel 1942, pubblica una nota sui Rendiconti dell’Accademia delle Scienze dell’Istituto di Bologna (vol IX, pp. 203-214). In questo articolo viene descritta l’addizione di cloro (quindi sostanzialmente la stessa reazione esaminata da Padoa) al doppio legame del propene in fase gassosa sotto l’azione di luce polarizzata. Il processo è formalmente identico a quello visto precedentemente e quindi non c’era ragioni di attendersi una qualche catalisi asimmetrica. Invece, Betti dichiara di trovare una certa asimmetria. Arriva a determinare valori di a fino a 0.22. Se consideriamo che il (-)-1,2-dicloropropano liquido mostra una rotazione ottica di -4.33, il risultato indica una relativamente buona (ottima per l’epoca) induzione asimmetrica.

propene

Ma come si spiega tutto ciò? qualcuno è in grado di spiegarmi come è possibile che in questo caso si osservi una reazione chirale mentre nel caso precedente no?

*http://cla.unibas.it/contents/instance3/files/document/1001004D’Auria.pdf

Un tema emergente: depuratori come bioraffinerie.

In evidenza

Mauro Icardi

Con una certa ricorrente periodicità si leggono sui giornali notizie che parlano in maniera molto generica del potenziale energetico della FORSU, ovverosia della frazione umida dei rifiuti solidi urbani, e più in generale dei reflui fognari. Ho seguito, a livello di esperienze in scala di laboratorio questo tipo di sperimentazioni, e posso dire che funzionano. Ma occorre fare immediatamente alcune considerazioni e sgombrare il campo da possibili obiezioni o fraintendimenti. Questo tipo di tecnica, cioè la codigestione di frazione umida dei rifiuti, o di diverse tipologie di residui di origine organica, di sottoprodotti di lavorazioni agroindustriali insieme ai fanghi originati dalla depurazione a fanghi attivi tradizionale, non è da confondersi con la produzione di biogas da biomasse eventualmente coltivate o importate esclusivamente a questo scopo.

Si tratta di una possibilità diversa. La digestione anaerobica è circondata troppo spesso dalla solita confusione che si fa quando si parla di questioni tecniche. I fanghi di risulta dei depuratori vengono mandati al trattamento di digestione anaerobica sostanzialmente per ridurne il potenziale di putrescibilità e per essere parzialmente igienizzati. La riduzione della percentuale di sostanza organica permette successivamente un trattamento più agevole dei fanghi destinati ad essere resi palabili e smaltibili con un trattamento di disidratazione meccanica.

La possibilità di trattare insieme ai fanghi la frazione umida dei rifiuti solidi aumenta considerevolmente la produzione di metano. Il principio della codigestione si adatta al trattamento anaerobico della FORSU; infatti, la combinazione di biomasse eterogenee permette di ottenere una matrice da digerire che risponda meglio alle caratteristiche chimico-fisiche desiderate. Ad esempio, una corretta ed attenta miscelazione di matrici differenti può aiutare a risolvere problemi relativi al pH e al corretto rapporto acidi volatili/alcalinità.

La codigestione è pratica standard in diversi paesi europei, quali Francia e Norvegia.

Le matrici attualmente più utilizzate nella codigestione sono gli effluenti zootecnici, gli scarti organici agroindustriali e le colture energetiche. Gli scarti organici da utilizzare come co-substrati provengono dalle più svariate fonti e possiedono quindi forti differenze nella composizione chimica e nella biodegradibiltà. Alcune sostanze (quali percolati, acque reflue, fanghi, oli, grassi e siero) sono facilmente degradabili mediante digestione anaerobica senza richiedere particolari pretrattamenti, mentre altre (scarti di macellazione e altre biomasse ad elevato tenore proteico) necessitano di essere fortemente diluite con il substrato base, in quanto possono formare metaboliti inibitori del processo (ad esempio l’ammoniaca). Una vasta gamma di matrici richiede step vari di pretrattamento quali, ad esempio, il rifiuto organico da raccolta differenziata, gli alimenti avanzati e/o scaduti, gli scarti mercatali, i residui agricoli e gli scarti di macellazione. La codigestione, se gestita correttamente, è una buona pratica per migliorare la gestione e le rese di un impianto di digestione anaerobica.

Le modifiche impiantistiche dei digestori esistenti potrebbero riguardare la realizzazione di agitatori interni al comparto di digestione, e nel caso del trattamento di frazioni organiche solide di trituratori e coclee per il caricamento dei reflui nel comparto di digestione.

Oltre a problemi di tipo impiantistico e di gestione di processo occorre anche citare problemi di carattere autorizzativo e burocratico. Che permettano di agevolare l’eventuale uso di residui che da rifiuti si trasformino in materie prime secondarie.

Un ultima considerazione. Mediamente la produzione specifica di biogas dai soli fanghi di depurazione desunta da dati di letteratura e sperimentali è di circa sui 10 m3/t. Quella della FORSU raggiunge i 140 m3/t.

La sinergia è quindi ampiamente auspicabile.

Questo filmato mostra una prova di infiammabilità eseguita insieme a studenti dell’Università di Varese durante una delle sperimentazioni lab scale di codigestione.

Una piccola dedica ed un ricordo di anni proficui sia professionalmente che umanamente. Una piccola dedica ai ragazzi che ho seguito con affetto e passione.

Fatta questa lunga premessa, in questi giorni ho notato che la pubblicità di una nota industria petrolifera parla di sperimentazioni volte ad ottenere “tramite lo studio della decomposizione anaerobica dei primi organismi viventi” lo sviluppo di un processo che permette “di ottenere un bio olio da impiegare direttamente come combustibile o da inviare successivamente ad un secondo stadio di raffinazione per ottenere biocarburante da usare nelle nostre automobili”.

Questa affermazione mi lascia sinceramente perplesso. Il tema dell’ottenimento di petrolio dai rifiuti ricorda la vicenda ormai nota della Petrol Dragon.

E’ noto che per convertire sostanza organica in idrocarburi si debba lavorare ad alte pressioni e temperature. Uno studio sperimentale per convertire alghe in biocarburante identifica i parametri di processo in una temperatura di 350°C e pressione di 3000 psi.

Questo il link dello studio.

http://www.smithsonianmag.com/innovation/scientists-turn-algae-into-crude-oil-in-less-than-an-hour-180948282/?no-ist

Questo processo convertirebbe dal 50 al 70% della mistura di acqua e alghe in “una specie di petrolio greggio in meno di un’ora” .

Da quel che si deduce fino ad ora lo studio è fermo alla fase di realizzazione in scala impianto pilota.

Allo stesso modo un processo che volesse ottenere combustibili liquidi utilizzando come materia prima la FORSU e che dovrebbe subire lo stesso tipo di trattamento, da adito a diverse perplessità, vista l’eterogeneità del materiale di partenza.

La FORSU che sappiamo essere facilmente gassificabile dovrebbe produrre biogas che si dovrebbe convertire in gas di sintesi, se la quantità di metano fosse sufficientemente elevata, e successivamente tramite reazioni quali quella di Fischer Trops in carburante sintetico. Probabilmente troppi passaggi. E visto il prezzo ancora relativamente basso del petrolio probabilmente anche antieconomico.

L’ossigeno molecolare nello spazio

In evidenza

Diego Tesauro

Mentre stiamo leggendo questa pagina web stiamo immettendo nei nostri polmoni dell’aria che contiene per quasi il 21% della sua composizione la molecola di ossigeno. La molecola di ossigeno è la seconda componente dell’atmosfera terrestre e riveste un ruolo fondamentale per le forme di vita superiori. Questo dato ci spinge a porre una domanda. La molecola di ossigeno è presente ugualmente nel sistema solare e poi in altri sistemi planetari o nel gas interstellare?

L’ossigeno è il terzo componente dell’universo dopo l’idrogeno ed elio. Si è formato a seguito di processi di fusione nucleare di elio nei nuclei delle giganti rosse, stelle nella loro fase evolutiva avanzata quando nel nucleo della stella si raggiungono temperature di centinaia di milioni di gradi. Questa osservazione e le nostre conoscenze chimiche, per cui due atomi di ossigeno per raggiungere uno stato energeticamente più basso mettono in compartecipazione i loro elettroni, ci dovrebbero far concludere che la molecola di ossigeno sia ubiquitaria nell’universo. E così pensavano anche gli astronomi fino ad una ventina di anni fa quando cominciarono ad indagare le nubi interstellare diffuse in tutti i domini dello spettro elettromagnetico alla ricerca dell’ossigeno molecolare mediante osservatori posti al di fuori dell’atmosfera terrestre (la quale ovviamente interferisce con simili ricerche). Sorprendermente fino al 2006 non si aveva traccia della molecola di ossigeno nelle nubi interstellari fredde a 10-50 K in quanto nei grani di polvere non si rilevava l’ossigeno molecolare solido, ma solo combinato ad altri elementi.

L’osservatorio svedese Odin che operava nel dominio delle onde radio a 118,75 GHz, ritrovò la molecola di ossigeno, dopo una lunga analisi degli spettri per rimuovere i rumori di fondo, a una distanza di circa 500 anni luce nella nebulosa rho Oph A nella costellazione dell’Ofiuco, un luogo dove sono in formazione stelle (1) . L’abbondanza di O2 era però mille volte inferiore a quanto atteso. Il secondo rilevamento avvenne nel 2011 quando Herschel un osservatorio dell’ESA nel dominio del lontano infrarosso a tre frequenze legate a transizioni rotazionali della molecola di ossigeno 487 GHz, 774 GHz, e 1121 GHz individuò la molecola nella famosissima nebulosa M42 della costellazione di Orione, che possiamo facilmente osservare a occhio nudo nel rapporto di un milionesimo rispetto all’idrogeno molecolare. Ma se la scoperta della molecola era un evento raro, l’ossigeno era ben presente come previsto ma era per la maggior parte combinato con l’idrogeno nella molecola d’acqua e nel radicale ossidrile o con il carbonio nel monossido di carbonio (2). L’ossigeno aderendo alle polveri presenti nelle nebulosa si genera solo a temperature superiori ai 100-150 K mediante interazione con la radiazione elettromagnetica che ne permette, attraverso ben conosciuti meccanismi, l’estrazione dall’acqua. Pertanto bisognava concludere che l’ossigeno molecolare non era così abbondante nell’universo, ma era presente in quantità cospicua sulla Terra soltanto a seguito di generazione biocatalitica. Si sarebbe potuto quindi riscontrare abbondantemente in presenza di fenomeni vitali ed essere quindi un marcatore della vita nell’osservazione degli oggetti celesti.

La scarsa presenza di ossigeno molecolare nelle nebulose di gas interstellare era confermato dalla mancata rilevazione nelle chiome e nelle code delle comete che rappresentano gli oggetti che meglio conservano le caratteristiche delle nebulose primordiali dalle quali si formano tutti gli oggetti stellari. Questa conclusione veniva smentita nel 2015 dalla sonda Rosetta che rilevava nella chioma della cometa 67P Churyumov-Gerasimenko oltre l’acqua, il monossido e il biossido di carbonio, per la prima volta una grande quantità di ossigeno molecolare mediante lo spettrometro di massa ROSINA-DFMS (3). A questo punto essendo l’ossigeno molecolare volatile da dove proveniva? L’analisi dei gas della chioma della cometa presentava un rapporto di O2/H2O nell’arco dei nove mesi di osservazione costante. Questa osservazione permetteva di escludere la diretta radiolisi o fotolisi in quanto la quantità di radiazione che investiva la cometa non era costante. Un’analisi isotopica consentiva di avanzare l’ipotesi, non essendo certamente presenti organismi che svolgevano funzioni catalitiche ossidative dell’acqua, che l’ossigeno fosse intrappolato all’interno nel nucleo che progressivamente andava sciogliendosi per effetto della radiazione solare. Quindi la nebulosa, dalla quale si era formato il sistema solare, doveva essere molto più calda di quanto si supponesse per giustificarne un’origine abiotica. Recentemente un modello studiato da un ingegnere dei materiali, pubblicato su Nature Communications, mette in discussione tale ipotesi fornendo prove della formazione della molecola di ossigeno da acqua ionizzata in presenza di silicati ed ossidi di ferro presenti sulla superficie della cometa secondo il meccanismo di reazione di Eley–Rideal (4). La reazione procede a seguito di estrazione di un atomo di ossigeno dalla superficie cometaria da parte di H2O+ generando uno stato eccitato che a seguito della dissociazione i due atomi di idrogeno produce O2

Pertanto l’ossigeno si verrebbe formando in loco avanzando quindi una nuova possibile spiegazione per la formazione della molecola in condizioni abiotiche diverse da quelle ipotizzate in precedenti studi che la confinavano ad fenomeni di fotolisi a temperature intorno a 150 K. Il dibattito è ovviamente ancora aperto ed lontano da una definitiva conclusione.

  • Larsson, B. et al. Molecular oxygen in the r Ophiuchi cloud. Astrophys. 466, 999–1003 (2007).
  • Goldsmith, P. F. et al. Herschel measurements of molecular oxygen in Orion . J. 737, 96 (2011).
  • Bieler, A. et al. Abundant molecular oxygen in the coma of comet 67P/Churyumov-Gerasimenko. Nature 526, 678–681 (2015).
  • Y Yao and K.P. Giapis Nature Commun. 8, article number 15298 (2017) doi 10/1038. .
  • La nebulosa rho Oph A (foto di Alex Mellinger).

Young Stars in the Rho Ophiuchi Cloud Credit: NASA JPL-Caltech, Harvard-Smithsonian CfA

 

M42 posa di 30 s , a 800 ISO ripreso con Celestron CG 11 dall’osservatorio di Capodimonte (foto UAN)

OSIRIS wide-angle camera image acquired on 22 November 2014 from a distance of 30 km from Comet 67P/C-G. The image resolution is 2.8 m/pixel. Credits: ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA

Recensione. Energia per l’astronave Terra. 3 ed.

In evidenza

Claudio Della Volpe

Energia per l’astronave Terra. Nicola Armaroli e Vincenzo Balzani. Terza edizione. Zanichelli maggio 2017 296 pag. 13.90euro

 

La prima cosa da dire su un testo che in 10 anni ha già visto un’altra riedizione e numerose ristampe è che è un testo di successo; e lo è a ragion veduta.

Scritto in modo leggibilissimo, semplice, ma nel contempo rigoroso, completo ed aggiornato; se analizzate con un minimo di sguardo critico le edizioni vedrete che si è passati dalle 217 pagine della prima alle quasi 300 della terza; il corredo delle citazioni e dei documenti è diventato amplissimo, il che presuppone un intenso lavoro di aggiornamento personale e professionale, ma anche una passione travolgente. Nel 2009 ha vinto il premio Galileo per la divulgazione scientifica.

Il titolo è rimasto immutato, ma il sottotitolo ha segnato quell’aggiornamento di prospettiva che gli autori giustificano pienamente nell’introduzione alla terza edizione.

Si è passati da un testo essenzialmente illustrativo della situazione ad un approfondimento delle prospettive italiane e infine con questa terza edizione a quelle mondiali; come giustamente dicono gli autori:

…”le cose cominciano a cambiare e a dirlo sono i numeri. Da qualche anno il contributo relativo dei combustibili fossili alla domanda energetica mondiale ha iniziato a diminuire…….Nel 2016 la potenza da eolico e fotovoltaico ha sfiorato 800GW, coprendo il 5% della domanda elettrica globale.”

Dunque la transizione è iniziata, “è un processo inevitabile e ormai irreversibile”.

Gli autori sono anche convinti di una cosa basilare che avevano già espresso altrove:

Per fissare la barra verso l’unico futuro possibile occorrono anche buon senso, sobrietà, collaborazione e responsabilità”.

In altri termini non è questione solo di tecnologia, ma di cambiamenti sociali per realizzare quell’era delle rinnovabili che fa da sottotitolo all’ultima edizione.

Il libro è diviso in 10 capitoli ed è arricchito da un paragrafo sulle fonti dei dati, da uno intitolato “15 miti da sfatare” e concluso da una serie di informazioni puntuali ma non così ben conosciute; infine c’è un indice analitico che potrebbe risultare utile in un uso didattico del testo.

1 edizione pag. 217 Agosto 2008

2 ediz. pag. 288 Ottobre 2011

 

 

 

Quali sono i punti principali?

La prima parte introduce il concetto di energia e fa una stima molto accurata della situazione attuale dei consumi e delle risorse, come dei limiti nella stima dei combustibili fossili.

Segue un capitolo dedicato all’analisi dei danni climatici ed ambientali dovuti a questo uso ed al fallimento mondiale ormai acclarato del settore nucleare.

Dal 6 capitolo si affronta il tema delle energie rinnovabili e delle loro caratteristiche e dei loro limiti mentre negli ultimi due si affronta invece il tema della transizione energetica e dei problemi tecnici e sociali che tale transizione pone sul tappeto.

Alcuni punti che mi hanno colpito e vi riporto qui alcune frasi chiave:

State leggendo un libro; chiudete gli occhi e rimanete immobili per qualche secondo. Forse, penserete, in queste condizioni non si consuma energia. Non è vero:…..”

 

“Quanti candidati mettono al primo punto dei loro programmi elettorali la creazione di piste ciclabili sicure? Sarebbe un investimento straordinario per la qualità della vita e le casse pubbliche (ma non per il PIL) : meno inquinamento, meno obesità, meno strade rotte, meno costi per il sistema sanitario nazionale”.

 

“La transizione energetica richiede un cambiamento parziale dei nostri stili di vita, ma questo non significa che vivremo peggio: semplicemente vivremo in modo diverso. I cambiamenti maggiori riguarderanno probabilmente l’alimentazione e il nostro modo di muoverci e di viaggiare. Per intenderci: meno carne, meno frutta fuori stagione e più trasporti pubblici.”

 

“A livello internazionale le disuguaglianze , le guerre per le risorse e i cambiamenti climtici stanno causando migrazioni epocali. La nostra è la prima generazione che si rende conto di questa situazione di crisi e quindi è anche la prima – qualcuno dice che potrebbe essere l’ultima- che può e deve cercare rimedi.”

 

“E sembra quasi che la Natura si diverta a far dipendere le tecnologie energetiche più avanzate da risorse poco abbondanti, in particolare metalli rari ……Occorre perciò un cambiamento radicale del paradigma economico e industriale: infatti i “rifiuti” devono diventare preziose “risorse secondarie”.

 

“…la transizione non può essere guidata soltanto dal mercato e dallo sviluppo tecnologico: servono anche scelte politiche illuminate e tecnicamente fondate, che stanno faticosamente iniziando a emergere.”

 

Ovviamente nessun libro è perfetto; tutto è perfezionabile, ma diciamo che dopo due update questo testo mantiene e migliora le proprie qualità: chiarezza, completezza, semplicità, difficile trovare di meglio.

Come altri libri questo è un testo che considero contemporaneamente scientifico e militante. Non vi sembri questo un ossimoro, una contraddizione.

Oggi la scienza è in campo: deve schierarsi, anche socialmente, se vuole mantenere la propria coerenza e la propria immagine di strumento di liberazione umana. Se le scienze naturali arrivano a conclusioni che sono conflittuali con alcuni dei più frequenti luoghi comuni della ideologia economica, se le scienze naturali falsificano le ideologie della crescita continua e del libero mercato, che farebbe ricchi tutti, le loro conclusioni acquistano un dirompente significato sociale.

E questo è uno dei più importanti risultati di questo libro.

Orbitali ibridi: vizi e virtù.

In evidenza

Rinaldo Cervellati.

Come fece notare P. Mirone, gli orbitali (cioè le soluzioni dell’equazione di Schrødinger per l’atomo di idrogeno) fecero la loro comparsa nei libri di testo di chimica generale agli inizi della seconda metà del secolo scorso per descrivere la struttura elettronica degli atomi e spiegare le strutture molecolari. Durante gli anni ’70 gli orbitali apparvero anche nei testi di chimica per le scuole secondarie superiori, dove il loro uso didattico divenne generalizzato alla fine del decennio. Nel corso di questo processo di volgarizzazione, il concetto essenzialmente quantomeccanico di orbitale ha subito almeno due diverse distorsioni, la sua descrizione come “regione di spazio dove è alta la probabilità di trovare l’elettrone” o espressioni simili, o come sinonimo di “nuvola di carica”. Inoltre la formazione di orbitali ibridi viene descritta nella maggioranza dei libri come se fosse un fenomeno fisico piuttosto che un artificio matematico [1]. Queste distorsioni sono in larga misura presenti anche oggi, come esempio si veda la Figura 1.

Figura 1

Sul significato di orbitale si rimanda alle citazioni [1], qui mi sembra più importante risalire all’origine e analizzare l’evoluzione del concetto di orbitali ibridi [2].

La consapevolezza che la disposizione degli elettroni di valenza in un atomo isolato può essere considerevolmente alterata dall’entrata in una combinazione chimica risale al lavoro di G. N. Lewis e il suo postulato dell’atomo cubico statico, di cui abbiamo parlato in un precedente post. Nel suo ormai classico lavoro del 1916 (di cui l’anno scorso è stato il centenario) sul legame a condivisione di una coppia di elettroni [3], Lewis riconobbe che la disposizione cubica di un ottetto di elettroni di valenza che aveva postulato per l’atomo isolato era incompatibile con i fatti noti di stereochimica (struttura tetraedrica del metano) e incapace di razionalizzare un’interpretazione elettronica del triplo legame in termini di tre coppie di elettroni condivisi.

Di conseguenza egli ipotizzò che al momento della formazione del legame gli elettroni dell’atomo cubico isolato vengono costretti in una disposizione tetraedrica a quattro elettroni appaiati, un processo illustrato mediante lo schema riportato in figura 2 [3, p. 779-780].

Figura 2

Problemi anche più gravi divennero evidenti con l’atomo di Bohr (1885-1962)- Sommerfeld (1868-1951) con i suoi elettroni in rapido movimento su orbite ellittiche monocentriche. Ad esempio nel 1922 il chimico britannico Alfred Steward[1], osservò [4]:

L’atomo di Bohr appare notevolmente sopravvalutato, in particolare da coloro che sembrano averlo accettato ciecamente senza applicare alcun esame critico. Sembra fallire nei tentativi fatti per interpretare l’atomo di elio e quelli di elementi più pesanti. Per quanto riguarda i problemi di chimica e radiochimica è abbastanza inutile. In realtà non ha la pretesa di offrire una spiegazione di nessuno dei problemi più comuni della chimica.

Anche Lewis fu estremamente critico verso l’atomo di Bohr, affermò infatti:

Quali che siano i suoi meriti in spettroscopia, i suoi elettroni in rapido movimento su orbite atomiche centro-simmetriche sembrano essere totalmente incompatibili con i fatti della stereochimica e, in particolare, con la nota disposizione tetraedrica dei legami del carbonio in migliaia di composti organici e con la stabilità di centinaia di isomeri molecolari.[2]

Appariva quindi ovvio che dovesse avvenire un qualche riassetto delle orbite atomiche nella formazione del legame; nel 1923 il chimico tedesco Ludwig Knorr[2] postulò, per il metano, la formazione di otto orbite ciascuna a due centri disposte tetraedricamente come mostrato in figura 3[5].

Figura 3. Ludwig Knorr e il metano

In modo simile sebbene meno esplicito, anche altri, fra cui lo stesso Lewis, cercarono di conciliare l’atomo dinamico “della fisica” con l’atomo statico “della chimica”. Scrive Lewis:

[per fare ciò occorre] postulare che è l’orbita nel suo complesso, e non l’elettrone in una sua qualche una posizione, a essere la pietra costitutiva della struttura atomica e molecolare [6]

Fra la fine del 1920 e primi ‘30 l’atomo “planetario” di Bohr-Sommerfeld venne rapidamente eclissato dalla meccanica ondulatoria di Schrödinger (1887-1961) con il concetto di orbitali atomici, e il punto di vista probabilistico derivante dal principio di indeterminazione. L’energia degli elettroni (autovalori) corrispondente alle soluzioni accettabili dell’equazione di Schrödinger (autofunzioni o orbitali) è la sola grandezza direttamente osservabile. Ma gli orientamenti delle funzioni orbitali associate ai livelli energetici permessi ponevano nei riguardi della struttura molecolare e della stereochimica gli stessi (se non maggiori) problemi delle precedenti orbite dell’atomo di Bohr-Sommerfeld.

Nella prima applicazione del 1927 della meccanica ondulatoria al legame chimico, i fisici Heitler (1904-1981) e London (1900-1954), ignorarono completamente questi problemi tanto che Heitler, ancora nel 1945, era abbastanza soddisfatto della rappresentazione di acqua e ammoniaca con angoli di legame di 90° derivanti dall’interazione degli orbitali s di H con gli orbitali p di O e di N. I valori sperimentalmente determinati (104° e 107° rispettivamente) venivano considerati come solo “leggermente più grandi” rispetto agli angoli di legame teorici di 90° (7).

Al contrario, il chimico americano, Linus Pauling (1901-1994) (figura 4), che aveva scrupolosamente studiato i lavori di Lewis sulla teoria del legame covalente per condivisione di una coppia di elettroni, riuscì a dotarla di aspetti quantomeccanici per tener conto dei fatti stereochimici. In una nota del 1928 scrisse:

Nel caso di alcuni elementi della prima riga [della Tavola Periodica] l’energia di interscambio dovuta alla formazione dei legami a coppie elettroniche condivise è grande abbastanza per cambiare la quantizzazione, distruggendo i due sottogusci con l = 0 e l = 1 del guscio L. Che ciò si verifichi o meno dipende in gran parte dalla separazione fra il livello s (l = 0) e il livello p (l = 1) dell’atomo in esame; questa separazione è molto più piccola per boro, carbonio e azoto rispetto all’ossigeno e al fluoro o ai loro ioni, e di conseguenza la quantizzazione può cambiare per i primi tre elementi, ma non per gli altri due. Il cambiamento della quantizzazione rende possibile i legami a coppia elettronica condivisa molto stabili nei composti del carbonio saturi e i doppi legami relativamente stabili del carbonio… Questa rottura della l-quantizzazione stabilizza anche strutture in cui solo tre coppie di elettroni sono legate a un atomo centrale, come nelle molecole contenenti un triplo legame, gli anioni carbonato, nitrato e borato, il gruppo carbossilico e composti simili. È stato inoltre trovato che, come risultato del fenomeno della risonanza, la disposizione tetraedrica dei quattro legami dell’atomo di carbonio è la configurazione stabile.[8]

In questa nota Pauling non fornisce ulteriori dettagli annunciando un prossimo lavoro più completo. Tuttavia fu solo nel 1931 che Pauling si decise a fornire i dettagli, anche in seguito alla pubblicazione da parte di un giovane fisico del MIT, John Slater[3], dell’articolo “Directed Valence in Polyatomic Molecules”. Per essere stato scritto da un fisico, l’articolo di Slater era comprensibile anche da un chimico particolarmente interessato come Pauling. Esso infatti non richiedeva conoscenze di matematica avanzata ed era riccamente illustrato con immagini di modelli di tipiche molecole e cristalli fatti con palline di sughero e filo di ferro [9].

Figura 4. John Slater e Linus Pauling

John Slater e Linus Pauling

Mentre Pauling aveva invocato la separazione energetica tra i vari orbitali atomici nella sua breve nota del 1928 come criterio fondamentale per stabilire se potevano o non potevano variare la quantizzazione, Slater utilizzò il criterio della massima sovrapposizione fra gli orbitali dei legandi e quelli dell’atomo centrale. Per i composti degli elementi dei gruppi dal 7 al 5 Slater assunse che tutti gli angoli di legame fossero di 90° formati dalla sovrapposizione fra orbitali dei legandi con gli orbitali p dell’atomo centrale. Solo per i composti degli elementi del gruppo 4, in cui la stereochimica tetraedrica non poteva essere ignorata, invocò la necessità di massimizzare la sovrapposizione degli orbitali creando un nuovo set di orbitali orientati tetraedricamente attraverso una combinazione lineare appropriata degli orbitali atomici s e p. Anche se l’articolo di Slater fu pubblicato nel numero di marzo 1931 della Physical Review, Pauling era probabilmente a conoscenza del suo lavoro già nell’aprile del 1930, quando Slater tenne una conferenza sullo stesso tema alla riunione della Physical Society a Washington. Questo spiegherebbe perché Pauling fu in grado di sottoporre un lungo e dettagliato articolo sullo stesso argomento al Journal of the American Chemical Society, nel febbraio del 1931, pubblicato un mese dopo l’articolo di Slater, in aprile [10]. A questa pubblicazione Pauling fece seguire una lettera alla Physical Review che richiamava l’attenzione alla sua pubblicazione [11]. Pauling confessò in seguito che il ritardo rispetto alla nota del 1928 fu dovuto alla sua incapacità di trovare un modo accettabile di semplificare le funzioni d’onda in modo da rendere la “quantizzazione tetraedrica” matematicamente trattabile. Il breve articolo di Slater gli aveva fornito la chiave mancante suggerendo che si sarebbe potuto ignorare la parte radiale della funzione d’onda concentrandosi solo sulla parte angolare [12].

L’articolo di Pauling, che divenne il primo della sua famosa serie La natura del legame chimico, era molto più dettagliato di quello di Slater e, a differenza di quest’ultimo, nei disegni dei nuovi orbitali erano compresi quelli per geometrie diverse da quella tetraedrica e per gli elementi del blocco d, così come pure per gli elementi del blocco principale. Come tale, esso non solo ha segnato l’affermazione della teoria del legame di valenza (VB)[4], ma resta la fonte primaria delle nostre concezioni su ibridazione degli orbitali e stereochimica. Va notato che i termini “ibridazione” e “orbitale ibrido” non furono utilizzati da entrambi gli autori nei loro primi lavori. Pauling parlava in generale di “riquantizzazione” e ad esempio di “quantizzazione trigonale” o “quantizzazione tetraedrica” riferendosi a una specifica “riquantizzazione”. Sembrerebbe che il primo a usare il termine “ibridazione” per descrivere il processo di “mescolazione” (matematica) di orbitali sia stato il fisico americano, John Van Vleck[5] in un articolo del 1933 [13][6]. Pauling a quanto pare, trovò il termine di Van Vleck più congeniale rispetto a riquantizzazione e così lo impiegò nelle varie edizioni della sua famosa monografia sulla natura del legame chimico. Inoltre, solo verso la fine del suo articolo del 1931 Pauling introdusse simboli come sp3 e dsp2 e a parlare in termini di autofunzioni di legame sp3 o d2sp3. Allo stesso modo, nel suo articolo del 1933, Van Vleck parla di valenze sp3 o funzioni d’onda sp3, ma non di orbitali ibridi sp3.

Figura 5 John H. Van Vleck

Attualmente gli apici in tali simboli vengono interpretati come pesi numerici del contributo di ogni orbitale atomico all’orbitale ibrido finale. Tuttavia, come originariamente inteso da Pauling, questi simboli erano una semplice estensione di quelli per le configurazioni elettroniche degli atomi, in cui gli apici rappresentavano il numero di elettroni che occupano quegli orbitali (o, più correttamente il numero di elettroni con energia associata a quelle funzioni d’onda) e starebbero a significare, ad esempio, che gli ibridi tetraedrici sono formati da una ipotetica non ibridizzata configurazione elettronica s1p3, gli ibridi trigonali da una ipotetica configurazione s1p2, ecc.

Tornando al discorso didattico iniziale, i testi di chimica di base sono inondati da immagini tipo quelle riportate in figura 6:

Figura 6 rappresentazioni pittoriche degli orbitali ibridi sp, sp2 e sp3

che possono far pensare a una realtà fisica degli orbitali ibridi se non sono accompagnate da una spiegazione chiara che esse rappresentano solo l’orientamento di opportune combinazioni lineari di funzioni matematiche costruite per descrivere strutture molecolari assegnate secondo dati sperimentalmente osservati, ma non sono la struttura molecolare. Invece, la grande fortuna di cui godette la teoria VB fra i chimici (e che ancora gode nei testi elementari) sta proprio nel suo carattere intuitivo manifestatosi in disegni suggestivi degli orbitali ibridi che facilmente vengono confusi con la struttura molecolare, v. ad esempio la figura 7 relativa al metano. Accanto a ciò va anche ricordata la notevole abilità di Pauling come comunicatore e divulgatore.

Figura 7

Infine, una curiosità storica. Né Pauling né Slater furono inizialmente disposti a considerare la possibilità che la teoria dell’ibridazione potesse applicarsi anche ai composti dell’azoto e dell’ossigeno ed erano soddisfatti, come Heitler, della previsione teorica di un angolo di legame di 90° per l’acqua. Eppure, dieci anni prima, Eustace Cuy, un allievo di Lewis a Berkeley, aveva pubblicato una breve nota in cui utilizzava il modello di atomo statico tetraedrico di Lewis (figura 1) per prevedere correttamente che l’acqua aveva una struttura -“identica a una molecola di metano mancante di due atomi di idrogeno”- in breve che l’angolo di legame nell’acqua è circa 104°, una previsione molto più accurata del valore 90° teoricamente previsto dalla sovrapposizione degli orbitali atomici s (dell’idrogeno) e p (dell’ossigeno). Allo stesso modo, durante gli anni ‘20 un altro chimico di Berkeley, Maurice Huggins, pubblicò una serie di articoli sulla razionalizzazione delle strutture dei cristalli in base all’atomo tetraedrico di Lewis fornendo previsioni molto più vicine ai dati sperimentali di quelle ottenute con le strutture a 90° assunte da Slater. La transizione dall’atomo cubico isolato di Lewis al suo atomo tetraedrico legato chimicamente sarebbe diventata la base nel 1960 di una ri-elaborazione delle teorie originali di Lewis da parte del chimico britannico, John Linnett [14], nota come teoria del doppio-quartetto. Questa teoria si sarebbe poi evoluta nell’approccio alla previsione delle geometrie molecolari noto come teoria della repulsione fra coppie di elettroni nello stato di valenza o teoria VSEPR (Valence-Shell Electron-Pair Repulsion) [15].

[1] P. Mirone, Mezzo secolo di orbitali nell’insegnamento della chimica, Atti del X Convegno si Storia e Fondamenti della Chimica, 2003, p. 473-481, v. anche P. Mirone, Che cos’è un orbitale? CnS-La Chimica nella Scuola, 1980, 2, 8-15; R. Cervellati, D. Perugini, The Understanding of the Atomic Orbital Concept by Italian High School Students, J. Chem Educ., 1981, 58, 568-9.

[2] W.B. Jensen, The Origin of the Hybrid Orbital Concept, submitted to J. Chem. Educ., 2012

[3] G.N. Lewis, The Atom and the Molecule, J. Am. Chem. Soc., 1916, 38, 762-685

[4] A. W. Steward, Some Physico-Chemical Themes, Longmans, Green and Co: London, 1922, pp. 395-396.

[5] C. A. Knorr, Eigenschaften chemischer Verbindungen und die Anordunung der Electronenbahnene in ihren Molekülen, Zeit. anorg. Chem., 1923, 129, 109-140.

[6] G. N. Lewis, Valence and the Electron, Trans. Faraday Soc., 1924, 19, 452-458.

[7] W. Heitler, Elementary Quantum Mechanics, Clarendon: Oxford, 1945, p. 127.

[8] L. Pauling, “The Shared Electron Chemical Bond” Proc. Nat. Acad. Sci., 1928, 14, 359-362.

[9] J. C. Slater, Directed Valence in Polyatomic Molecules, Phys. Rev., 1931, 37, 481-489.

[10] L. Pauling, The Nature of the Chemical Bond. Application of Results Obtained from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the Structure of Molecules, J. Am. Chem. Soc., 1931, 53, 1367-1400.

[11] L. Pauling, Quantum Mechanics and the Chemical Bond, Phys. Rev., 1931, 37, 1185-1186.

[12] affermazione riportata da T. Hager, in: Force of Nature: The Life of Linus Pauling, Simon & Schuster: New York, NY, 1995, pp. 155-159.

[13] J. H. Van Vleck, On the Theory of the Structure of CH4 and Related Molecules. Part I, J. Chem. Phys., 1933, 1, 177-181.

[14] M. L. Huggins, Electronic Structure of Crystals. I, J. Am. Chem. Soc., 1922, 44, 1841-1850.

[15] R.J. Gillespie, I. Hargittai, Geometria Molecolare. Il modello VSEPR, Zanichelli, Bologna, 1994.

[1] Alfred Walter Stewart (1880 – 1947) chimico britannico e romanziere part-time. Scrisse 17 romanzi polizieschi e un racconto pionieristico di fantascienza fra il 1923 e il 1947 sotto lo pseudonimo di J.J. Connington. Ha lavorato nel campo della radioattività e ha scritto un trattato di chimica organica (Recent Advances in Organic Chemistry) che divenne molto popolare. Lecturer di Radiochimica e Chimica Fisica all’Università di Glasgow dal 1914 al 1944.

[2] Carl Angelo Knorr (1894-1960) chimico fisico tedesco. Professore a Innsbruck e a Monaco.

[3] John Clark Slater (1900-1976) fisico teorico statunitense, A Slater spetta la scoperta delle funzioni di calcolo che descrivono gli orbitali atomici e anche l’introduzione delle cosiddette regole di Slater, per il calcolo della carica nucleare efficace degli elettroni più esterni in un atomo.

[4] Fra la fine degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni di valenza dei due atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola.

[5] John Hasbrouck Van Vleck (1899-1980) fisico e matematico statunitense è considerate il fondatore della teoria quantistica del magnetismo e della teoria del campo cristallino per interpretare il legame chimico nei complessi metallici. Premio Nobel per la fisica 1977.

[6] Va notato che l’articolo di Van Vleck ha come scopo principale il confronto fra la teoria del legame di valenza (VB) di Pauling-Slater e la teoria dell’orbitale molecolare (MO) di Hund-Mulliken applicate alla molecola del metano. La prima considera solo gli elettroni di valenza degli atomi contraenti il legame, la seconda tiene conto di tutti gli elettroni di valenza di tutti gli atomi che formano la molecola. I successivi sviluppi della teoria MO hanno mostrato che essa è attualmente la più coerente e rigorosa, sebbene molti ritengano che a parte il differente formalismo matematico, le due teorie si equivalgano.

Molecole come gioielli.

In evidenza

Mauro Icardi.

Una delle ultime scoperte personali che ho fatto mentre curiosavo in vari mercatini insieme alla famiglia, è quella delle collane che hanno come ciondoli la rappresentazione di molecole.

Cercando sul web e sui cataloghi sono definite come le collane delle molecole della dipendenza.

Caffeina, teobromina, saccarosio sono le rappresentazioni più frequenti. Ma si trova in commercio anche la molecola della ketamina e quelle della serotonina e dell’ossitocina.

Devo dire che la mia prima reazione è stata di stupore. Ma dopo qualche riflessione ho cominciato a pensare al fatto che le molecole , e specialmente quelle dei composti organici hanno indubbiamente una loro eleganza strutturale. Una loro estetica definita che abbiamo imparato ad apprezzare. In special modo i chimici.

Ma mi domando che cosa significhi questo per chi non è un chimico. Alcune persone possono sfoggiare la molecola della caffeina per mostrare agli altri di essere incalliti consumatori di caffè, oppure incapaci di sfuggire alla tentazione di un pezzetto di cioccolato. Oppure più semplicemente questo genere di oggetti piacciono esclusivamente come oggetti di moda. In effetti li ho visti su bancarelle che sfoggiavano diverse tipologie di ciondoli con simboli di diverso tipo. Dal simbolo taoista dello yin e dello yang, fino a disegni di elfi o draghi che appartengono all’immaginario delle saghe fantasy.

Quando mi sono qualificato come chimico ai venditori sono rimasti lievemente spiazzati. Loro vendevano questi ciondoli enfatizzando alcune proprietà delle molecole stesse, tipo quelle della serotonina come molecola della felicità. Io ero invece tentato di acquistarle per spirito di appartenenza alla categoria.

In fin dei conti potrebbe non esserci nulla di male in questo, cioè nel fare una sorta di “marketing molecolare”. Qualcuno potrebbe usare questi monili per fare colpo sul ragazzo o la ragazza studenti di Chimica verso per il quale prova attrazione Ma sarebbe una cosa decisamente positiva se questa moda risvegliasse una curiosità più profonda.

Una curiosità che spinga le persone non solo a sapere quali sono le proprietà della molecola rappresentata sul ciondolo che hanno deciso di acquistare (cosa per altro positiva), ma anche di approfondire qualche nozione di chimica studiata in passato. Magari ricordarsi il principio di Avogadro. E volendo anche come lo stesso principio che più o meno tutti hanno studiato o enunciato : “Volumi uguali di gas diversi nelle stesse condizioni di temperatura e di pressione contengono lo stesso numero di molecole.”

Le molecole rappresentate mi hanno ricordato anche quanto scrive Primo Levi in “Azoto” il racconto del sistema periodico. Quello della mancata sintesi dell’allossana come colorante per le labbra.

Levi ne parla così “ Eccone il ritratto: dove O è l’ossigeno, C il carbonio, H l’idrogeno (Hydrogenium) ed N l’azoto (Nitrogenium). E una struttura graziosa non è vero? “

E su questa sua affermazione si può essere completamente d’accordo. Chimici o non chimici.

Per concludere questo articolo devo doverosamente citare due colleghi della redazione. Margherita Venturi e Vincenzo Balzani. Sul loro libro “Chimica! Leggere e scrivere il libro della natura” ci fanno conoscere le opere di uno scultore ungherese Vizi Bela che prende spunto dalle molecole per le sue opere.

Bela è ingegnere chimico oltre che scultore.

A breve accompagnerò mia figlia ad una mostra mercato di fumetti ed oggettistica dove so che posso trovare ciondoli di questo tipo. Non so se riuscirò a resistere alla tentazione di acquistarne uno. E oltre alle ragioni che ho provato a spiegare, credo ce ne sia una che le supera tutte. Il primo soprannome che mi venne dato quando avevo all’incirca sette anni, dai ragazzi più grandi del corso di minibasket che frequentavo fu proprio questo: molecola. Non ho mai capito il perché, forse perché ero piccolo di età e di costituzione fisica. Ma non posso negare che sia stato un soprannome in qualche modo profetico.

Per l’aiuto nello studio della chimica i modelli molecolari sono di grande aiuto. Perché non pensare che in qualche modo possano servire anche queste collane?

Le molecole sono gioielli non solo quando le acquistiamo in gioielleria o nei mercatini. Sono gioielli della natura e del nostro percorso di conoscenza.

 

Il caso elio.

In evidenza

Claudio Della Volpe

A partire dal 2012 e a più riprese i giornali internazionali (molto meno i nostri quotidiani alquanto provincialotti) hanno lanciato l’allarme per i problemi che subiva l’approvvigionamento dell’elio; l’helium shortage, ha avuto l’onore delle cronache[1]. L’allarme è stato rilanciato varie volte[2], ma di cosa si tratta e come mai esiste questo problema?

L’elio è il secondo elemento come abbondanza nell’Universo, ma è molto raro sulla Terra, dove viene prodotto dal decadimento degli elementi radioattivi nell’interno del pianeta ed è presente in atmosfera con una percentuale dello 0.00052%, cosi’ raro che estrarlo dall’atmosfera è privo di senso economico; così raro che fu scoperto prima di tutto nello spettro solare da Jansenn nel 1868; fu Luigi Palmieri, un mio conterraneo, a individuarlo, sempre spettroscopicamente, per primo sul nostro pianeta nelle lave vesuviane nel 1882; ma la scoperta ufficiale arrivò solo nel 1892 da parte di Cleve e Langlet che ne individuarono nel minerale cleveite e ne misurarono il peso atomico.

Infine solo nel 1903 ne furono individuate significative quantità nel gas naturale degli USA; e da allora fino ad oggi gli Usa ne sono stati il principale produttore. Da quel gas viene separato attraverso la distillazione frazionata e la filtrazione, sfruttando le sue proprietà fisiche, bassissimo peso atomico e punto di ebollizione. Nel gas naturale delle grandi pianure di alcuni stati americani ce n’era una percentuale dell’ordine del 2-4%; col tempo ne sono state individuate altre fonti ma non molto numerose nel mondo e comunque con percentuali di molto inferiori; oggi viene considerato sfruttabile un giacimento che ne contenga almeno lo 0.15%.

I giacimenti sono mostrati in rosso nella figura acclusa estratta da un volantino della Messer, che è uno dei grandi produttori mondiali.

L’andamento della produzione mondiale, tratto dai dati della USGS è invece mostrato nel grafico qui sotto, in cui si riportano sia la produzione annua (in rosso) che quella totale estratta (in blù). Se guardate il grafico vi rendete conto che la guerra e poi soprattutto la conquista dello spazio sono stati due momenti importanti per lo sviluppo del consumo di elio. Gli USA che fin dalla prima guerra mondiale avevano “nazionalizzato” l’elio costruendo un deposito sotterraneo di gas ad Amarillo (Cliffside Reserve), cui partecipavano tutti gli estrattori privati, sono stati sempre un player dominante del mercato mondiale.

Questa politica ha avuto un grande costo economico per lo stato ed ha attraversato dei momenti di crisi, il primo con la fine del sogno dei dirigibili (tutti conoscono il dramma Hindenburg, molti meno quello dei due dirigibili ad elio USA fra le due guerre); poi con la fine dell’esplorazione dello spazio e della guerra fredda[3]. Il debito accumulato dallo stato nei confronti dei privati è stato tale da costringerlo a rinunciare a questa attività; e la decisione ha sballato il mercato mondiale dell’elio. Certo negli anni si erano sviluppati degli altri players, ma nessuno ha a disposizione giacimenti così ricchi e ampi come quelli americani e tutti stentano a decollare.

La bibbia di tutti coloro che si occupano di risorse minerarie è certamente il sito dell’US Geological Survey dove troviamo uno speciale report[4] sull’elio che è stato considerato negli USA un materiale strategico fino dall’origine, dal principio del XX secolo, quando si resero disponibili sorgenti minerarie di elio. Il report dell’USGS ci conferma che non mancano per il momento depositi naturali di gas contenente elio, ci si aspettano riserve+risorse per oltre 50 miliardi m3 (>9Mton), di cui un 40% in USA e sole riserve (quelle già accertate e tecnicamente possibili) per almeno 7 miliardi, contro un consumo annuo di 0.2 miliardi. Ma, attenzione se pure prendiamo per buone queste cifre, che comunque ci dicono che l’elio non è infinito (ne abbiamo di sicuro solo per grossolanamente 35 anni, se non teniamo conto della concentrazione decrescente), è chiaro che i costi sono in netto aumento, costi energetici ed economici. Il deposito di Cliffside-Amarillo ne contiene 0.7 miliardi e le sorgenti USA in attività meno di 4 miliardi stimati. Tutti i depositi “tradizionali” scoperti in giro per il mondo hanno una qualità ed una abbondanza nettamente inferiori. Insomma una situazione complessa e nell’immediato foriera di forti aumenti di prezzo: scordatevi i palloncini! L’elio serve nell’industria (saldature, fibre ottiche) e nei servizi (magneti molto forti). L’elio, come il fosforo non è “fungibile”, è unico come gas.

Con questi precedenti non è più strano che nei mesi recenti la stampa mondiale abbia gridato al miracolo per la scoperta di un grande giacimento di elio ritrovato in Tanzania; A new approach to gas exploration has discovered a huge helium gas field, which could address the increasingly critical shortage of this vital yet rare element ha titolato sul suo sito l’Università di Oxford ricopiata dai grandi giornali di tutto il mondo.

Ma guardandola bene questa è una storia che fa capire come la stampa ma anche i tecnici non conoscano a fondo il problema risorse e non siano dunque in grado di valutare con calma e ragionevolezza la situazione contribuendo di fatto ad aggravare, mediante falsi miti, una situazione delle risorse minerarie che è sempre più grave.

[5]

Certamente il metodo usato per la scoperta è interessante, trattandosi di una collaborazione fra l’Università di Oxford e il gruppo HeliumOne che hanno applicato nuovi metodi di ricerca mostrando che l’attività vulcanica fornisce l’intenso calore necessario a far rilasciare il gas dalle antiche rocce che lo intrappolano. Nella Rift Valley i vulcani hanno rilasciato elio dalle antiche rocce profonde intrappolandolo in depositi di gas più superficiali.

La combinazione della conoscenza geochimica e delle tecniche di ricerca basate sulle onde sismiche hanno consentito di ricostruire la forma, la posizione e l’importanza del giacimento; i ricercatori tuttavia non sono stati ancora in grado di dire quanto facilmente si potrà liberare l’elio da altri gas (che è poi il problema delle risorse di elio e un pò di tutta l’attività mineraria).

Come si vede dai dati del primo grafico il consumo mondiale annuo viaggia sotto le 30.000ton (180Mm3); le riserve accertate ed estraibili di Elio assommano secondo la USGS a 7-8 Gm3, mentre le risorse, ossia le quantità scoperte ma di cui non si sa esattamente la effettiva resa, assommano a 20.6 Gm3, in USA e 31.3 Gm3 fuori dagli USA.

Si può guardare alla situazione da un punto di vista diverso usando la teoria di Hubbert (lo scopritore del picco del petrolio); secondo il suo approccio formale una risorsa finita ed usata nel modo tradizionale va incontro ad un picco di produzione e poi ad una lenta decrescita; in particolare se si riporta il rapporto P/Q, produzione annua su estrazione totale nel tempo contro Q si ottiene un comportamento lineare discendente a zero da cui si può estrapolare la durata della risorsa. Il mercato dell’elio si adatta male a questo approccio date le sue peculiarità ma è comunque interessante verificare.

Come si vede la riduzione lineare (che corrisponde ad un picco attorno al 1970 che vedete nel primo grafico) si è verificata fino a quando la produzione americana ha dominato le cose mondiali; con la scoperta ed entrata sul mercato di altre risorse (che come dicevamo sono però meno ricche comunque) le cose sono cambiate; l’andamento P/Q vs Q è in leggera discesa ma il fittaggio non è chiaro, non è in grado di darci una estrapolazione significativa.

Cosa cambia con la scoperta tanzaniana? Lo scopritore prof. Ballentine del Dipartimento di Scienze della Terra dell’Università di Oxford dice:

By combining our understanding of helium geochemistry with seismic images of gas trapping structures, independent experts have calculated a probable resource of 54 Billion Cubic Feet in just one part of the rift valley.

Dato che un metro cubo è oltre 35 piedi cubi stiamo parlando di poco più di un miliardo e mezzo di metri cubi, ossia un incremento “probabile” delle risorse pari a meno del 3% (in termini di riserve medie sarebbe ancora più piccolo di circa 7 volte); certamente è possibile che ci siano altre scoperte di questo tipo con la nuova metodica, ma quali saranno le effettive percentuali di passaggio da risorse a riserve vere e proprie? Se usiamo il rapporto attuale di circa 7 il giacimento trovato potrebbe soddisfare i consumi mondiali solo per poco più di un anno (220Mm3). Possiamo concludere che non è cambiato granchè e ce ne sarebbero molti altri di giacimenti di questo tipo da scoprire per “risolvere” il problema di una risorsa mineraria importante ma le cui disponibilità sono e rimangono limitate e il cui prezzo tende a crescere da molto tempo.

L’unico modo saggio è quello di prevenire il problema eliminando gli sprechi ed introducendo meccanismi di recupero e di riciclo in tutte le applicazioni chiave dell’elio a partire da quelle nel campo della sanità e della ricerca (nei grandi NMR per esempio).

Economia circolare è la risposta ai problemi delle risorse, non nuove scoperte “epocali”, ma che lasciano sostanzialmente immutata la situazione, e casomai costituiscono una occasione per ulteriore distruzione della Natura, una fonte di arricchimento per una esigua minoranza e una dimostrazione di incompetenza per i giornali anche tecnici.

[1] Popular Mechanics 25 June 2012: Why Is There a Helium Shortage?

[2] The independent 5/1/2013: A ballooning problem: the great helium shortage

https://www.wired.com/2015/07/feds-created-helium-problem-thats-screwing-science/

[3]W. J. Nuttall, R. H. Clarke, B. A. Glowack- The Future of Helium As a Natural Resource, Routledge 2012

[4]http://minerals.usgs.gov/minerals/pubs/commodity/helium/mcs-2012-heliu.pdf

[5]http://www.airproducts.com/~/media/files/pdf/industries/metals-helium-recovery-recycling-good-business-sense.pdf

 

Inquinamento da PFAS in Veneto. Riflessioni.

In evidenza

Mauro Icardi

La vicenda è venuta alla ribalta nel 2013. Durante l’effettuazione di ricerche sperimentali da parte del Ministero dell’Ambiente sui nuovi inquinanti “emergenti” è stata verificata la presenza di PFAS (Perfluoroalchili) in acque superficiali, sotterranee e potabili in Veneto. La zona interessata dall’inquinamento da PFAS comprendeva il territorio della bassa Valle dell’Agno (VI), e alcuni ambiti delle province di Padova e Verona .

E’ stata attivata una commissione tecnica regionale che ha provveduto ad emanare dei limiti di concentrazione ammissibili. Tali limiti non sono previsti nel D.lgs. 31/2001, che attua la direttiva 98/83/CE.

Non tutti i parametri sono presenti nelle tabelle del decreto, e questo per ovvi motivi. Il numero di sostanze che sono presenti e normate deriva dalle conoscenze scientifiche disponibili. Per queste sostanze viene fissato un valore di parametro che generalmente raccoglie gli orientamenti indicati dall’OMS (Organizzazione Mondiale della Sanità).

Per altri tipi di composti non normati si può applicare il principio generale presente nel Decreto 31 cioè che: “Le acque destinate al consumo umano non devono contenere microrganismi e parassiti, né altre sostanze, in quantità o concentrazioni tali da rappresentare un potenziale pericolo per la salute umana

La regione Veneto dopo aver riscontrato la presenza di questi inquinanti ha richiesto il supporto tecnico -scientifico del Ministero dell’ambiente e fissato dei limiti provvisori per il PFOA (Acido perfluorottanoico) pari a 0,5 microgrammi/litro, e di 0,03 microgrammi/litro per il PFOS (Acido perfluoroottansolfonico).

Oltre a questo si sono definite misure di emergenza per i gestori del ciclo idrico che hanno installato filtri specifici a carbone attivo per la rimozione di questi inquinanti.

E’ stato attivato un sistema di sorveglianza analitica, formazione per il personale sanitario e tecnico, un regolamento per l’utilizzo dei pozzi privati ad uso potabile. I cittadini che utilizzano pozzi, sia per uso potabile che per preparazione di alimenti devono ricercare la presenza di PFAS nelle acque prelevate allo scopo.

E’ stato attuato anche il biomonitoraggio della popolazione residente che si è concluso a fine 2016 mostrando livelli significativi di PFAS nel sangue di circa 60.000 persone.

L’ARPA del Veneto ha effettuato misurazioni che hanno riguardato falde ed acque superficiali per definire l’area interessata dal problema di inquinamento e definirne la provenienza.

Individuando come la contaminazione prevalente fosse dovuta agli scarichi di uno stabilimento chimico situato a Trissino in provincia di Vicenza.

Questo il preambolo generale. Ma ci sono alcune riflessioni da fare. A distanza di decenni lascia quantomeno sgomenti verificare che ancora oggi un problema di inquinamento ambientale sia dovuto ad una gestione scorretta dei reflui di lavorazione di un’industria.

Non è accettabile questo, perché negli anni abbiamo già dovuto assistere ad altri casi emblematici, casi che ormai sono parte della letteratura. Seveso, Priolo, Marghera, Casale Monferrato, Brescia. E ne dimentico certamente altri. Questo del Veneto sarà l’ennesimo caso. Occorre trovare l’equilibrio. La riconversione dei processi produttivi nell’industria chimica è ormai un’esigenza non rimandabile ulteriormente. Allo stesso tempo non è alla chimica come scienza che si deve imputare tout court il verificarsi di questi episodi, bensì ad una visione alterata di quelli che sono i nostri bisogni reali. L’azienda ritenuta responsabile dell’inquinamento sta affrontando il processo di riconversione. E questo come è probabile comporterà un percorso probabilmente lungo e tormentato. Non sempre le esigenze di occupazione e tutela ambientale seguono gli stessi percorsi.

Questo episodio deve fare riflettere anche per quanto riguarda la gestione del ciclo idrico. L’Italia deve investire e formare tecnici. Occorre dare una forma ad una gestione che al momento è ancora decisamente troppo frammentata e dispersa. Questo non significa, come spesso molti temono, innescare un processo contrario alla volontà espressa nel referendum del 2011. Ma mettere in grado le varie realtà territoriali di gestire emergenze che (purtroppo) potrebbero anche ripetersi.

Sono necessarie sinergie tra tutti i soggetti coinvolti (ISS, ARPA, Gestori del ciclo idrico).

L’ultima riflessione è molto personale, ma la ritengo ugualmente importante. Niente di tutto questo potrà prescindere da una più capillare educazione scientifica ed ambientale. Che riguardi non solo chi sta seguendo un corso di studi, ma in generale la pubblica opinione. Un cittadino compiutamente e doverosamente informato è un cittadino che può operare scelte più consapevoli. La spinta al cambiamento, alla riconversione dei processi produttivi parte anche da questo.

Approfondimenti.http://areeweb.polito.it/strutture/cemed/sistemaperiodico/s14/e14_1_01.html

https://sian.ulss20.verona.it/iweb/521/categorie.html

http://www.arpa.veneto.it/arpav/pagine-generiche/allegati-pagine-generiche/pfas-relazioni-attivita-arpav/Contaminazione_da_PFAS_Azioni_ARPAV_Riassunto_attivita_giu2013_gen2017.pdf

Nota del post master. Si stima che nel periodo 1970-2002 siano state utilizzate nel mondo 96.000 tonnellate di POSF (perfluorooctanesulphonyl fluoride) con emissioni globali di POSF tra 650 e 2.600 ton e di 6.5-130 ton di PFOS. La maggior parte del rilascio avviene in acqua (98%) e il rimanente in aria. Non sono biodegradabili in impianti a fanghi attivi.

Tossicità e prove su animali: a che punto siamo?

In evidenza

Luigi Campanella, ex presidente SCI

Gli studi tossicologici su sistemi bersaglio sono generalmente condotti utilizzando differenti dosi di tossico capaci di coprire un largo intervallo di concentrazione. I risultati di ogni studio mostreranno generalmente, ma non sempre, effetti dannosi ad alte dosi, ed effetti lievi a basse dosi. Se la sostanza è tossica sarà così identificata la dose alla quale gli effetti dannosi compaiono (livello di effetto EL). La natura e la severità degli effetti osservati varierà con il tipo di test, il tempo di esposizione, la specie bersaglio il che mette in discussione qualunque trasferimento conclusivo da una specie ad un’altra. Lo studio identificherà anche la dose massima alla quale non si osservano effetti (livello di nessun effetto osservato NOEL). Così da studi di tossicità condotti in modo diverso potranno risultare differenti valori di NOEL: la valutazione del rischio dovrebbe basarsi sullo studio più sensibile che fornisce il minimo valore di NOEL. Qualche volta il termine NOEL è sostituito da NOAEL dove la lettera A sta per avverso, indicando con essa il carattere dell’effetto, rispetto ad un effetto non nocivo.

I risultati di studi di tossicità possono essere usati in due modi diversi: per predire livelli sicuri di esposizione dell’uomo e per predire livelli potenzialmente tossici e la natura probabile degli effetti dannosi.

Nel primo caso i risultati degli studi di tossicità possono essere usati per predire la più elevata quantità di un tossico assorbito su base giornaliera da un essere umano senza alcun danno sostanziale. Talvolta tale quantità viene riferita all’unità di peso del soggetto e viene assunta come pari al NOEL diviso per 100: ciò al fine di una maggiore garanzia a protezione degli esposti, tenuto conto che gli esseri umani possono essere più sensibili ai tossici degli animali utilizzati nei test di tossicità a causa di differenze tossicocinetiche e tossicodinaniche nell’iter di un tossico (adsorbimento, metabolizzazione, escrezione per la tossicocinetica, attività contro la cellula, i tessuti, gli organi per la tossicodinamica).

Nel secondo caso i risultati degli studi della tossicità possono essere usati per predire la natura di effetti nocivi che si possono registrare negli esseri umani ed a quali livelli di esposizione tali danni si possano registrare. Molti tipi di effetto nocivo per un particolare tossico si osservano soltanto al di sopra di una certa dose, il cui valore però può variare al variare della specie e della durata dell’esposizione.

Per la maggior parte degli effetti tossici prodotti da un particolare composto c’è un valore di esposizione al di sotto del quale gli effetti nocivi non si osservano. A basse esposizioni il corpo può tollerare alcuni disturbi alle sue funzioni biochimiche e fisiologiche senza alcun segnale o sintomo di malattia. Talora l’organismo è capace di rimediare ad alcuni danni derivati dal contatto con alcuni composti purché questo sia limitato nel tempo, talaltra tale risanamento non può avvenire, il che si traduce in danno permanente e lunghe malattie. Quando i danni sono di natura genetica al DNA ed ai cromosomi o peggio portano a forme di cancro per danneggiamento del DNA si parla di effetti genotossici o carcinogenici. Questi effetti possono essere rilevati mediante test in vitro, ad esempio esponendo batteri ai tossici da testare (test di Ames) o cellule isolate animali o umane al tossico stesso. Se risultano effetti genotossici in vitro, si passa ai test in vivo su animali per confermare o meno i risultati in vitro. Il danno al DNA è un evento di tutti i giorni (si pensi all’esposizione alla componente ultravioletta dello spettro solare, all’esposizione ai radicali liberi dell’ossigeno, alla divisione cellulare) cosicché il nostro organismo deve porvi rimedio con provvedimenti ed iniziative che si ripetono per milioni di volte al giorno. Questi studi hanno dimostrato che danni al DNA possono prodursi anche a dosi molto basse, crescendo ovviamente nettamente al crescere della dose. Questi campioni vengono definiti positivi, nel senso che producono danno genotossico. Ad oggi non è possibile definire livelli di nessun effetto per i composti chimici positivi. I danni non riparati a cellule e DNA possono avere due conseguenze negative: possono provocare divisione e mutazione cellulare. I danni al DNA non necessariamente devono portare a mutazioni cellulari. Gli effetti cancerogenici vengono osservati e misurati esponendo animali, generalmente topi o ratti di età giovane a dosi giornaliere di tossico esaminando il numero ed il tipo di tumori che si sviluppano ma le conclusioni di tale tipo di approccio soffrono di accuratezza in quanto riferite a specie diverse da quelle che si intende proteggere, l’uomo. C’è infine da osservare che l’esposizione a dosi quanto si voglia piccole, se anche non produce alcun effetto nel tempo breve di fatto lo produce certamente nel lungo, lunghissimo tempo; questo tipo di rilevazione per motivi pratici non è di reale esecuzione. Per i composti cancerogenici differenti approcci ci dicono se ci sia un reale rischio di cancro ai valori di esposizione che realisticamente possono essere del tipo di quelli incontrati dagli esseri umani. Tali approcci si basano usualmente su curve dose/risposta, ottenute durante test animali. Queste curve relazionano l’incidenza del cancro alle variabilità delle dosi giornaliere assunte per tutta la vita.

Una varietà di modelli matematici può essere applicata alla curva dose-risposta per arrivare ad una stima del rischio. I modelli matematici sono generalmente considerati conservativi, fornendo una stima del rischio che non soltanto eccede sul fronte della sicurezza, ma può considerevolmente sovrastimare il rischio probabile per gli esseri umani. A causa delle limitazioni nei test sperimentali di cancerogenità animale e nei modelli, alcuni responsabili del rischio non vedono nell’approccio in precedenza indicato un’appropriata via per la stima del rischio umano. Se un composto si rivela genotossico tali responsabili possono decidere che l’esposizione degli esseri umani ad esso dovrebbe essere bassa quanto ragionevolmente prevedibile. Misure adeguate devono essere assunte per ridurre o eliminare l’esposizione. È evidente che i limiti fissati su tali basi possono implicare rischi diversi per sostanze di differente attività.

I contrasti fra diverse posizioni a riguardo dell’uso di animali da esperimento forse potrebbero essere composti se i modelli predittivi sulla tossicità umana si basassero non solo sulle risposte all’attività dei composti testati in vitro, ma anche su dati strutturali relativi a tali composti: un recente studio di Ruili Huang e coll. (R. Huang et al., “Modelling the Tox21 10 K chemical profiles for in vivo toxicity prediction and mechanism characterization,” Nature Communications, doi:10.1038/ncomms10425, 2016.) ha evidenziato l’importanza della correlazione struttura/attività; Ruili Huang è capo di un gruppo di informatici allo NCATS; insieme con i suoi colleghi hanno analizzato 10.000 diversi composti attraverso 30 diversi metodi automatici , basati su analisi cellulare (cell based analisys).

“The system is very efficient,” ha dichiarato Huang a Huang The Scientist. We can test all the chemicals at 15 different concentrations each and in three independent experiment runs in one week. With animal testing, this would take years.”

L’apparecchio usato per i test automatici si chiama TOX21, una sorta di analizzatore robot e i valori generati dai test sono stati quasi 50 milioni; su questa ampia base le previsioni del comportamento basate sul rapporto struttura-proprietà sono state molto precise; Huang spera di poter allargare le prove ad altri 80.000 composti.

Avventure e sventure di Charles Goodyear

In evidenza

Giorgio Nebbia nebbia@quipo.it

Siamo spesso debitori di cose importantissime, essenziali per la vita tecnica ed economica, a persone grandissime nella sfortuna. Un esempio è offerto dall’americano Charles Goodyear (1800-1860), lo scopritore della vulcanizzazione della gomma. Senza la sua invenzione non potremmo andare in automobile, non potremmo usare Internet, io non potrei scrivere questo articolo sul computer, non avremmo luce elettrica nelle case — non potremmo godere delle merci e dei beni della società moderna.

La gomma, estratta dalla corteccia di alcune piante del genere Hevea presenti nella foresta brasiliana, era nota in Europa dalla fine del Settecento: i nativi la chiamavano con uno strano nome che gli esploratori europei interpretarono come caucciù. Si trattava di un materiale elastico che poteva essere sciolto in un solvente e, in soluzione, poteva essere stesa su un tessuto rendendolo impermeabile; un brevetto relativo a questa applicazione porta la data del 1791 e nel 1822 l’inglese Charles Macintosh (1766-1843) aveva inventato l’indumento impermeabile. Una industria di manufatti di gomma ebbe inizio nel 1820 ad opera dell’inglese Thomas Hancock (1786-1865) il quale apportò alcune utili innovazioni nella lavorazione della gomma greggia. I manufatti così ottenuti, però, erano di limitata durata e soprattutto diventavano appiccicosi a caldo e fragili a freddo. La “febbre della gomma” che aveva investito l’America nei primi anni del 1800, era già finita nel 1830; migliaia di oggetti di gomma venivano buttati via o restavano invenduti per questi inconvenienti.

E’ a questo punto che interviene Goodyear: da ragazzo aiutava il padre in un negozio di ferramenta che fallì abbastanza presto, le imprese commerciali a cui si dedicò nei sessanta anni della sua vita furono tutte un fallimento; per tutta la vita fu ossessionato dai misteri della “gomma elastica”. La leggenda vuole che Goodyear, in prigione per debiti, si sia fatto portare dalla moglie dei campioni di gomma per vedere come potevano esserne migliorate le caratteristiche; se la gomma era appiccicosa forse aggiungendo qualche polvere l’inconveniente avrebbe potuto essere eliminato. Tornato a casa, provò allora a scaldare la gomma con magnesia, ma i vicini protestavano per la puzza che si levava dalla sua casa; per farla breve provò molte altre sostanze e, facendosi prestare dei soldi, cercò di produrre sovrascarpe di gomma che erano una peggio dell’altra. La grande crisi economica americana del 1837 lo gettò sul lastrico e si ridusse a vivere con la moglie e il figlio mangiando il pesce che pescava nel porto di Boston.

Nel 1839, sempre nella miseria più nera, viveva a Woburn, nello stato del Massachusetts destinata a diventare celebre proprio per la scoperta della vulcanizzazione; in quell’inverno, Goodyear lasciò una miscela di gomma e zolfo su una stufa; la miscela prese quasi fuoco e fu gettata nella neve fuori dalla finestra; quando fu raffreddata si rivelò un materiale del tutto diverso: era ancora una gomma elastica, impermeabile all’acqua, ma era resistente al calore, facilmente lavorabile e trasformabile in oggetti utili. Il caso aveva premiato l’uomo che aveva dedicato tutta la sua vita a trasformare la gomma greggia nel materiale più importante della storia, quello che si sarebbe chiamato “gomma vulcanizzata”.

Dopo un altro inverno di miseria, malattie, lutti familiari (dei dodici figli sei morirono nell’infanzia) Goodyear finalmente trovò degli industriali che riconobbero l’importanza della scoperta che però egli non aveva ancora brevettato. Goodyear mandò vari campioni della nuova gomma in Inghilterra e uno di questi cadde sotto gli occhi del pioniere inglese della gomma, già ricordato, Thomas Hancock, quello che, nei venti anni precedenti, aveva invano cercato di ottenere della gomma di qualità accettabile commercialmente.

Hancock notò la presenza di tracce di zolfo nella gomma vulcanizzata e immediatamente brevettò, nel 1843, l’effetto vulcanizzante dello zolfo, portando via a Goodyear la scoperta che egli aveva fatto quattro anni prima. Quando Goodyear presentò la domanda per un brevetto, scoprì che Hancock lo aveva preceduto di poche settimane.

Goodyear presentò, alle fiere mondiali di Parigi e Roma del 1850, i suoi oggetti di gomma vulcanizzata, riscosse un grande successo, ma finì di nuovo in prigione per debiti, con tutta la famiglia, per due settimane, perché non aveva ancora riscosso il compenso per il suo brevetto. In prigione ricevette la croce della Legion d’Onore assegnatagli dall’imperatore Napoleone III.

Quando morì nel 1860 Goodyear lasciò 200.000 dollari di debiti alla famiglia; come testamento scrisse che “la vita non si può valutare soltanto sulla base dei soldi; non mi rammarico di avere seminato e che altri abbiano raccolto i frutti del mio lavoro. Un uomo deve rammaricarsi soltanto se ha seminato e nessuno raccoglie”.

E’ sorprendente che Goodyear sia arrivato alla vulcanizzazione per via empirica, con l’antico processo per tentativi ed errori; solo nel 1860, lo stesso anno della morte di Goodyear, il chimico inglese Charles Greville Williams (1829-1910) riconobbe che la gomma era un polimero di un idrocarburo con due doppi legami, l’isoprene:

Fu così chiarito il ruolo centrale dello zolfo: attraverso legami che comportavano l’apertura di uno o più doppi legami, le molecole di poliisoprene si univano fra loro in strutture le cui proprietà dipendevano dal numero di atomi di zolfo; se tutti i doppi legami erano saturati con zolfo e la vulcanizzazione era prolungata, come scoprì lo stesso Goodyear, si otteneva un materiale duro e nero che chiamò ebanite e che fu prodotto come sostituto del prezioso legno di ebano. In altre parole, regolando le condizioni di vulcanizzazione, si potevano ottenere materiali molto diversi, adatti a molti usi.

Grazie alla scoperta di Goodyear la richiesta di gomma nel mondo aumentò immediatamente. Il Brasile, che deteneva il monopolio della produzione e esportazione del caucciù, fu investito da un’ondata di ricchezza e di speculazioni: folle di nativi e di immigrati miserabili si dedicarono a raccogliere latice dalle piante di Hevea, dapprima distruggendo la foresta più vicina e accessibile, poi andando a cercare piante più all’interno, nel bacino del Rio delle Amazzoni. Manaus, porto fluviale di esportazione della gomma, diventò il centro di stravaganze e miserie per tutta la seconda metà dell’Ottocento; uno sguardo al clima del tempo si ha nel film “Fitzcarraldo”, di Werner Herzog, del 1982, nel quale il personaggio del barone della gomma del titolo, è interpretato da Klaus Kinski.

Come tutti i monopoli, anche quello della gomma brasiliana non durò a lungo. Nel 1876 un viaggiatore inglese riuscì a portare via dal Brasile, clandestinamente, piantine di Hevea che furono trapiantate in India, Malesia, Ceylon, Indocina. Ai primi del Novecento, inglesi, francesi e olandesi producevano caucciù nelle loro colonie dell’Estremo Oriente; al Brasile restavano vaste estensioni di foresta amazzonica distrutta, uno dei primi disastri ecologici, rimediato soltanto dopo molti decenni di rimboschimento e difesa del suolo.

Il monopolio del Brasile diventava così un oligopolio di Inghilterra, Olanda, Francia e Stati Uniti; le industrie americane avevano proprie piantagioni di Hevea in Brasile e Liberia. Ciò avveniva in un momento in cui il diffondersi dell’elettricità in seguito alle invenzioni della dinamo e dei motori elettrici provocava un aumento della richiesta di gomma come isolante per i fili elettrici. Lo sviluppo delle automobili contribuì, con la richiesta di gomma per camere d’aria e copertoni, a far ulteriormente aumentare la richiesta di caucciù. Ben presto la gomma di piantagione fece concorrenza come qualità a prezzo a quella del Brasile il quale attraversò un periodo di grave crisi economica.

Ma l’avventura della gomma era appena cominciata; per sfuggire alle importazioni della gomma naturale da paesi geograficamente lontani, i paesi industriali, prima e durante la seconda guerra mondiale, hanno sviluppato dei processi per riprodurre sinteticamente molecole simili a quella dell’isoprene. La maggiore attenzione fu dedicata al butadiene,

H2C==CH—CH==CH2, uguale all’isoprene con un gruppo metilico di meno. Il butadiene era vulcanizzabile e poteva essere prodotto da molte diverse materie prime: dal carbone, attraverso il carburo di calcio e l’acetilene; dall’alcol etilico di origine agricola (come ricorda il post di Marco Taddia, https://ilblogdellasci.wordpress.com/2014/02/21/la-gomma-dallalcol-un-successo-autarchico/), da frazioni ”leggere” della distillazione del petrolio, dal cracking catalitico delle benzine.

Il butadiene poteva essere polimerizzato insieme ad altre molecole con un solo doppio legame, come lo stirene; nasceva così la chimica delle gomme sintetiche, anche se non spariva la produzione e il consumo di gomma naturale, usata in mescole insieme ai vari tipi di gomma sintetica. Nel 1960 la produzione di gomma sintetica aveva uguagliato quella di gomma naturale, due milioni di tonnellate ciascuna. Nel 2016 la produzione di gomma sintetica era salita a poco meno di 15 milioni di tonnellate, ma anche quella di gomma naturale era aumentata a poco più di 12 milioni di tonnellate. I tre principali paesi produttori sono la Tailandia (4,4 milioni di tonnellate), l’Indonesia, seguiti da Malaysia, India, Vietnam e Cina.

Nel mondo il commercio della gomma, in gran parte trattata e vulcanizzata secondo l’invenzione di Goodyear, riguarda ogni anno oltre 27 milioni di tonnellate di materiali che entrano nei copertoni di automobile e di aereo, nei fili elettrici, nei rulli industriali, nei nastri trasportatori dei raccolti agricoli, nelle scarpe, in innumerevoli merci e processi industriali. Tutto grazie al povero Goodyear.

Nota aggiunta: fu solo circa 40 anni dopo la morte di Goodyear che l’imprenditore Frank Seiberling  acquistò il primo impianto della vecchia società e fondò la Goodyear Tire & Rubber Company, nata nel 1898, che è diventata poi una della maggiori al mondo, ma senza alcun legame con l’inventore iniziale che non fosse il nome medesimo.

Ciclo idrico integrato: la situazione della depurazione.

In evidenza

Mauro Icardi

In questi anni il cambiamento climatico, logiche di sfruttamento intensivo delle risorse idriche e scarsa attenzione all’ecosistema stanno determinando condizioni di vera e propria crisi globale dell’acqua.
L’Italia per altro è in emergenza nel settore fognatura e depurazione dal 2005, e rischia forti multe dopo aver subito già due condanne dalla Corte di Giustizia Europea per depurazione incompleta o non sufficiente a raggiungere standard qualitativi adeguati. La tendenza negli anni è quella di ottenere acque reflue che raggiungano standard di qualità sempre maggiori, e per questa ragione gradualmente si rendono più restrittivi i limiti tabellari per alcuni inquinanti. Questo anche in funzione di un possibile riuso per utilizzo irriguo delle stesse.
Per ottemperare a tali obblighi che per quanto riguarda gli impianti con potenzialità superiori a 100.000 ae (abitanti equivalenti) diventano molto restrittivi sarà necessario intervenire sugli impianti esistenti .
Peraltro, un impianto in condizioni normali di funzionamento riesce a garantire il rispetto dei limiti su BOD, COD e solidi sospesi senza particolari difficoltà. Diverso è invece il caso dei nutrienti per scarichi in aree sensibili. Le quali non rappresentano più solo i laghi, ma per esempio anche l’area del bacino del Po e che quindi vanno ad interessare impianti che precedentemente non sottostavano a limiti così riduttivi (per esempio per quanto riguarda il fosforo totale).
In generale, quindi, si prospetta la necessità di intervenire su un gran numero di impianti di depurazione per far fronte a due ordini di esigenze: incrementarne la potenzialità (come carico trattabile) migliorare le rese depurative (abbattimento in particolare dei nutrienti).

impianti-di-depurazione-acque

Nel caso in cui le caratteristiche del liquame influente non rappresentino un fattore inibente (ad esempio in termini di pH, rapporto BOD/TKN (TKN=total Kjeldahl nitrogen), presenza di sostanze tossiche, ecc.), le condizioni richieste, per conseguire la nitrificazione, sono essenzialmente un adeguato contenuto di ossigeno nel comparto di ossidazione e un’età del fango sufficientemente elevata anche in relazione alla temperatura del liquame.
Gli interventi che possono essere attuati a livello dei pretrattamenti e trattamenti primari hanno l’obiettivo di ridurre il carico in ingresso al reattore biologico e/o il rapporto Carbonio/Azoto, così da favorire la nitrificazione.
Anche l’aggiunta di un sistema di coltura a biomassa adesa permette di migliorare la fase di nitrificazione.
Vi sono due distinte possibilità: un sistema ibrido che viene inserito nel preesistente bacino di ossidazione a fanghi attivi, ed un sistema separato che viene di solito inserito a valle della fase di sedimentazione finale per incrementare le rese di nitrificazione e quindi di abbattimento dell’ammonio.
Si tratta in pratica di fissare la biomassa nitrificante su supporti fissi aventi elevata superfice specifica (per esempio supporti in polietilene o in matrici di gel).

423-it-depuratore-po-sangone-4.jpg

In questo modo viene fatto passare attraverso questo stadio di trattamento un liquame caratterizzato da un rapporto BOD/TKN molto basso, favorevole allo sviluppo di una biomassa nitrificante, in quanto la maggior parte della sostanza organica è stata rimossa nella fase precedente del trattamento.
La separazione del processo biologico in queste due fasi permette maggiori rese singole nei due comparti (ossidazione biologica della sostanza organica e nitrificazione) risolvendo anche problemi gestionali e di conduzione.
Una semplice operazione che può migliorare la resa di nitrificazione è quella di realizzare un bacino di riaerazione della corrente di ricircolo dei fanghi prima del rilancio nel bacino di ossidazione biologica.
Altro problema che si può presentare è dovuto al sovraccarico della fase di ossidazione biologica con un maggior contributo di azoto derivante dal ricircolo dei surnatanti che può variare dal 5 al 25% rispetto all’azoto proveniente dalle acque reflue in ingresso impianto. I sovraccarichi però possono anche raggiungere il 65% dell’azoto entrante, dal momento che i ricircoli sono discontinui nel tempo. Un primo provvedimento da adottare può quindi essere quello di distribuire nell’arco delle 24 ore (eventualmente equalizzandoli) i carichi derivanti dai surnatanti delle fasi di trattamento fanghi, o, meglio ancora, rinviarli all’impianto durante le ore notturne, a basso carico. L’azoto presente nei surnatanti (prevalentemente in forma disciolta) è ammoniacale, nel caso degli ispessitori e dei digestori anerobici, nitroso o nitrico nel caso della stabilizzazione aerobica.

STSTW_GasMixingTypeDigestionTank

Per quanto riguarda la sezione di denitrificazione una possibilità per gli impianti che ricevono reflui speciali, consiste nel dosaggio di rifiuti caratterizzati da elevata concentrazione di carbonio velocemente biodegradabile e trascurabile contenuto di nutrienti, come substrato organico per incrementare le velocità di denitrificazione negli appositi comparti. Occorre però preventivamente verificare ed escludere la presenza di fattori inibenti.
Questi sono alcuni esempi di possibilità di diversa conduzione di impianti, o di modifiche strutturali che non richiedano il completo rifacimento di un impianto non più adeguato a conseguire standard di abbattimento elevati.
Per inquadrare il problema anche dal punto di vista economico credo valga la pena di ricordare che per la riconversione dell’impianto di depurazione di Santa Margherita Ligure, ubicato nel territorio del Parco Naturale Regionale di Portofino, che originariamente era dotato solo di un trattamento primario, è stato dotato di trattamento terziario con filtri a membrana che permettono l’utilizzo dell’acqua depurata come acqua di riuso. Data la particolare ubicazione dell’impianto, adiacente ad un territorio che, pur inserito in un area protetta vede la presenza di stabilimenti balneari e di alberghi, lo si è collocato all’interno di una parete rocciosa per mimetizzarlo e si e costruita una tubazione di 1200 metri che convoglia le acque depurate al largo della costa. Un impianto decisamente all’avanguardia il cui rifacimento è costato venti milioni di euro ed ha una potenzialità tutto sommato media, visto che tratta reflui pari a 36000 abitanti equivalenti, sia pure con le oscillazioni di portata e di carico legate alla fluttuazione stagionale tra stagione turistica estiva e stagione invernale.
Ultima considerazione legata al settore depurazione è quella legata alla necessità di strutturare adeguati laboratori analitici. La normativa vigente (dlgs 152/2006) prevede che il gestore si serva di laboratori interni, o che in alternativa stabilisca convenzioni con altri gestori che ne siano dotati.
E’ prevedibile che in futuro la necessità di ricerca di nuovi parametri (inquinanti emergenti di varia natura) preveda non solo l’utilizzo di nuove tecniche analitiche in maniera generalizzata (spettrometria di massa a plasma con accoppiamento induttivo e gascromatografia-spettrometria di massa), ma che richieda come prescrizione normativa l’accreditamento dei laboratori dei gestori del ciclo idrico. Questa per lo meno è la tendenza che sembra ispirare le scelte in Regione Lombardia.

La serendipità della camola.

In evidenza

Claudio Della Volpe

La “camola” del miele è un tipico verme da pescatore e dato che ogni tanto mi dedico alla pesca conosco questo tipo di esca viva, anche se di solito uso il “cucchiaino”, ossia un pezzo di metallo brillante opportunamente sagomato e che nasconde l’amo.

Galleria Mellonella da Wikipedia

La camola è comodissima come esca viva, si compra in contenitori e si conserva in frigorifero per un pò (la camola usata per scopi alieutici è trattata opportunamente con un breve riscaldamento che ne impedisce l’imbozzolamento e forse ne modifica il set enzimatico); il suo ciclo di vita la qualifica come un parassita delle api, dato che si nutre dei prodotti dell’alveare e la sua forma finale è una farfallina, la tarma maggiore della cera, tecnicamente Galleria mellonella.

La camola è usata per pescare grazie al suo sapore dolce; è uno degli insetti che ho anche provato a mangiare, dato che viene proposto come alternativa alla carne comune in molte ricette basate su insetti, e vi assicuro che è molto buona.

La camola è al centro di una scoperta che rischia di rivoluzionare il nostro modo di gestire il riciclo della plastica comune; il grosso della plastica, dei polimeri prodotti dal petrolio è difficile da riciclare sostanzialmente per il medesimo motivo per cui la usiamo: la sua durabilità, legata alla stabilità del legame C-C che è difficilmente attaccato in natura (solo a certe condizioni).

Si conosce un batterio i cui enzimi sono in grado di degradare il PET, scoperto solo l’anno scorso in Giappone in un discarica di immondizia; la scoperta del batterio, denominato Ideonella sakaiensis 201-F6, è stata pubblicata su Science (A bacterium that degrades and assimilates poly(ethylene terephthalate) Shosuke Yoshida et al. Science 351, 1196 (2016).

Quando cresciuto sul PET questo particolare strain batterico produce due enzimi capaci di idrolizzare il PET e l’intermedio di rezione l’acido mono(2-idrossietil)tereftalico. Entrambi gli enzimi sono richiesti per convertire efficientemente PET in due monomeri molto più amichevoli dal punto di vista ambientale, l’acido tereftalico e l’etilen-glicole.

Shosuke Yoshida et al. Science 351, 1196 (2016)

La velocità digestiva del batterio è di una frazione di mg di PET per ogni cm2 di superficie attaccata e il PET è un poliestere, dunque con una struttura, mostrata in figura, molto più semplice da degradare (i legami sono O-C-O).

Altre specie viventi sono in grado di attaccare invece il legame C-C e sono riportate in letteratura (Penicillium simplicissimum, Nocardia asteroides, il verme Plodia interpunctella, e i due batteri, Bacillus sp. YP1 and Enterobacter asburiae YT1 che vivono dentro di lui), ma la velocità di aggressione è sempre estremamente bassa.

Ora, come si dice, il caso aiuta la mente preparata. E questo è avvenuto con Federica Bertocchini, che si occupa di biologia dello sviluppo.

Federica Bertocchini(da Repubblica del 25 aprile 2017)

La ricercatrice italiana Federica Bertocchini affiliata al Cnr spagnolo e oggi all’Istituto di biomedicina di Cantabria, a Santander. racconta a Repubblica “Io in realtà mi occupo di biologia dello sviluppo: studio gli embrioni. La scoperta del bruco mangiaplastica è avvenuta per caso. Ho l’hobby dell’apicoltura, e l’abitudine – in inverno – di tenere gli alveari vuoti in casa. Nel tirarli fuori per la primavera, l’anno scorso mi sono accorta che erano pieni di questi bachi. Così li ho ripuliti, raccogliendo i bachi in una borsa di plastica. Qualche ora dopo era già piena di buchi e le larve libere”

Federica non si è fatta pregare, ha subito capito che aveva trovato una miniera d’oro in quelle camole. E questa è serendipità, il caso aiuta la mente preparata.

Il risultato di una indagine più approfondita è stato pubblicato su Current Biology (Current Biology 27, R283–R293, April 24, 2017)

Come si vede la velocità di aggressione del bruco nei confronti della plastica del sacchetto è di ordini di grandezza superiore rispetto a quello di altri organismi trovati in natura (un bruco in 12 ore mangia quasi 1mg di PE). La camola sembra essere capace non solo di aggredire meccanicamente ma di digerire il PE; questo è stato provato analizzando lo spettro IR del materiale dopo digestione; si è trovata la presenza di etilenglicole; si pensa quindi che un sistema enzimatico del bruco sia in grado di fare una reazione simile a quella del batterio giapponese ma ad una velocità molto più elevata.

Tuttavia ci sentiamo di chiosare la scoperta indicandone anche i limiti: da una parte le camole sono nemiche delle api, dunque attenzione ai possibili effetti collaterali di una diffusione delle camole, come mangiatori diretti della plastica; meglio sarebbe individuare ed usare l’enzima o il sistema enzimatico; e comunque anche questo non dovrebbe essere una scusa per tornare indietro lungo la strada del riciclo dei materiali, ma anzi dovrebbe essere usato proprio per riciclare a partire dai prodotti di degradazione.

Altri studi saranno necessari per comprendere l’esatto meccanismo del processo digestivo della umile camola, (o casomai di qualcuno dei suoi ospiti batterici) un vermetto da pescatore pieno di segreti incredibili (notate che nessun giornale quotidiano o la TV ha capito di cosa si tratta, parlano tutti di un bruco, un verme e casomai qualche giornalista pescatore l’avrà anche usato, ma solo Le Scienze cita la camola).

Non c’è che dire la vita è la reazione chimica meglio riuscita! E un brava a Federica, una biologa dello sviluppo dotata di serendipità.

Analisi di inchiostri

In evidenza

Luigi Campanella, ex Presidente SCI

Sono stato di recente interpellato per un problema molto interessante : la datazione dei documenti e delle relative firme. Si tratta di un lavoro difficile: ritengo utile postare quanto ho scritto in attesa di commenti migliorativi in favore della verità e contro le falsificazioni documentarie.

La letteratura internazionale riporta che, dal momento della sua deposizione sul supporto cartaceo, un inchiostro subisce una serie di processi chimici (evaporazione del solvente, polimerizzazione della resina, ossidazione dei componenti cromatici), comunemente indicati come “invecchiamento”. Uno dei risultati pratici dell’invecchiamento è una continua riduzione della solubilità (estraibilità) dell’inchiostro nei confronti di una prima azione di un solvente debole e successivamente di un solvente forte.

La valutazione del grado di estraibilità costituisce pertanto un indice del grado di invecchiamento di una scrittura, e quindi della data reale di produzione della scrittura medesima, che trova ampia applicazione nelle analisi forensi.

Il rapporto tra la quantità di inchiostro estratta dal solvente debole e la quantità totale di inchiostro (estrazione di solvente debole + solvente forte) è indicativo della data di produzione di una scrittura all’interno del periodo di maturazione dell’invecchiamento stesso, esaurito il quale non si riscontrano ulteriori modificazioni.

L’andamento del processo di invecchiamento è tale per cui la sensibilità della tecnica è tanto maggiore quanto minore è il tempo trascorso dalla produzione della scrittura all’analisi. Trattasi di un metodo distruttivo che si limita all’applicazione solamente a taluni pigmenti di inchiostro di penna (tipicamente di tipo oleoso come nel caso di una penna a sfera) e non può dare una risposta “accurata” riguardo alla datazione. In alcuni lavori (bibliografia 13) si conclude, proprio sulla base di 2 differenti approcci (uno lento ed uno veloce) che forniscono risultati significativamente diversi, sulla relativa impossibilità di datazione accurata degli inchiostri deposti.

In ogni caso è pressoché impossibile stabilire se due diverse scritture siano state apposte nell’arco di breve tempo l’una dall’altra (ore o giorni).È possibile invece la sequenza temporale dei tratti grafici che stabilisce se una scrittura, ad esempio una firma, è stata apposta prima o dopo un’altra. Però questa metodologia è possibile solo in presenza di sovrapposizione dei tratti delle due scritture (olografia conoscopica).

Dalla letteratura emerge anche come la datazione dei documenti manoscritti sia sempre molto approssimativa e non sia possibile esprimere mai un parere di certezza tecnica e ciò per svariati motivi, quali la mutazione degli inchiostri (pigmentazione) e dell’attrezzo scrittorio, dell’esposizione del documento in esame a fonti di calore, raggi solari, caldo, freddo, fonti di luce, agenti atmosferici, ecc. che peraltro interferiscono in modo diverso al variare del tipo di inchiostro.Se, ad esempio, un documento manoscritto con penna a biro viene esposto ai raggi solari, o posto in un forno, viene invecchiato di molti anni. Inversamente nel caso di collocazioni in freezer.

L’olografo commerciale (Conopoint3 della Ofir) è in pratica un profilometro.

Comunque la Chimica Analitica ha applicato al problema metodi più sofisticati. L’analisi degli inchiostri può essere infatti effettuata con spettrometria Raman e spettroscopia di fluorescenza a raggi X (XRF), impiegando sia strumenti portatili, sia strumenti da banco. La spettrometria Raman fornisce informazioni sui composti impiegati, la spettroscopia XRF, identifica gli elementi-chiave e dà informazioni addizionali sugli elementi presenti in tracce, permettendo così di evidenziare le differenze di distribuzione elementare tra zone diverse del manoscritto. Anche l’HPLC, la cromatografia liquida a fasi invertite in qualche caso con pre-estrazione in fase solida, e la Gas-massa (GC-MS), sono state applicate all’analisi chimica degli inchiostri per risalire dalla loro composizione, alterata rispetto all’originale dal processo di invecchiamento, alla data di applicazione. Sono anche noti metodi ancor più articolati come quello di usare diagrammi ternari costruiti per i coloranti presenti nell’inchiostro, ma anche in questo caso sono riportate datazioni errate per campioni esposti per tempi prolungati alla luce di lampade a fluorescenza od a quella solare o a fonti di calore. Anche metodi più semplici come la spettrofotometria UV-Visibile o i.r. con misure di assorbanza, l’analisi elettrostatica (ESDA) hanno trovato applicazioni. In studi più recenti anche il microscopio elettronico e la datazione al radio carbonio (ovviamente nel caso di documenti antichi) ha fornito risultati di un certo interesse.

applicazione dell’olografica conoscopica. http://www.ilgrafologo.it/doc/29-34.PDF

Si è già accennato ad un altro metodo, l’olografia conoscopica che è in grado di effettuare delle “scansioni” non a contatto con elevatissima precisione (micrometrica) e ripetibilità del campione oggetto della misura. Il file che viene generato è composto dalla terna X-Y-Z di ogni singolo punto campionato, il che significa che anche nel caso di una scansione di un’area limitata possiamo dare origine ad un file composto anche da qualche milione di punti X-Y-Z, file che viene anche chiamato in gergo “nuvola di punti”.Occorre inoltre notare che il sistema rileva la mappa topografica del campione, conseguentemente non ha alcuna importanza il colore dell’inchiostro o della carta e tantomeno la mano o le mani che hanno tracciato i tratti. È anche possibile rilevare dei solchi che sono stati marcati e poi cancellati;l’apparecchiatura 3D consente di effettuare delle misure inerenti alla profondità dei solchi, alla larghezza degli stessi, ecc.

Due altri aspetti che rappresentano elementi di incertezza e che devono essere valutati riguardano la carta che invecchiando, dal momento della sua fabbricazione, è soggetta anch’essa ad un processo di invecchiamento (produzione di gruppi carbossilici e frammentazione della catena cellulosica) che potrebbero influenzare il processo estrattivo.Inoltre nella costituzione della carta sono presenti ioni metallici in traccia, peraltro distribuiti casualmente e disomogeneamente: anche questi possono influenzare il processo estrattivo ostacolandolo

CONCLUSIONI

La determinazione dell’età di un inchiostro deposto è problema complesso e di non semplice soluzione in quanto il processo di invecchiamento risulta in misura determinante influenzato dalle condizioni di conservazione (temperatura, illuminazione, ambiente chimico) nonché dall’invecchiamento della carta e dalla sua composizione.Il metodo dell’estrazione risente in particolare di queste dipendenze, anche se è fra quelli più impiegati.La correlazione fra maturazione e completamento del processo di invecchiamento ed estraibilità alla base di tale metodo- applicato al caso in questione -ha anche una dipendenza dalla cinetica del processo stesso e dalla dificoltà di definire uno standard. Metodi più sofisticati sono certamente in grado di fornire risposte più accurate (a questo proposito rispetto a quanto riportato nel post c‘è da osservare che non si tratta di problemi di precisione, che è invece fondamentale per definire gli intervalli di incertezza, necessari per dare significatività alle misure al fine di dare significatività ad eventuali differenze), ma richiederebbero campionamenti nuovi (visto il carattere distruttivo del metodo per estrazione), introducendo quindi un ulteriore elemento di incertezza.

BIBLIOGRAFIA DI RIFERIMENTO

  1. Ellen: Scientific examination of Documents: Methods and Techniques. CRC Taylor & Francis Publishers; International Forensic Science and Investigation Series; New York, NY, USA, 2005.
  2. Giuntini, F. Lucarelli, P.A. Mandò, W. Hooper, P.H. Barker, “Galileo’s writings: chronology by PIXE”, Nucl. Instr. & Meth. B, 95, 389 (1995).
  3. Andrasko J., Changes in Composition of Ballpoint Pen Inks on Aging in Darkness, SKL, National Laboratory of Forensic Science, Linkoping, Swed, Journal of Forensic Sciences (2004), 47(2), 324-327.
  4. Mitchell C. Ainsworth, Estimation of the age of ink in writing, International Journal of Forensic Forensic Document Examiners (1995), 1(1), 56-62.
  5. Brunelle RL, Cantu A., A Critical Evaluation of Current Ink Dating Techniques, Bur. Alcohol, Tob. Firearms. Rockville, MD, USA. Journal of Forensic Sciences (1987), 32(6), 1522-36.
  6. Valery N. Aginsky, Writing media and documents, Riley, Welch and Aginsky, Forensic Documents Examinations, Inc., Lansing, MI, USA, Handook of Analytical Separations (2008), 6(Forensic Science), 923-941. Publisher: Elsevier B.V.
  7. LaPorte Gerald M, Wilson Jeffrey D, Cantu Antonio A, Mancke S Amanda, Fortunato Susan L The identification of 2 – phenoxyethanol in ballpoint   inks   using   gas   chromatography / mass   spectrometry — relevance to ink   dating.   Journal of forensic sciences (2004), 49(1), 155-9.
  8. Valery N. Aginsky, A microspectrophotometric method for dating   ballpoint   inks –a feasibility study. Journal of Forensic Sciences (1995), 40(3), 475-8.
  9. Andrasko Jan SKL, Changes in composition of ballpoint pen inks on aging in darkness, National Laboratory of Forensic Science, Linkoping, Sweden Journal of forensic sciences (2002), 47, (2), 324-7.
  10. Wang, Yan; Yao, Lijuan; Zhao, Pengcheng; Wang, Jinghan; Wang, Yanji. Determination of the writing   age of blue   ballpoint   ink by gas   chromatography. Sepu (2005), 23(2), 202-204. Publisher: Kexue Chubanshe.
  11. Hofer, R. Dating of ballpoint   pen   ink. Journal of Forensic Sciences Division , Document Laboratory, Zurich Canton Police, Zurich, Switz, (2004), 49(6), 1353-1357.
  12. Lociciro, S.; Dujourdy, L.; Mazzella, W.; Margot, P.; Lock, E., Dynamic of the aging of ballpoint pen   inks : quantification of phenoxyethanol by GC – MS. Institut de Police Scientifique et de Criminologie, University of Lausanne, Lausanne-Dorigny, Switz.   Science & Justice (2004), 44(3), 165-171. Publisher: Forensic Science Society,
  13. Wilson, Jeffrey D., LaPorte, Gerald M., Cantu, Antonio A., Differentiation of black   gel   inks   using   optical and chemical   techniques, Forensic Services Division, Questioned Document Branch, United States Secret Service, Washington, DC, USA.   Journal of Forensic Sciences (2004), 49(2), 364-370.
  14. Wild Eva Maria, Stadler Peter, Bondar Maria, Draxler Susanne, Friesinger Herwig, Kutschera Walter, Priller Alfred, Rom Werner, Ruttkay Elisabeth, Steier Peter, New   chronological   frame for the Young   Neolithic   Baden   Culture in Central   Europe ( 4th   millennium   BC ), Vienna Environmental Research Accelerator (VERA), Institut fur Isotopenforschung und Kernphysik, Universitat Wien, Vienna, Austria.   Radiocarbon (2001), 43(2B), 1057-1064.
  15. Kher Ashwini A., Green Elinore V., Mulholland Mary I., Evaluation of principal   components   analysis with high – performance   liquid chromatography and photodiode   array   detection for the forensic   differentiation of ballpoint   pen   inks. Department of Chemistry, Materials and Forensic Science, University of Technology, Sydney, Australia.   Journal of Forensic Sciences (2001), 46(4), 878-883.
  16. Puchegger, S.; Rom, W.; Steier, P., Automated   evaluation of 14C   AMS  measurements.      Vienna Environmental Research Accelerator, Institut fur Isotopenforschung und Kernphysik der Universitat Wien, Vienna, Austria.   Nuclear Instruments & Methods in Physics Research, Section B: Beam Interactions with Materials and Atoms (2000), 172 274-280.
  17. Carla Vogt,1 Ph.D.; Andreas Becker,1 B.Sc.; and Jürgen Vogt,2 Ph.D., investigation of ball point pen inks by capillary electrophoresis (CE) with UV/Vis absorbance and laser induced fluorescence detection and particle induced X-Ray emission (PIXE), Institute of Analytical Chemistry, University of Leipzig, Germany, Journal of Forensic Sciences (1999), 44(4), 819-831.
  18. Aginsky, Valery N., Measuring   ink extractability as a function of age – why the relative   aging   approach is unreliable and why it is more correct to measure   ink   volatile   components than dyes, American Academy of Forensic Sciences, New York, NY, USA.   International Journal of Forensic Document Examiners (1998), 4(3), 214-230.
  19. Stuiver, Minze; Reimer, Paula J.; Bard, Edouard; Beck, J. Warren; Burr, G. S.; Hughen, Konrad A.; Kromer, Bernd; McCormac, Gerry; Van Der Plicht, Johannes; Spurk, Marco, INTCAL98   radiocarbon   age   calibration , 24,000-0 cal BP, Quaternary Isotope Laboratory, University of Washington, Seattle, WA, USA.   Radiocarbon (1998), 40(3), 1041-1083.
  20. Wild, Eva; Golser, Robin; Hille, Peter; Kutschera, Walter; Priller, Alfred; Puchegger, Stephan; Rom, Werner; Steier, Peter. First   14C results from archaeological and forensic studies at the Vienna   environmental research accelerator. Institut fur Radiumforschung und Kernphysik, Vienna Environmental Research Accelerator, Universitat Wien, Vienna, Austria. Radiocarbon (1998), 40(1), 273-281.
  21. Cantu, Antonio A., A sketch of analytical   methods for document dating Part I. The static approach: Determining age independent analytical profiles. International Journal of Forensic Document Examiners (1995), 1(1), 40-51.
  22. Aginsky, Valery N. Some   new   ideas for dating   ballpoint   inks — a   feasibility   study. Interior, Moscow, Russia, Journal of Forensic Sciences (1993), 38(5), 1134-50.
  23. Stewart, Larry F. Ballpoint   ink age determination by volatile   component   comparison – a preliminary study. Forensic Serv. Div., U. S. Secret Serv., Washington, DC, USA. Journal of Forensic Sciences (1985), 30(2), 405-11.
  24. Burleigh, Richard; Baynes-Cope, A. D.,   Possibilities in the dating of writing   materials and textiles, Lab., Br. Mus., London, UK, Radiocarbon (1983), 25(2), 669-74.
  25. Brunelle, Richard L.; Pro, Maynard J. Systematic   approach to ink   identification. Firearms Div., Intern. Revenue Serv., Washington, DC, USA, Journal – Association of Official Analytical Chemists (1972), 55(4), 823-6.
  26. Hofer, R. Dating of ballpoint   pen   ink, Forensic Science Division, Document Laboratory, Zurich Canton Police, Zurich, Switz, Journal of Forensic Sciences (2004), 49(6), 1353-1357.
  27. L. Brunelle & K.R. Crawford: Advances in the forensic analysis and dating of writing ink. C.C. Thomas Publisher, Springfield, IL, USA, 2003

Library Everywhere: una biblioteca per tutti

In evidenza

Alfredo Di Nola*

Un progetto di volontariato a cui tutti possono partecipare

Sviluppato da Alfredo Di Nola, Nico Sanna e Gianluca Sbardella

http://www.libraryeverywhere.com

Nei paesi in via di sviluppo, ma non solo, molte scuole e molte piccole comunità, che in realtà rappresentano una gran parte della popolazione mondiale, non hanno una biblioteca e non potranno mai averne una. Questo perché una biblioteca tradizionale, anche piccola, è molto costosa. Richiede una stanza abbastanza grande, attrezzata con scaffali, tavoli e sedie.

Inoltre ha bisogno di condizioni climatiche (quali umidità, temperatura e altro) controllate per fare in modo che i libri non si deteriorino nel tempo.

E ancora, va continuamente aggiornata e ha bisogno di un bibliotecario, più o meno esperto, cioè di una persona che sia in grado di acquistare i libri, catalogarli e gestire il prestito.

Si può calcolare che una biblioteca di 3-4000 libri, in cui già ci siano le mura può costare circa 15.000 euro, considerando che ci sono comunque dei lavori da fare all’interno e l’arredamento da procurare.

I libri sono per noi una cosa molto comune, ma per queste comunità sono spesso una cosa molto rara perché magari il paese più vicino, dove poter andare per prendere un libro, dista parecchi chilometri o perché le strade sono difficilmente accessibili.

Oggi, con la possibilità di avere i libri digitali, le cose possono essere molto più semplici e per questo abbiamo pensato di creare una biblioteca di libri digitali, che offre molti vantaggi rispetto a una biblioteca cartacea.

Caratteristica di questa biblioteca è quella di essere contenuta in una pen-drive. Può essere facilmente installata in uno o più pc, dove si troveranno il catalogo e ovviamente i libri. Può essere liberamente duplicata: in pratica è pensata per essere virale.

I libri si potranno leggere sia sullo schermo del pc, sia su un lettore di libri digitali, chiamato e-reader. Nel catalogo sono inoltre incluse informazioni sui singoli autori e sui libri.

Il costo di tutti questi oggetti è circa il seguente: un pc che possa contenere il catalogo e i libri può costare intorno ai 250 euro e un lettore di libri digitali intorno ai 70-80 euro, anche meno, e quindi con 500 euro si ha già a disposizione un sistema funzionante. La pen-drive viene fornita gratuitamente.

C’è da considerare che in molti casi le scuole o le comunità già possiedono uno o più pc per cui, almeno all’inizio, potranno non spendere nulla.

Questa biblioteca non richiede alcuna connessione a internet; questo può sembrare un controsenso, trattandosi di una biblioteca digitale, ma occorre tener presente che circa il 50% della popolazione mondiale non ha accesso diretto a internet e spesso, quando lo ha, è molto ballerino, anche perché la fornitura di energia elettrica è discontinua e solo per poche ore al giorno. A questo inconveniente si può sopperire con un piccolo pannello solare (ormai se ne trovano portatili e a un costo relativamente basso) e/o un piccolo accumulatore. Inoltre gli e-reader hanno un’autonomia che può arrivare fino ad alcune settimane.

La nostra biblioteca verrà costantemente implementata con l’aggiunta di libri e può essere aggiornata collegandosi al nostro server.

Per questa operazione serve ovviamente il collegamento a internet e potrà essere fatta andando in un internet point, se non si possiede già un collegamento autonomo.

Come abbiamo già detto, il catalogo, l’aggiornamento e la classificazione dei libri saranno fatti da noi e pertanto non sarà necessario un bibliotecario esperto.

Attualmente abbiamo estratto dalla rete libri in inglese esenti dal diritto d’autore.

Purtroppo i libri esenti dal diritto d’autore arrivano fino ai primi del novecento. Ne abbiamo selezionati circa 1000 e abbiamo creato il catalogo. Questi sono adatti a tutti i gusti: si va dalle favole dei fratelli Grimm o di Perrault, ai libri della Austen, Alcott, London, Conrad, Dumas, Verne, Conan Doyle, Balzac, Dickens, Stevenson, Defoe, Twain, Tolstoj, Dostoevskij, Proust ecc.

Noi speriamo che editori di libri in inglese vogliano aiutarci regalandoci un po’ di classici più recenti.

Oltre ai libri di letteratura abbiamo anche un corso scolastico completo dalla prima alla dodicesima classe, per un totale di oltre 200 libri.

Nel 2016 abbiamo provato il funzionamento della biblioteca in due scuole in Kerala ed è stato un buon successo. Abbiamo quindi perfezionato il tutto e da pochi mesi ci stiamo occupando della diffusione dell’iniziativa.

In realtà questa biblioteca può essere utile anche nelle scuole del cosiddetto mondo sviluppato. Ad esempio può essere molto utile nelle scuole come supporto a corsi di lingua inglese, sia in Italia che nel resto d’Europa. Quasi tutte le scuole hanno ormai un’aula di informatica; si può gratuitamente installare la Library Everywhere nei loro pc e gli studenti potranno sia copiarla tutta sul loro pc, sia scegliere un libro dal catalogo e leggerlo su uno smartphone, un e-reader o sul loro pc o tablet.

 

Come contribuire

 

Chiunque può ottenere la pen-drive contenente la biblioteca con i programmi per installarla e aggiornarla. In alternativa può scaricarla dal nostro server.

La Library Everywhere è pensata per essere virale, cioè può essere liberamente installata e duplicata.

Si può contribuire alla sua diffusione in molti modi, quali ad esempio:

  • Diffusione del progetto presso associazioni (ONLUS, enti, parrocchie ecc.), che siano interessate a installare la biblioteca in scuole e comunità nei Paesi in via di sviluppo.
  • Diffusione del progetto attraverso articoli su giornali e interviste televisive.
  • Diffusione attraverso contatti diretti con enti governativi italiani o stranieri.
  • Contatti diretti con comunità o scuole ubicate nei Paesi in via di sviluppo.
  • Installazione della biblioteca in scuole europee come supporto ai corsi di lingua inglese.
  • Richieste a editori di libri in inglese di contribuire donando e-book esenti dal diritto d’autore, almeno per la parte digitale.
  • …..

Le limitazioni sono le seguenti:

  1. Il catalogo della Library Everywhere richiede il sistema operativo Windows (da 7 in poi)
  2. Non può essere modificata in nessun modo e va diffusa con il suo nome e facendo riferimento al nostro sito.
  3. Non può essere usata per fini commerciali.
  4. Non è necessaria nessuna autorizzazione preventiva per la sua diffusione, ma noi apprezzeremo molto se ogni nuova installazione sarà comunicata via mail a alfredo@dinola.it indicando i nomi e i recapiti dei proponenti e dei gestori.

 

Un dubbio

Questo si può considerare colonialismo culturale?

Rispondo con un mio scritto a proposito degli aiuti all’Africa sub-sahariana.

Perché aiutare l’Africa?

Chiunque sia andato in Africa è rimasto commosso nel vedere che gli Africani spesso dormono distesi per terra su una stuoia o nel vedere le donne che compiono lunghi percorsi per approvvigionarsi di acqua, anche là dove per trovarla (come nella foresta equatoriale) sarebbe sufficiente scavare un pozzo di una quindicina di metri.

L’istinto sarebbe di fornire loro i letti e di scavare i pozzi. Ma dovremmo prima domandarci se ciò sia giusto.

La costruzione di un letto non è molto difficile, come pure scavare un pozzo non troppo profondo. Gli Africani lo sanno e se non lo fanno ciò dipende dalla loro cultura. Infatti, l’Africano tende a vivere in equilibrio con la natura e a differenza di noi non tende a modificarla. Per questo non ha costruito edifici memorabili, come le nostre cattedrali e non ha costruito strade come hanno fatto gli antichi Romani o costruito dighe o acquedotti.

Questo aspetto della loro civiltà ha dei vantaggi: ad esempio non distrugge l’habitat e non porta il mondo alla rovina per la produzione di anidride carbonica o di altri veleni. Se il mondo rischia la catastrofe ecologica, questo lo deve a noi occidentali.

Quindi alla domanda se dobbiamo essere noi a costruire letti, strade, acquedotti dovremmo rispondere di no.

Un’altra cosa che incute orrore sono le bidonville, che circondano le grandi città, con il loro carico di dolore. Ma se ci pensiamo un attimo dobbiamo concludere che le bidonville le abbiamo portate noi. Nell’Africa sub-sahariana non esistevano grandi città e quindi le bidonville. Queste sono il frutto della interazione col nostro mondo.
Anche questo aspetto dovrebbe farci riflettere sulla presunta superiorità della civiltà occidentale.

Potremmo concludere che non dobbiamo costruire nulla, ma almeno aiutarli a curare le malattie che li affliggono come malaria, tubercolosi e aids. Sappiamo che la mortalità infantile è molto alta e che la vita media è incomparabilmente più bassa della nostra.

Anche in questo caso dobbiamo prima riflettere. Sappiamo che una donna africana arriva anche ad avere dieci gravidanze nella sua vita e che solo tre o quattro figli raggiungono l’età adulta. Se avessimo la bacchetta magica e potessimo debellare in un colpo tutte le loro malattie, la conseguenza sarebbe un’esplosione demografica in assenza di lavoro per tutti e di cibo. Dobbiamo quindi concludere che anche in questo caso gli Africani hanno raggiunto un equilibrio con la natura e che sarebbe bene non fare nulla.

Ma è proprio così?

Se l’Africa fosse un sistema chiuso e isolato forse sarebbe opportuno lasciarla nel suo equilibrio.

Tuttavia l’Africa da sempre è stata in contatto con le altre civiltà, in particolare con la nostra, che, a differenza della loro, tende a sopraffare le altre, come è accaduto ad esempio con i nativi americani. Al contatto col nostro mondo l’Africano non ha difese da opporre né culturali, né fisiche e ciò è fonte da sempre di enormi catastrofi.

In conclusione è giusto aiutare l’Africa e in questo caso cosa dovremmo fare?

La mia risposta è che, poiché non è un sistema isolato, dobbiamo cercare di aiutarla e che il problema è soprattutto culturale. Quindi dobbiamo aiutare l’Africano ad avere gli strumenti culturali per affrontare e risolvere i suoi problemi.

Questo vuol dire che non dobbiamo cercare di debellare le malattie?
Anche in questo caso occorre agire contemporaneamente su più fronti: ad esempio diminuire la mortalità, ma anche permettere uno sviluppo demografico sostenibile. Questo ultimo si ottiene solo attraverso una diffusione della cultura.

Credo di aver chiarito che la diffusione della cultura sia, secondo la mia opinione, una condizione irrinunciabile per lo sviluppo dell’Africa.

Ma sorge subito un’altra domanda: cosa dobbiamo insegnare?

Dobbiamo parlare di Aristotele? Dobbiamo parlare delle guerre napoleoniche? Dobbiamo portare la nostra cultura e trasformarli in tanti piccoli lord?

La mia risposta è no. Portare la cultura non è così semplice come si potrebbe pensare. Per non trasformare gli Africani in occidentali dobbiamo certamente far loro conoscere la nostra cultura, ma lo scopo deve essere quello di aiutarli a sviluppare la loro. Questo è, secondo me, l’aspetto più difficile, che va affrontato con estrema cautela.

*Alfredo Di Nola, alfredo@dinola.it

Alfredo Di Nola è nato a Roma ed è laureato in Fisica.

Ordinario di Chimica Fisica,  presso il Dipartimento di Chimica della Sapienza-Roma. Attualmente è in pensione. La sua attività di ricerca è stata principalmente focalizzata nell’ambito della Chimica-Fisica teorica e computazionale, mediante simulazioni di dinamica molecolare classica e quantistica. Dal 2004 si occupa di volontariato nell’ambito della diffusione della cultura.

 

Inquinamento ed estrazione mineraria.

In evidenza

Claudio Della Volpe

Due notizie di questi giorni mettono al centro uno dei problemi più importanti nella gestione delle risorse minerarie ed in genere delle risorse, ossia il crescente inquinamento prodotto da un approccio che privilegia il profitto e non la gestione razionale, che danneggia dunque noi tutti come passeggeri di una nave cosmica che non ha zattere di salvataggio o sostituti.

In parte questi problemi sono dovuti al fatto che le risorse minerarie non sono infinite e che dunque certi problemi sono inevitabili: i costi crescono a causa del crescente impoverimento dei giacimenti; il problema è che chi estrae cerca di scaricarli sempre più sulla comunità con comportamenti che privilegiano l’attività privata e non il bene pubblico.

Da una parte la Regione Basilicata ha sospeso l’attività del Centro Oli di Viggiano dell’ENI, poichè l’ENI non ha rispettato le norme anti-inquinamento ed i prodotti dell’attività estrattiva si sono riversati ripetutamente nell’aria, nella terra e forse nel fiume Agri; dall’altra El Salvador il più piccolo stato centro-americano, affacciato sul Pacifico ha approvato una legge che vieta quasi completamente l’attività mineraria che ha portato finora (insieme principalmente all’agricoltura estensiva) all’inquinamento del 90% delle acque superficiali; e questo dopo una lotta legale e politica contro i giganti economici multinazionali che estraggono soprattutto oro.

Vi racconto le due storie, che mi sembrano per molti aspetti simili, brevemente.

El Salvador , 21000 kmq di foreste affacciate sul Pacifico, è stato anche teatro di una lunghissima guerra civile. Finalmente nel 1992 c’è stato un accordo fra le due fazioni politiche e nel 2009 le sinistre hanno vinto le elezioni.

Geograficamente El Salvador è caratterizzato da un territorio esposto al clima oceanico con una densità di popolazione di circa 300 ab/kmq (50% più dell’Italia); molti giacimenti minerari e agricoltura estensiva. Il fiume principale è il Lempa, navigabile per molte miglia ed intensamente sfruttato; diverse dighe lungo il suo percorso consentono l’irrigazione e la produzione di rilevanti quantità di energia idroelettrica. A sud del suo bacino, si è sviluppata la coltivazione di agave sisalana, pianta utile alla fabbricazione di corde, spago, cappelli e tappeti ed altri manufatti. Le attività industriali e agricole nel bacino del Lempa ne hanno però fortemente inquinate le acque, ormai per gran parte non potabili, a causa dell’uso massiccio di prodotti chimici. (da wikipedia)

(ovviamente per chimici wikipedia intende di sintesi).

La goccia che ha fatto traboccare il vaso, creando un vero e proprio movimento sociale, è stata la cava progettata dalla Pac Rim Cayman. La società, controllata della canadese-australiana OceanaGold, aveva ottenuto una licenza per aprire una miniera d’oro nella provincia settentrionale di Cabañas, licenza respinta nel 2005 per non aver soddisfatto tutti i requisiti di legge.

Con la crescita dell’opposizione al progetto, sono aumentati anche gli scontri intorno alla miniera, causando la morte di diversi attivisti. La questione si è risolta lo scorso anno attraverso un arbitrato commerciale internazionale. Il tribunale ha dato ragione al governo salvadoregno, respingendo tutte le richieste della società. La OceaneaGold è stata condannata a pagare un risarcimento di 8 milioni di dollari a cui si aggiunge un ulteriore, multa per (NON) aver ancora versato la somma.

http://www.rinnovabili.it/ambiente/el-salvador-bandire-miniere-di-metalli-666/

L’arbitrato è durato anni ed è costato moltissimo allo stato di El Salvador; è un esempio delle procedure previste da accordi come TTIP (che noi finora ci siamo scansati) e che prevedono che una multinazionale, a determinate condizioni, possa chiamare in giudizio uno stato che fa leggi che impediscono di realizzare profitti; nel caso specifico ripeto siamo dovuti arrivare ad un inquinamento del 90% delle acque per far bloccare ulteriori inquinamenti.

Stranamente in queste regole non è previsto il contrario, ossia che se una multinazionale inquina poi non solo paga, ma se per questo deve interrompere la sua attività, dovrebbe comunque continuare a pagare le royalties promesse al momento iniziale e su cui i bilanci pubblici si sono basati. E di questo vediamo le conseguenze in Basilicata.

http://www.internazionale.it/notizie/2017/01/31/salvador-pace-anniversario

I difensori della nuova legge dimostrano la propria soddisfazione davanti al Parlamento. (Marvin Recinos / AFP)

La situazione della Basilicata in parte la conoscete se avete seguito le vicende del referendum contro le trivellazioni; in quel periodo tutti i giornali erano anche pieni della questione Guidi – Gemelli; per quella indagine su una conversazione fra i due relativa al fatto che il Governo stava per approvare un investimento che avrebbe facilitato la vita di Gemelli, compagno della Guidi e procacciatore d’affari per Total, la Guidi si dimise e Gemelli è stato indagato insieme ad altri. Pochi giorni fa l’indagine si è chiusa con un nulla di fatto sulla questione per quanto riguarda lo stralcio di indagine riguardante Gemelli (Total, Tempa Rossa); (la conversazione c’è stata ma non si può provare la corruzione o l’interesse privato); ma la questione non si è chiusa sul fronte inquinamento (ENI, COVA).

Sono due i filoni principali delle indagini : il primo sul Centro Oli in Val d’Agri a Viggiano dell’Eni, (COVA) , l’altro sull’impianto estrattivo della Total a Tempa Rossa. La questione Guidi riguardava i permessi e la gestione di Tempa Rossa, mentre l’inquinamento riguarda il Centro Oli ed ENI (COVA). Per maggiori informazioni leggete qui:

https://oggiscienza.it/2016/04/01/petrolio-basilicata-eni-inchiesta/

https://oggiscienza.it/2016/07/27/centro-oli-viggiano-inchiesta/

Per l’inquinamento dovuto all’attività estattiva furono condannati in vario modo 6 dei 60 imputati. La questione è complessa e ingarbugliata e soprattutto l’attenzione mediatica alle vicende Guidi-Gemelli ha rischiato di far passare in secondo ordine quelle ben più serie dell’inquinamento dovuto ad errori di gestione od a vere e proprie truffe agite da alcuni e per le quali alcuni funzionari dell’Eni erano stati arrestati (cambio dei codici dei rifiuti, inquinamento dell’acqua e del suolo per scarico di ammine e di sotto prodotti gassosi del raffinamento del gas e del petrolio).

Ad agosto scorso il COVA, che era stato sequestrato, fu dissequestrato per permettere all’Eni di eseguire le modifiche impiantistiche che avrebbero dovuto risolvere l’inquinamento. Una delle conseguenze del sequestro (ma sarebbe giusto dire degli errori dell’ENI) è stata l’interruzione delle attività e la conseguente riduzione delle royalties pagate alla Regione e ai Comuni interessati, cosa che ha mandato in crisi i bilanci regionali e comunali; ma di questo non possono essere considerati responsabili gli ambientalisti e i comitati che si oppongono all’inquinamento, ma solo i responsabili dell’inquinamento e chi non ha rispettato le leggi.

Cosa sta succedendo adesso?

Nulla di nuovo; a seguito di recenti controlli dell’ARPAB, si sono trovati ferro, manganese e IPA (idrocarburi policiclici aromatici) nell’area del COVA adiacente al fiume Agri col rischio di inquinamento del fiume stesso e dell’acquedotto del Pertusillo. L’ENI ha chiuso nuovamente il COVA su ordine della Regione.

Così si esprime un giornale locale riassumendo la vicenda che dura ormai da più di un anno:

Il 19 aprile scorso, dopo la conferma del sequestro da parte del Tribunale del Riesame, cui l’Eni aveva presentato ricorso, e del blocco dell’attività, vi fu un ricorso in Cassazione e l’Eni, promise di individuare alcune soluzioni e così lo scorso agosto venne dissequestrato l’impianto, ma con diverse problematiche anche su altre zone e per diversi dipendenti, mentre ad oggi si sostiene che tale contaminazione è andata oltre e dopo la notizia diramata nei giorni scorsi dalla Giunta Regionale della Basilicata per il blocco delle estrazioni petrolifere, alle ore 14.30, di oggi, martedì 18 aprile, a Potenza, il presidente della Regione Basilicata, Marcello Pittella, subito dopo le vacanze di Pasqua, terrà una conferenza stampa per fare il punto della situazione e incontrerà i giornalisti nella Sala Verrastro, al primo piano di viale Vincenzo Verrastro 4. Mentre giunge anche un’appello dall’Ing. Alberti all’Eni e al sindaco di Viggiano, Amedeo Cicala, di realizzare urgentemente una profonda trincea lungo il fiume Agri, prima che il petrolio lo contamini e con esso anche il Pertusillo.

(per i risultati di questo incontro si veda qui).

Mi chiedo come mai non esista un equivalente della clausola che negli accordi internazionali garantisce i profitti, ma dal punto di vista del bene pubblico; se io investitore per mia manchevolezza tecnica non solo inquino ma, una volta scoperto, sono costretto a sospendere l’attività e di conseguenza non pago più royalties, come mai non sono stavolta obbligato a pagare alla collettività le royalties promesse e su cui si basano i bilanci pubblici? (oltre ad eliminare le cause dell’inquinamento)

Questa è la domanda che rivolgo ai giornali di parte padronale come il Sole 24 ore che si lamentano dei mancati profitti e ridono delle mancate royalties riproponendo il ricatto fra lavoro e inquinamento.

Caro Sole 24 ore oil&gas non è strangolato dai nimby, come mal raccontano i vostri titoli, ma dalla sete di guadagno che non si ferma nemmeno davanti alla distruzione dei beni pubblici. Si vergognino gli inquinatori, non chi difende l’ambiente.

Costituzione Italiana:

Articolo 41

L’iniziativa economica privata è libera. Non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà, alla dignità umana. La legge determina i programmi e i controlli opportuni perché l’attività economica pubblica e privata possa essere indirizzata e coordinata a fini sociali.

Per approfondire:

http://www.ansa.it/sito/notizie/cronaca/2017/04/18/inchiesta-sul-petrolio-in-basilicata-57-rinvii-a-giudizio_6e4db091-b8a5-4950-97d8-dd7aa3623588.html

https://www.theguardian.com/global-development/2016/oct/14/el-salvador-world-bank-tribunal-dismisses-oceanagold-mining-firm-250m-claim

http://www.lastampa.it/2017/04/15/economia/eni-inadempiente-basilicata-chiude-il-centro-oli-di-viggiano-c03t34XOEHYwjymS3zNYMN/pagina.html

https://it.wikipedia.org/wiki/El_Salvador#Il_XX_secolo_e_la_guerra_civile

Analisi chimica oggi.

In evidenza

Luigi Campanella, ex Presidente SCI

Generalmente chi ricorre all’analisi chimica per un problema nuovo ritiene che, tra i tanti, esista già un metodo adatto per i suoi scopi, lo ricerca e talvolta lo adatta e lo applica personalmente; da questa acritica propensione, come si è già rilevato, possono derivare molti danni.

La chimica analitica, ben conscia di questo, ha fortemente sviluppate, e ampiamente e soddisfacentemente applicate, una filosofia e una prassi che le permettono di affrontare con sistematicità nuovi problemi conoscitivi e nuovi campi di committenza; come può essere rilevato:

  • nella cura con cui vengono affrontati i problemi del linguaggio e delle definizioni;
  • nel cosiddetto iter analitico, cioè nel percorso logico e procedurale che ogni analisi deve seguire senza omissioni e alterazioni, ossia nell’insieme coerente dei mezzi e delle operazioni che partono dalla definizione dei problemi e giungono alla soddisfacente soluzione di essi;
  • nell’organizzazione internazionale per le analisi di qualità (v. oltre).

L’iter analitico consta delle seguenti parti nel seguente ordine:

  • approccio analitico ai problemi e ai sistemi,
  • prelievo dei campioni,
  • trattamenti e separazioni,
  • taratura,
  • calibrazione,
  • misurazione,
  • valutazione dei dati sperimentali,
  • elaborazione dei dati sperimentali,
  • classificazione,
  • immagazzinamento e recupero delle informazioni.

Il risultato è la caratterizzazione chimica (compositiva, strutturale, correlativa e alterativa); ove l’operazione sia finalizzata ad una diagnosi,come ad esempio in archeologia spetterà a quest’ultima disciplina la sua utilizzazione per diagnosi e interventi, in armonia e in accordo con la caratterizzazione umanistica.

L’analisi chimica ha per oggetto un sistema, la determinazione chimica di un analita (componente o proprietà del sistema), la misurazione di una grandezza fisica del sistema. Il risultato della misurazione, la misura, è dipendente sia dall’analita che dalla matrice; una o più misure concorrono a una determinazione; una o più determinazioni costituiscono un’analisi. Si suole distinguere anche tra tecnica, metodo, procedimento e protocollo.

Per tecnica analitica si intende lo studio (con prospettive di applicazioni) delle correlazioni tra quantità di sostanza e grandezza fisica relata misurabile; essa descrive i principi e la teoria delle interazioni, le apparecchiature per generare e per definire qualitativamente e quantitativamente le energie in gioco, i rivelatori e i sensori. Esempi: tecniche ottiche e spettrali, elettrochimiche, termiche, separative, cromatografiche, isotopiche, chimiche, biologiche.

Un metodo è l’adattamento di una tecnica a una categoria di problemi e deve comprendere tutto l’iter analitico (spesso però viene riduttivamente inteso come la sua parte centrale che va dai trattamenti dei campioni alla valutazione dei risultati sperimentali); un metodo analitico descrive e prescrive le caratteristiche del laboratorio e degli operatori, i reattivi e i materiali di riferimento, le apparecchiature e i procedimenti. Un metodo (o parte di esso) con l’adeguamento a situazioni specifiche diventa procedimento; protocollo è l’insieme di istruzioni da seguire alla lettera nell’applicazione di un procedimento elevato a norma ufficiale.

Metodo non va confuso con metodologia, che è il discorso globale comprendente tutti e quattro i termini; da scoraggiare è anche l’uso dei termini metodica (si tratta di un aggettivo) e procedure (termine giuridico).

Per meglio chiarire la differenza tra misurazione e analisi si tenga presente che sei delle sette grandezze di base del Sistema Internazionale di Unità di Misura (SI): lunghezza, massa, tempo, intensità di corrente elettrica, temperatura termodinamica e intensità luminosa, sono grandezze fisiche, la settima, la quantità di sostanza è grandezza chimica. L’analisi chimica coinvolge sempre la settima grandezza e, a seconda dei casi, una o più delle altre sei; pertanto essa è sempre dipendente da grandezze fisiche e dal tipo di energia da queste definito.

Da questa premessa si può trarre ragione della classificazione dei metodi analitici basata sul tipo di energia in gioco, di cui qui appresso si riportano esempi.

Nuove prospettive per il ciclo idrico integrato.

In evidenza

Mauro Icardi

Sull’inserto del quotidiano “Repubblica” dedicato alla salute è uscito martedì scorso,11 Aprile ,un articolo intitolato significativamente “Com’è buona l’acqua del rubinetto” a firma di Elvira Naselli. Articolo abbastanza esaustivo e soprattutto articolo che prova per l’ennesima volta a demolire miti e paure radicate nella pubblica opinione. Miti e paure che spesso verifico anche personalmente, soprattutto quando seguo le discussioni sul tema acqua sui social network. Che spesso sono (purtroppo) la cassa di risonanza di invenzioni pure, baggianate colossali e che soprattutto non permettono quasi mai la possibilità di sviluppare una discussione propositiva. Anche questo è un problema emergente che è campo di studio soprattutto dei sociologi. Auguro loro buon lavoro.

Tornando in tema l’articolo di Repubblica oltre a spiegare che l’acqua del rubinetto non è responsabile della calcolosi renale, ci permette di capire anche che non esiste un’acqua “colesterol free”.

Ma è probabile che l’assuefazione all’essere bombardati da messaggi pubblicitari abbia avuto certamente effetti deleteri. Di solito chi non si fida a priori dell’acqua potabile adduce di solito l’obiezione che l’acqua sia troppo dura, o che sappia di cloro (situazioni che per altro si risolvono eventualmente con impianti appositi, ma solo se effettivamente necessario, e nel secondo caso semplicemente lasciando evaporare l’acqua spillata da rubinetto in una brocca per far evaporare l’eventuale cloro residuo).

E non manco mai di far notare che generalmente una bottiglia di un’acqua minerale di marca da un litro e mezzo che si paga indicativamente 50 centesimi corrisponde alla fornitura di circa 300 litri di acqua dell’acquedotto. Ovviamente poi ognuno può fare le proprie scelte.

Ci sono in Italia situazioni contrastanti. Il 44% degli Italiani ha optato per il consumo di acqua di rubinetto, i restanti consumano 208 litri all’anno di acqua in bottiglia rendendo l’Italia il terzo paese per consumo mondiale di acqua imbottigliata dietro a Messico e Thailandia.

Per quelli che hanno optato per l’acqua del rubinetto la buona notizia è che nel futuro, prima come adesione volontaria, e successivamente come obbligo normativo, le aziende che distribuiscono acqua potabile si doteranno di un Water Safety Plan. Questa decisione deriva dalla revisione della direttiva 98/83/CE sulla qualità delle acque destinate al consumo umano (recepite dal Dlgs 31 del 2001 in Italia).

La fornitura di acqua qualitativamente idonea all’uso umano è attualmente garantita in Italia da una serie di misure normative particolarmente rigorose, da prassi consolidate nei sistemi di gestione idrica in grado di assicurare la produzione di acque sicure, e da un livello di sorveglianza particolarmente esteso e capillare.

Questo impegno viene svolto da laboratori attrezzati e che tra le altra cose impegnano il personale impiegato nella verifica delle metodiche utilizzate e nel controllo delle prestazioni fornite dal laboratorio in termini di precisione e accuratezza dei risultati analitici, sia per i parametri chimici che per quelli microbiologici.

Nel futuro l’adozione di un piano di sicurezza impegnerà i gestori in un lavoro di carattere multidisciplinare. Si tratterà di predisporre un piano dettagliato di analisi dei rischi e delle possibili contaminazioni sull’intera rete idrica, e nei vari punti di diramazione e di snodo.

Questo approccio avrà due effetti da punto di vista del lavoro degli addetti ai laboratori. Maggiore impegno nella rilevazione di patogeni e sostanze di sintesi emergenti (per esempio interferenti endocrini).

Dovranno essere rivisti e migliorati i criteri di campionamento ed il livello di prestazione dei metodi analitici. Dovrà essere valutato l’impatto dei cambiamenti climatici sulle acque destinate al consumo umano, ma in generale sull’intero ciclo idrico, dalla captazione alla depurazione.

Questo per la ragione che l’impoverimento di molte aree di approvvigionamento idrico ha un impatto sempre più rilevante sulla quantità e sulla qualità delle acque.

Si dovranno sviluppare altresì sistemi di monitoraggio in continuo della rete acquedottistica per verifiche non solo della situazione idraulica e distributiva, ma anche per la determinazione di parametri chimici in continuo.

In Italia circa l’85% delle acque destinate al consumo umano viene prelevata dalle falde. Questo garantisce una miglior qualità ed una maggiore gradevolezza (particolare non indifferente quando poi si tratta di ottenere il gradimento dell’utenza). Ma le falde sono più vulnerabili a situazioni di eventuali contaminazioni o inquinamenti. E quindi necessitano di attenti interventi di protezione e monitoraggio.

Nel futuro l’impegno sarà quello di garantire la salvaguardia della salute pubblica, e nello stesso tempo di fornire un’acqua gradevole per chi la consumerà.

E tutto questo si dovrà interfacciare con uso oculato e sostenibile della risorsa acqua, ma delle risorse in generale.

Riferimenti utili.

  1. World Health Organization. Guidelines for drinking-water quality incorporating first addendum. Geneva: WHO Ed. 2006; Vol. 1, 3rd ed. 2
  2. UNI EN ISO 22000. Sistemi di gestione per la sicurezza alimentare. Requisiti per qualsiasi organizzazione nella filiera alimentare. Milano: Ente Nazionale Italiano di Unificazione; 2005.
  3. World Health Organization. Water safety plan manual: Step-by-step risk management for drinking-water suppliers. Geneva: WHO Ed.; 2008 Vol. 1, 3rd ed.

 

I misteri di Report.

In evidenza

Claudio della Volpe

Pochi giorni fa la trasmissione Report ha denunciato come “misterioso” e non giustificato l’aver trovato una certa quantità di titanio, nelle bibite gasate che stava analizzando per motivi legati al loro metodo di produzione; in effetti è un buon argomento di vendita la “misteriosità” della ricetta di alcune di queste bibite e nell’ambito di una trasmissione sulla Coca-Cola il tema presenta un certo interesse. Ho seguito anch’io quella trasmissione e sono rimasto colpito da questo apparente “mistero”; non essendo un esperto ho voluto approfondire. Il titanio era riportato alla concentrazione di alcuni ppb, ossia parti per miliardo, che corrispondono a microgrammi per chilogrammo.

Inoltre nei medesimi giorni un intervento sul nostro blog ha riguardato un analogo tema; infatti nel post: Poletilentereftalato nell’industria alimentare

https://ilblogdellasci.wordpress.com/2016/01/24/polietilene-tereftalato-nellindustria-alimentare/

pubblicato oltre un anno fa Luigi Campanella poneva l’accento sui problemi legati alla cessione da parte del PET, il polietilentereftalato, il componente essenziale dei contenitori; esso potrebbe avere problemi di cessione specie se la conservazione delle bottiglie non è fatta nel modo migliore.

In quel post Luigi riportava la presenza di piccole quantità di antimonio nella soluzione, ma soprattutto di componenti provenienti dal polimero e di elementi di degradazione del PET che secondo alcuni autori potrebbero addirittura avere effetti mutageni; vi rimando al post e ai lavori in esso citati per maggiore completezza.

In un recente intervento sul post un lettore poneva la domanda se la presenza di titanio, i cui composti stanno sostituendo l’antimonio come componente dei catalizzatori di polimerizzazione del PET, può essere giustificato. Nella medesima domanda poneva anche il problema se l’uso dell’acido acetico 3% fosse una scelta giusta, e quale fosse il suo pH. A questa seconda domanda rispondo immediatamente: dato che una soluzione 3% di acido acetico corrisponde a circa 30g per litro, ossia 0.5M, il suo pH si calcola immediatamente dalla costante acida essere attorno a 2.5, dunque proprio i valori che il lettore chiede.

In effetti negli ultimi anni si sono introdotti catalizzatori a base di titanio nella produzione di PET; questo è ampiamente documentato in letteratura; si veda per esempio qui, una conferenza internazionale del 2006, quindi oltre 10 anni fa, in cui i catalizzatori a base di titanio sono proposti come alternativa al più inquinante antimonio. I vantaggi rispetto all’antimonio sono dati anche dai risultati tecnici, come la trasparenza del polimero finale, la cessione ridotta di monomero e così via.

La concentrazione di titanio nella massa del materiale da catalizzare è dell’ordine delle decine di ppm, ossia parti per milione (mg per chilogrammo di polimero) e dunque è ragionevole immaginare che una cessione di questo catalizzatore possa arrivare a concentrazioni dell’ordine dei ppb, mille volte inferiore, nel contatto con la soluzione acidula di bevanda o comunque con una soluzione acquosa (microgrammi per litro). Non c’è dunque alcun mistero nella presenza di ppb di titanio nelle bibite date, che sono concentrazioni largamente inferiori a quelle ritenute potenzialmente pericolose.(Ovviamente l’esatto rapporto dipenderà dalla storia della bottiglia, potrebbe essere anche 1:100 o perfino 1:10 se la storia del’immagazzinamento lo consente).

E’ da dire che il titanio è usato anche per un altro scopo molto diverso ed è usato direttamente in alcune bibite come “clouding agent” ossia come agente di “oscuramento” per rendere per esempio le bibite di succhi di frutta più simili a quelle naturali; il tema è ampiamente noto ed è stato trattato in tesi come questa che linko che sono anche esse liberamente scaricabili dalla rete (ovviamente in inglese)

https://www.theseus.fi/bitstream/handle/10024/93815/julkaistava%20versio_%20Anne%20Kuisma_TiO2.pdf?sequence=1

Tesi di Anne Kuisma presso la Università finlandese Metropolia di scienze applicate ad Helsinki, la maggiore della Finlandia.

In questo caso la concentrazione di titanio (denominato qui come E171 in genere) è molto più alta, può arrivare molto al di sopra di quella determinata nelle bibite studiate da Report.

In un recente lavoro pubblicato da EFSA che è l’organismo europeo che si occupa di questi temi si è rianalizzato il tema del pericolo da titanio; il report si chiama:

Re-evaluation of titanium dioxide (E 171) as a food additive. EFSA Panel on Food Additives and Nutrient Sources added to Food (ANS) pubblicato nel giugno 2016, scaricabile liberamente da qui.

La conclusione del panel di esperti è che la sicurezza generale del prodotto è notevole e che il limite di ben 2.25g/kg di peso corporeo come assorbimento è valido; comunque il panel di esperti attende sviluppi della letteratura per stabilire un limite di assorbimento per i potenziali effetti mutageni della sostanza che sono stati più volte indicati in letteratura ma senza la rigorosità necessaria.

Titanio tetrabutossido, possibile catalizzatore per PET

Ovvio che nel caso del titanio usato come clouding agent non stiamo parlando dei medesimi composti di titanio usati come catalizzatori (per esempio titanio tetrabutossido) ma di TiO2, un ossido inorganico molto comune.

Questo fra l’altro mi fa ricordare che il biossido di titanio (TiO2) è uno dei principali componenti delle vernici bianche (Corradini mi ricordo che lo diceva sempre a lezione, una delle prime cose che ho sentito da lui) ed una delle sostanza di sintesi più usate del mondo. Il biossido nanometrico, come aerossido o P25 è anche uno dei comuni composti usati in laboratorio per costruire le celle di Graetzel, le celle fotovoltaiche a colorante organico attivato.

Un recente lavoro a riguardo della mutagenicità/cancerogenicità dell’E171 è quello comparso su Scientific Reports 2017 e che riguarda l’effetto della quota di nano particolato presente anche nell’E171 usato per scopi alimentari; il lavoro è stato citato da Report, ma senza citare per esempio la pubblicazione dell’EFSA. In esso si studia l’effetto aggravante della frazione di nanoparticolato presente nell’E171 ma su tessuti di ratto in cui il tumore è stato indotto artificialmente e anche su ratti normali attraverso lo studio dellla formazione di ACF, ossia di lesioni precancerose; tuttavia è da dire che la relazione fra questi ACF e lo sviluppo successivo di cancro al colon dell’animale da esperimento non è ben chiarito (si veda anche qui).

Non intendiamo qui dare alcuna risposta sul tema, il compito è degli organismi deputati allo scopo che lo faranno, che lo stanno già facendo; la questione o mistero piuttosto è quando Report si deciderà, come anche gli altri giornalisti, a rivolgersi ai chimici invece di ventilare inesistenti misteri, come quello della “ingiustificata” presenza di titanio nelle bibite. Siamo per il principio di precauzione, ma vorremmo meno allarmismo e più giornalismo di inchiesta (vero). Fra l’altro la segnalazione di Luigi sugli effetti dei residui del polimero rimane sempre valida.

 

Intercalazione e altre storie.4.

In evidenza

Claudio Della Volpe

Aliso canyon è una valle a nord di Los Angeles, non lontana dai posti mitici della costa ovest degli USA: Santa Monica, Beverly Hills, etc.

Nel 1938 fu scoperto colà un deposito petrolifero che fu sfruttato fino al 1970 quando si esaurì (come forse sapete il petrolio ha questo difettuccio). Dopo un incidente la zona fu venduta ad una compagnia che distribuiva gas che la usò come deposito del proprio gas a partire dal 1972.

La Aliso Canyon natural gas storage facility è costituita da 115 pozzi con un contenuto totale di oltre 86 miliardi di piedi cubici di gas naturale, per la distribuzione a tutti i residenti del bacino di L.A. e costituisce, come dimensioni, il secondo deposito degli USA, detenuto dalla SoCalGas (Southern California Gas Company).

Il 23 ottobre 2015 fu ivi scoperta la più grande fuga di gas da un bacino artificiale di questo tipo nella storia americana; in effetti il fenomeno probabilmente era iniziato qualche giorno prima, segnalato da malori da parte di residenti della zona ed alcuni osservatori si sono riferiti ad esso chiamandolo non “leak” ma “blowout” e dunque considerandolo non un piccola perdita, ma un vero e proprio scoppio, un grande incidente; comunque sia il fenomeno, che trovate illustrato su wikipedia è continuato per un lungo periodo, poichè è stato complicato risolverne la causa, una rottura nel sistema di tubazioni che giaceva migliaia di metri sotto terra e che è stata acuita dalla scarsa ed inopportuna manutenzione della grandi valvole usate per regolare il sistema.

Esiste un video che verosimilmente rappresenta, fa comprendere le dimensioni del fenomeno, registrato con una telecamera IR.

I lavori per risolvere il fenomeno, contro il quale non esistevano piani di risposta adeguati, sono durati a lungo e la fuga di gas è stata eliminata ufficialmente solo il 18 febbraio 2016 (quattro mesi dopo). Nel frattempo si è stimato che sono entrate in atmosfera quasi 100.000 ton di metano, una quantità veramente enorme, pari ad 1/6 delle perdite normalmente stimate per tutto il consumo italiano di un anno. Gli effetti locali hanno obbligato migliaia di famiglie a spostarsi dalla zona e sono costati alla SoCalGas milioni di dollari; inoltre l’inquinamento dovuto alle piccole quantità di benzene e di tiocomposti presenti nel metano si è diffuso su una vasta area, anche esterna alla Aliso Canyon.

Ma la reazione che ci interessa sottolineare qui ha riguardato l’effetto sulla generazione di elettricità.

Il metano è usato fra l’altro dalle molte centrali elettriche che giocano un ruolo di equilibrio complessivo nel funzionamento della rete elettrica. La indisponibilità prolungata della sorgente di metano principale dell’area di L.A. ha obbligato a correre ai ripari con la costruzione di una struttura alternativa e basata sulle batterie al litio e le energie rinnovabili.

Nel numero di febbraio 2017 la rivista Qualenergia ha segnalato l’entrata in funzione di una capacità di accumulo elettrochimico pari al 15% di tutta quella esistente a livello mondiale e basata su batterie al litio, stimolata proprio dall’episodio di Aliso Canyon.

Dice Qualenergia:

Tesla, Greensmith Energy e AES Energy Storage hanno infatti inaugurato tre enormi accumuli agli ioni di litio, due da 20 MW (e 80 MWh) e uno da 30 MW (e 120 MWh), per un totale di 70 MW. Tutto questo nel giro di 6 mesi dall’avvio del progetto, con Tesla che ha completato il suo impianto addirittura in 3 mesi.

Le installazioni assorbiranno l’energia in eccesso nei picchi di offerta – ad esempio la produzione del fotovoltaico durante le ore centrali del giorno – e la restituiranno nei picchi di domanda, ad esempio in quello serale, rimpiazzando in parte il ruolo di impianti flessibili come i cicli combinati a gas.

La stima numerica viene da Bloomberg, un gruppo di informazione finanziaria, ben informato sul tema e a cui si fa spesso riferimento per le statistiche aggiornate del FV. Sappiamo quindi indirettamente che a livello mondiale abbiamo una capacità di accumulo elettrochimico pari a circa 7 volte questa, 1.4GWh, tutto sommato una quantità modesta se la paragoniamo ai consumi di energia elettrica e che dà il senso di quanto rimane da fare in questo settore. Per paragonare i valori rileggetevi alcuni dei dati pubblicati negli articoli precedenti di questa serie (qui, qui e qui).

Il lavoro da fare è enorme e per questo prima si parte e prima si arriva; e ancor più dunque rimangono iniziative sostanzialmente stupide e nocive quelle intraprese dal nostro beneamato governo che insiste ad agire a favore delle energie fossili e degli interessi petroliferi, gasieri e carbonieri in Italia. Contravvenendo alle proprie promesse politiche all’indomani del referendum sulle trivelle il nostro governo ha deciso di favorire ancora una volta le estrazioni entro le 12 miglia marine:

http://www.huffingtonpost.it/2017/04/05/petrolio-dora-in-poi-nuove-trivellazioni-entro-le-12-miglia_a_22026817/

Il testo del decreto testè approvato non lascia dubbi;

“”Nel 2011 il Consiglio di Stato ha stabilito che le concessioni esistenti possono continuare a estrarre entro le 12 miglia fino a esaurimento della capacità del bacino del petrolifero o fino a quando lo considerano produttivo. Ma sempre nel rispetto del progetto originariamente autorizzato”, spiega il costituzionalista Enzo Di Salvatore, autore dei quesiti ‘No Triv’ sottoposti a referendum lo scorso anno e invalidati dal mancato raggiungimento del quorum.

Esempio: “Se hai una concessione con tre piattaforme e 7 pozzi ma finora ne hai realizzati solo 5, ne puoi fare altre due”. Cosa cambia con il nuovo decreto? “Puoi modificare il programma inizialmente autorizzato, in corso d’opera. Dunque se ho bisogno di ulteriori pozzi rispetto alla concessione data, posso farlo. E’ un decreto che contraddice la ratio del divieto stabilito da Monti”.

Stupido è chi lo stupido fa” (Forrest Gump). Speriamo che regioni e associazioni ambientaliste ricorrano contro questo decreto. Come chimici abbiamo già detto cosa pensiamo: le risorse fossili sono inquinanti, climalteranti e finite, occorre cambiare strada nella produzione e nell’uso dell’energia, rivolgendosi alle varie forme di rinnovabile e costruendo una adeguata infrastruttura di supporto e stoccaggio. Altro che trivelle!

La diversa presenza di Primo Levi

In evidenza

Mauro Icardi

Il prossimo 11 Aprile ricorrerà il trentesimo anniversario della morte di Primo Levi. E sul web, sui giornali già si possono leggere molti articoli che ne ricordano la figura di uomo, di reduce dell’olocausto, di scrittore. Non ultimo di chimico. Il salone del libro di Torino ne ricorderà l’opera e la figura, e nel 2017 è stata pubblicata la nuova edizione ampliata delle Opere Complete in due volumi, che sarà completato da un terzo volume che raccoglie le interviste che Levi rilasciò. Il festival della scienza e dell’innovazione di Settimo Torinese che si terrà dal 15 al 22 Ottobre prossimi sarà dedicato a Levi e alla chimica.

Nel mare magnum di cose che si scriveranno mi sentivo di voler fare un piccolo omaggio. Partendo da una considerazione fatta da Ernesto Ferrero, cioè che non sono trascorsi trent’anni dall’assenza di Levi, ma bensì dalla sua “diversa presenza”. E trovo che davvero questa frase sia la descrizione più vera. Mai come oggi, e costantemente da quel 11 Aprile del 1987 la parabola di Levi è cresciuta, rivelando un tesoro inestimabile di opere, di scritti che dovrebbero di fatto trasferire la sua opera nel novero degli autori che sono i capisaldi delle antologie scolastiche. Cosa che ai tempi in cui ho studiato io non era poi così evidente e chiara. Levi si mescolava e confondeva con altri autori del memorialismo della deportazione e dell’olocausto.

La notizia della sua morte mi giunse inaspettata. Ma credo non soltanto a me. Levi era ormai scrittore a tutti gli effetti fin dal 1975, anno del suo pensionamento dalla carica di direttore tecnico della Siva. L’avevo conosciuto leggendo per primo “Il sistema periodico” verso la fine degli anni 70, quando il libro era già uscito da circa quattro anni. Un libro che mi aveva decisamente rapito e affascinato.

Vi erano certamente nel libro riferimenti al tragico periodo storico che Levi andava vivendo, in particolare le leggi razziali e la cattura da parte dei nazifascisti. Ma il libro mi affascinava per le descrizioni del laboratorio, delle esperienze che lo scrittore faceva. Del racconto “Ferro” dedicato alla figura di Sandro Delmastro mi appassionava la parte dedicata all’analisi qualitativa sistematica, purtroppo ormai cancellata dai programmi scolastici negli Istituti Tecnici.

Levi collaborava con il quotidiano “La stampa” ed il mensile “Airone” e quindi leggevo i suoi articoli con moltissimo interesse. Uno in particolare lo trovai davvero inusuale e moderno: “Il gabbiano di Chivasso” una intervista immaginaria con un gabbiano ormai dedito a frugare nelle discariche, piuttosto che a scrutare il mare per procurarsi il pesce, pubblicata sul numero di Marzo 1987 nella rubrica “Zoo immaginario- Le storie naturali di Primo Levi”. In quel periodo molte riviste scientifiche o ambientalistiche trattavano dell’argomento della sempre più frequente inurbazione di animali selvatici, dalle volpi fino appunto ai gabbiani.

Soltanto un mese dopo Levi diventò “diversamente presente”. Io non abitavo più a Settimo Torinese ed ero andato a lavorare da due mesi in una azienda che faceva vernici nelle vicinanze di Varese. Un trasferimento tutto sommato anomalo tra Piemonte e Lombardia, visto che i nati a Torino sono definiti dispregiativamente “bogia nen” che per i non Torinesi significa una tendenza negativa all’immobilismo. Per me significava uscire dalla famiglia e crearmene una mia. Levi relativamente al suo trasferimento a Milano dice che “E’ cosa risaputa che i Torinesi trapiantati a Milano non vi allignano o vi allignano male”. Non è sempre così, ma è vero che certi tratti caratteriali dei Torinesi siano molto simili, e che il legame con la città sia sempre particolarmente forte.

Ricordo perfettamente che il proprietario mi chiese se “conoscessi il Dottor Levi” visto che nativo di Torino, provenivo proprio da Settimo Torinese. Lui lo aveva conosciuto, ed era logico visto il comune mestiere di fabbricanti di vernici, sia pure destinate ad usi diversi. Per i fili elettrici quelle prodotte a Settimo Torinese, per il legno quelle prodotte a Mornago. La domanda mi colse di sorpresa, ma dovetti ovviamente dire di no.

Non ho mai avuto questa possibilità. Levi teneva molte lezioni nelle scuole per parlare dell’esperienza del Lager ma non venne, o non fu mai invitato in quelle che ho frequentato.

Durante un ritorno a casa dei miei appresi dal notiziario radio la notizia della sua morte. Inaspettata, improvvisa. Strana e con un certo alone di mistero. Quasi una maledizione che sembrava accumunarlo a Cesare Pavese. Sul sito del centro internazionale di studi a conclusione della biografia si legge “Muore suicida nella sua casa di Torino”.

Evitai di leggere articoli che indagassero troppo sulle ragioni del suo gesto, qualunque potessero essere. Mi colpirono due cose: la prima era un mio ricordo personale. Quando ero ragazzo, all’incirca negli anni tra la fine delle elementari e le medie spesso arrivavo in bicicletta fino al cancello della Siva. La ragione era semplice. La fabbrica era situata alla periferia di Settimo, ed io partivo da casa giurando di restare intorno all’isolato, invece mi spingevo ad esplorare la zona industriale. Ho il ricordo della colonna di cui parla Levi nel capitolo “Clausura” de “La chiave a stella”, che rivedevo anche ogni volta che ritornavo dai miei in automobile anni dopo. Ma da bambino mi affascinava come ogni altra cosa che non si conosce. Quando la curiosità è irrefrenabile, e si cerca di capire a cosa serva una colonna che si studierà più avanti. Una colonna di distillazione.

Ora la Siva è stata ristrutturata e diventerà un museo della memoria. Settimo Torinese si è candidata per diventare la capitale italiana della cultura 2018. Nella trasformazione di quella che era una città dormitorio, una delle tante anonime della cintura torinese, la presenza di Levi ha avuto un suo ruolo. Anche per questo da ex settimese non posso che esserne lieto.

La seconda cosa che mi colpì fu che di Levi io avevo letto molto, ma non avevo fino mai letto i suoi due primi libri. Recuperai presto acquistando l’edizione in un unico volume di “Se questo è un uomo” e “La tregua” completa dell’appendice scritta per l’edizione scolastica scritta nel 1976. L’appendice tenta di dare conto delle principali domande che a Levi venivano poste relativamente alla sua esperienza di deportato nei lager nazisti.

Leggere se questo è un uomo fu una seconda scoperta. Colposamente tardiva, ma che mi riempì di una stupore pieno di rispetto. Mi colpì la serena dignità dello stile letterario usato per narrare di quella esperienza. Un libro che parla di una delle più grandi tragedie della storia, senza alzare i toni, ma con la consapevolezza che occorre essere testimoni. Pacati ma inflessibili. Non giudici, ma testimoni.

La diversa presenza dello scrittore mi salta agli occhi ogni volta che nella sezione della mia libreria dedicata alle sue opere trovo libri dove nelle note biografiche la data della sua morte non compare, perché acquistati da me antecedentemente.

E allo steso modo la percepisco quando vedo che la sua figura e la sua opera sono attuali.

Indispensabili sia per il valore della testimonianza, che per quello della divulgazione della chimica.

E’ una diversa presenza costante nel tempo.

Nota: tra le tante iniziative io consiglio il riascolto di Io sono un centauro. Vita e opere di Primo Levi

di Marco Belpoliti

a cura di Monica D’Onofrio

(In onda su Radio3 Suite, aprile 2007)

Questo il link

http://www.radio3.rai.it/dl/radio3/ContentItem-9f787d6e-bb78-4a1e-8386-fa901c91a588.html

 

Musei, scienza e mediazione culturale.

In evidenza

Luigi Campanella

Negli ultimi decenni si è andato consolidando nelle amministrazioni pubbliche e in particolare nelle istituzioni culturali il riconoscimento della centralità dell’utente, con significativi cambiamenti di prospettiva nella progettazione e nella gestione delle attività e dei servizi.

L’esigenza di interpretare le aspettative del pubblico (o meglio dei pubblici) e di verificarne poi il gradimento è oggi maggiormente avvertita dai responsabili e curatori dei musei, tradizionalmente impegnati più sul versante tecnico-scientifico della ricerca, della documentazione, dell’ordinamento e della conservazione delle collezioni che su quello della comunicazione e della divulgazione.

Lo sviluppo del turismo culturale, la democratizzazione della cultura hanno sollecitato un progressivo miglioramento dei servizi di orientamento e di accoglienza, il prolungamento degli orari di apertura dei musei, il confronto con esperienze straniere, mentre il restauro e l’adeguamento alle normative di sicurezza delle strutture che ospitano le collezioni storiche (realizzati grazie anche a finanziamenti speciali, dal FIO ai fondi europei) hanno costituito spesso un’occasione preziosa per ripensare allestimenti e percorsi, per creare nuovi spazi espositivi o di intrattenimento (dalle caffetterie, ai bookshop, ai laboratori didattici), per rimuovere le barriere architettoniche.

Il quadro che emerge dall’ultima indagine effettuata nel 2007 dall’Ufficio Studi del Ministero presso 158 musei statali, i cui risultati sono pubblicati nel volume Musei, pubblico, territorio. Verifica degli standard nei musei statali, edito da Gangemi, risulta quindi, almeno in parte, soddisfacente.

L’esame dei rapporti del museo con il pubblico effettivo e potenziale (realizzato attraverso l’autovalutazione degli stessi direttori d’istituto, che hanno compilato un questionario assai analitico, redatto sulla base delle linee guida e degli standard dell’Atto di indirizzo emanato con il DM 10 maggio 2001) ha interessato diversi aspetti: dall’accesso (raggiungibilità, segnaletica esterna, orari e giorni di apertura, accoglienza e confort) alle dotazioni e servizi essenziali (strumenti di comunicazione primaria, sussidi alla visita, servizi educativi, biblioteca/centro di documentazione/fototeca, servizi accessori), alle attività di valorizzazione, promozione e divulgazione, agli strumenti di analisi del pubblico e verifica del gradimento della visita.

Impossibile sintetizzare in poche battute i risultati, che nella pubblicazione sono illustrati anche con riferimento alle diverse tipologie di collezioni, dimensioni, aree geografiche di appartenenza.

Per fornire solo qualche elemento, si può affermare che appaiono soddisfacenti gli orari e la continuità dell’apertura, le dotazioni e i servizi essenziali dei musei: le didascalie sono assicurate per tutte le opere esposte nel 94% degli istituti che hanno partecipato all’indagine, pannelli illustrativi o schede mobili di sala sono presenti in 149 istituti su 158, guide brevi sono disponibili nel 75% dei musei, le visite guidate sono previste nell’84% dei casi esaminati, sia pure con modalità di erogazione non sempre ottimali.

Meno frequenti sono invece le audio guide (proposte solo nel 24% dei casi), le postazioni multimediali (presenti nel 18%), i cataloghi generali a stampa (disponibili solo nel 29% dei musei) e ancora carenti risultano in generale gli apparati in lingua straniera.

Ulteriori margini di miglioramento dovrebbero interessare gli strumenti di orientamento alla visita, la segnalazione dei percorsi e una chiara identificazione delle sale.

Viene inoltre riconfermata da questa indagine la vocazione didattico-educativa dei musei statali: l’86 % dei musei analizzati, attraverso la Soprintendenza di riferimento, dispone di un servizio educativo e l’80% ha dichiarato di stabilire rapporti strutturati con le scuole del territorio, anche se gli scarsi finanziamenti e il ridotto numero di personale dedicato limita di fatto il numero dei progetti realizzati e quindi l’ impatto delle iniziative sul territorio.

Negli ultimi anni è notevolmente aumentata la presenza dei musei statali su internet: il 79% dei musei risulta dotato di un sito web che fornisce almeno le informazioni essenziali sulle collezioni e i servizi.

Per quanto riguarda la valorizzazione, mentre si è rilevata un’ampia diffusione delle esposizioni temporanee (organizzate nel 2006 dal 73% dei musei), di conferenze ed altri eventi, sembrano ancora scarsamente praticate altre forme di promozione dell’immagine e delle iniziative (da realizzare attraverso rapporti costanti con i media, con gli organismi di promozione turistica, con gli albergatori, gli esercizi commerciali, etc.) e non sono sufficientemente sviluppate iniziative volte alla fidelizzazione del pubblico, forme di partenariato con altre istituzioni nazionali e internazionali per la realizzazione di progetti scientifici e divulgativi comuni.

Proprio queste linee si spera saranno maggiormente sviluppate in futuro, grazie anche all’impulso che verrà dalla nuova Direzione generale per la valorizzazione.

Un contributo sostanziale potrebbe anche venire dal riconoscimento da parte delle istituzioni della figura del mediatore culturale, capace per il museo di concepire nuovi modi per conoscerlo ed apprezzare le sue collezioni. Con il loro agire i mediatori culturali sottolineano la pertinenza sociale del museo e facilitano non solo l’accesso al suo patrimonio ma anche l’interazione con la sua cultura. Per raggiungere tale obiettivo, collaborano con i diversi settori del museo, ma anche con i colleghi che operano nelle reti pedagogiche, culturali, sociali ed economiche.

I loro compiti principali possono essere così descritti:

   * concepire, realizzare, coordinare, seguire e valutare le attività e la creazione di supporti per il pubblico attuale e potenziale: i progetti educativi e culturali elaborati devono allacciare il maggior numero di legami tra il museo e la popolazione;

   * partecipare alla concezione di esposizioni permanenti e temporanee, integrandovi le attività pensate per soddisfare le esigenze dei visitatori;

   * garantire l’accompagnamento dei visitatori e degli interlocutori nell’ambito dei progetti educativi e culturali legati alle collezioni come pure alle manifestazioni temporanee del museo;

   * creare supporti e materiali didattici per le diverse forme di mediazione culturale (mediazione-presenza, mediazione tecnologica, ecc.);

   * formare e dirigere i collaboratori che partecipano ai progetti di mediazione culturale o scientifica del museo;

   * curare le relazioni con i colleghi coinvolti nella mediazione culturale come pure con i vari tipi di pubblico;

   * informare il responsabile o la responsabile della mediazione culturale dei bisogni e delle attese del pubblico;

   * partecipare alla valutazione dei programmi e delle attività di mediazione culturale come pure agli studi sui diversi tipi di pubblico;

   * dare il proprio apporto alla ricerca e allo sviluppo nel campo della mediazione culturale e contribuire in tal modo alla diffusione dell’attività del museo;

   * tenersi aggiornati sulle ultime novità e tendenze che riguardano il proprio settore, accrescendo così le proprie competenze professionali.

I mediatori culturali sono dunque l’interfaccia fra popolazione e museo: da un lato contribuiscono alla democratizzazione dell’accesso alla cultura e ad un’educazione pluralistica, dall’altro valorizzano il museo all’interno di una comunità. In passato alcuni giornalisti illuminati (cito uno per tutti Foresta Martin) hanno svolto anche questa funzione attraverso i loro continui interventi e le loro pubblicazioni. Oggi le pagine della Scienza nei quotidiani sono meno presenti ed il patrimonio rappresentato dai giornalisti di competenza si è purtroppo impoverito.

Quest”ultima riflessione riguarda soprattutto i Musei Scientifici: il loro carattere prevalentemente storico e collezioniostico che ha prevalso dal Rinascimento all’Illuminismo oggi deve integrarsi con un ruolo formativo del Museo. L’utente non è più una lastra fotografica vergine: i mezzi telematici di informazione lo hanno già in qualche modo impresso per cui un approccio solo di documentazione  non basta, soprattutto se il Museo deve svolgere anche un ruolo formativo nella cultura scientifica. Se trasferiamo queste considerazioni ai Musei di Chimica c’è subito da rilevare che molti possono essere gli spunti guida: la dimensione delle apparecchiature, simbolicamente rappresentata da “Dall’armadiio alla Scatola”, l’evoluzione chimica dell’universo, la chimica nel corpo umano, la sensibilità analitica: dal macro al nano.

Materiali nanostrutturati con proprietà antiappannanti

In evidenza

Rinaldo Cervellati.

La nebbia è il fenomeno meteorologico per cui l’umidità dell’aria, a contatto con particelle solide o liquide (aerosol atmosferico) si condensa in microscopiche o submicroscopiche gocce di acqua liquida. A causa della diffusione della luce solare o artificiale la nebbia appare più o meno come un fitto alone opaco che riduce la visibilità fino anche a pochi metri, diventando così molto pericolosa. Il problema si complica perché la nebbia può ulteriormente condensare incontrando superfici come i parabrezza degli autoveicoli, compresi i vetri delle cabine degli aerei.

A questi inconvenienti si è tentato di ovviare rivestendo queste superfici con materiali trasparenti idrofobici, tuttavia anche l’utilizzo di materiali superidrofobici a struttura scabra si è rivelato insufficiente a evitare la condensazione delle goccioline più fini di nebbia che scivolano fra le scabrosità, accumulandosi in gocce più grandi fino a formare rivoli d’acqua.

Nella grande classe degli artropodi si posso individuare particolari tessuti dotati di proprietà essenziali per la loro sopravvivenza. Gli occhi antiriflesso delle zanzare e le ali impermeabili e autopulenti delle cicale ne sono un esempio (Fig. 1).

 

Guidati da questi esempi naturali, il gruppo di ricercatori guidati dal Prof. David Quéré di ESPCI (École supérieure de physique et de chimie industrielles, Parigi) ha recentemente intrapreso una ricerca sistematica per la progettazione di superfici idrofobiche nanostruttrate che superano il problema dell’appannamento.

La ricerca, riportata da c&en newsletter del 13 marzo, è pubblicata on line su Nature Materials:

  1. Mouterde et al., Antifogging abilities of model nanotextures, Nat. Mat., 2017 DOI: 10.1038/nmat4868

Poiché l’idrorepellenza dipende da dimensioni e forma delle scabrosità della superficie, i ricercatori hanno usato una tecnica laser per realizzare modelli nanostruttrati di forma e dimensioni diverse in base alle condizioni di esperienza. Sono state realizzate matrici con strutture a cilindri, piloni, coni e vari altri tipi di nanoprotuberanze. Anche la disposizione delle protuberanze è stata presa in esame, a reticolo quadrato, romboidale. Le matrici sono film sottili del copolimero polistirene-poli metil metacrilato, il tutto rivestito infine con i gruppi idrofobici di clorosilano fluorurati. Per dare un’idea delle dimensioni di una struttura a nanoconi, l’altezza dei coni è 115 nm e la distanza fra essi è 52 nm (Fig. 3 sinistra).

Il gruppo di ricerca ha poi sottoposto questi modelli a esperimenti in atmosfera che riproduce in modo realistico la formazione di rugiada. Queste condizioni sono state mantenute costanti per 45 minuti scattando una foto ogni 2 secondi al microscopio inverso. L’analisi statistica dei risultati ha mostrato che dimensioni e forma sono determinanti per l’insorgenza dell’idrorepellenza. Tuttavia la performance largamente migliore è stata realizzata dalla matrice a nanoconi. Infatti la loro forma e impacchettamento fanno si che gocce che arrivano fra le basi dei coni vengono talmente strette da generare una pressione che le fa schizzare via (Fig. 3 destra).

Notare che le strutture a cilindro e nanoconi riproducono quelle degli occhi di zanzara e delle ali di cicala rispettivamente.

Gli autori dicono comunque che l‘ottima prestazione dei nanoconi deve essere ulteriormente studiata esplorando forme intermedie fra cilindri e coni (effetto forma) e la densità dei coni (effetto dimensioni). D’altro canto l’eiezione delle gocce all’esterno della matrice pone interessanti problemi di fluidodinamica.

Certamente il tasso di espulsione di gocce d’acqua di dimensioni inferiori anche a 2μm riscontrati in questo lavoro è talmente più grande di quanto osservato in precedenza, ciò potrebbe già aiutare gli ingegneri a progettare più efficienti parabrezza antiappannamento, specchi, e celle solari.

Aggirare l’indeterminazione?

In evidenza

Claudio Della Volpe

La Meccanica Quantistica (MQ) è una concezione delle cose radicalmente diversa dalla meccanica classica e basata su una matematica più sofisticata e complessa; proprio per questo motivo sia gli addetti ai lavori che il grande pubblico fanno fatica a capirsi e la divulgazione ne soffre moltissimo.

Un buon esempio di questo problema viene da una recente scoperta effettuata in terra spagnola ma ad opera di un gruppo internazionale di scienziati diretto da Morgan W. Mitchell e pubblicata su Nature in un articolo il cui primo nome è quello di un giovane italiano Giorgio Colangelo.

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

La maggior parte dei giornali divulgativi che hanno riportato la scoperta si sono lanciati in titoli del tutto fuori luogo:

Scientists evade the Heisenberg uncertainty principle

oppure

The study reports a technique to bypass the Heisenberg uncertainty principle.

Ma se uno legge con attenzione non c’è nessuna evasione o aggiramento.

Anche il giornale dell’INAF che ha intervistato l’autore italiano, l’abruzzese Giorgio Colangelo scrive:

Indeterminazione, scacco ad Heisenberg

Il più celebre principio della meccanica quantistica è stato aggirato grazie a uno stratagemma, messo a punto all’Icfo di Barcellona

Le cose sono più complesse e dunque più difficili da esprimere; l’intervista successiva è a questo proposito più chiara, ma anche l’autore si lancia in una spiegazione tutto sommato al limite del rigore e che lascia un pò di ….incertezza.

D. Colangelo, partiamo dall’inizio, da quel principio che Werner Karl Heisenberg enunciò 90 anni fa, nel 1927, e che ora voi state sfidando. Cosa dice esattamente?

R.«Il principio di indeterminazione di Heisenberg correla due quantità per descrivere completamente un sistema fisico. Questo vale per posizione e velocità di un atomo ma anche per l’ampiezza e la fase di un segnale. Al conoscere precisamente una di queste due l’altra diventa indeterminata, per cui resta impossibile descrivere completamente il nostro sistema. Tuttavia altri sistemi fisici, come per esempio lo spin di un atomo, non vengono descritti da due, bensì da tre quantità, come per esempio le tre direzioni spaziali su cui può orientarsi lo spin».

D.Questi sistemi a tre quantità non sono soggetti anch’essi al principio d’indeterminazione?

R.«Questi sono descritti da una relazione d’indeterminazione un po’ più generale che correla le tre quantità dello spin: la relazione d’indeterminazione di Robertson-Schrödinger. Anche in questo caso risulta comunque impossibile conoscere esattamente tutto del sistema, cioè le tre orientazioni dello spin, tuttavia se ne possono conoscere quasi precisamente due. E quelle due sono sufficienti per conoscere l’ampiezza e la fase di un segnale rivelato dagli atomi con estrema precisione, che è quello a cui effettivamente siamo interessati».

D. Geniale: ne “sacrificate” una per salvare le due che vi servono. E siete stati voi i primi a pensarci?

R.«Probabilmente per un teorico questo fatto era già noto, perché è una conseguenza semplice della teoria. Ma spesso le idee semplici sono anche quelle che possono essere applicate ai sistemi più diversi. Il nostro merito è che noi siamo stati i primi ad accorgerci che da questa conseguenza si poteva derivare un protocollo sperimentale semplice da utilizzare nella pratica. E abbiamo dimostrato, con un esperimento, che se ne poteva ottenere un vantaggio metrologico significativo rispetto a quello che è fatto fino a ora, tanto da poter migliorare gli attuali strumenti».

 

«Il nostro esperimento ha dimostrato che, effettivamente, l’uso di spin atomici in opportune configurazioni rispetto al campo magnetico permette di misurare ampiezza e fase dello spin con precisione oltre i limiti classici.

Si può tentare di fare meglio senza avere la certezza di riuscirci? Ci provo e potrei non riuscirci.

Cominciamo col ricordare di cosa parliamo.

In MQ le grandezze fisiche sono rappresentate da operatori, ossia operazioni analitiche condotte su funzioni, le funzioni d’onda; poniamo di avere a che fare con le due operazioni prodotto e derivata applicate entrambe ad una funzione d’onda e sia questa funzione indicata da ψ(x).

Se applichiamo due operatori uno dopo l’altro alla funzione l’ordine di applicazione non è indifferente; poniamo di applicare prima il prodotto e poi la derivata o prima la derivata e poi il prodotto avremo:

Come si vede i due risultati non sono uguali e dunque la loro differenza non è nulla; tale differenza viene definita commutatore e si dice che il commutatore fra i due operatori non è nullo e che i due operatori non commutano.

Se questo avviene le due grandezze corrispondenti ai due operatori sono dette incompatibili; di più se la differenza fra le due operazioni è pari a ossia all’unità immaginaria per il quanto di Planck diviso 2 pigreco le due grandezze si dicono canonicamente coniugate.

Il famosissimo principio di indeterminazione di Heisenberg che proclama la non conoscibilità contemporanea delle quantità fisiche con precisione assoluta si riferisce proprio a grandezze o variabili incompatibili e coniugate, non a qualunque coppia (o tripletta) di grandezze o variabili.

Già in passato la comprensione del principio di indeterminazione ha portato a problemi; per esempio Condon nel 1929 credette di aver trovato una violazione del principio nel caso dei momenti angolari dell’atomo di idrogeno, ma le grandezze a cui faceva riferimento sono incompatibili ma non coniugate e dunque il principio di indeterminazione non si applicava.

U. Condon, Remarks on uncertainty principles, in Science, nº 69, 1929, pp. 573-574.

Alle variabili che non siano coniugate ma solo incompatibili si applica una diversa relazione detta relazione di indeterminazione di Robertson- Schroedinger. Mentre Schroedinger lo conoscete sicuramente , non molti si ricorderanno di Howard Percy Robertson un fisico matematico che diede punti anche ad Einstein, perchè fece da referee ad un suo lavoro e lo rifiutò, costringendo a cambiarne le conclusioni; Einstein non visse bene la cosa, ma la Fisica e noi tutti ne abbiamo avuto giovamento.

Questa però è un’altra storia che potete trovare qui:

Einstein Versus the Physical Review Daniel Kennefick

Physics Today 58, 9, 43 (2005); doi: 10.1063/1.2117822 View online: http://dx.doi.org/10.1063/1.2117822

In conclusione alle grandezze misurate dal gruppo di ricercatori guidato da Mitchell si applica la relazione di Robertson e non quella di Heisenberg e dunque non c’è alcun aggiramento. Ma cosa dice la relazione di Robertson?

La relazione dice che il prodotto delle due deviazioni standard riferite a due grandezze incompatibili deve essere superiore alla metà del valore medio del commutatore applicato ad una certa funzione; in definitiva mentre Heisenberg si applica nel caso di misure delle osservabili sullo stesso sistema la disuguaglianza di Robertson fa riferimento alla distribuzione dei valori (con deviazioni standard σA e σB ) delle osservabili A e B in un insieme statistico di sistemi quantistici identici. Le due condizioni sono alquanto diverse e dunque lo sono anche le rispettive “violazioni”. Tutto qua spero di non aver detto sciocchezze. Correggetemi.

Per saperne di più:

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell