Le “seccature” di Seveso e Manfredonia: una riflessione.

In evidenza

Claudio Della Volpe

Nel 1976 mi sono laureato e dunque quell’anno me lo ricordo positivamente; finalmente avevo concluso un iter di studio e di crescita anche umana che mi hanno reso quel che sono, un chimico che è impegnato sulla barricata di un ambiente sostenibile e di una scienza democratica.

Mi ero iscritto nel 1968 e sarebbe stato impossibile per chiunque in quegli anni bollenti rimanere alla finestra mentre il mondo intero scendeva in piazza chiedendo una società nuova e rendendosi conto che, in fondo, era possibile.

I sogni e gli stimoli di quel tempo hanno fatto i conti con la realtà quotidiana, ma non sono mai morti.

Anzi non moriranno mai.

Per me che ero il primo della mia famiglia a laurearmi, ma credo per chiunque, Napoli era allora un crocevia di cultura e di innovazione; dove si seguivano le lezioni di Paolo Corradini, le conferenze di Liguori, di Prigogine, o di Enzo Tiezzi, dove ti prendevi il caffè discutendo (e non solo) di politica con Ennio Galzenati e Emilio Del Giudice, ti laureavi con Guido Barone, la sera passavi da Vittorio Elia o da Pina Castronuovo; gli studenti indicati come esempio si chiamavano Francesco Lely, il giorno della laurea avevi come compagno di prova Enzo Barone.

Insomma la chimica e la scienza napoletane non avevano nulla da invidiare a nessuno e costituivano un perenne stimolo culturale e scientifico.

Proprio in quell’anno di grazia 1976 ci furono due episodi che segnarono il clima dell’ambientalismo, della chimica, della scienza e che determinarono poi per anni a venire l’idea di chimica e di scienza del grande pubblico e vorrei ricordarli brevemente con voi: uno lo conoscete certamente, Seveso, l’altro di pochissimo successivo, forse non lo ricordate, ma è egualmente importante, Manfredonia.

Seveso è stato analizzato ripetutamente e magistralmente sulle pagine di C&I; ricordo qui brevemente due articoli che vi consiglio di leggere a questo riguardo e che sono scaricabili liberamente; uno di Ferruccio Trifirò che trae le lezioni tecniche dell’evento e l’altro di Jorg Sambeth, direttore tecnico della Givaudan-Roche che scrisse anche un libro sui retroscena di quell’evento, “Zwischenfall in Seveso”, purtroppo mai tradotto dal tedesco; nell’articolo Sambeth trae le lezioni strategiche da Seveso le stesse che ha esposto più ampiamente nel libro. Zwischenfall significa si incidente, ma nel senso proprio di contrattempo, seccatura, inconveniente che ti fa perdere tempo.

Ma anche per chi non conosce il tedesco e non può leggere il testo c’è una intervista rivelatrice in italiano che trovate qui.

Dottor Sambeth, perché ha preso la decisione di raccontare l’incidente con un libro.
«Innanzitutto – spiega – per ragioni personali: io ho voluto tirare fuori tutto dalla mia coscienza, come in un confessionale. L’incidente ha coinvolto tanta gente che ha sofferto. In secondo luogo, volevo dire alla mia famiglia e ai miei amici che cosa realmente è accaduto. C’è una terza ragione: raccontare alla gente, e soprattutto ai giovani, in che situazione mi ero trovato e che cosa non bisogna fare. Infine – sorride – c’è un quarto motivo: ho sempre voluto scrivere un libro. Avevo bisogno di una trama, e qual è una trama migliore di quella di Seveso?»

Quando visitò per la prima volta lo stabilimento di Seveso.
«Nel giugno del 1970. Ed ebbi subito l’impressione che sullo stabilimento non era stato investito abbastanza. Il reattore per il triclorofenolo, quello che poi sarebbe scoppiato, era abbastanza moderno. Una macchina non elegante, ma non così mal messa come il resto dello stabilimento, che era un disastro».
Intanto, però, si produceva triclorofenolo.
«La produzione era in corso da tempo ma la Roche non aveva ancora fatto nessuna ricerca documentaria sui possibili rischi e sugli incidenti precedenti. L’intero progetto per la produzione di triclorofenolo era sbagliato, non appoggiava sulla ricerca. La Roche non mi aveva detto niente, non so se per negligenza, stupidità o presunzione». «Il reattore era pronto ad esplodere Tutti sapevano, ma decisero di tacere»

Il rischio che la produzione di triclorofenolo potesse portare alla sintesi di diossina era noto da tempo, ma alla Givaudan non c’era alcun piano. Questo ribadisce Jorge Sambeth, l’ex direttore tecnico della Givaudan
«Nel 1971 – spiega – fummo un mio collaboratore ed io a leggere su Nature dell’incidente in Inghilterra durante il quale venne prodotta diossina a una temperatura di circa 230 gradi. E subito mandai all’Icmesa una copia di quel testo, con una disposizione precisa: mai superare i 170°. Di quella lettera c’è anche copia, è stato uno dei miei documenti di difesa più importanti».
Come controllavate la temperatura del reattore di Seveso?
«Con un impianto esterno di raffreddamento ad acqua. O, al limite, immettendo nel reattore acqua fredda da una cisterna di 3 mila litri. Con l’acqua la reazione non poteva continuare. Era assolutamente normale che, talvolta, la temperatura si alzasse di qualche grado sopra i 170. Negli anni prima dell’incidente era successo due o tre volte, ma la situazione rimase sempre sotto assoluto controllo proprio grazie all’immissione di acqua».
Non c’erano tuttavia strumenti automatici di controllo della temperatura e della pressione.
«No, non erano previsti perché il personale era per tutto il tempo lì davanti a controllare il processo».
L’Italia, allora, era considerata in Svizzera come un paese da Terzo Mondo?
«Assolutamente sì. Se c’erano ispezioni, si poteva dire: stiamo facendo, stiamo facendo. L’anno prossimo, l’anno prossimo. Si ammodernavano tutti gli impianti del mondo, quello italiano no. Questo non lo voglio negare».

Nel bene e nel male anche se solo un morto (ma decine di casi di cloracne migliaia di abbattimenti di animali e centinaia di miliardi di lire di allora di danni e spese per eliminare il terreno contaminato) fu effettivamente provocato dall’incidente, Seveso ha segnato le leggi e le persone; se oggi abbiamo una legislazione ambientale EUROPEA come quella che abbiamo lo dobbiamo all’evento Seveso. REACH ne è una conseguenza logica. Alcuni di quei miliardi furono usati per mantenere verifiche su ambiente e persone, perchè (nonostante tutto il bene che se ne possa dire) le diossine sono uno dei 12 POPs, ossia gli inquinanti ambientali persistenti banditi o controllati a livello mondiale.

Ultimo (ma non ultimo come qualità ed efficacia) ricordo il numero speciale di Sapere dedicato a Seveso e alle sue lezioni:

Eppure; eppure come la Roche svizzera considerava la Lombardia del 1976 “terzo mondo”, c’era un mondo che l’industria chimica italiana considerava “terzo mondo”: il sud dell’Italia.

L’incidente di Seveso avvenne il 10 luglio 1976; io mi ero laureato due mesi prima; il giorno dopo la laurea con alcuni amici carissimi (Cesare Fournier, Eugenio Chiaravalle, Enzo Santagada e quella che sarebbe diventata mia moglie Rita Cosentino) tutti giovani chimici, ci recammo in Puglia a cercare lavoro; la Puglia era la terra della campagna saccarifera che iniziava proprio allora, ma era anche una delle regioni del Sud che più stava cercando di riscattarsi da una atavica povertà e costruire una industria moderna. Quella volta andò buca e la vulgata è che ci scappò il soprannome di uno di noi (“Lenin”) giusto durante le presentazioni; ciò mise in sospetto l’incaricato delle assunzioni e fummo fregati; ma forse è una cattiveria.

Dopo qualche mese, 29 settembre, avvenne proprio in Puglia a Manfredonia un incidente chimico gravissimo.

Sul tema è difficile trovare notizie certe e assodate; c’è un libro in italiano, ma praticamente introvabile se non in biblioteca: I fantasmi dell’Enichem, Giulio Di Luzio, Ed Baldini Castoldi Dalai, 2003. C’è una tesi di Francesco Tomaiuolo (2005), ma si può scaricare solo a pagamento (che poi siano a pagamento le tesi degli studenti italiani fatte in università italiane è veramente un mistero per me: chi incamera i soldi pagati per le consultazioni su siti privati? Bah); ci sono parecchi articoli giornalistici che si trovano pubblicamente.

Fra gli altri segnalo l’articolo pubblicato qualche anno (2002) dopo su C&I (non ho l’elenco articoli pubblicato fra 1976 e 2000 su C&I): http://www.soc.chim.it/sites/default/files/chimind/pdf/2002_2_10_ca.pdf autore Mario Ghezzi; tuttavia su questo articolo, certamente ben basato dal punto di vista chimico, avanzo delle perplessità sull’approccio sociale e della salute. Interessante notare come la data dell’incidente nell’articolo citata più e più volte sia sbagliata (1984, 1974, ma in realtà l’incidente avvenne nel 1976 e questa trascuratezza è essa stessa una informazione, testimonia di quell’atmosfera che Sambeth chiama in tedesco Zwischenfall, contrattempo, seccatura, incidenti-seccatura per i proprietari e gli industriali chimici e forse anche per alcuni chimici industriali).

Bruno Zevi in un articolo apparso su «L’Espresso» del 3 dicembre 1967 dal titolo L’ENI a Manfredonia: una ghigliottina per il Gargano scrisse che quella scelta industriale fu un “atto masochistico”.

L’impianto Enichem è stato costruito alla fine degli anni ’60 nel comune di Monte sant’Angelo, a 1 km da Manfredonia. L’Anic, Azienda Nazionale Idrogenazione Combustibili, è stata l’azienda petrolchimica dell’ENI che fino al 1983 ha gestito le produzioni petrolchimiche del gruppo fino a confluire nell’EniChem e successivamente nel 2000 essere trasformata in Syndial. La scelta del posto, il litorale nei pressi di una città che viveva di pesca e agricoltura (facente parte del bacino elettorale di un politico di maggioranza e dirigente dell’ENI) è stata criticata per i rischi ambientali;( http://atlanteitaliano.cdca.it/conflitto/petrolchimico-enichem-di-manfredonia)

Su quei 160 ettari affacciati direttamente sul mare sorsero nel giro di qualche anno gli impianti per la produzione di urea e ammoniaca dell’ANIC e per la produzione altamente tossica di caprolattame della SCD (Società Chimica Dauna). La produzione fu avviata nel 1971,( http://www2.issm.cnr.it/demetrapdf/boll_12_2006/Pagine da demetra_imp 12_tomaiuolo.pdf)

In effetti già il 15 luglio 1972 ci fu una violenta alluvione e l’impianto rimase senza corrente non avendo un impianto elettrogeno; questo fece correre il rischio di malfunzionamento o perfino di esplosione (come a Seveso interrompere bruscamente una reazione chimica non è consigliabile); la commissione ministeriale formata dopo l’alluvione sottolineò che l’impianto era in una zona a rischio idrogeologico.

Comunque il ricatto lavoro-salute-ambiente è vecchio e forte. La fabbrica rimase dov’era.

Interessante notare quanto scrive Ghezzi sull’aspetto tecnico della fabbrica, che in certo senso ricorda le frasi di Sambeth su Seveso:

“l’ing. Gianmarco, veneziano e direttore della fabbrica Vetrocoke Azotati di Marghera, installata dalla Fiat e ceduta a Montecatini nel 1962, sviluppò negli anni Cinquanta un processo di abbattimento di anidride carbonica che impiegava una soluzione contenente sali assorbenti-desorbenti, per reazioni successive, di arsenico, più tardi sostituito da vanadio. Purtroppo detto processo non ebbe molta fortuna, risultò di difficile messa a punto a Marghera e causò gravi perdite di arsenico nei canali industriali di Marghera, che sono state oggi accertate e sono in via di bonifica. Non si capisce pertanto per quali motivi Anic negli anni Sessanta abbia commesso l’errore di impiegare nel progetto ammoniaca di Manfredonia il processo Gianmarco, visto che il mercato offriva processi migliori per il recupero di anidride carbonica da impiegare nel vicino impianto urea e che il suo impianto di Ravenna utilizzava il vecchio e collaudato lavaggio ad acqua: si è trattato probabilmente di un tentativo di aggiornamento tecnologico andato a male.”

Io un’idea la avrei, suggerita dalla lettura di Sambeth: forse perchè era meno costoso? Forse perchè nessuno avrebbe nel Sud affamato di lavoro di quegli anni protestato o controllato pur di avere un impianto sia pur vecchio o malposizionato: lavoro, lavoro, lavoro! Non si può vivere di bellezza. (O forse si?)

Racconta Tomaiuolo:

Il 26 settembre del 1976, poco prima delle 10 del mattino, un boato scosse la città, sulla quale si abbatté subito dopo una nube tossica dalla quale cominciò a cadere una fanghiglia giallastra molto leggera, che nel quartiere Monticchio – il più vicino allo stabilimento – in breve coprì ogni cosa. I bambini presero a giocare con quella che credevano neve fuori stagione. Nello stabilimento – specificamente nell’impianto per la produzione di ammoniaca – era scoppiata la colonna di lavaggio dell’anidride carbonica sprigionando nell’atmosfera decine di tonnellate di arsenico. Per fortuna l’incidente avvenne di domenica, quando erano presenti solo una ventina di operai in fabbrica. Ma la fortuna divenne disgrazia allorché i dirigenti dello stabilimento decisero di minimizzare l’accaduto consentendo agli oltre 1800 lavoratori di entrare normalmente in fabbrica l’indomani mattina. Quegli operai vennero contaminati da massicce dosi di arsenico e tra loro molti vennero adibiti a spazzare il pericoloso veleno a mani nude. Gli intossicati furono centinaia. Nelle campagne vicine allo stabilimento si assistette alla morte di migliaia di animali da cortile e anche in città si verificarono numerosi casi di intossicazione. Dell’incidente, che seguiva di pochi mesi quello di Seveso, se ne occuparono presto i giornali nazionali ed esteri. Fu inviato l’esercito a presidiare le aree contaminate mentre negli ospedali si eseguivano accertamenti clinici sommari sulla popolazione e sugli operai. Intanto venne costituita una commissione tecnico-scientifica per il disinquinamento, che decise di sottoporre i terreni contaminati a lavaggio con ipoclorito di calce e solfato di ferro, per ottenere l’ossidazione e l’insolubilizzazione dell’arsenico, evitando così che percolasse nella falda e quindi in mare. Le operazioni durarono poche settimane. La Procura aprì un’inchiesta che non arrivò mai neanche alla fase dibattimentale, poiché all’epoca era ancora troppo difficile stabilire un nesso di causalità tra esposizione ad arsenico e malattie tumorali.

L’arsenico, entrato ormai nella catena alimentare della popolazione di Manfredonia, ricominciò a far parlare di sé solo alcuni decenni più tardi, quando l’Organizzazione Mondiale della Sanità, effettuando uno studio di mortalità sulla popolazione nel periodo 1980-87, rilevò eccessi di tumori dello stomaco, della prostata e della vescica tra i maschi e della laringe, della pleura nonché di mieloma multiplo tra le donne. Così Manfredonia fu dichiarata area ad alto rischio cancerogeno e venne chiesta l’istituzione di un osservatorio epidemiologico permanente.

Lo stabilimento venne chiuso nel 1993; interessante il retroscena raccontato sempre da Tomaiuolo:

un procedimento giudiziario avviato nel 1988 dal pretore di Otranto portò al sequestro di due navi che l’Enichem utilizzava per il trasporto dei sali sodici – rifiuti tossici derivanti dalla produzione di caprolattame – che avrebbe dovuto scaricare nel Mar Libico. Il sequestro avvenne perché si accertò che lo scarico veniva abusivamente effettuato nel canale d’Otranto, provocando morie continue di pesci e delfini. L’azienda così, non potendo più smaltire gli scarti di lavorazione del caprolattame, che ammontavano a 198.615 tonnellate annue, decise la chiusura dell’impianto. L’economicità di gestione dell’intero sito industriale venne così a ridursi drasticamente e, in seguito al blocco europeo degli aiuti di stato all’Enichem, la società chiuse nel 1993 anche gli impianti per la produzione di ammoniaca.

Ora Ghezzi ha scritto che l’incidente di Manfredonia “non provocò alcun decesso, salvo quello della fabbrica e del contiguo stabilimento della Daunia”; rimane difficile credere che una ricaduta di materiale contenente arsenico per varie tonnellate (almeno 10) su una popolosa zona abitata non abbia avuto conseguenze mortali.

E’ pur vero che l’articolo di Ghezzi non era solo nell’approccio minimizzante: nel 1982 la rivista italiana “Medicina del Lavoro” ha negato ogni effetto sanitario sui lavoratori, sostenendo la tesi che l’arsenico elevato dipendesse dall’assunzione alimentare di crostacei.

Varie osservazioni. Già 30 anni fa l’Agenzia internazionale per la ricerca sul cancro (IARC) ha valutato l’arsenico (As) e i composti arsenicali come cancerogeni per l’uomo e ha considerato nel 2004 la cancerogenicità certa dell’arsenico in acqua per uso umano

I livelli di arsenico rilevati nelle urine dei soggetti esposti a Manfredonia erano altissimi ben superiori a qualunque limite poi stabilito; attualmente (dopo il 2001) il limite dell’As nelle acque potabili è di 10ppb (10mg/litro o 10gamma/litro); era di 50 nel 1988; ora si consideri che nei lavoratori esposti dell’Enichem le analisi effettuate dalla Medicina del Lavoro di Bari rilevano concentrazioni di arsenico nelle urine degli operai comprese tra 2000 e 5000 gamma/litro, contro un limite di tollerabilità fissato in 100 gamma/litro e che all’ inizio del 1977, su proposta del prof. Ambrosi, viene innalzato prima a 300 e poi a 800 gamma/litro il limite di arsenico nelle urine degli operai oltre il quale scatta la messa a riposo (un pò come nel caso atrazina!!); non v’è dunque dubbio alcuno che i lavoratori esposti potessero essere soggetti all’azione tumorale dell’As; la stima dei morti per effetto diretto portata in giudizio fu di 17.

Il 4 marzo riprende la produzione di caprolattame, seguita da quella di fertilizzanti nell’autunno seguente, dopo la sostituzione della colonna esplosa. Il 60 % della produzione agricola e il 30 % di quella zootecnica viene distrutta. I braccianti hanno perso giornate lavorative, mentre il pesce del golfo per intere settimane è stato respinto dai mercati. Alcuni paesi europei hanno minacciato di non ritirare più glutammato monosodico prodotto dall’ Ajinomoto di Manfredonia, e uno di essi ha preteso che i carichi fossero accompagnati da certificati (M. Apollonio, Diecimila in corteo a Manfredonia. La Gazzetta del Mezzogiorno, 18 ottobre 1976)

Negli anni seguenti ci furono rinnovate proteste e anche un processo partito per iniziativa di un operaio, Nicola Lovecchio, poi morto di tumore, che si è chiuso solo nel 2011 senza condanna dell’Enichem. A Lovecchio è dedicato il libro di Di Luzio.

Nel 1995 il Dott. Maurizio Portaluri, radioncologo dell’ospedale San Giovanni Rotondo e attivista di Medicina Democratica, assieme all’ex operaio Nicola Lovecchio ha effettuato un’indagine epidemiologica dal basso, mostrando un eccesso di tumori per i lavoratori e denunciando venti anni di violazioni dei loro diritti. Ne è seguito un processo penale contro dodici persone in cui sono stati coinvolti centinaia di operai, numerose associazioni, il comitato di donne Bianca Lancia, il comune di Manfredonia (poi ritiratosi) e lo Stato Italiano. Durante il processo l’Enichem ha offerto soldi in cambio del ritiro delle parti civili. Il processo è finito nel 2011 con l’assoluzione totale dell’Enichem nonostante che anche le relazioni dell’ISS (Istituto Superiore di Sanità) e della stessa OMS (Organizzazione Mondiale della Sanità) riconoscessero nell’incidente del 1976 la causa dei tumori degli operai. Il comitato Bianca Lancia nel 1998 ha ottenuto una sentenza favorevole della Corte Europea dei Diritti dell’Uomo, ma solo per “danni morali” dovuti alla mancanza di trasparenza nella gestione della fabbrica. Non c’è stato alcun riconoscimento del disastro ambientale. Dallo stesso anno Manfredonia è Sito di Interesse Nazionale per le bonifiche (CDCA).

Alla fine la Corte di Cassazione ha decretato l’inammissibilità del ricorso presentato dalla Procura di Bari che invece riteneva i vari dirigenti ENICHEM e medici del lavoro responsabili.

A differenza di Seveso, Manfredonia è rimasta senza colpevoli.

Una cosa che noto di passaggio; i lavori di bonifica del sito abbandonato dalla Enichem sono adesso condotti dalla Syndial, filiazione dell’ENI; la domanda è chi paga i lavori di bonifica per le sporcizie immesse in ambiente da Enichem? Noi o loro?

Ci sono due versi di canzoni della mia gioventù che mi risuonano in questo momento nelle orecchie, una è quella del pugliese Domenico Modugno

Sole alla valle, sole alla collina,
per le campagne non c’è più nessuno.
Addio, addio amore, io vado via

amara terra mia, amara e bella.

E gli risponde quella di Paolo Pietrangeli che risuonava per le strade del 68:

“Che roba Contessa all’industria di Aldo
han fatto uno sciopero quei quattro ignoranti
volevano avere i salari aumentati
gridavano, pensi, di essere sfruttati
e quando è arrivata la polizia
quei quattro straccioni han gridato più forte
di sangue han sporcato il cortile e le porte
chissà quanto tempo ci vorrà per pulire.”

Open Science in Europa.

In evidenza

Luigi Campanella

Ho parlato di Open Science in varie occasioni,in particolare ricordo a tutti la Tavola Rotonda in sede SCI del luglio 2016 nella quale furono discussi tutti gli aspetti di quella che è divenuta un’esigenza,una richiesta,quasi un diritto:rendere disponibili i risultati delle ricerche sì da consentire anche alle comunità scientificamente più deboli di crescere.

Leggo in questi giorni con piacere che sull’argomento si è mossa anche la Commissione Europea. La Piattaforma per una Politica di Open Science (OSPP) è costituita da un Gruppo di 25 esperti di alto livello che rappresentano i vari stakeholders coinvolti, quindi università, Enti di Ricerca, accademie, associazioni culturali riconosciute, editori, biblioteche, piattaforme sulla Open Science.

L’obiettivo principale della OSPP è consigliare la Commissione Europea sullo sviluppo e l’implementazione della Open Science.Il gruppo si è riunito già 3 volte. Il primo incontro è stato meramente introduttivo, mentre i successivi 2 sono stati focalizzati su temi quali la Scienza per i Cittadini, la Rete Europea di Open Science, le Pubblicazioni ad accesso libero.

La prima linea guida che è venuta da OSPP ha riguardato Horizon 2020 chiedendo che tutti i lavori scientifici prodotti in tale ambito siano ad accesso libero, con sanzioni a carico degli inadempienti.

La seconda linea guida ha invece proposto la messa disposizione dei ricercatori che vogliano pubblicare ad accesso libero i propri lavori di un posto dove pubblicare dopo avere superato il vaglio dei referee. Questa opportunità ha un costo con il conseguente problema di chi se l’accolla.

Un punto importante discusso anche in un incontro della Piattaforma riguarda le differenze fra discipline scientifiche, umanistiche, economiche riguardo l’accettazione ed il supporto all’OPEN Science. Infine si è discusso di modelli imprenditoriali sostenibili, assolutamente necessari per evitare che la Open Science venga affidata al volontarismo.

si veda https://ec.europa.eu/research/openscience/index.cfm

 

Qualcuno può aiutarmi a spiegare un fenomeno?

In evidenza

Maurizio D’Auria*

Da qualche tempo sto cercando di ricostruire le vicende che hanno permesso la nascita e la sedimentazione nella cultura scientifica italiana degli studi in ambito fotochimico. In questo ambito per molto tempo si è pensato che lo scoppio della I Guerra Mondiale sia coinciso con un periodo di lungo oblio della disciplina. Questo convincimento si è probabilmente diffuso per il fatto che Ciamician a Bologna dopo il 1914 non pubblicherà più nulla in termini di ricerche sperimentali in ambito fotochimico, e che anche Paternò a Roma sostanzialmente fece la stessa cosa.

Abbiamo altrove cercato di dimostrare che questo non è stato proprio vero. Allievi di Ciamician e di Paternò continuarono a sviluppare la disciplina, talvolta ottenendo anche risultati molto interessanti. Maurizio Padoa a Bologna tentò, per esempio, nel 1911 di effettuare una sintesi asimmetrica utilizzando luce circolarmente polarizzata. La reazione studiata da Padoa (Gazz. Chim. Ital. 1911, 41(I),469) fu la bromurazione dell’acido angelico e, ovviamente, non ebbe successo. L’insuccesso era dovuto al fatto che la luce interveniva nel processo solo per generare l’atomo di bromo per scissione omolitica del bromo, ma poi non aveva nessun ruolo nella successiva addizione di bromo all’acido angelico.

acido angelico

Fin qui nulla di strano quindi. Qualche giorno fa mi imbatto, però, in un articolo che mi ha messo in difficoltà. Mario Betti , successore di Ciamician sulla cattedra di Chimica Generale dell’Università di Bologna, nel 1942, pubblica una nota sui Rendiconti dell’Accademia delle Scienze dell’Istituto di Bologna (vol IX, pp. 203-214). In questo articolo viene descritta l’addizione di cloro (quindi sostanzialmente la stessa reazione esaminata da Padoa) al doppio legame del propene in fase gassosa sotto l’azione di luce polarizzata. Il processo è formalmente identico a quello visto precedentemente e quindi non c’era ragioni di attendersi una qualche catalisi asimmetrica. Invece, Betti dichiara di trovare una certa asimmetria. Arriva a determinare valori di a fino a 0.22. Se consideriamo che il (-)-1,2-dicloropropano liquido mostra una rotazione ottica di -4.33, il risultato indica una relativamente buona (ottima per l’epoca) induzione asimmetrica.

propene

Ma come si spiega tutto ciò? qualcuno è in grado di spiegarmi come è possibile che in questo caso si osservi una reazione chirale mentre nel caso precedente no?

*http://cla.unibas.it/contents/instance3/files/document/1001004D’Auria.pdf

Un tema emergente: depuratori come bioraffinerie.

In evidenza

Mauro Icardi

Con una certa ricorrente periodicità si leggono sui giornali notizie che parlano in maniera molto generica del potenziale energetico della FORSU, ovverosia della frazione umida dei rifiuti solidi urbani, e più in generale dei reflui fognari. Ho seguito, a livello di esperienze in scala di laboratorio questo tipo di sperimentazioni, e posso dire che funzionano. Ma occorre fare immediatamente alcune considerazioni e sgombrare il campo da possibili obiezioni o fraintendimenti. Questo tipo di tecnica, cioè la codigestione di frazione umida dei rifiuti, o di diverse tipologie di residui di origine organica, di sottoprodotti di lavorazioni agroindustriali insieme ai fanghi originati dalla depurazione a fanghi attivi tradizionale, non è da confondersi con la produzione di biogas da biomasse eventualmente coltivate o importate esclusivamente a questo scopo.

Si tratta di una possibilità diversa. La digestione anaerobica è circondata troppo spesso dalla solita confusione che si fa quando si parla di questioni tecniche. I fanghi di risulta dei depuratori vengono mandati al trattamento di digestione anaerobica sostanzialmente per ridurne il potenziale di putrescibilità e per essere parzialmente igienizzati. La riduzione della percentuale di sostanza organica permette successivamente un trattamento più agevole dei fanghi destinati ad essere resi palabili e smaltibili con un trattamento di disidratazione meccanica.

La possibilità di trattare insieme ai fanghi la frazione umida dei rifiuti solidi aumenta considerevolmente la produzione di metano. Il principio della codigestione si adatta al trattamento anaerobico della FORSU; infatti, la combinazione di biomasse eterogenee permette di ottenere una matrice da digerire che risponda meglio alle caratteristiche chimico-fisiche desiderate. Ad esempio, una corretta ed attenta miscelazione di matrici differenti può aiutare a risolvere problemi relativi al pH e al corretto rapporto acidi volatili/alcalinità.

La codigestione è pratica standard in diversi paesi europei, quali Francia e Norvegia.

Le matrici attualmente più utilizzate nella codigestione sono gli effluenti zootecnici, gli scarti organici agroindustriali e le colture energetiche. Gli scarti organici da utilizzare come co-substrati provengono dalle più svariate fonti e possiedono quindi forti differenze nella composizione chimica e nella biodegradibiltà. Alcune sostanze (quali percolati, acque reflue, fanghi, oli, grassi e siero) sono facilmente degradabili mediante digestione anaerobica senza richiedere particolari pretrattamenti, mentre altre (scarti di macellazione e altre biomasse ad elevato tenore proteico) necessitano di essere fortemente diluite con il substrato base, in quanto possono formare metaboliti inibitori del processo (ad esempio l’ammoniaca). Una vasta gamma di matrici richiede step vari di pretrattamento quali, ad esempio, il rifiuto organico da raccolta differenziata, gli alimenti avanzati e/o scaduti, gli scarti mercatali, i residui agricoli e gli scarti di macellazione. La codigestione, se gestita correttamente, è una buona pratica per migliorare la gestione e le rese di un impianto di digestione anaerobica.

Le modifiche impiantistiche dei digestori esistenti potrebbero riguardare la realizzazione di agitatori interni al comparto di digestione, e nel caso del trattamento di frazioni organiche solide di trituratori e coclee per il caricamento dei reflui nel comparto di digestione.

Oltre a problemi di tipo impiantistico e di gestione di processo occorre anche citare problemi di carattere autorizzativo e burocratico. Che permettano di agevolare l’eventuale uso di residui che da rifiuti si trasformino in materie prime secondarie.

Un ultima considerazione. Mediamente la produzione specifica di biogas dai soli fanghi di depurazione desunta da dati di letteratura e sperimentali è di circa sui 10 m3/t. Quella della FORSU raggiunge i 140 m3/t.

La sinergia è quindi ampiamente auspicabile.

Questo filmato mostra una prova di infiammabilità eseguita insieme a studenti dell’Università di Varese durante una delle sperimentazioni lab scale di codigestione.

Una piccola dedica ed un ricordo di anni proficui sia professionalmente che umanamente. Una piccola dedica ai ragazzi che ho seguito con affetto e passione.

Fatta questa lunga premessa, in questi giorni ho notato che la pubblicità di una nota industria petrolifera parla di sperimentazioni volte ad ottenere “tramite lo studio della decomposizione anaerobica dei primi organismi viventi” lo sviluppo di un processo che permette “di ottenere un bio olio da impiegare direttamente come combustibile o da inviare successivamente ad un secondo stadio di raffinazione per ottenere biocarburante da usare nelle nostre automobili”.

Questa affermazione mi lascia sinceramente perplesso. Il tema dell’ottenimento di petrolio dai rifiuti ricorda la vicenda ormai nota della Petrol Dragon.

E’ noto che per convertire sostanza organica in idrocarburi si debba lavorare ad alte pressioni e temperature. Uno studio sperimentale per convertire alghe in biocarburante identifica i parametri di processo in una temperatura di 350°C e pressione di 3000 psi.

Questo il link dello studio.

http://www.smithsonianmag.com/innovation/scientists-turn-algae-into-crude-oil-in-less-than-an-hour-180948282/?no-ist

Questo processo convertirebbe dal 50 al 70% della mistura di acqua e alghe in “una specie di petrolio greggio in meno di un’ora” .

Da quel che si deduce fino ad ora lo studio è fermo alla fase di realizzazione in scala impianto pilota.

Allo stesso modo un processo che volesse ottenere combustibili liquidi utilizzando come materia prima la FORSU e che dovrebbe subire lo stesso tipo di trattamento, da adito a diverse perplessità, vista l’eterogeneità del materiale di partenza.

La FORSU che sappiamo essere facilmente gassificabile dovrebbe produrre biogas che si dovrebbe convertire in gas di sintesi, se la quantità di metano fosse sufficientemente elevata, e successivamente tramite reazioni quali quella di Fischer Trops in carburante sintetico. Probabilmente troppi passaggi. E visto il prezzo ancora relativamente basso del petrolio probabilmente anche antieconomico.

L’ossigeno molecolare nello spazio

In evidenza

Diego Tesauro

Mentre stiamo leggendo questa pagina web stiamo immettendo nei nostri polmoni dell’aria che contiene per quasi il 21% della sua composizione la molecola di ossigeno. La molecola di ossigeno è la seconda componente dell’atmosfera terrestre e riveste un ruolo fondamentale per le forme di vita superiori. Questo dato ci spinge a porre una domanda. La molecola di ossigeno è presente ugualmente nel sistema solare e poi in altri sistemi planetari o nel gas interstellare?

L’ossigeno è il terzo componente dell’universo dopo l’idrogeno ed elio. Si è formato a seguito di processi di fusione nucleare di elio nei nuclei delle giganti rosse, stelle nella loro fase evolutiva avanzata quando nel nucleo della stella si raggiungono temperature di centinaia di milioni di gradi. Questa osservazione e le nostre conoscenze chimiche, per cui due atomi di ossigeno per raggiungere uno stato energeticamente più basso mettono in compartecipazione i loro elettroni, ci dovrebbero far concludere che la molecola di ossigeno sia ubiquitaria nell’universo. E così pensavano anche gli astronomi fino ad una ventina di anni fa quando cominciarono ad indagare le nubi interstellare diffuse in tutti i domini dello spettro elettromagnetico alla ricerca dell’ossigeno molecolare mediante osservatori posti al di fuori dell’atmosfera terrestre (la quale ovviamente interferisce con simili ricerche). Sorprendermente fino al 2006 non si aveva traccia della molecola di ossigeno nelle nubi interstellari fredde a 10-50 K in quanto nei grani di polvere non si rilevava l’ossigeno molecolare solido, ma solo combinato ad altri elementi.

L’osservatorio svedese Odin che operava nel dominio delle onde radio a 118,75 GHz, ritrovò la molecola di ossigeno, dopo una lunga analisi degli spettri per rimuovere i rumori di fondo, a una distanza di circa 500 anni luce nella nebulosa rho Oph A nella costellazione dell’Ofiuco, un luogo dove sono in formazione stelle (1) . L’abbondanza di O2 era però mille volte inferiore a quanto atteso. Il secondo rilevamento avvenne nel 2011 quando Herschel un osservatorio dell’ESA nel dominio del lontano infrarosso a tre frequenze legate a transizioni rotazionali della molecola di ossigeno 487 GHz, 774 GHz, e 1121 GHz individuò la molecola nella famosissima nebulosa M42 della costellazione di Orione, che possiamo facilmente osservare a occhio nudo nel rapporto di un milionesimo rispetto all’idrogeno molecolare. Ma se la scoperta della molecola era un evento raro, l’ossigeno era ben presente come previsto ma era per la maggior parte combinato con l’idrogeno nella molecola d’acqua e nel radicale ossidrile o con il carbonio nel monossido di carbonio (2). L’ossigeno aderendo alle polveri presenti nelle nebulosa si genera solo a temperature superiori ai 100-150 K mediante interazione con la radiazione elettromagnetica che ne permette, attraverso ben conosciuti meccanismi, l’estrazione dall’acqua. Pertanto bisognava concludere che l’ossigeno molecolare non era così abbondante nell’universo, ma era presente in quantità cospicua sulla Terra soltanto a seguito di generazione biocatalitica. Si sarebbe potuto quindi riscontrare abbondantemente in presenza di fenomeni vitali ed essere quindi un marcatore della vita nell’osservazione degli oggetti celesti.

La scarsa presenza di ossigeno molecolare nelle nebulose di gas interstellare era confermato dalla mancata rilevazione nelle chiome e nelle code delle comete che rappresentano gli oggetti che meglio conservano le caratteristiche delle nebulose primordiali dalle quali si formano tutti gli oggetti stellari. Questa conclusione veniva smentita nel 2015 dalla sonda Rosetta che rilevava nella chioma della cometa 67P Churyumov-Gerasimenko oltre l’acqua, il monossido e il biossido di carbonio, per la prima volta una grande quantità di ossigeno molecolare mediante lo spettrometro di massa ROSINA-DFMS (3). A questo punto essendo l’ossigeno molecolare volatile da dove proveniva? L’analisi dei gas della chioma della cometa presentava un rapporto di O2/H2O nell’arco dei nove mesi di osservazione costante. Questa osservazione permetteva di escludere la diretta radiolisi o fotolisi in quanto la quantità di radiazione che investiva la cometa non era costante. Un’analisi isotopica consentiva di avanzare l’ipotesi, non essendo certamente presenti organismi che svolgevano funzioni catalitiche ossidative dell’acqua, che l’ossigeno fosse intrappolato all’interno nel nucleo che progressivamente andava sciogliendosi per effetto della radiazione solare. Quindi la nebulosa, dalla quale si era formato il sistema solare, doveva essere molto più calda di quanto si supponesse per giustificarne un’origine abiotica. Recentemente un modello studiato da un ingegnere dei materiali, pubblicato su Nature Communications, mette in discussione tale ipotesi fornendo prove della formazione della molecola di ossigeno da acqua ionizzata in presenza di silicati ed ossidi di ferro presenti sulla superficie della cometa secondo il meccanismo di reazione di Eley–Rideal (4). La reazione procede a seguito di estrazione di un atomo di ossigeno dalla superficie cometaria da parte di H2O+ generando uno stato eccitato che a seguito della dissociazione i due atomi di idrogeno produce O2

Pertanto l’ossigeno si verrebbe formando in loco avanzando quindi una nuova possibile spiegazione per la formazione della molecola in condizioni abiotiche diverse da quelle ipotizzate in precedenti studi che la confinavano ad fenomeni di fotolisi a temperature intorno a 150 K. Il dibattito è ovviamente ancora aperto ed lontano da una definitiva conclusione.

  • Larsson, B. et al. Molecular oxygen in the r Ophiuchi cloud. Astrophys. 466, 999–1003 (2007).
  • Goldsmith, P. F. et al. Herschel measurements of molecular oxygen in Orion . J. 737, 96 (2011).
  • Bieler, A. et al. Abundant molecular oxygen in the coma of comet 67P/Churyumov-Gerasimenko. Nature 526, 678–681 (2015).
  • Y Yao and K.P. Giapis Nature Commun. 8, article number 15298 (2017) doi 10/1038. .
  • La nebulosa rho Oph A (foto di Alex Mellinger).

Young Stars in the Rho Ophiuchi Cloud Credit: NASA JPL-Caltech, Harvard-Smithsonian CfA

 

M42 posa di 30 s , a 800 ISO ripreso con Celestron CG 11 dall’osservatorio di Capodimonte (foto UAN)

OSIRIS wide-angle camera image acquired on 22 November 2014 from a distance of 30 km from Comet 67P/C-G. The image resolution is 2.8 m/pixel. Credits: ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA

Recensione. Energia per l’astronave Terra. 3 ed.

In evidenza

Claudio Della Volpe

Energia per l’astronave Terra. Nicola Armaroli e Vincenzo Balzani. Terza edizione. Zanichelli maggio 2017 296 pag. 13.90euro

 

La prima cosa da dire su un testo che in 10 anni ha già visto un’altra riedizione e numerose ristampe è che è un testo di successo; e lo è a ragion veduta.

Scritto in modo leggibilissimo, semplice, ma nel contempo rigoroso, completo ed aggiornato; se analizzate con un minimo di sguardo critico le edizioni vedrete che si è passati dalle 217 pagine della prima alle quasi 300 della terza; il corredo delle citazioni e dei documenti è diventato amplissimo, il che presuppone un intenso lavoro di aggiornamento personale e professionale, ma anche una passione travolgente. Nel 2009 ha vinto il premio Galileo per la divulgazione scientifica.

Il titolo è rimasto immutato, ma il sottotitolo ha segnato quell’aggiornamento di prospettiva che gli autori giustificano pienamente nell’introduzione alla terza edizione.

Si è passati da un testo essenzialmente illustrativo della situazione ad un approfondimento delle prospettive italiane e infine con questa terza edizione a quelle mondiali; come giustamente dicono gli autori:

…”le cose cominciano a cambiare e a dirlo sono i numeri. Da qualche anno il contributo relativo dei combustibili fossili alla domanda energetica mondiale ha iniziato a diminuire…….Nel 2016 la potenza da eolico e fotovoltaico ha sfiorato 800GW, coprendo il 5% della domanda elettrica globale.”

Dunque la transizione è iniziata, “è un processo inevitabile e ormai irreversibile”.

Gli autori sono anche convinti di una cosa basilare che avevano già espresso altrove:

Per fissare la barra verso l’unico futuro possibile occorrono anche buon senso, sobrietà, collaborazione e responsabilità”.

In altri termini non è questione solo di tecnologia, ma di cambiamenti sociali per realizzare quell’era delle rinnovabili che fa da sottotitolo all’ultima edizione.

Il libro è diviso in 10 capitoli ed è arricchito da un paragrafo sulle fonti dei dati, da uno intitolato “15 miti da sfatare” e concluso da una serie di informazioni puntuali ma non così ben conosciute; infine c’è un indice analitico che potrebbe risultare utile in un uso didattico del testo.

1 edizione pag. 217 Agosto 2008

2 ediz. pag. 288 Ottobre 2011

 

 

 

Quali sono i punti principali?

La prima parte introduce il concetto di energia e fa una stima molto accurata della situazione attuale dei consumi e delle risorse, come dei limiti nella stima dei combustibili fossili.

Segue un capitolo dedicato all’analisi dei danni climatici ed ambientali dovuti a questo uso ed al fallimento mondiale ormai acclarato del settore nucleare.

Dal 6 capitolo si affronta il tema delle energie rinnovabili e delle loro caratteristiche e dei loro limiti mentre negli ultimi due si affronta invece il tema della transizione energetica e dei problemi tecnici e sociali che tale transizione pone sul tappeto.

Alcuni punti che mi hanno colpito e vi riporto qui alcune frasi chiave:

State leggendo un libro; chiudete gli occhi e rimanete immobili per qualche secondo. Forse, penserete, in queste condizioni non si consuma energia. Non è vero:…..”

 

“Quanti candidati mettono al primo punto dei loro programmi elettorali la creazione di piste ciclabili sicure? Sarebbe un investimento straordinario per la qualità della vita e le casse pubbliche (ma non per il PIL) : meno inquinamento, meno obesità, meno strade rotte, meno costi per il sistema sanitario nazionale”.

 

“La transizione energetica richiede un cambiamento parziale dei nostri stili di vita, ma questo non significa che vivremo peggio: semplicemente vivremo in modo diverso. I cambiamenti maggiori riguarderanno probabilmente l’alimentazione e il nostro modo di muoverci e di viaggiare. Per intenderci: meno carne, meno frutta fuori stagione e più trasporti pubblici.”

 

“A livello internazionale le disuguaglianze , le guerre per le risorse e i cambiamenti climtici stanno causando migrazioni epocali. La nostra è la prima generazione che si rende conto di questa situazione di crisi e quindi è anche la prima – qualcuno dice che potrebbe essere l’ultima- che può e deve cercare rimedi.”

 

“E sembra quasi che la Natura si diverta a far dipendere le tecnologie energetiche più avanzate da risorse poco abbondanti, in particolare metalli rari ……Occorre perciò un cambiamento radicale del paradigma economico e industriale: infatti i “rifiuti” devono diventare preziose “risorse secondarie”.

 

“…la transizione non può essere guidata soltanto dal mercato e dallo sviluppo tecnologico: servono anche scelte politiche illuminate e tecnicamente fondate, che stanno faticosamente iniziando a emergere.”

 

Ovviamente nessun libro è perfetto; tutto è perfezionabile, ma diciamo che dopo due update questo testo mantiene e migliora le proprie qualità: chiarezza, completezza, semplicità, difficile trovare di meglio.

Come altri libri questo è un testo che considero contemporaneamente scientifico e militante. Non vi sembri questo un ossimoro, una contraddizione.

Oggi la scienza è in campo: deve schierarsi, anche socialmente, se vuole mantenere la propria coerenza e la propria immagine di strumento di liberazione umana. Se le scienze naturali arrivano a conclusioni che sono conflittuali con alcuni dei più frequenti luoghi comuni della ideologia economica, se le scienze naturali falsificano le ideologie della crescita continua e del libero mercato, che farebbe ricchi tutti, le loro conclusioni acquistano un dirompente significato sociale.

E questo è uno dei più importanti risultati di questo libro.

Orbitali ibridi: vizi e virtù.

In evidenza

Rinaldo Cervellati.

Come fece notare P. Mirone, gli orbitali (cioè le soluzioni dell’equazione di Schrødinger per l’atomo di idrogeno) fecero la loro comparsa nei libri di testo di chimica generale agli inizi della seconda metà del secolo scorso per descrivere la struttura elettronica degli atomi e spiegare le strutture molecolari. Durante gli anni ’70 gli orbitali apparvero anche nei testi di chimica per le scuole secondarie superiori, dove il loro uso didattico divenne generalizzato alla fine del decennio. Nel corso di questo processo di volgarizzazione, il concetto essenzialmente quantomeccanico di orbitale ha subito almeno due diverse distorsioni, la sua descrizione come “regione di spazio dove è alta la probabilità di trovare l’elettrone” o espressioni simili, o come sinonimo di “nuvola di carica”. Inoltre la formazione di orbitali ibridi viene descritta nella maggioranza dei libri come se fosse un fenomeno fisico piuttosto che un artificio matematico [1]. Queste distorsioni sono in larga misura presenti anche oggi, come esempio si veda la Figura 1.

Figura 1

Sul significato di orbitale si rimanda alle citazioni [1], qui mi sembra più importante risalire all’origine e analizzare l’evoluzione del concetto di orbitali ibridi [2].

La consapevolezza che la disposizione degli elettroni di valenza in un atomo isolato può essere considerevolmente alterata dall’entrata in una combinazione chimica risale al lavoro di G. N. Lewis e il suo postulato dell’atomo cubico statico, di cui abbiamo parlato in un precedente post. Nel suo ormai classico lavoro del 1916 (di cui l’anno scorso è stato il centenario) sul legame a condivisione di una coppia di elettroni [3], Lewis riconobbe che la disposizione cubica di un ottetto di elettroni di valenza che aveva postulato per l’atomo isolato era incompatibile con i fatti noti di stereochimica (struttura tetraedrica del metano) e incapace di razionalizzare un’interpretazione elettronica del triplo legame in termini di tre coppie di elettroni condivisi.

Di conseguenza egli ipotizzò che al momento della formazione del legame gli elettroni dell’atomo cubico isolato vengono costretti in una disposizione tetraedrica a quattro elettroni appaiati, un processo illustrato mediante lo schema riportato in figura 2 [3, p. 779-780].

Figura 2

Problemi anche più gravi divennero evidenti con l’atomo di Bohr (1885-1962)- Sommerfeld (1868-1951) con i suoi elettroni in rapido movimento su orbite ellittiche monocentriche. Ad esempio nel 1922 il chimico britannico Alfred Steward[1], osservò [4]:

L’atomo di Bohr appare notevolmente sopravvalutato, in particolare da coloro che sembrano averlo accettato ciecamente senza applicare alcun esame critico. Sembra fallire nei tentativi fatti per interpretare l’atomo di elio e quelli di elementi più pesanti. Per quanto riguarda i problemi di chimica e radiochimica è abbastanza inutile. In realtà non ha la pretesa di offrire una spiegazione di nessuno dei problemi più comuni della chimica.

Anche Lewis fu estremamente critico verso l’atomo di Bohr, affermò infatti:

Quali che siano i suoi meriti in spettroscopia, i suoi elettroni in rapido movimento su orbite atomiche centro-simmetriche sembrano essere totalmente incompatibili con i fatti della stereochimica e, in particolare, con la nota disposizione tetraedrica dei legami del carbonio in migliaia di composti organici e con la stabilità di centinaia di isomeri molecolari.[2]

Appariva quindi ovvio che dovesse avvenire un qualche riassetto delle orbite atomiche nella formazione del legame; nel 1923 il chimico tedesco Ludwig Knorr[2] postulò, per il metano, la formazione di otto orbite ciascuna a due centri disposte tetraedricamente come mostrato in figura 3[5].

Figura 3. Ludwig Knorr e il metano

In modo simile sebbene meno esplicito, anche altri, fra cui lo stesso Lewis, cercarono di conciliare l’atomo dinamico “della fisica” con l’atomo statico “della chimica”. Scrive Lewis:

[per fare ciò occorre] postulare che è l’orbita nel suo complesso, e non l’elettrone in una sua qualche una posizione, a essere la pietra costitutiva della struttura atomica e molecolare [6]

Fra la fine del 1920 e primi ‘30 l’atomo “planetario” di Bohr-Sommerfeld venne rapidamente eclissato dalla meccanica ondulatoria di Schrödinger (1887-1961) con il concetto di orbitali atomici, e il punto di vista probabilistico derivante dal principio di indeterminazione. L’energia degli elettroni (autovalori) corrispondente alle soluzioni accettabili dell’equazione di Schrödinger (autofunzioni o orbitali) è la sola grandezza direttamente osservabile. Ma gli orientamenti delle funzioni orbitali associate ai livelli energetici permessi ponevano nei riguardi della struttura molecolare e della stereochimica gli stessi (se non maggiori) problemi delle precedenti orbite dell’atomo di Bohr-Sommerfeld.

Nella prima applicazione del 1927 della meccanica ondulatoria al legame chimico, i fisici Heitler (1904-1981) e London (1900-1954), ignorarono completamente questi problemi tanto che Heitler, ancora nel 1945, era abbastanza soddisfatto della rappresentazione di acqua e ammoniaca con angoli di legame di 90° derivanti dall’interazione degli orbitali s di H con gli orbitali p di O e di N. I valori sperimentalmente determinati (104° e 107° rispettivamente) venivano considerati come solo “leggermente più grandi” rispetto agli angoli di legame teorici di 90° (7).

Al contrario, il chimico americano, Linus Pauling (1901-1994) (figura 4), che aveva scrupolosamente studiato i lavori di Lewis sulla teoria del legame covalente per condivisione di una coppia di elettroni, riuscì a dotarla di aspetti quantomeccanici per tener conto dei fatti stereochimici. In una nota del 1928 scrisse:

Nel caso di alcuni elementi della prima riga [della Tavola Periodica] l’energia di interscambio dovuta alla formazione dei legami a coppie elettroniche condivise è grande abbastanza per cambiare la quantizzazione, distruggendo i due sottogusci con l = 0 e l = 1 del guscio L. Che ciò si verifichi o meno dipende in gran parte dalla separazione fra il livello s (l = 0) e il livello p (l = 1) dell’atomo in esame; questa separazione è molto più piccola per boro, carbonio e azoto rispetto all’ossigeno e al fluoro o ai loro ioni, e di conseguenza la quantizzazione può cambiare per i primi tre elementi, ma non per gli altri due. Il cambiamento della quantizzazione rende possibile i legami a coppia elettronica condivisa molto stabili nei composti del carbonio saturi e i doppi legami relativamente stabili del carbonio… Questa rottura della l-quantizzazione stabilizza anche strutture in cui solo tre coppie di elettroni sono legate a un atomo centrale, come nelle molecole contenenti un triplo legame, gli anioni carbonato, nitrato e borato, il gruppo carbossilico e composti simili. È stato inoltre trovato che, come risultato del fenomeno della risonanza, la disposizione tetraedrica dei quattro legami dell’atomo di carbonio è la configurazione stabile.[8]

In questa nota Pauling non fornisce ulteriori dettagli annunciando un prossimo lavoro più completo. Tuttavia fu solo nel 1931 che Pauling si decise a fornire i dettagli, anche in seguito alla pubblicazione da parte di un giovane fisico del MIT, John Slater[3], dell’articolo “Directed Valence in Polyatomic Molecules”. Per essere stato scritto da un fisico, l’articolo di Slater era comprensibile anche da un chimico particolarmente interessato come Pauling. Esso infatti non richiedeva conoscenze di matematica avanzata ed era riccamente illustrato con immagini di modelli di tipiche molecole e cristalli fatti con palline di sughero e filo di ferro [9].

Figura 4. John Slater e Linus Pauling

John Slater e Linus Pauling

Mentre Pauling aveva invocato la separazione energetica tra i vari orbitali atomici nella sua breve nota del 1928 come criterio fondamentale per stabilire se potevano o non potevano variare la quantizzazione, Slater utilizzò il criterio della massima sovrapposizione fra gli orbitali dei legandi e quelli dell’atomo centrale. Per i composti degli elementi dei gruppi dal 7 al 5 Slater assunse che tutti gli angoli di legame fossero di 90° formati dalla sovrapposizione fra orbitali dei legandi con gli orbitali p dell’atomo centrale. Solo per i composti degli elementi del gruppo 4, in cui la stereochimica tetraedrica non poteva essere ignorata, invocò la necessità di massimizzare la sovrapposizione degli orbitali creando un nuovo set di orbitali orientati tetraedricamente attraverso una combinazione lineare appropriata degli orbitali atomici s e p. Anche se l’articolo di Slater fu pubblicato nel numero di marzo 1931 della Physical Review, Pauling era probabilmente a conoscenza del suo lavoro già nell’aprile del 1930, quando Slater tenne una conferenza sullo stesso tema alla riunione della Physical Society a Washington. Questo spiegherebbe perché Pauling fu in grado di sottoporre un lungo e dettagliato articolo sullo stesso argomento al Journal of the American Chemical Society, nel febbraio del 1931, pubblicato un mese dopo l’articolo di Slater, in aprile [10]. A questa pubblicazione Pauling fece seguire una lettera alla Physical Review che richiamava l’attenzione alla sua pubblicazione [11]. Pauling confessò in seguito che il ritardo rispetto alla nota del 1928 fu dovuto alla sua incapacità di trovare un modo accettabile di semplificare le funzioni d’onda in modo da rendere la “quantizzazione tetraedrica” matematicamente trattabile. Il breve articolo di Slater gli aveva fornito la chiave mancante suggerendo che si sarebbe potuto ignorare la parte radiale della funzione d’onda concentrandosi solo sulla parte angolare [12].

L’articolo di Pauling, che divenne il primo della sua famosa serie La natura del legame chimico, era molto più dettagliato di quello di Slater e, a differenza di quest’ultimo, nei disegni dei nuovi orbitali erano compresi quelli per geometrie diverse da quella tetraedrica e per gli elementi del blocco d, così come pure per gli elementi del blocco principale. Come tale, esso non solo ha segnato l’affermazione della teoria del legame di valenza (VB)[4], ma resta la fonte primaria delle nostre concezioni su ibridazione degli orbitali e stereochimica. Va notato che i termini “ibridazione” e “orbitale ibrido” non furono utilizzati da entrambi gli autori nei loro primi lavori. Pauling parlava in generale di “riquantizzazione” e ad esempio di “quantizzazione trigonale” o “quantizzazione tetraedrica” riferendosi a una specifica “riquantizzazione”. Sembrerebbe che il primo a usare il termine “ibridazione” per descrivere il processo di “mescolazione” (matematica) di orbitali sia stato il fisico americano, John Van Vleck[5] in un articolo del 1933 [13][6]. Pauling a quanto pare, trovò il termine di Van Vleck più congeniale rispetto a riquantizzazione e così lo impiegò nelle varie edizioni della sua famosa monografia sulla natura del legame chimico. Inoltre, solo verso la fine del suo articolo del 1931 Pauling introdusse simboli come sp3 e dsp2 e a parlare in termini di autofunzioni di legame sp3 o d2sp3. Allo stesso modo, nel suo articolo del 1933, Van Vleck parla di valenze sp3 o funzioni d’onda sp3, ma non di orbitali ibridi sp3.

Figura 5 John H. Van Vleck

Attualmente gli apici in tali simboli vengono interpretati come pesi numerici del contributo di ogni orbitale atomico all’orbitale ibrido finale. Tuttavia, come originariamente inteso da Pauling, questi simboli erano una semplice estensione di quelli per le configurazioni elettroniche degli atomi, in cui gli apici rappresentavano il numero di elettroni che occupano quegli orbitali (o, più correttamente il numero di elettroni con energia associata a quelle funzioni d’onda) e starebbero a significare, ad esempio, che gli ibridi tetraedrici sono formati da una ipotetica non ibridizzata configurazione elettronica s1p3, gli ibridi trigonali da una ipotetica configurazione s1p2, ecc.

Tornando al discorso didattico iniziale, i testi di chimica di base sono inondati da immagini tipo quelle riportate in figura 6:

Figura 6 rappresentazioni pittoriche degli orbitali ibridi sp, sp2 e sp3

che possono far pensare a una realtà fisica degli orbitali ibridi se non sono accompagnate da una spiegazione chiara che esse rappresentano solo l’orientamento di opportune combinazioni lineari di funzioni matematiche costruite per descrivere strutture molecolari assegnate secondo dati sperimentalmente osservati, ma non sono la struttura molecolare. Invece, la grande fortuna di cui godette la teoria VB fra i chimici (e che ancora gode nei testi elementari) sta proprio nel suo carattere intuitivo manifestatosi in disegni suggestivi degli orbitali ibridi che facilmente vengono confusi con la struttura molecolare, v. ad esempio la figura 7 relativa al metano. Accanto a ciò va anche ricordata la notevole abilità di Pauling come comunicatore e divulgatore.

Figura 7

Infine, una curiosità storica. Né Pauling né Slater furono inizialmente disposti a considerare la possibilità che la teoria dell’ibridazione potesse applicarsi anche ai composti dell’azoto e dell’ossigeno ed erano soddisfatti, come Heitler, della previsione teorica di un angolo di legame di 90° per l’acqua. Eppure, dieci anni prima, Eustace Cuy, un allievo di Lewis a Berkeley, aveva pubblicato una breve nota in cui utilizzava il modello di atomo statico tetraedrico di Lewis (figura 1) per prevedere correttamente che l’acqua aveva una struttura -“identica a una molecola di metano mancante di due atomi di idrogeno”- in breve che l’angolo di legame nell’acqua è circa 104°, una previsione molto più accurata del valore 90° teoricamente previsto dalla sovrapposizione degli orbitali atomici s (dell’idrogeno) e p (dell’ossigeno). Allo stesso modo, durante gli anni ‘20 un altro chimico di Berkeley, Maurice Huggins, pubblicò una serie di articoli sulla razionalizzazione delle strutture dei cristalli in base all’atomo tetraedrico di Lewis fornendo previsioni molto più vicine ai dati sperimentali di quelle ottenute con le strutture a 90° assunte da Slater. La transizione dall’atomo cubico isolato di Lewis al suo atomo tetraedrico legato chimicamente sarebbe diventata la base nel 1960 di una ri-elaborazione delle teorie originali di Lewis da parte del chimico britannico, John Linnett [14], nota come teoria del doppio-quartetto. Questa teoria si sarebbe poi evoluta nell’approccio alla previsione delle geometrie molecolari noto come teoria della repulsione fra coppie di elettroni nello stato di valenza o teoria VSEPR (Valence-Shell Electron-Pair Repulsion) [15].

[1] P. Mirone, Mezzo secolo di orbitali nell’insegnamento della chimica, Atti del X Convegno si Storia e Fondamenti della Chimica, 2003, p. 473-481, v. anche P. Mirone, Che cos’è un orbitale? CnS-La Chimica nella Scuola, 1980, 2, 8-15; R. Cervellati, D. Perugini, The Understanding of the Atomic Orbital Concept by Italian High School Students, J. Chem Educ., 1981, 58, 568-9.

[2] W.B. Jensen, The Origin of the Hybrid Orbital Concept, submitted to J. Chem. Educ., 2012

[3] G.N. Lewis, The Atom and the Molecule, J. Am. Chem. Soc., 1916, 38, 762-685

[4] A. W. Steward, Some Physico-Chemical Themes, Longmans, Green and Co: London, 1922, pp. 395-396.

[5] C. A. Knorr, Eigenschaften chemischer Verbindungen und die Anordunung der Electronenbahnene in ihren Molekülen, Zeit. anorg. Chem., 1923, 129, 109-140.

[6] G. N. Lewis, Valence and the Electron, Trans. Faraday Soc., 1924, 19, 452-458.

[7] W. Heitler, Elementary Quantum Mechanics, Clarendon: Oxford, 1945, p. 127.

[8] L. Pauling, “The Shared Electron Chemical Bond” Proc. Nat. Acad. Sci., 1928, 14, 359-362.

[9] J. C. Slater, Directed Valence in Polyatomic Molecules, Phys. Rev., 1931, 37, 481-489.

[10] L. Pauling, The Nature of the Chemical Bond. Application of Results Obtained from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the Structure of Molecules, J. Am. Chem. Soc., 1931, 53, 1367-1400.

[11] L. Pauling, Quantum Mechanics and the Chemical Bond, Phys. Rev., 1931, 37, 1185-1186.

[12] affermazione riportata da T. Hager, in: Force of Nature: The Life of Linus Pauling, Simon & Schuster: New York, NY, 1995, pp. 155-159.

[13] J. H. Van Vleck, On the Theory of the Structure of CH4 and Related Molecules. Part I, J. Chem. Phys., 1933, 1, 177-181.

[14] M. L. Huggins, Electronic Structure of Crystals. I, J. Am. Chem. Soc., 1922, 44, 1841-1850.

[15] R.J. Gillespie, I. Hargittai, Geometria Molecolare. Il modello VSEPR, Zanichelli, Bologna, 1994.

[1] Alfred Walter Stewart (1880 – 1947) chimico britannico e romanziere part-time. Scrisse 17 romanzi polizieschi e un racconto pionieristico di fantascienza fra il 1923 e il 1947 sotto lo pseudonimo di J.J. Connington. Ha lavorato nel campo della radioattività e ha scritto un trattato di chimica organica (Recent Advances in Organic Chemistry) che divenne molto popolare. Lecturer di Radiochimica e Chimica Fisica all’Università di Glasgow dal 1914 al 1944.

[2] Carl Angelo Knorr (1894-1960) chimico fisico tedesco. Professore a Innsbruck e a Monaco.

[3] John Clark Slater (1900-1976) fisico teorico statunitense, A Slater spetta la scoperta delle funzioni di calcolo che descrivono gli orbitali atomici e anche l’introduzione delle cosiddette regole di Slater, per il calcolo della carica nucleare efficace degli elettroni più esterni in un atomo.

[4] Fra la fine degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni di valenza dei due atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola.

[5] John Hasbrouck Van Vleck (1899-1980) fisico e matematico statunitense è considerate il fondatore della teoria quantistica del magnetismo e della teoria del campo cristallino per interpretare il legame chimico nei complessi metallici. Premio Nobel per la fisica 1977.

[6] Va notato che l’articolo di Van Vleck ha come scopo principale il confronto fra la teoria del legame di valenza (VB) di Pauling-Slater e la teoria dell’orbitale molecolare (MO) di Hund-Mulliken applicate alla molecola del metano. La prima considera solo gli elettroni di valenza degli atomi contraenti il legame, la seconda tiene conto di tutti gli elettroni di valenza di tutti gli atomi che formano la molecola. I successivi sviluppi della teoria MO hanno mostrato che essa è attualmente la più coerente e rigorosa, sebbene molti ritengano che a parte il differente formalismo matematico, le due teorie si equivalgano.

Molecole come gioielli.

In evidenza

Mauro Icardi.

Una delle ultime scoperte personali che ho fatto mentre curiosavo in vari mercatini insieme alla famiglia, è quella delle collane che hanno come ciondoli la rappresentazione di molecole.

Cercando sul web e sui cataloghi sono definite come le collane delle molecole della dipendenza.

Caffeina, teobromina, saccarosio sono le rappresentazioni più frequenti. Ma si trova in commercio anche la molecola della ketamina e quelle della serotonina e dell’ossitocina.

Devo dire che la mia prima reazione è stata di stupore. Ma dopo qualche riflessione ho cominciato a pensare al fatto che le molecole , e specialmente quelle dei composti organici hanno indubbiamente una loro eleganza strutturale. Una loro estetica definita che abbiamo imparato ad apprezzare. In special modo i chimici.

Ma mi domando che cosa significhi questo per chi non è un chimico. Alcune persone possono sfoggiare la molecola della caffeina per mostrare agli altri di essere incalliti consumatori di caffè, oppure incapaci di sfuggire alla tentazione di un pezzetto di cioccolato. Oppure più semplicemente questo genere di oggetti piacciono esclusivamente come oggetti di moda. In effetti li ho visti su bancarelle che sfoggiavano diverse tipologie di ciondoli con simboli di diverso tipo. Dal simbolo taoista dello yin e dello yang, fino a disegni di elfi o draghi che appartengono all’immaginario delle saghe fantasy.

Quando mi sono qualificato come chimico ai venditori sono rimasti lievemente spiazzati. Loro vendevano questi ciondoli enfatizzando alcune proprietà delle molecole stesse, tipo quelle della serotonina come molecola della felicità. Io ero invece tentato di acquistarle per spirito di appartenenza alla categoria.

In fin dei conti potrebbe non esserci nulla di male in questo, cioè nel fare una sorta di “marketing molecolare”. Qualcuno potrebbe usare questi monili per fare colpo sul ragazzo o la ragazza studenti di Chimica verso per il quale prova attrazione Ma sarebbe una cosa decisamente positiva se questa moda risvegliasse una curiosità più profonda.

Una curiosità che spinga le persone non solo a sapere quali sono le proprietà della molecola rappresentata sul ciondolo che hanno deciso di acquistare (cosa per altro positiva), ma anche di approfondire qualche nozione di chimica studiata in passato. Magari ricordarsi il principio di Avogadro. E volendo anche come lo stesso principio che più o meno tutti hanno studiato o enunciato : “Volumi uguali di gas diversi nelle stesse condizioni di temperatura e di pressione contengono lo stesso numero di molecole.”

Le molecole rappresentate mi hanno ricordato anche quanto scrive Primo Levi in “Azoto” il racconto del sistema periodico. Quello della mancata sintesi dell’allossana come colorante per le labbra.

Levi ne parla così “ Eccone il ritratto: dove O è l’ossigeno, C il carbonio, H l’idrogeno (Hydrogenium) ed N l’azoto (Nitrogenium). E una struttura graziosa non è vero? “

E su questa sua affermazione si può essere completamente d’accordo. Chimici o non chimici.

Per concludere questo articolo devo doverosamente citare due colleghi della redazione. Margherita Venturi e Vincenzo Balzani. Sul loro libro “Chimica! Leggere e scrivere il libro della natura” ci fanno conoscere le opere di uno scultore ungherese Vizi Bela che prende spunto dalle molecole per le sue opere.

Bela è ingegnere chimico oltre che scultore.

A breve accompagnerò mia figlia ad una mostra mercato di fumetti ed oggettistica dove so che posso trovare ciondoli di questo tipo. Non so se riuscirò a resistere alla tentazione di acquistarne uno. E oltre alle ragioni che ho provato a spiegare, credo ce ne sia una che le supera tutte. Il primo soprannome che mi venne dato quando avevo all’incirca sette anni, dai ragazzi più grandi del corso di minibasket che frequentavo fu proprio questo: molecola. Non ho mai capito il perché, forse perché ero piccolo di età e di costituzione fisica. Ma non posso negare che sia stato un soprannome in qualche modo profetico.

Per l’aiuto nello studio della chimica i modelli molecolari sono di grande aiuto. Perché non pensare che in qualche modo possano servire anche queste collane?

Le molecole sono gioielli non solo quando le acquistiamo in gioielleria o nei mercatini. Sono gioielli della natura e del nostro percorso di conoscenza.

 

Il caso elio.

In evidenza

Claudio Della Volpe

A partire dal 2012 e a più riprese i giornali internazionali (molto meno i nostri quotidiani alquanto provincialotti) hanno lanciato l’allarme per i problemi che subiva l’approvvigionamento dell’elio; l’helium shortage, ha avuto l’onore delle cronache[1]. L’allarme è stato rilanciato varie volte[2], ma di cosa si tratta e come mai esiste questo problema?

L’elio è il secondo elemento come abbondanza nell’Universo, ma è molto raro sulla Terra, dove viene prodotto dal decadimento degli elementi radioattivi nell’interno del pianeta ed è presente in atmosfera con una percentuale dello 0.00052%, cosi’ raro che estrarlo dall’atmosfera è privo di senso economico; così raro che fu scoperto prima di tutto nello spettro solare da Jansenn nel 1868; fu Luigi Palmieri, un mio conterraneo, a individuarlo, sempre spettroscopicamente, per primo sul nostro pianeta nelle lave vesuviane nel 1882; ma la scoperta ufficiale arrivò solo nel 1892 da parte di Cleve e Langlet che ne individuarono nel minerale cleveite e ne misurarono il peso atomico.

Infine solo nel 1903 ne furono individuate significative quantità nel gas naturale degli USA; e da allora fino ad oggi gli Usa ne sono stati il principale produttore. Da quel gas viene separato attraverso la distillazione frazionata e la filtrazione, sfruttando le sue proprietà fisiche, bassissimo peso atomico e punto di ebollizione. Nel gas naturale delle grandi pianure di alcuni stati americani ce n’era una percentuale dell’ordine del 2-4%; col tempo ne sono state individuate altre fonti ma non molto numerose nel mondo e comunque con percentuali di molto inferiori; oggi viene considerato sfruttabile un giacimento che ne contenga almeno lo 0.15%.

I giacimenti sono mostrati in rosso nella figura acclusa estratta da un volantino della Messer, che è uno dei grandi produttori mondiali.

L’andamento della produzione mondiale, tratto dai dati della USGS è invece mostrato nel grafico qui sotto, in cui si riportano sia la produzione annua (in rosso) che quella totale estratta (in blù). Se guardate il grafico vi rendete conto che la guerra e poi soprattutto la conquista dello spazio sono stati due momenti importanti per lo sviluppo del consumo di elio. Gli USA che fin dalla prima guerra mondiale avevano “nazionalizzato” l’elio costruendo un deposito sotterraneo di gas ad Amarillo (Cliffside Reserve), cui partecipavano tutti gli estrattori privati, sono stati sempre un player dominante del mercato mondiale.

Questa politica ha avuto un grande costo economico per lo stato ed ha attraversato dei momenti di crisi, il primo con la fine del sogno dei dirigibili (tutti conoscono il dramma Hindenburg, molti meno quello dei due dirigibili ad elio USA fra le due guerre); poi con la fine dell’esplorazione dello spazio e della guerra fredda[3]. Il debito accumulato dallo stato nei confronti dei privati è stato tale da costringerlo a rinunciare a questa attività; e la decisione ha sballato il mercato mondiale dell’elio. Certo negli anni si erano sviluppati degli altri players, ma nessuno ha a disposizione giacimenti così ricchi e ampi come quelli americani e tutti stentano a decollare.

La bibbia di tutti coloro che si occupano di risorse minerarie è certamente il sito dell’US Geological Survey dove troviamo uno speciale report[4] sull’elio che è stato considerato negli USA un materiale strategico fino dall’origine, dal principio del XX secolo, quando si resero disponibili sorgenti minerarie di elio. Il report dell’USGS ci conferma che non mancano per il momento depositi naturali di gas contenente elio, ci si aspettano riserve+risorse per oltre 50 miliardi m3 (>9Mton), di cui un 40% in USA e sole riserve (quelle già accertate e tecnicamente possibili) per almeno 7 miliardi, contro un consumo annuo di 0.2 miliardi. Ma, attenzione se pure prendiamo per buone queste cifre, che comunque ci dicono che l’elio non è infinito (ne abbiamo di sicuro solo per grossolanamente 35 anni, se non teniamo conto della concentrazione decrescente), è chiaro che i costi sono in netto aumento, costi energetici ed economici. Il deposito di Cliffside-Amarillo ne contiene 0.7 miliardi e le sorgenti USA in attività meno di 4 miliardi stimati. Tutti i depositi “tradizionali” scoperti in giro per il mondo hanno una qualità ed una abbondanza nettamente inferiori. Insomma una situazione complessa e nell’immediato foriera di forti aumenti di prezzo: scordatevi i palloncini! L’elio serve nell’industria (saldature, fibre ottiche) e nei servizi (magneti molto forti). L’elio, come il fosforo non è “fungibile”, è unico come gas.

Con questi precedenti non è più strano che nei mesi recenti la stampa mondiale abbia gridato al miracolo per la scoperta di un grande giacimento di elio ritrovato in Tanzania; A new approach to gas exploration has discovered a huge helium gas field, which could address the increasingly critical shortage of this vital yet rare element ha titolato sul suo sito l’Università di Oxford ricopiata dai grandi giornali di tutto il mondo.

Ma guardandola bene questa è una storia che fa capire come la stampa ma anche i tecnici non conoscano a fondo il problema risorse e non siano dunque in grado di valutare con calma e ragionevolezza la situazione contribuendo di fatto ad aggravare, mediante falsi miti, una situazione delle risorse minerarie che è sempre più grave.

[5]

Certamente il metodo usato per la scoperta è interessante, trattandosi di una collaborazione fra l’Università di Oxford e il gruppo HeliumOne che hanno applicato nuovi metodi di ricerca mostrando che l’attività vulcanica fornisce l’intenso calore necessario a far rilasciare il gas dalle antiche rocce che lo intrappolano. Nella Rift Valley i vulcani hanno rilasciato elio dalle antiche rocce profonde intrappolandolo in depositi di gas più superficiali.

La combinazione della conoscenza geochimica e delle tecniche di ricerca basate sulle onde sismiche hanno consentito di ricostruire la forma, la posizione e l’importanza del giacimento; i ricercatori tuttavia non sono stati ancora in grado di dire quanto facilmente si potrà liberare l’elio da altri gas (che è poi il problema delle risorse di elio e un pò di tutta l’attività mineraria).

Come si vede dai dati del primo grafico il consumo mondiale annuo viaggia sotto le 30.000ton (180Mm3); le riserve accertate ed estraibili di Elio assommano secondo la USGS a 7-8 Gm3, mentre le risorse, ossia le quantità scoperte ma di cui non si sa esattamente la effettiva resa, assommano a 20.6 Gm3, in USA e 31.3 Gm3 fuori dagli USA.

Si può guardare alla situazione da un punto di vista diverso usando la teoria di Hubbert (lo scopritore del picco del petrolio); secondo il suo approccio formale una risorsa finita ed usata nel modo tradizionale va incontro ad un picco di produzione e poi ad una lenta decrescita; in particolare se si riporta il rapporto P/Q, produzione annua su estrazione totale nel tempo contro Q si ottiene un comportamento lineare discendente a zero da cui si può estrapolare la durata della risorsa. Il mercato dell’elio si adatta male a questo approccio date le sue peculiarità ma è comunque interessante verificare.

Come si vede la riduzione lineare (che corrisponde ad un picco attorno al 1970 che vedete nel primo grafico) si è verificata fino a quando la produzione americana ha dominato le cose mondiali; con la scoperta ed entrata sul mercato di altre risorse (che come dicevamo sono però meno ricche comunque) le cose sono cambiate; l’andamento P/Q vs Q è in leggera discesa ma il fittaggio non è chiaro, non è in grado di darci una estrapolazione significativa.

Cosa cambia con la scoperta tanzaniana? Lo scopritore prof. Ballentine del Dipartimento di Scienze della Terra dell’Università di Oxford dice:

By combining our understanding of helium geochemistry with seismic images of gas trapping structures, independent experts have calculated a probable resource of 54 Billion Cubic Feet in just one part of the rift valley.

Dato che un metro cubo è oltre 35 piedi cubi stiamo parlando di poco più di un miliardo e mezzo di metri cubi, ossia un incremento “probabile” delle risorse pari a meno del 3% (in termini di riserve medie sarebbe ancora più piccolo di circa 7 volte); certamente è possibile che ci siano altre scoperte di questo tipo con la nuova metodica, ma quali saranno le effettive percentuali di passaggio da risorse a riserve vere e proprie? Se usiamo il rapporto attuale di circa 7 il giacimento trovato potrebbe soddisfare i consumi mondiali solo per poco più di un anno (220Mm3). Possiamo concludere che non è cambiato granchè e ce ne sarebbero molti altri di giacimenti di questo tipo da scoprire per “risolvere” il problema di una risorsa mineraria importante ma le cui disponibilità sono e rimangono limitate e il cui prezzo tende a crescere da molto tempo.

L’unico modo saggio è quello di prevenire il problema eliminando gli sprechi ed introducendo meccanismi di recupero e di riciclo in tutte le applicazioni chiave dell’elio a partire da quelle nel campo della sanità e della ricerca (nei grandi NMR per esempio).

Economia circolare è la risposta ai problemi delle risorse, non nuove scoperte “epocali”, ma che lasciano sostanzialmente immutata la situazione, e casomai costituiscono una occasione per ulteriore distruzione della Natura, una fonte di arricchimento per una esigua minoranza e una dimostrazione di incompetenza per i giornali anche tecnici.

[1] Popular Mechanics 25 June 2012: Why Is There a Helium Shortage?

[2] The independent 5/1/2013: A ballooning problem: the great helium shortage

https://www.wired.com/2015/07/feds-created-helium-problem-thats-screwing-science/

[3]W. J. Nuttall, R. H. Clarke, B. A. Glowack- The Future of Helium As a Natural Resource, Routledge 2012

[4]http://minerals.usgs.gov/minerals/pubs/commodity/helium/mcs-2012-heliu.pdf

[5]http://www.airproducts.com/~/media/files/pdf/industries/metals-helium-recovery-recycling-good-business-sense.pdf

 

Inquinamento da PFAS in Veneto. Riflessioni.

In evidenza

Mauro Icardi

La vicenda è venuta alla ribalta nel 2013. Durante l’effettuazione di ricerche sperimentali da parte del Ministero dell’Ambiente sui nuovi inquinanti “emergenti” è stata verificata la presenza di PFAS (Perfluoroalchili) in acque superficiali, sotterranee e potabili in Veneto. La zona interessata dall’inquinamento da PFAS comprendeva il territorio della bassa Valle dell’Agno (VI), e alcuni ambiti delle province di Padova e Verona .

E’ stata attivata una commissione tecnica regionale che ha provveduto ad emanare dei limiti di concentrazione ammissibili. Tali limiti non sono previsti nel D.lgs. 31/2001, che attua la direttiva 98/83/CE.

Non tutti i parametri sono presenti nelle tabelle del decreto, e questo per ovvi motivi. Il numero di sostanze che sono presenti e normate deriva dalle conoscenze scientifiche disponibili. Per queste sostanze viene fissato un valore di parametro che generalmente raccoglie gli orientamenti indicati dall’OMS (Organizzazione Mondiale della Sanità).

Per altri tipi di composti non normati si può applicare il principio generale presente nel Decreto 31 cioè che: “Le acque destinate al consumo umano non devono contenere microrganismi e parassiti, né altre sostanze, in quantità o concentrazioni tali da rappresentare un potenziale pericolo per la salute umana

La regione Veneto dopo aver riscontrato la presenza di questi inquinanti ha richiesto il supporto tecnico -scientifico del Ministero dell’ambiente e fissato dei limiti provvisori per il PFOA (Acido perfluorottanoico) pari a 0,5 microgrammi/litro, e di 0,03 microgrammi/litro per il PFOS (Acido perfluoroottansolfonico).

Oltre a questo si sono definite misure di emergenza per i gestori del ciclo idrico che hanno installato filtri specifici a carbone attivo per la rimozione di questi inquinanti.

E’ stato attivato un sistema di sorveglianza analitica, formazione per il personale sanitario e tecnico, un regolamento per l’utilizzo dei pozzi privati ad uso potabile. I cittadini che utilizzano pozzi, sia per uso potabile che per preparazione di alimenti devono ricercare la presenza di PFAS nelle acque prelevate allo scopo.

E’ stato attuato anche il biomonitoraggio della popolazione residente che si è concluso a fine 2016 mostrando livelli significativi di PFAS nel sangue di circa 60.000 persone.

L’ARPA del Veneto ha effettuato misurazioni che hanno riguardato falde ed acque superficiali per definire l’area interessata dal problema di inquinamento e definirne la provenienza.

Individuando come la contaminazione prevalente fosse dovuta agli scarichi di uno stabilimento chimico situato a Trissino in provincia di Vicenza.

Questo il preambolo generale. Ma ci sono alcune riflessioni da fare. A distanza di decenni lascia quantomeno sgomenti verificare che ancora oggi un problema di inquinamento ambientale sia dovuto ad una gestione scorretta dei reflui di lavorazione di un’industria.

Non è accettabile questo, perché negli anni abbiamo già dovuto assistere ad altri casi emblematici, casi che ormai sono parte della letteratura. Seveso, Priolo, Marghera, Casale Monferrato, Brescia. E ne dimentico certamente altri. Questo del Veneto sarà l’ennesimo caso. Occorre trovare l’equilibrio. La riconversione dei processi produttivi nell’industria chimica è ormai un’esigenza non rimandabile ulteriormente. Allo stesso tempo non è alla chimica come scienza che si deve imputare tout court il verificarsi di questi episodi, bensì ad una visione alterata di quelli che sono i nostri bisogni reali. L’azienda ritenuta responsabile dell’inquinamento sta affrontando il processo di riconversione. E questo come è probabile comporterà un percorso probabilmente lungo e tormentato. Non sempre le esigenze di occupazione e tutela ambientale seguono gli stessi percorsi.

Questo episodio deve fare riflettere anche per quanto riguarda la gestione del ciclo idrico. L’Italia deve investire e formare tecnici. Occorre dare una forma ad una gestione che al momento è ancora decisamente troppo frammentata e dispersa. Questo non significa, come spesso molti temono, innescare un processo contrario alla volontà espressa nel referendum del 2011. Ma mettere in grado le varie realtà territoriali di gestire emergenze che (purtroppo) potrebbero anche ripetersi.

Sono necessarie sinergie tra tutti i soggetti coinvolti (ISS, ARPA, Gestori del ciclo idrico).

L’ultima riflessione è molto personale, ma la ritengo ugualmente importante. Niente di tutto questo potrà prescindere da una più capillare educazione scientifica ed ambientale. Che riguardi non solo chi sta seguendo un corso di studi, ma in generale la pubblica opinione. Un cittadino compiutamente e doverosamente informato è un cittadino che può operare scelte più consapevoli. La spinta al cambiamento, alla riconversione dei processi produttivi parte anche da questo.

Approfondimenti.http://areeweb.polito.it/strutture/cemed/sistemaperiodico/s14/e14_1_01.html

https://sian.ulss20.verona.it/iweb/521/categorie.html

http://www.arpa.veneto.it/arpav/pagine-generiche/allegati-pagine-generiche/pfas-relazioni-attivita-arpav/Contaminazione_da_PFAS_Azioni_ARPAV_Riassunto_attivita_giu2013_gen2017.pdf

Nota del post master. Si stima che nel periodo 1970-2002 siano state utilizzate nel mondo 96.000 tonnellate di POSF (perfluorooctanesulphonyl fluoride) con emissioni globali di POSF tra 650 e 2.600 ton e di 6.5-130 ton di PFOS. La maggior parte del rilascio avviene in acqua (98%) e il rimanente in aria. Non sono biodegradabili in impianti a fanghi attivi.

Tossicità e prove su animali: a che punto siamo?

In evidenza

Luigi Campanella, ex presidente SCI

Gli studi tossicologici su sistemi bersaglio sono generalmente condotti utilizzando differenti dosi di tossico capaci di coprire un largo intervallo di concentrazione. I risultati di ogni studio mostreranno generalmente, ma non sempre, effetti dannosi ad alte dosi, ed effetti lievi a basse dosi. Se la sostanza è tossica sarà così identificata la dose alla quale gli effetti dannosi compaiono (livello di effetto EL). La natura e la severità degli effetti osservati varierà con il tipo di test, il tempo di esposizione, la specie bersaglio il che mette in discussione qualunque trasferimento conclusivo da una specie ad un’altra. Lo studio identificherà anche la dose massima alla quale non si osservano effetti (livello di nessun effetto osservato NOEL). Così da studi di tossicità condotti in modo diverso potranno risultare differenti valori di NOEL: la valutazione del rischio dovrebbe basarsi sullo studio più sensibile che fornisce il minimo valore di NOEL. Qualche volta il termine NOEL è sostituito da NOAEL dove la lettera A sta per avverso, indicando con essa il carattere dell’effetto, rispetto ad un effetto non nocivo.

I risultati di studi di tossicità possono essere usati in due modi diversi: per predire livelli sicuri di esposizione dell’uomo e per predire livelli potenzialmente tossici e la natura probabile degli effetti dannosi.

Nel primo caso i risultati degli studi di tossicità possono essere usati per predire la più elevata quantità di un tossico assorbito su base giornaliera da un essere umano senza alcun danno sostanziale. Talvolta tale quantità viene riferita all’unità di peso del soggetto e viene assunta come pari al NOEL diviso per 100: ciò al fine di una maggiore garanzia a protezione degli esposti, tenuto conto che gli esseri umani possono essere più sensibili ai tossici degli animali utilizzati nei test di tossicità a causa di differenze tossicocinetiche e tossicodinaniche nell’iter di un tossico (adsorbimento, metabolizzazione, escrezione per la tossicocinetica, attività contro la cellula, i tessuti, gli organi per la tossicodinamica).

Nel secondo caso i risultati degli studi della tossicità possono essere usati per predire la natura di effetti nocivi che si possono registrare negli esseri umani ed a quali livelli di esposizione tali danni si possano registrare. Molti tipi di effetto nocivo per un particolare tossico si osservano soltanto al di sopra di una certa dose, il cui valore però può variare al variare della specie e della durata dell’esposizione.

Per la maggior parte degli effetti tossici prodotti da un particolare composto c’è un valore di esposizione al di sotto del quale gli effetti nocivi non si osservano. A basse esposizioni il corpo può tollerare alcuni disturbi alle sue funzioni biochimiche e fisiologiche senza alcun segnale o sintomo di malattia. Talora l’organismo è capace di rimediare ad alcuni danni derivati dal contatto con alcuni composti purché questo sia limitato nel tempo, talaltra tale risanamento non può avvenire, il che si traduce in danno permanente e lunghe malattie. Quando i danni sono di natura genetica al DNA ed ai cromosomi o peggio portano a forme di cancro per danneggiamento del DNA si parla di effetti genotossici o carcinogenici. Questi effetti possono essere rilevati mediante test in vitro, ad esempio esponendo batteri ai tossici da testare (test di Ames) o cellule isolate animali o umane al tossico stesso. Se risultano effetti genotossici in vitro, si passa ai test in vivo su animali per confermare o meno i risultati in vitro. Il danno al DNA è un evento di tutti i giorni (si pensi all’esposizione alla componente ultravioletta dello spettro solare, all’esposizione ai radicali liberi dell’ossigeno, alla divisione cellulare) cosicché il nostro organismo deve porvi rimedio con provvedimenti ed iniziative che si ripetono per milioni di volte al giorno. Questi studi hanno dimostrato che danni al DNA possono prodursi anche a dosi molto basse, crescendo ovviamente nettamente al crescere della dose. Questi campioni vengono definiti positivi, nel senso che producono danno genotossico. Ad oggi non è possibile definire livelli di nessun effetto per i composti chimici positivi. I danni non riparati a cellule e DNA possono avere due conseguenze negative: possono provocare divisione e mutazione cellulare. I danni al DNA non necessariamente devono portare a mutazioni cellulari. Gli effetti cancerogenici vengono osservati e misurati esponendo animali, generalmente topi o ratti di età giovane a dosi giornaliere di tossico esaminando il numero ed il tipo di tumori che si sviluppano ma le conclusioni di tale tipo di approccio soffrono di accuratezza in quanto riferite a specie diverse da quelle che si intende proteggere, l’uomo. C’è infine da osservare che l’esposizione a dosi quanto si voglia piccole, se anche non produce alcun effetto nel tempo breve di fatto lo produce certamente nel lungo, lunghissimo tempo; questo tipo di rilevazione per motivi pratici non è di reale esecuzione. Per i composti cancerogenici differenti approcci ci dicono se ci sia un reale rischio di cancro ai valori di esposizione che realisticamente possono essere del tipo di quelli incontrati dagli esseri umani. Tali approcci si basano usualmente su curve dose/risposta, ottenute durante test animali. Queste curve relazionano l’incidenza del cancro alle variabilità delle dosi giornaliere assunte per tutta la vita.

Una varietà di modelli matematici può essere applicata alla curva dose-risposta per arrivare ad una stima del rischio. I modelli matematici sono generalmente considerati conservativi, fornendo una stima del rischio che non soltanto eccede sul fronte della sicurezza, ma può considerevolmente sovrastimare il rischio probabile per gli esseri umani. A causa delle limitazioni nei test sperimentali di cancerogenità animale e nei modelli, alcuni responsabili del rischio non vedono nell’approccio in precedenza indicato un’appropriata via per la stima del rischio umano. Se un composto si rivela genotossico tali responsabili possono decidere che l’esposizione degli esseri umani ad esso dovrebbe essere bassa quanto ragionevolmente prevedibile. Misure adeguate devono essere assunte per ridurre o eliminare l’esposizione. È evidente che i limiti fissati su tali basi possono implicare rischi diversi per sostanze di differente attività.

I contrasti fra diverse posizioni a riguardo dell’uso di animali da esperimento forse potrebbero essere composti se i modelli predittivi sulla tossicità umana si basassero non solo sulle risposte all’attività dei composti testati in vitro, ma anche su dati strutturali relativi a tali composti: un recente studio di Ruili Huang e coll. (R. Huang et al., “Modelling the Tox21 10 K chemical profiles for in vivo toxicity prediction and mechanism characterization,” Nature Communications, doi:10.1038/ncomms10425, 2016.) ha evidenziato l’importanza della correlazione struttura/attività; Ruili Huang è capo di un gruppo di informatici allo NCATS; insieme con i suoi colleghi hanno analizzato 10.000 diversi composti attraverso 30 diversi metodi automatici , basati su analisi cellulare (cell based analisys).

“The system is very efficient,” ha dichiarato Huang a Huang The Scientist. We can test all the chemicals at 15 different concentrations each and in three independent experiment runs in one week. With animal testing, this would take years.”

L’apparecchio usato per i test automatici si chiama TOX21, una sorta di analizzatore robot e i valori generati dai test sono stati quasi 50 milioni; su questa ampia base le previsioni del comportamento basate sul rapporto struttura-proprietà sono state molto precise; Huang spera di poter allargare le prove ad altri 80.000 composti.

Avventure e sventure di Charles Goodyear

In evidenza

Giorgio Nebbia nebbia@quipo.it

Siamo spesso debitori di cose importantissime, essenziali per la vita tecnica ed economica, a persone grandissime nella sfortuna. Un esempio è offerto dall’americano Charles Goodyear (1800-1860), lo scopritore della vulcanizzazione della gomma. Senza la sua invenzione non potremmo andare in automobile, non potremmo usare Internet, io non potrei scrivere questo articolo sul computer, non avremmo luce elettrica nelle case — non potremmo godere delle merci e dei beni della società moderna.

La gomma, estratta dalla corteccia di alcune piante del genere Hevea presenti nella foresta brasiliana, era nota in Europa dalla fine del Settecento: i nativi la chiamavano con uno strano nome che gli esploratori europei interpretarono come caucciù. Si trattava di un materiale elastico che poteva essere sciolto in un solvente e, in soluzione, poteva essere stesa su un tessuto rendendolo impermeabile; un brevetto relativo a questa applicazione porta la data del 1791 e nel 1822 l’inglese Charles Macintosh (1766-1843) aveva inventato l’indumento impermeabile. Una industria di manufatti di gomma ebbe inizio nel 1820 ad opera dell’inglese Thomas Hancock (1786-1865) il quale apportò alcune utili innovazioni nella lavorazione della gomma greggia. I manufatti così ottenuti, però, erano di limitata durata e soprattutto diventavano appiccicosi a caldo e fragili a freddo. La “febbre della gomma” che aveva investito l’America nei primi anni del 1800, era già finita nel 1830; migliaia di oggetti di gomma venivano buttati via o restavano invenduti per questi inconvenienti.

E’ a questo punto che interviene Goodyear: da ragazzo aiutava il padre in un negozio di ferramenta che fallì abbastanza presto, le imprese commerciali a cui si dedicò nei sessanta anni della sua vita furono tutte un fallimento; per tutta la vita fu ossessionato dai misteri della “gomma elastica”. La leggenda vuole che Goodyear, in prigione per debiti, si sia fatto portare dalla moglie dei campioni di gomma per vedere come potevano esserne migliorate le caratteristiche; se la gomma era appiccicosa forse aggiungendo qualche polvere l’inconveniente avrebbe potuto essere eliminato. Tornato a casa, provò allora a scaldare la gomma con magnesia, ma i vicini protestavano per la puzza che si levava dalla sua casa; per farla breve provò molte altre sostanze e, facendosi prestare dei soldi, cercò di produrre sovrascarpe di gomma che erano una peggio dell’altra. La grande crisi economica americana del 1837 lo gettò sul lastrico e si ridusse a vivere con la moglie e il figlio mangiando il pesce che pescava nel porto di Boston.

Nel 1839, sempre nella miseria più nera, viveva a Woburn, nello stato del Massachusetts destinata a diventare celebre proprio per la scoperta della vulcanizzazione; in quell’inverno, Goodyear lasciò una miscela di gomma e zolfo su una stufa; la miscela prese quasi fuoco e fu gettata nella neve fuori dalla finestra; quando fu raffreddata si rivelò un materiale del tutto diverso: era ancora una gomma elastica, impermeabile all’acqua, ma era resistente al calore, facilmente lavorabile e trasformabile in oggetti utili. Il caso aveva premiato l’uomo che aveva dedicato tutta la sua vita a trasformare la gomma greggia nel materiale più importante della storia, quello che si sarebbe chiamato “gomma vulcanizzata”.

Dopo un altro inverno di miseria, malattie, lutti familiari (dei dodici figli sei morirono nell’infanzia) Goodyear finalmente trovò degli industriali che riconobbero l’importanza della scoperta che però egli non aveva ancora brevettato. Goodyear mandò vari campioni della nuova gomma in Inghilterra e uno di questi cadde sotto gli occhi del pioniere inglese della gomma, già ricordato, Thomas Hancock, quello che, nei venti anni precedenti, aveva invano cercato di ottenere della gomma di qualità accettabile commercialmente.

Hancock notò la presenza di tracce di zolfo nella gomma vulcanizzata e immediatamente brevettò, nel 1843, l’effetto vulcanizzante dello zolfo, portando via a Goodyear la scoperta che egli aveva fatto quattro anni prima. Quando Goodyear presentò la domanda per un brevetto, scoprì che Hancock lo aveva preceduto di poche settimane.

Goodyear presentò, alle fiere mondiali di Parigi e Roma del 1850, i suoi oggetti di gomma vulcanizzata, riscosse un grande successo, ma finì di nuovo in prigione per debiti, con tutta la famiglia, per due settimane, perché non aveva ancora riscosso il compenso per il suo brevetto. In prigione ricevette la croce della Legion d’Onore assegnatagli dall’imperatore Napoleone III.

Quando morì nel 1860 Goodyear lasciò 200.000 dollari di debiti alla famiglia; come testamento scrisse che “la vita non si può valutare soltanto sulla base dei soldi; non mi rammarico di avere seminato e che altri abbiano raccolto i frutti del mio lavoro. Un uomo deve rammaricarsi soltanto se ha seminato e nessuno raccoglie”.

E’ sorprendente che Goodyear sia arrivato alla vulcanizzazione per via empirica, con l’antico processo per tentativi ed errori; solo nel 1860, lo stesso anno della morte di Goodyear, il chimico inglese Charles Greville Williams (1829-1910) riconobbe che la gomma era un polimero di un idrocarburo con due doppi legami, l’isoprene:

Fu così chiarito il ruolo centrale dello zolfo: attraverso legami che comportavano l’apertura di uno o più doppi legami, le molecole di poliisoprene si univano fra loro in strutture le cui proprietà dipendevano dal numero di atomi di zolfo; se tutti i doppi legami erano saturati con zolfo e la vulcanizzazione era prolungata, come scoprì lo stesso Goodyear, si otteneva un materiale duro e nero che chiamò ebanite e che fu prodotto come sostituto del prezioso legno di ebano. In altre parole, regolando le condizioni di vulcanizzazione, si potevano ottenere materiali molto diversi, adatti a molti usi.

Grazie alla scoperta di Goodyear la richiesta di gomma nel mondo aumentò immediatamente. Il Brasile, che deteneva il monopolio della produzione e esportazione del caucciù, fu investito da un’ondata di ricchezza e di speculazioni: folle di nativi e di immigrati miserabili si dedicarono a raccogliere latice dalle piante di Hevea, dapprima distruggendo la foresta più vicina e accessibile, poi andando a cercare piante più all’interno, nel bacino del Rio delle Amazzoni. Manaus, porto fluviale di esportazione della gomma, diventò il centro di stravaganze e miserie per tutta la seconda metà dell’Ottocento; uno sguardo al clima del tempo si ha nel film “Fitzcarraldo”, di Werner Herzog, del 1982, nel quale il personaggio del barone della gomma del titolo, è interpretato da Klaus Kinski.

Come tutti i monopoli, anche quello della gomma brasiliana non durò a lungo. Nel 1876 un viaggiatore inglese riuscì a portare via dal Brasile, clandestinamente, piantine di Hevea che furono trapiantate in India, Malesia, Ceylon, Indocina. Ai primi del Novecento, inglesi, francesi e olandesi producevano caucciù nelle loro colonie dell’Estremo Oriente; al Brasile restavano vaste estensioni di foresta amazzonica distrutta, uno dei primi disastri ecologici, rimediato soltanto dopo molti decenni di rimboschimento e difesa del suolo.

Il monopolio del Brasile diventava così un oligopolio di Inghilterra, Olanda, Francia e Stati Uniti; le industrie americane avevano proprie piantagioni di Hevea in Brasile e Liberia. Ciò avveniva in un momento in cui il diffondersi dell’elettricità in seguito alle invenzioni della dinamo e dei motori elettrici provocava un aumento della richiesta di gomma come isolante per i fili elettrici. Lo sviluppo delle automobili contribuì, con la richiesta di gomma per camere d’aria e copertoni, a far ulteriormente aumentare la richiesta di caucciù. Ben presto la gomma di piantagione fece concorrenza come qualità a prezzo a quella del Brasile il quale attraversò un periodo di grave crisi economica.

Ma l’avventura della gomma era appena cominciata; per sfuggire alle importazioni della gomma naturale da paesi geograficamente lontani, i paesi industriali, prima e durante la seconda guerra mondiale, hanno sviluppato dei processi per riprodurre sinteticamente molecole simili a quella dell’isoprene. La maggiore attenzione fu dedicata al butadiene,

H2C==CH—CH==CH2, uguale all’isoprene con un gruppo metilico di meno. Il butadiene era vulcanizzabile e poteva essere prodotto da molte diverse materie prime: dal carbone, attraverso il carburo di calcio e l’acetilene; dall’alcol etilico di origine agricola (come ricorda il post di Marco Taddia, https://ilblogdellasci.wordpress.com/2014/02/21/la-gomma-dallalcol-un-successo-autarchico/), da frazioni ”leggere” della distillazione del petrolio, dal cracking catalitico delle benzine.

Il butadiene poteva essere polimerizzato insieme ad altre molecole con un solo doppio legame, come lo stirene; nasceva così la chimica delle gomme sintetiche, anche se non spariva la produzione e il consumo di gomma naturale, usata in mescole insieme ai vari tipi di gomma sintetica. Nel 1960 la produzione di gomma sintetica aveva uguagliato quella di gomma naturale, due milioni di tonnellate ciascuna. Nel 2016 la produzione di gomma sintetica era salita a poco meno di 15 milioni di tonnellate, ma anche quella di gomma naturale era aumentata a poco più di 12 milioni di tonnellate. I tre principali paesi produttori sono la Tailandia (4,4 milioni di tonnellate), l’Indonesia, seguiti da Malaysia, India, Vietnam e Cina.

Nel mondo il commercio della gomma, in gran parte trattata e vulcanizzata secondo l’invenzione di Goodyear, riguarda ogni anno oltre 27 milioni di tonnellate di materiali che entrano nei copertoni di automobile e di aereo, nei fili elettrici, nei rulli industriali, nei nastri trasportatori dei raccolti agricoli, nelle scarpe, in innumerevoli merci e processi industriali. Tutto grazie al povero Goodyear.

Nota aggiunta: fu solo circa 40 anni dopo la morte di Goodyear che l’imprenditore Frank Seiberling  acquistò il primo impianto della vecchia società e fondò la Goodyear Tire & Rubber Company, nata nel 1898, che è diventata poi una della maggiori al mondo, ma senza alcun legame con l’inventore iniziale che non fosse il nome medesimo.

Ciclo idrico integrato: la situazione della depurazione.

In evidenza

Mauro Icardi

In questi anni il cambiamento climatico, logiche di sfruttamento intensivo delle risorse idriche e scarsa attenzione all’ecosistema stanno determinando condizioni di vera e propria crisi globale dell’acqua.
L’Italia per altro è in emergenza nel settore fognatura e depurazione dal 2005, e rischia forti multe dopo aver subito già due condanne dalla Corte di Giustizia Europea per depurazione incompleta o non sufficiente a raggiungere standard qualitativi adeguati. La tendenza negli anni è quella di ottenere acque reflue che raggiungano standard di qualità sempre maggiori, e per questa ragione gradualmente si rendono più restrittivi i limiti tabellari per alcuni inquinanti. Questo anche in funzione di un possibile riuso per utilizzo irriguo delle stesse.
Per ottemperare a tali obblighi che per quanto riguarda gli impianti con potenzialità superiori a 100.000 ae (abitanti equivalenti) diventano molto restrittivi sarà necessario intervenire sugli impianti esistenti .
Peraltro, un impianto in condizioni normali di funzionamento riesce a garantire il rispetto dei limiti su BOD, COD e solidi sospesi senza particolari difficoltà. Diverso è invece il caso dei nutrienti per scarichi in aree sensibili. Le quali non rappresentano più solo i laghi, ma per esempio anche l’area del bacino del Po e che quindi vanno ad interessare impianti che precedentemente non sottostavano a limiti così riduttivi (per esempio per quanto riguarda il fosforo totale).
In generale, quindi, si prospetta la necessità di intervenire su un gran numero di impianti di depurazione per far fronte a due ordini di esigenze: incrementarne la potenzialità (come carico trattabile) migliorare le rese depurative (abbattimento in particolare dei nutrienti).

impianti-di-depurazione-acque

Nel caso in cui le caratteristiche del liquame influente non rappresentino un fattore inibente (ad esempio in termini di pH, rapporto BOD/TKN (TKN=total Kjeldahl nitrogen), presenza di sostanze tossiche, ecc.), le condizioni richieste, per conseguire la nitrificazione, sono essenzialmente un adeguato contenuto di ossigeno nel comparto di ossidazione e un’età del fango sufficientemente elevata anche in relazione alla temperatura del liquame.
Gli interventi che possono essere attuati a livello dei pretrattamenti e trattamenti primari hanno l’obiettivo di ridurre il carico in ingresso al reattore biologico e/o il rapporto Carbonio/Azoto, così da favorire la nitrificazione.
Anche l’aggiunta di un sistema di coltura a biomassa adesa permette di migliorare la fase di nitrificazione.
Vi sono due distinte possibilità: un sistema ibrido che viene inserito nel preesistente bacino di ossidazione a fanghi attivi, ed un sistema separato che viene di solito inserito a valle della fase di sedimentazione finale per incrementare le rese di nitrificazione e quindi di abbattimento dell’ammonio.
Si tratta in pratica di fissare la biomassa nitrificante su supporti fissi aventi elevata superfice specifica (per esempio supporti in polietilene o in matrici di gel).

423-it-depuratore-po-sangone-4.jpg

In questo modo viene fatto passare attraverso questo stadio di trattamento un liquame caratterizzato da un rapporto BOD/TKN molto basso, favorevole allo sviluppo di una biomassa nitrificante, in quanto la maggior parte della sostanza organica è stata rimossa nella fase precedente del trattamento.
La separazione del processo biologico in queste due fasi permette maggiori rese singole nei due comparti (ossidazione biologica della sostanza organica e nitrificazione) risolvendo anche problemi gestionali e di conduzione.
Una semplice operazione che può migliorare la resa di nitrificazione è quella di realizzare un bacino di riaerazione della corrente di ricircolo dei fanghi prima del rilancio nel bacino di ossidazione biologica.
Altro problema che si può presentare è dovuto al sovraccarico della fase di ossidazione biologica con un maggior contributo di azoto derivante dal ricircolo dei surnatanti che può variare dal 5 al 25% rispetto all’azoto proveniente dalle acque reflue in ingresso impianto. I sovraccarichi però possono anche raggiungere il 65% dell’azoto entrante, dal momento che i ricircoli sono discontinui nel tempo. Un primo provvedimento da adottare può quindi essere quello di distribuire nell’arco delle 24 ore (eventualmente equalizzandoli) i carichi derivanti dai surnatanti delle fasi di trattamento fanghi, o, meglio ancora, rinviarli all’impianto durante le ore notturne, a basso carico. L’azoto presente nei surnatanti (prevalentemente in forma disciolta) è ammoniacale, nel caso degli ispessitori e dei digestori anerobici, nitroso o nitrico nel caso della stabilizzazione aerobica.

STSTW_GasMixingTypeDigestionTank

Per quanto riguarda la sezione di denitrificazione una possibilità per gli impianti che ricevono reflui speciali, consiste nel dosaggio di rifiuti caratterizzati da elevata concentrazione di carbonio velocemente biodegradabile e trascurabile contenuto di nutrienti, come substrato organico per incrementare le velocità di denitrificazione negli appositi comparti. Occorre però preventivamente verificare ed escludere la presenza di fattori inibenti.
Questi sono alcuni esempi di possibilità di diversa conduzione di impianti, o di modifiche strutturali che non richiedano il completo rifacimento di un impianto non più adeguato a conseguire standard di abbattimento elevati.
Per inquadrare il problema anche dal punto di vista economico credo valga la pena di ricordare che per la riconversione dell’impianto di depurazione di Santa Margherita Ligure, ubicato nel territorio del Parco Naturale Regionale di Portofino, che originariamente era dotato solo di un trattamento primario, è stato dotato di trattamento terziario con filtri a membrana che permettono l’utilizzo dell’acqua depurata come acqua di riuso. Data la particolare ubicazione dell’impianto, adiacente ad un territorio che, pur inserito in un area protetta vede la presenza di stabilimenti balneari e di alberghi, lo si è collocato all’interno di una parete rocciosa per mimetizzarlo e si e costruita una tubazione di 1200 metri che convoglia le acque depurate al largo della costa. Un impianto decisamente all’avanguardia il cui rifacimento è costato venti milioni di euro ed ha una potenzialità tutto sommato media, visto che tratta reflui pari a 36000 abitanti equivalenti, sia pure con le oscillazioni di portata e di carico legate alla fluttuazione stagionale tra stagione turistica estiva e stagione invernale.
Ultima considerazione legata al settore depurazione è quella legata alla necessità di strutturare adeguati laboratori analitici. La normativa vigente (dlgs 152/2006) prevede che il gestore si serva di laboratori interni, o che in alternativa stabilisca convenzioni con altri gestori che ne siano dotati.
E’ prevedibile che in futuro la necessità di ricerca di nuovi parametri (inquinanti emergenti di varia natura) preveda non solo l’utilizzo di nuove tecniche analitiche in maniera generalizzata (spettrometria di massa a plasma con accoppiamento induttivo e gascromatografia-spettrometria di massa), ma che richieda come prescrizione normativa l’accreditamento dei laboratori dei gestori del ciclo idrico. Questa per lo meno è la tendenza che sembra ispirare le scelte in Regione Lombardia.

La serendipità della camola.

In evidenza

Claudio Della Volpe

La “camola” del miele è un tipico verme da pescatore e dato che ogni tanto mi dedico alla pesca conosco questo tipo di esca viva, anche se di solito uso il “cucchiaino”, ossia un pezzo di metallo brillante opportunamente sagomato e che nasconde l’amo.

Galleria Mellonella da Wikipedia

La camola è comodissima come esca viva, si compra in contenitori e si conserva in frigorifero per un pò (la camola usata per scopi alieutici è trattata opportunamente con un breve riscaldamento che ne impedisce l’imbozzolamento e forse ne modifica il set enzimatico); il suo ciclo di vita la qualifica come un parassita delle api, dato che si nutre dei prodotti dell’alveare e la sua forma finale è una farfallina, la tarma maggiore della cera, tecnicamente Galleria mellonella.

La camola è usata per pescare grazie al suo sapore dolce; è uno degli insetti che ho anche provato a mangiare, dato che viene proposto come alternativa alla carne comune in molte ricette basate su insetti, e vi assicuro che è molto buona.

La camola è al centro di una scoperta che rischia di rivoluzionare il nostro modo di gestire il riciclo della plastica comune; il grosso della plastica, dei polimeri prodotti dal petrolio è difficile da riciclare sostanzialmente per il medesimo motivo per cui la usiamo: la sua durabilità, legata alla stabilità del legame C-C che è difficilmente attaccato in natura (solo a certe condizioni).

Si conosce un batterio i cui enzimi sono in grado di degradare il PET, scoperto solo l’anno scorso in Giappone in un discarica di immondizia; la scoperta del batterio, denominato Ideonella sakaiensis 201-F6, è stata pubblicata su Science (A bacterium that degrades and assimilates poly(ethylene terephthalate) Shosuke Yoshida et al. Science 351, 1196 (2016).

Quando cresciuto sul PET questo particolare strain batterico produce due enzimi capaci di idrolizzare il PET e l’intermedio di rezione l’acido mono(2-idrossietil)tereftalico. Entrambi gli enzimi sono richiesti per convertire efficientemente PET in due monomeri molto più amichevoli dal punto di vista ambientale, l’acido tereftalico e l’etilen-glicole.

Shosuke Yoshida et al. Science 351, 1196 (2016)

La velocità digestiva del batterio è di una frazione di mg di PET per ogni cm2 di superficie attaccata e il PET è un poliestere, dunque con una struttura, mostrata in figura, molto più semplice da degradare (i legami sono O-C-O).

Altre specie viventi sono in grado di attaccare invece il legame C-C e sono riportate in letteratura (Penicillium simplicissimum, Nocardia asteroides, il verme Plodia interpunctella, e i due batteri, Bacillus sp. YP1 and Enterobacter asburiae YT1 che vivono dentro di lui), ma la velocità di aggressione è sempre estremamente bassa.

Ora, come si dice, il caso aiuta la mente preparata. E questo è avvenuto con Federica Bertocchini, che si occupa di biologia dello sviluppo.

Federica Bertocchini(da Repubblica del 25 aprile 2017)

La ricercatrice italiana Federica Bertocchini affiliata al Cnr spagnolo e oggi all’Istituto di biomedicina di Cantabria, a Santander. racconta a Repubblica “Io in realtà mi occupo di biologia dello sviluppo: studio gli embrioni. La scoperta del bruco mangiaplastica è avvenuta per caso. Ho l’hobby dell’apicoltura, e l’abitudine – in inverno – di tenere gli alveari vuoti in casa. Nel tirarli fuori per la primavera, l’anno scorso mi sono accorta che erano pieni di questi bachi. Così li ho ripuliti, raccogliendo i bachi in una borsa di plastica. Qualche ora dopo era già piena di buchi e le larve libere”

Federica non si è fatta pregare, ha subito capito che aveva trovato una miniera d’oro in quelle camole. E questa è serendipità, il caso aiuta la mente preparata.

Il risultato di una indagine più approfondita è stato pubblicato su Current Biology (Current Biology 27, R283–R293, April 24, 2017)

Come si vede la velocità di aggressione del bruco nei confronti della plastica del sacchetto è di ordini di grandezza superiore rispetto a quello di altri organismi trovati in natura (un bruco in 12 ore mangia quasi 1mg di PE). La camola sembra essere capace non solo di aggredire meccanicamente ma di digerire il PE; questo è stato provato analizzando lo spettro IR del materiale dopo digestione; si è trovata la presenza di etilenglicole; si pensa quindi che un sistema enzimatico del bruco sia in grado di fare una reazione simile a quella del batterio giapponese ma ad una velocità molto più elevata.

Tuttavia ci sentiamo di chiosare la scoperta indicandone anche i limiti: da una parte le camole sono nemiche delle api, dunque attenzione ai possibili effetti collaterali di una diffusione delle camole, come mangiatori diretti della plastica; meglio sarebbe individuare ed usare l’enzima o il sistema enzimatico; e comunque anche questo non dovrebbe essere una scusa per tornare indietro lungo la strada del riciclo dei materiali, ma anzi dovrebbe essere usato proprio per riciclare a partire dai prodotti di degradazione.

Altri studi saranno necessari per comprendere l’esatto meccanismo del processo digestivo della umile camola, (o casomai di qualcuno dei suoi ospiti batterici) un vermetto da pescatore pieno di segreti incredibili (notate che nessun giornale quotidiano o la TV ha capito di cosa si tratta, parlano tutti di un bruco, un verme e casomai qualche giornalista pescatore l’avrà anche usato, ma solo Le Scienze cita la camola).

Non c’è che dire la vita è la reazione chimica meglio riuscita! E un brava a Federica, una biologa dello sviluppo dotata di serendipità.

Analisi di inchiostri

In evidenza

Luigi Campanella, ex Presidente SCI

Sono stato di recente interpellato per un problema molto interessante : la datazione dei documenti e delle relative firme. Si tratta di un lavoro difficile: ritengo utile postare quanto ho scritto in attesa di commenti migliorativi in favore della verità e contro le falsificazioni documentarie.

La letteratura internazionale riporta che, dal momento della sua deposizione sul supporto cartaceo, un inchiostro subisce una serie di processi chimici (evaporazione del solvente, polimerizzazione della resina, ossidazione dei componenti cromatici), comunemente indicati come “invecchiamento”. Uno dei risultati pratici dell’invecchiamento è una continua riduzione della solubilità (estraibilità) dell’inchiostro nei confronti di una prima azione di un solvente debole e successivamente di un solvente forte.

La valutazione del grado di estraibilità costituisce pertanto un indice del grado di invecchiamento di una scrittura, e quindi della data reale di produzione della scrittura medesima, che trova ampia applicazione nelle analisi forensi.

Il rapporto tra la quantità di inchiostro estratta dal solvente debole e la quantità totale di inchiostro (estrazione di solvente debole + solvente forte) è indicativo della data di produzione di una scrittura all’interno del periodo di maturazione dell’invecchiamento stesso, esaurito il quale non si riscontrano ulteriori modificazioni.

L’andamento del processo di invecchiamento è tale per cui la sensibilità della tecnica è tanto maggiore quanto minore è il tempo trascorso dalla produzione della scrittura all’analisi. Trattasi di un metodo distruttivo che si limita all’applicazione solamente a taluni pigmenti di inchiostro di penna (tipicamente di tipo oleoso come nel caso di una penna a sfera) e non può dare una risposta “accurata” riguardo alla datazione. In alcuni lavori (bibliografia 13) si conclude, proprio sulla base di 2 differenti approcci (uno lento ed uno veloce) che forniscono risultati significativamente diversi, sulla relativa impossibilità di datazione accurata degli inchiostri deposti.

In ogni caso è pressoché impossibile stabilire se due diverse scritture siano state apposte nell’arco di breve tempo l’una dall’altra (ore o giorni).È possibile invece la sequenza temporale dei tratti grafici che stabilisce se una scrittura, ad esempio una firma, è stata apposta prima o dopo un’altra. Però questa metodologia è possibile solo in presenza di sovrapposizione dei tratti delle due scritture (olografia conoscopica).

Dalla letteratura emerge anche come la datazione dei documenti manoscritti sia sempre molto approssimativa e non sia possibile esprimere mai un parere di certezza tecnica e ciò per svariati motivi, quali la mutazione degli inchiostri (pigmentazione) e dell’attrezzo scrittorio, dell’esposizione del documento in esame a fonti di calore, raggi solari, caldo, freddo, fonti di luce, agenti atmosferici, ecc. che peraltro interferiscono in modo diverso al variare del tipo di inchiostro.Se, ad esempio, un documento manoscritto con penna a biro viene esposto ai raggi solari, o posto in un forno, viene invecchiato di molti anni. Inversamente nel caso di collocazioni in freezer.

L’olografo commerciale (Conopoint3 della Ofir) è in pratica un profilometro.

Comunque la Chimica Analitica ha applicato al problema metodi più sofisticati. L’analisi degli inchiostri può essere infatti effettuata con spettrometria Raman e spettroscopia di fluorescenza a raggi X (XRF), impiegando sia strumenti portatili, sia strumenti da banco. La spettrometria Raman fornisce informazioni sui composti impiegati, la spettroscopia XRF, identifica gli elementi-chiave e dà informazioni addizionali sugli elementi presenti in tracce, permettendo così di evidenziare le differenze di distribuzione elementare tra zone diverse del manoscritto. Anche l’HPLC, la cromatografia liquida a fasi invertite in qualche caso con pre-estrazione in fase solida, e la Gas-massa (GC-MS), sono state applicate all’analisi chimica degli inchiostri per risalire dalla loro composizione, alterata rispetto all’originale dal processo di invecchiamento, alla data di applicazione. Sono anche noti metodi ancor più articolati come quello di usare diagrammi ternari costruiti per i coloranti presenti nell’inchiostro, ma anche in questo caso sono riportate datazioni errate per campioni esposti per tempi prolungati alla luce di lampade a fluorescenza od a quella solare o a fonti di calore. Anche metodi più semplici come la spettrofotometria UV-Visibile o i.r. con misure di assorbanza, l’analisi elettrostatica (ESDA) hanno trovato applicazioni. In studi più recenti anche il microscopio elettronico e la datazione al radio carbonio (ovviamente nel caso di documenti antichi) ha fornito risultati di un certo interesse.

applicazione dell’olografica conoscopica. http://www.ilgrafologo.it/doc/29-34.PDF

Si è già accennato ad un altro metodo, l’olografia conoscopica che è in grado di effettuare delle “scansioni” non a contatto con elevatissima precisione (micrometrica) e ripetibilità del campione oggetto della misura. Il file che viene generato è composto dalla terna X-Y-Z di ogni singolo punto campionato, il che significa che anche nel caso di una scansione di un’area limitata possiamo dare origine ad un file composto anche da qualche milione di punti X-Y-Z, file che viene anche chiamato in gergo “nuvola di punti”.Occorre inoltre notare che il sistema rileva la mappa topografica del campione, conseguentemente non ha alcuna importanza il colore dell’inchiostro o della carta e tantomeno la mano o le mani che hanno tracciato i tratti. È anche possibile rilevare dei solchi che sono stati marcati e poi cancellati;l’apparecchiatura 3D consente di effettuare delle misure inerenti alla profondità dei solchi, alla larghezza degli stessi, ecc.

Due altri aspetti che rappresentano elementi di incertezza e che devono essere valutati riguardano la carta che invecchiando, dal momento della sua fabbricazione, è soggetta anch’essa ad un processo di invecchiamento (produzione di gruppi carbossilici e frammentazione della catena cellulosica) che potrebbero influenzare il processo estrattivo.Inoltre nella costituzione della carta sono presenti ioni metallici in traccia, peraltro distribuiti casualmente e disomogeneamente: anche questi possono influenzare il processo estrattivo ostacolandolo

CONCLUSIONI

La determinazione dell’età di un inchiostro deposto è problema complesso e di non semplice soluzione in quanto il processo di invecchiamento risulta in misura determinante influenzato dalle condizioni di conservazione (temperatura, illuminazione, ambiente chimico) nonché dall’invecchiamento della carta e dalla sua composizione.Il metodo dell’estrazione risente in particolare di queste dipendenze, anche se è fra quelli più impiegati.La correlazione fra maturazione e completamento del processo di invecchiamento ed estraibilità alla base di tale metodo- applicato al caso in questione -ha anche una dipendenza dalla cinetica del processo stesso e dalla dificoltà di definire uno standard. Metodi più sofisticati sono certamente in grado di fornire risposte più accurate (a questo proposito rispetto a quanto riportato nel post c‘è da osservare che non si tratta di problemi di precisione, che è invece fondamentale per definire gli intervalli di incertezza, necessari per dare significatività alle misure al fine di dare significatività ad eventuali differenze), ma richiederebbero campionamenti nuovi (visto il carattere distruttivo del metodo per estrazione), introducendo quindi un ulteriore elemento di incertezza.

BIBLIOGRAFIA DI RIFERIMENTO

  1. Ellen: Scientific examination of Documents: Methods and Techniques. CRC Taylor & Francis Publishers; International Forensic Science and Investigation Series; New York, NY, USA, 2005.
  2. Giuntini, F. Lucarelli, P.A. Mandò, W. Hooper, P.H. Barker, “Galileo’s writings: chronology by PIXE”, Nucl. Instr. & Meth. B, 95, 389 (1995).
  3. Andrasko J., Changes in Composition of Ballpoint Pen Inks on Aging in Darkness, SKL, National Laboratory of Forensic Science, Linkoping, Swed, Journal of Forensic Sciences (2004), 47(2), 324-327.
  4. Mitchell C. Ainsworth, Estimation of the age of ink in writing, International Journal of Forensic Forensic Document Examiners (1995), 1(1), 56-62.
  5. Brunelle RL, Cantu A., A Critical Evaluation of Current Ink Dating Techniques, Bur. Alcohol, Tob. Firearms. Rockville, MD, USA. Journal of Forensic Sciences (1987), 32(6), 1522-36.
  6. Valery N. Aginsky, Writing media and documents, Riley, Welch and Aginsky, Forensic Documents Examinations, Inc., Lansing, MI, USA, Handook of Analytical Separations (2008), 6(Forensic Science), 923-941. Publisher: Elsevier B.V.
  7. LaPorte Gerald M, Wilson Jeffrey D, Cantu Antonio A, Mancke S Amanda, Fortunato Susan L The identification of 2 – phenoxyethanol in ballpoint   inks   using   gas   chromatography / mass   spectrometry — relevance to ink   dating.   Journal of forensic sciences (2004), 49(1), 155-9.
  8. Valery N. Aginsky, A microspectrophotometric method for dating   ballpoint   inks –a feasibility study. Journal of Forensic Sciences (1995), 40(3), 475-8.
  9. Andrasko Jan SKL, Changes in composition of ballpoint pen inks on aging in darkness, National Laboratory of Forensic Science, Linkoping, Sweden Journal of forensic sciences (2002), 47, (2), 324-7.
  10. Wang, Yan; Yao, Lijuan; Zhao, Pengcheng; Wang, Jinghan; Wang, Yanji. Determination of the writing   age of blue   ballpoint   ink by gas   chromatography. Sepu (2005), 23(2), 202-204. Publisher: Kexue Chubanshe.
  11. Hofer, R. Dating of ballpoint   pen   ink. Journal of Forensic Sciences Division , Document Laboratory, Zurich Canton Police, Zurich, Switz, (2004), 49(6), 1353-1357.
  12. Lociciro, S.; Dujourdy, L.; Mazzella, W.; Margot, P.; Lock, E., Dynamic of the aging of ballpoint pen   inks : quantification of phenoxyethanol by GC – MS. Institut de Police Scientifique et de Criminologie, University of Lausanne, Lausanne-Dorigny, Switz.   Science & Justice (2004), 44(3), 165-171. Publisher: Forensic Science Society,
  13. Wilson, Jeffrey D., LaPorte, Gerald M., Cantu, Antonio A., Differentiation of black   gel   inks   using   optical and chemical   techniques, Forensic Services Division, Questioned Document Branch, United States Secret Service, Washington, DC, USA.   Journal of Forensic Sciences (2004), 49(2), 364-370.
  14. Wild Eva Maria, Stadler Peter, Bondar Maria, Draxler Susanne, Friesinger Herwig, Kutschera Walter, Priller Alfred, Rom Werner, Ruttkay Elisabeth, Steier Peter, New   chronological   frame for the Young   Neolithic   Baden   Culture in Central   Europe ( 4th   millennium   BC ), Vienna Environmental Research Accelerator (VERA), Institut fur Isotopenforschung und Kernphysik, Universitat Wien, Vienna, Austria.   Radiocarbon (2001), 43(2B), 1057-1064.
  15. Kher Ashwini A., Green Elinore V., Mulholland Mary I., Evaluation of principal   components   analysis with high – performance   liquid chromatography and photodiode   array   detection for the forensic   differentiation of ballpoint   pen   inks. Department of Chemistry, Materials and Forensic Science, University of Technology, Sydney, Australia.   Journal of Forensic Sciences (2001), 46(4), 878-883.
  16. Puchegger, S.; Rom, W.; Steier, P., Automated   evaluation of 14C   AMS  measurements.      Vienna Environmental Research Accelerator, Institut fur Isotopenforschung und Kernphysik der Universitat Wien, Vienna, Austria.   Nuclear Instruments & Methods in Physics Research, Section B: Beam Interactions with Materials and Atoms (2000), 172 274-280.
  17. Carla Vogt,1 Ph.D.; Andreas Becker,1 B.Sc.; and Jürgen Vogt,2 Ph.D., investigation of ball point pen inks by capillary electrophoresis (CE) with UV/Vis absorbance and laser induced fluorescence detection and particle induced X-Ray emission (PIXE), Institute of Analytical Chemistry, University of Leipzig, Germany, Journal of Forensic Sciences (1999), 44(4), 819-831.
  18. Aginsky, Valery N., Measuring   ink extractability as a function of age – why the relative   aging   approach is unreliable and why it is more correct to measure   ink   volatile   components than dyes, American Academy of Forensic Sciences, New York, NY, USA.   International Journal of Forensic Document Examiners (1998), 4(3), 214-230.
  19. Stuiver, Minze; Reimer, Paula J.; Bard, Edouard; Beck, J. Warren; Burr, G. S.; Hughen, Konrad A.; Kromer, Bernd; McCormac, Gerry; Van Der Plicht, Johannes; Spurk, Marco, INTCAL98   radiocarbon   age   calibration , 24,000-0 cal BP, Quaternary Isotope Laboratory, University of Washington, Seattle, WA, USA.   Radiocarbon (1998), 40(3), 1041-1083.
  20. Wild, Eva; Golser, Robin; Hille, Peter; Kutschera, Walter; Priller, Alfred; Puchegger, Stephan; Rom, Werner; Steier, Peter. First   14C results from archaeological and forensic studies at the Vienna   environmental research accelerator. Institut fur Radiumforschung und Kernphysik, Vienna Environmental Research Accelerator, Universitat Wien, Vienna, Austria. Radiocarbon (1998), 40(1), 273-281.
  21. Cantu, Antonio A., A sketch of analytical   methods for document dating Part I. The static approach: Determining age independent analytical profiles. International Journal of Forensic Document Examiners (1995), 1(1), 40-51.
  22. Aginsky, Valery N. Some   new   ideas for dating   ballpoint   inks — a   feasibility   study. Interior, Moscow, Russia, Journal of Forensic Sciences (1993), 38(5), 1134-50.
  23. Stewart, Larry F. Ballpoint   ink age determination by volatile   component   comparison – a preliminary study. Forensic Serv. Div., U. S. Secret Serv., Washington, DC, USA. Journal of Forensic Sciences (1985), 30(2), 405-11.
  24. Burleigh, Richard; Baynes-Cope, A. D.,   Possibilities in the dating of writing   materials and textiles, Lab., Br. Mus., London, UK, Radiocarbon (1983), 25(2), 669-74.
  25. Brunelle, Richard L.; Pro, Maynard J. Systematic   approach to ink   identification. Firearms Div., Intern. Revenue Serv., Washington, DC, USA, Journal – Association of Official Analytical Chemists (1972), 55(4), 823-6.
  26. Hofer, R. Dating of ballpoint   pen   ink, Forensic Science Division, Document Laboratory, Zurich Canton Police, Zurich, Switz, Journal of Forensic Sciences (2004), 49(6), 1353-1357.
  27. L. Brunelle & K.R. Crawford: Advances in the forensic analysis and dating of writing ink. C.C. Thomas Publisher, Springfield, IL, USA, 2003

Library Everywhere: una biblioteca per tutti

In evidenza

Alfredo Di Nola*

Un progetto di volontariato a cui tutti possono partecipare

Sviluppato da Alfredo Di Nola, Nico Sanna e Gianluca Sbardella

http://www.libraryeverywhere.com

Nei paesi in via di sviluppo, ma non solo, molte scuole e molte piccole comunità, che in realtà rappresentano una gran parte della popolazione mondiale, non hanno una biblioteca e non potranno mai averne una. Questo perché una biblioteca tradizionale, anche piccola, è molto costosa. Richiede una stanza abbastanza grande, attrezzata con scaffali, tavoli e sedie.

Inoltre ha bisogno di condizioni climatiche (quali umidità, temperatura e altro) controllate per fare in modo che i libri non si deteriorino nel tempo.

E ancora, va continuamente aggiornata e ha bisogno di un bibliotecario, più o meno esperto, cioè di una persona che sia in grado di acquistare i libri, catalogarli e gestire il prestito.

Si può calcolare che una biblioteca di 3-4000 libri, in cui già ci siano le mura può costare circa 15.000 euro, considerando che ci sono comunque dei lavori da fare all’interno e l’arredamento da procurare.

I libri sono per noi una cosa molto comune, ma per queste comunità sono spesso una cosa molto rara perché magari il paese più vicino, dove poter andare per prendere un libro, dista parecchi chilometri o perché le strade sono difficilmente accessibili.

Oggi, con la possibilità di avere i libri digitali, le cose possono essere molto più semplici e per questo abbiamo pensato di creare una biblioteca di libri digitali, che offre molti vantaggi rispetto a una biblioteca cartacea.

Caratteristica di questa biblioteca è quella di essere contenuta in una pen-drive. Può essere facilmente installata in uno o più pc, dove si troveranno il catalogo e ovviamente i libri. Può essere liberamente duplicata: in pratica è pensata per essere virale.

I libri si potranno leggere sia sullo schermo del pc, sia su un lettore di libri digitali, chiamato e-reader. Nel catalogo sono inoltre incluse informazioni sui singoli autori e sui libri.

Il costo di tutti questi oggetti è circa il seguente: un pc che possa contenere il catalogo e i libri può costare intorno ai 250 euro e un lettore di libri digitali intorno ai 70-80 euro, anche meno, e quindi con 500 euro si ha già a disposizione un sistema funzionante. La pen-drive viene fornita gratuitamente.

C’è da considerare che in molti casi le scuole o le comunità già possiedono uno o più pc per cui, almeno all’inizio, potranno non spendere nulla.

Questa biblioteca non richiede alcuna connessione a internet; questo può sembrare un controsenso, trattandosi di una biblioteca digitale, ma occorre tener presente che circa il 50% della popolazione mondiale non ha accesso diretto a internet e spesso, quando lo ha, è molto ballerino, anche perché la fornitura di energia elettrica è discontinua e solo per poche ore al giorno. A questo inconveniente si può sopperire con un piccolo pannello solare (ormai se ne trovano portatili e a un costo relativamente basso) e/o un piccolo accumulatore. Inoltre gli e-reader hanno un’autonomia che può arrivare fino ad alcune settimane.

La nostra biblioteca verrà costantemente implementata con l’aggiunta di libri e può essere aggiornata collegandosi al nostro server.

Per questa operazione serve ovviamente il collegamento a internet e potrà essere fatta andando in un internet point, se non si possiede già un collegamento autonomo.

Come abbiamo già detto, il catalogo, l’aggiornamento e la classificazione dei libri saranno fatti da noi e pertanto non sarà necessario un bibliotecario esperto.

Attualmente abbiamo estratto dalla rete libri in inglese esenti dal diritto d’autore.

Purtroppo i libri esenti dal diritto d’autore arrivano fino ai primi del novecento. Ne abbiamo selezionati circa 1000 e abbiamo creato il catalogo. Questi sono adatti a tutti i gusti: si va dalle favole dei fratelli Grimm o di Perrault, ai libri della Austen, Alcott, London, Conrad, Dumas, Verne, Conan Doyle, Balzac, Dickens, Stevenson, Defoe, Twain, Tolstoj, Dostoevskij, Proust ecc.

Noi speriamo che editori di libri in inglese vogliano aiutarci regalandoci un po’ di classici più recenti.

Oltre ai libri di letteratura abbiamo anche un corso scolastico completo dalla prima alla dodicesima classe, per un totale di oltre 200 libri.

Nel 2016 abbiamo provato il funzionamento della biblioteca in due scuole in Kerala ed è stato un buon successo. Abbiamo quindi perfezionato il tutto e da pochi mesi ci stiamo occupando della diffusione dell’iniziativa.

In realtà questa biblioteca può essere utile anche nelle scuole del cosiddetto mondo sviluppato. Ad esempio può essere molto utile nelle scuole come supporto a corsi di lingua inglese, sia in Italia che nel resto d’Europa. Quasi tutte le scuole hanno ormai un’aula di informatica; si può gratuitamente installare la Library Everywhere nei loro pc e gli studenti potranno sia copiarla tutta sul loro pc, sia scegliere un libro dal catalogo e leggerlo su uno smartphone, un e-reader o sul loro pc o tablet.

 

Come contribuire

 

Chiunque può ottenere la pen-drive contenente la biblioteca con i programmi per installarla e aggiornarla. In alternativa può scaricarla dal nostro server.

La Library Everywhere è pensata per essere virale, cioè può essere liberamente installata e duplicata.

Si può contribuire alla sua diffusione in molti modi, quali ad esempio:

  • Diffusione del progetto presso associazioni (ONLUS, enti, parrocchie ecc.), che siano interessate a installare la biblioteca in scuole e comunità nei Paesi in via di sviluppo.
  • Diffusione del progetto attraverso articoli su giornali e interviste televisive.
  • Diffusione attraverso contatti diretti con enti governativi italiani o stranieri.
  • Contatti diretti con comunità o scuole ubicate nei Paesi in via di sviluppo.
  • Installazione della biblioteca in scuole europee come supporto ai corsi di lingua inglese.
  • Richieste a editori di libri in inglese di contribuire donando e-book esenti dal diritto d’autore, almeno per la parte digitale.
  • …..

Le limitazioni sono le seguenti:

  1. Il catalogo della Library Everywhere richiede il sistema operativo Windows (da 7 in poi)
  2. Non può essere modificata in nessun modo e va diffusa con il suo nome e facendo riferimento al nostro sito.
  3. Non può essere usata per fini commerciali.
  4. Non è necessaria nessuna autorizzazione preventiva per la sua diffusione, ma noi apprezzeremo molto se ogni nuova installazione sarà comunicata via mail a alfredo@dinola.it indicando i nomi e i recapiti dei proponenti e dei gestori.

 

Un dubbio

Questo si può considerare colonialismo culturale?

Rispondo con un mio scritto a proposito degli aiuti all’Africa sub-sahariana.

Perché aiutare l’Africa?

Chiunque sia andato in Africa è rimasto commosso nel vedere che gli Africani spesso dormono distesi per terra su una stuoia o nel vedere le donne che compiono lunghi percorsi per approvvigionarsi di acqua, anche là dove per trovarla (come nella foresta equatoriale) sarebbe sufficiente scavare un pozzo di una quindicina di metri.

L’istinto sarebbe di fornire loro i letti e di scavare i pozzi. Ma dovremmo prima domandarci se ciò sia giusto.

La costruzione di un letto non è molto difficile, come pure scavare un pozzo non troppo profondo. Gli Africani lo sanno e se non lo fanno ciò dipende dalla loro cultura. Infatti, l’Africano tende a vivere in equilibrio con la natura e a differenza di noi non tende a modificarla. Per questo non ha costruito edifici memorabili, come le nostre cattedrali e non ha costruito strade come hanno fatto gli antichi Romani o costruito dighe o acquedotti.

Questo aspetto della loro civiltà ha dei vantaggi: ad esempio non distrugge l’habitat e non porta il mondo alla rovina per la produzione di anidride carbonica o di altri veleni. Se il mondo rischia la catastrofe ecologica, questo lo deve a noi occidentali.

Quindi alla domanda se dobbiamo essere noi a costruire letti, strade, acquedotti dovremmo rispondere di no.

Un’altra cosa che incute orrore sono le bidonville, che circondano le grandi città, con il loro carico di dolore. Ma se ci pensiamo un attimo dobbiamo concludere che le bidonville le abbiamo portate noi. Nell’Africa sub-sahariana non esistevano grandi città e quindi le bidonville. Queste sono il frutto della interazione col nostro mondo.
Anche questo aspetto dovrebbe farci riflettere sulla presunta superiorità della civiltà occidentale.

Potremmo concludere che non dobbiamo costruire nulla, ma almeno aiutarli a curare le malattie che li affliggono come malaria, tubercolosi e aids. Sappiamo che la mortalità infantile è molto alta e che la vita media è incomparabilmente più bassa della nostra.

Anche in questo caso dobbiamo prima riflettere. Sappiamo che una donna africana arriva anche ad avere dieci gravidanze nella sua vita e che solo tre o quattro figli raggiungono l’età adulta. Se avessimo la bacchetta magica e potessimo debellare in un colpo tutte le loro malattie, la conseguenza sarebbe un’esplosione demografica in assenza di lavoro per tutti e di cibo. Dobbiamo quindi concludere che anche in questo caso gli Africani hanno raggiunto un equilibrio con la natura e che sarebbe bene non fare nulla.

Ma è proprio così?

Se l’Africa fosse un sistema chiuso e isolato forse sarebbe opportuno lasciarla nel suo equilibrio.

Tuttavia l’Africa da sempre è stata in contatto con le altre civiltà, in particolare con la nostra, che, a differenza della loro, tende a sopraffare le altre, come è accaduto ad esempio con i nativi americani. Al contatto col nostro mondo l’Africano non ha difese da opporre né culturali, né fisiche e ciò è fonte da sempre di enormi catastrofi.

In conclusione è giusto aiutare l’Africa e in questo caso cosa dovremmo fare?

La mia risposta è che, poiché non è un sistema isolato, dobbiamo cercare di aiutarla e che il problema è soprattutto culturale. Quindi dobbiamo aiutare l’Africano ad avere gli strumenti culturali per affrontare e risolvere i suoi problemi.

Questo vuol dire che non dobbiamo cercare di debellare le malattie?
Anche in questo caso occorre agire contemporaneamente su più fronti: ad esempio diminuire la mortalità, ma anche permettere uno sviluppo demografico sostenibile. Questo ultimo si ottiene solo attraverso una diffusione della cultura.

Credo di aver chiarito che la diffusione della cultura sia, secondo la mia opinione, una condizione irrinunciabile per lo sviluppo dell’Africa.

Ma sorge subito un’altra domanda: cosa dobbiamo insegnare?

Dobbiamo parlare di Aristotele? Dobbiamo parlare delle guerre napoleoniche? Dobbiamo portare la nostra cultura e trasformarli in tanti piccoli lord?

La mia risposta è no. Portare la cultura non è così semplice come si potrebbe pensare. Per non trasformare gli Africani in occidentali dobbiamo certamente far loro conoscere la nostra cultura, ma lo scopo deve essere quello di aiutarli a sviluppare la loro. Questo è, secondo me, l’aspetto più difficile, che va affrontato con estrema cautela.

*Alfredo Di Nola, alfredo@dinola.it

Alfredo Di Nola è nato a Roma ed è laureato in Fisica.

Ordinario di Chimica Fisica,  presso il Dipartimento di Chimica della Sapienza-Roma. Attualmente è in pensione. La sua attività di ricerca è stata principalmente focalizzata nell’ambito della Chimica-Fisica teorica e computazionale, mediante simulazioni di dinamica molecolare classica e quantistica. Dal 2004 si occupa di volontariato nell’ambito della diffusione della cultura.

 

Inquinamento ed estrazione mineraria.

In evidenza

Claudio Della Volpe

Due notizie di questi giorni mettono al centro uno dei problemi più importanti nella gestione delle risorse minerarie ed in genere delle risorse, ossia il crescente inquinamento prodotto da un approccio che privilegia il profitto e non la gestione razionale, che danneggia dunque noi tutti come passeggeri di una nave cosmica che non ha zattere di salvataggio o sostituti.

In parte questi problemi sono dovuti al fatto che le risorse minerarie non sono infinite e che dunque certi problemi sono inevitabili: i costi crescono a causa del crescente impoverimento dei giacimenti; il problema è che chi estrae cerca di scaricarli sempre più sulla comunità con comportamenti che privilegiano l’attività privata e non il bene pubblico.

Da una parte la Regione Basilicata ha sospeso l’attività del Centro Oli di Viggiano dell’ENI, poichè l’ENI non ha rispettato le norme anti-inquinamento ed i prodotti dell’attività estrattiva si sono riversati ripetutamente nell’aria, nella terra e forse nel fiume Agri; dall’altra El Salvador il più piccolo stato centro-americano, affacciato sul Pacifico ha approvato una legge che vieta quasi completamente l’attività mineraria che ha portato finora (insieme principalmente all’agricoltura estensiva) all’inquinamento del 90% delle acque superficiali; e questo dopo una lotta legale e politica contro i giganti economici multinazionali che estraggono soprattutto oro.

Vi racconto le due storie, che mi sembrano per molti aspetti simili, brevemente.

El Salvador , 21000 kmq di foreste affacciate sul Pacifico, è stato anche teatro di una lunghissima guerra civile. Finalmente nel 1992 c’è stato un accordo fra le due fazioni politiche e nel 2009 le sinistre hanno vinto le elezioni.

Geograficamente El Salvador è caratterizzato da un territorio esposto al clima oceanico con una densità di popolazione di circa 300 ab/kmq (50% più dell’Italia); molti giacimenti minerari e agricoltura estensiva. Il fiume principale è il Lempa, navigabile per molte miglia ed intensamente sfruttato; diverse dighe lungo il suo percorso consentono l’irrigazione e la produzione di rilevanti quantità di energia idroelettrica. A sud del suo bacino, si è sviluppata la coltivazione di agave sisalana, pianta utile alla fabbricazione di corde, spago, cappelli e tappeti ed altri manufatti. Le attività industriali e agricole nel bacino del Lempa ne hanno però fortemente inquinate le acque, ormai per gran parte non potabili, a causa dell’uso massiccio di prodotti chimici. (da wikipedia)

(ovviamente per chimici wikipedia intende di sintesi).

La goccia che ha fatto traboccare il vaso, creando un vero e proprio movimento sociale, è stata la cava progettata dalla Pac Rim Cayman. La società, controllata della canadese-australiana OceanaGold, aveva ottenuto una licenza per aprire una miniera d’oro nella provincia settentrionale di Cabañas, licenza respinta nel 2005 per non aver soddisfatto tutti i requisiti di legge.

Con la crescita dell’opposizione al progetto, sono aumentati anche gli scontri intorno alla miniera, causando la morte di diversi attivisti. La questione si è risolta lo scorso anno attraverso un arbitrato commerciale internazionale. Il tribunale ha dato ragione al governo salvadoregno, respingendo tutte le richieste della società. La OceaneaGold è stata condannata a pagare un risarcimento di 8 milioni di dollari a cui si aggiunge un ulteriore, multa per (NON) aver ancora versato la somma.

http://www.rinnovabili.it/ambiente/el-salvador-bandire-miniere-di-metalli-666/

L’arbitrato è durato anni ed è costato moltissimo allo stato di El Salvador; è un esempio delle procedure previste da accordi come TTIP (che noi finora ci siamo scansati) e che prevedono che una multinazionale, a determinate condizioni, possa chiamare in giudizio uno stato che fa leggi che impediscono di realizzare profitti; nel caso specifico ripeto siamo dovuti arrivare ad un inquinamento del 90% delle acque per far bloccare ulteriori inquinamenti.

Stranamente in queste regole non è previsto il contrario, ossia che se una multinazionale inquina poi non solo paga, ma se per questo deve interrompere la sua attività, dovrebbe comunque continuare a pagare le royalties promesse al momento iniziale e su cui i bilanci pubblici si sono basati. E di questo vediamo le conseguenze in Basilicata.

http://www.internazionale.it/notizie/2017/01/31/salvador-pace-anniversario

I difensori della nuova legge dimostrano la propria soddisfazione davanti al Parlamento. (Marvin Recinos / AFP)

La situazione della Basilicata in parte la conoscete se avete seguito le vicende del referendum contro le trivellazioni; in quel periodo tutti i giornali erano anche pieni della questione Guidi – Gemelli; per quella indagine su una conversazione fra i due relativa al fatto che il Governo stava per approvare un investimento che avrebbe facilitato la vita di Gemelli, compagno della Guidi e procacciatore d’affari per Total, la Guidi si dimise e Gemelli è stato indagato insieme ad altri. Pochi giorni fa l’indagine si è chiusa con un nulla di fatto sulla questione per quanto riguarda lo stralcio di indagine riguardante Gemelli (Total, Tempa Rossa); (la conversazione c’è stata ma non si può provare la corruzione o l’interesse privato); ma la questione non si è chiusa sul fronte inquinamento (ENI, COVA).

Sono due i filoni principali delle indagini : il primo sul Centro Oli in Val d’Agri a Viggiano dell’Eni, (COVA) , l’altro sull’impianto estrattivo della Total a Tempa Rossa. La questione Guidi riguardava i permessi e la gestione di Tempa Rossa, mentre l’inquinamento riguarda il Centro Oli ed ENI (COVA). Per maggiori informazioni leggete qui:

https://oggiscienza.it/2016/04/01/petrolio-basilicata-eni-inchiesta/

https://oggiscienza.it/2016/07/27/centro-oli-viggiano-inchiesta/

Per l’inquinamento dovuto all’attività estattiva furono condannati in vario modo 6 dei 60 imputati. La questione è complessa e ingarbugliata e soprattutto l’attenzione mediatica alle vicende Guidi-Gemelli ha rischiato di far passare in secondo ordine quelle ben più serie dell’inquinamento dovuto ad errori di gestione od a vere e proprie truffe agite da alcuni e per le quali alcuni funzionari dell’Eni erano stati arrestati (cambio dei codici dei rifiuti, inquinamento dell’acqua e del suolo per scarico di ammine e di sotto prodotti gassosi del raffinamento del gas e del petrolio).

Ad agosto scorso il COVA, che era stato sequestrato, fu dissequestrato per permettere all’Eni di eseguire le modifiche impiantistiche che avrebbero dovuto risolvere l’inquinamento. Una delle conseguenze del sequestro (ma sarebbe giusto dire degli errori dell’ENI) è stata l’interruzione delle attività e la conseguente riduzione delle royalties pagate alla Regione e ai Comuni interessati, cosa che ha mandato in crisi i bilanci regionali e comunali; ma di questo non possono essere considerati responsabili gli ambientalisti e i comitati che si oppongono all’inquinamento, ma solo i responsabili dell’inquinamento e chi non ha rispettato le leggi.

Cosa sta succedendo adesso?

Nulla di nuovo; a seguito di recenti controlli dell’ARPAB, si sono trovati ferro, manganese e IPA (idrocarburi policiclici aromatici) nell’area del COVA adiacente al fiume Agri col rischio di inquinamento del fiume stesso e dell’acquedotto del Pertusillo. L’ENI ha chiuso nuovamente il COVA su ordine della Regione.

Così si esprime un giornale locale riassumendo la vicenda che dura ormai da più di un anno:

Il 19 aprile scorso, dopo la conferma del sequestro da parte del Tribunale del Riesame, cui l’Eni aveva presentato ricorso, e del blocco dell’attività, vi fu un ricorso in Cassazione e l’Eni, promise di individuare alcune soluzioni e così lo scorso agosto venne dissequestrato l’impianto, ma con diverse problematiche anche su altre zone e per diversi dipendenti, mentre ad oggi si sostiene che tale contaminazione è andata oltre e dopo la notizia diramata nei giorni scorsi dalla Giunta Regionale della Basilicata per il blocco delle estrazioni petrolifere, alle ore 14.30, di oggi, martedì 18 aprile, a Potenza, il presidente della Regione Basilicata, Marcello Pittella, subito dopo le vacanze di Pasqua, terrà una conferenza stampa per fare il punto della situazione e incontrerà i giornalisti nella Sala Verrastro, al primo piano di viale Vincenzo Verrastro 4. Mentre giunge anche un’appello dall’Ing. Alberti all’Eni e al sindaco di Viggiano, Amedeo Cicala, di realizzare urgentemente una profonda trincea lungo il fiume Agri, prima che il petrolio lo contamini e con esso anche il Pertusillo.

(per i risultati di questo incontro si veda qui).

Mi chiedo come mai non esista un equivalente della clausola che negli accordi internazionali garantisce i profitti, ma dal punto di vista del bene pubblico; se io investitore per mia manchevolezza tecnica non solo inquino ma, una volta scoperto, sono costretto a sospendere l’attività e di conseguenza non pago più royalties, come mai non sono stavolta obbligato a pagare alla collettività le royalties promesse e su cui si basano i bilanci pubblici? (oltre ad eliminare le cause dell’inquinamento)

Questa è la domanda che rivolgo ai giornali di parte padronale come il Sole 24 ore che si lamentano dei mancati profitti e ridono delle mancate royalties riproponendo il ricatto fra lavoro e inquinamento.

Caro Sole 24 ore oil&gas non è strangolato dai nimby, come mal raccontano i vostri titoli, ma dalla sete di guadagno che non si ferma nemmeno davanti alla distruzione dei beni pubblici. Si vergognino gli inquinatori, non chi difende l’ambiente.

Costituzione Italiana:

Articolo 41

L’iniziativa economica privata è libera. Non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà, alla dignità umana. La legge determina i programmi e i controlli opportuni perché l’attività economica pubblica e privata possa essere indirizzata e coordinata a fini sociali.

Per approfondire:

http://www.ansa.it/sito/notizie/cronaca/2017/04/18/inchiesta-sul-petrolio-in-basilicata-57-rinvii-a-giudizio_6e4db091-b8a5-4950-97d8-dd7aa3623588.html

https://www.theguardian.com/global-development/2016/oct/14/el-salvador-world-bank-tribunal-dismisses-oceanagold-mining-firm-250m-claim

http://www.lastampa.it/2017/04/15/economia/eni-inadempiente-basilicata-chiude-il-centro-oli-di-viggiano-c03t34XOEHYwjymS3zNYMN/pagina.html

https://it.wikipedia.org/wiki/El_Salvador#Il_XX_secolo_e_la_guerra_civile

Analisi chimica oggi.

In evidenza

Luigi Campanella, ex Presidente SCI

Generalmente chi ricorre all’analisi chimica per un problema nuovo ritiene che, tra i tanti, esista già un metodo adatto per i suoi scopi, lo ricerca e talvolta lo adatta e lo applica personalmente; da questa acritica propensione, come si è già rilevato, possono derivare molti danni.

La chimica analitica, ben conscia di questo, ha fortemente sviluppate, e ampiamente e soddisfacentemente applicate, una filosofia e una prassi che le permettono di affrontare con sistematicità nuovi problemi conoscitivi e nuovi campi di committenza; come può essere rilevato:

  • nella cura con cui vengono affrontati i problemi del linguaggio e delle definizioni;
  • nel cosiddetto iter analitico, cioè nel percorso logico e procedurale che ogni analisi deve seguire senza omissioni e alterazioni, ossia nell’insieme coerente dei mezzi e delle operazioni che partono dalla definizione dei problemi e giungono alla soddisfacente soluzione di essi;
  • nell’organizzazione internazionale per le analisi di qualità (v. oltre).

L’iter analitico consta delle seguenti parti nel seguente ordine:

  • approccio analitico ai problemi e ai sistemi,
  • prelievo dei campioni,
  • trattamenti e separazioni,
  • taratura,
  • calibrazione,
  • misurazione,
  • valutazione dei dati sperimentali,
  • elaborazione dei dati sperimentali,
  • classificazione,
  • immagazzinamento e recupero delle informazioni.

Il risultato è la caratterizzazione chimica (compositiva, strutturale, correlativa e alterativa); ove l’operazione sia finalizzata ad una diagnosi,come ad esempio in archeologia spetterà a quest’ultima disciplina la sua utilizzazione per diagnosi e interventi, in armonia e in accordo con la caratterizzazione umanistica.

L’analisi chimica ha per oggetto un sistema, la determinazione chimica di un analita (componente o proprietà del sistema), la misurazione di una grandezza fisica del sistema. Il risultato della misurazione, la misura, è dipendente sia dall’analita che dalla matrice; una o più misure concorrono a una determinazione; una o più determinazioni costituiscono un’analisi. Si suole distinguere anche tra tecnica, metodo, procedimento e protocollo.

Per tecnica analitica si intende lo studio (con prospettive di applicazioni) delle correlazioni tra quantità di sostanza e grandezza fisica relata misurabile; essa descrive i principi e la teoria delle interazioni, le apparecchiature per generare e per definire qualitativamente e quantitativamente le energie in gioco, i rivelatori e i sensori. Esempi: tecniche ottiche e spettrali, elettrochimiche, termiche, separative, cromatografiche, isotopiche, chimiche, biologiche.

Un metodo è l’adattamento di una tecnica a una categoria di problemi e deve comprendere tutto l’iter analitico (spesso però viene riduttivamente inteso come la sua parte centrale che va dai trattamenti dei campioni alla valutazione dei risultati sperimentali); un metodo analitico descrive e prescrive le caratteristiche del laboratorio e degli operatori, i reattivi e i materiali di riferimento, le apparecchiature e i procedimenti. Un metodo (o parte di esso) con l’adeguamento a situazioni specifiche diventa procedimento; protocollo è l’insieme di istruzioni da seguire alla lettera nell’applicazione di un procedimento elevato a norma ufficiale.

Metodo non va confuso con metodologia, che è il discorso globale comprendente tutti e quattro i termini; da scoraggiare è anche l’uso dei termini metodica (si tratta di un aggettivo) e procedure (termine giuridico).

Per meglio chiarire la differenza tra misurazione e analisi si tenga presente che sei delle sette grandezze di base del Sistema Internazionale di Unità di Misura (SI): lunghezza, massa, tempo, intensità di corrente elettrica, temperatura termodinamica e intensità luminosa, sono grandezze fisiche, la settima, la quantità di sostanza è grandezza chimica. L’analisi chimica coinvolge sempre la settima grandezza e, a seconda dei casi, una o più delle altre sei; pertanto essa è sempre dipendente da grandezze fisiche e dal tipo di energia da queste definito.

Da questa premessa si può trarre ragione della classificazione dei metodi analitici basata sul tipo di energia in gioco, di cui qui appresso si riportano esempi.

Nuove prospettive per il ciclo idrico integrato.

In evidenza

Mauro Icardi

Sull’inserto del quotidiano “Repubblica” dedicato alla salute è uscito martedì scorso,11 Aprile ,un articolo intitolato significativamente “Com’è buona l’acqua del rubinetto” a firma di Elvira Naselli. Articolo abbastanza esaustivo e soprattutto articolo che prova per l’ennesima volta a demolire miti e paure radicate nella pubblica opinione. Miti e paure che spesso verifico anche personalmente, soprattutto quando seguo le discussioni sul tema acqua sui social network. Che spesso sono (purtroppo) la cassa di risonanza di invenzioni pure, baggianate colossali e che soprattutto non permettono quasi mai la possibilità di sviluppare una discussione propositiva. Anche questo è un problema emergente che è campo di studio soprattutto dei sociologi. Auguro loro buon lavoro.

Tornando in tema l’articolo di Repubblica oltre a spiegare che l’acqua del rubinetto non è responsabile della calcolosi renale, ci permette di capire anche che non esiste un’acqua “colesterol free”.

Ma è probabile che l’assuefazione all’essere bombardati da messaggi pubblicitari abbia avuto certamente effetti deleteri. Di solito chi non si fida a priori dell’acqua potabile adduce di solito l’obiezione che l’acqua sia troppo dura, o che sappia di cloro (situazioni che per altro si risolvono eventualmente con impianti appositi, ma solo se effettivamente necessario, e nel secondo caso semplicemente lasciando evaporare l’acqua spillata da rubinetto in una brocca per far evaporare l’eventuale cloro residuo).

E non manco mai di far notare che generalmente una bottiglia di un’acqua minerale di marca da un litro e mezzo che si paga indicativamente 50 centesimi corrisponde alla fornitura di circa 300 litri di acqua dell’acquedotto. Ovviamente poi ognuno può fare le proprie scelte.

Ci sono in Italia situazioni contrastanti. Il 44% degli Italiani ha optato per il consumo di acqua di rubinetto, i restanti consumano 208 litri all’anno di acqua in bottiglia rendendo l’Italia il terzo paese per consumo mondiale di acqua imbottigliata dietro a Messico e Thailandia.

Per quelli che hanno optato per l’acqua del rubinetto la buona notizia è che nel futuro, prima come adesione volontaria, e successivamente come obbligo normativo, le aziende che distribuiscono acqua potabile si doteranno di un Water Safety Plan. Questa decisione deriva dalla revisione della direttiva 98/83/CE sulla qualità delle acque destinate al consumo umano (recepite dal Dlgs 31 del 2001 in Italia).

La fornitura di acqua qualitativamente idonea all’uso umano è attualmente garantita in Italia da una serie di misure normative particolarmente rigorose, da prassi consolidate nei sistemi di gestione idrica in grado di assicurare la produzione di acque sicure, e da un livello di sorveglianza particolarmente esteso e capillare.

Questo impegno viene svolto da laboratori attrezzati e che tra le altra cose impegnano il personale impiegato nella verifica delle metodiche utilizzate e nel controllo delle prestazioni fornite dal laboratorio in termini di precisione e accuratezza dei risultati analitici, sia per i parametri chimici che per quelli microbiologici.

Nel futuro l’adozione di un piano di sicurezza impegnerà i gestori in un lavoro di carattere multidisciplinare. Si tratterà di predisporre un piano dettagliato di analisi dei rischi e delle possibili contaminazioni sull’intera rete idrica, e nei vari punti di diramazione e di snodo.

Questo approccio avrà due effetti da punto di vista del lavoro degli addetti ai laboratori. Maggiore impegno nella rilevazione di patogeni e sostanze di sintesi emergenti (per esempio interferenti endocrini).

Dovranno essere rivisti e migliorati i criteri di campionamento ed il livello di prestazione dei metodi analitici. Dovrà essere valutato l’impatto dei cambiamenti climatici sulle acque destinate al consumo umano, ma in generale sull’intero ciclo idrico, dalla captazione alla depurazione.

Questo per la ragione che l’impoverimento di molte aree di approvvigionamento idrico ha un impatto sempre più rilevante sulla quantità e sulla qualità delle acque.

Si dovranno sviluppare altresì sistemi di monitoraggio in continuo della rete acquedottistica per verifiche non solo della situazione idraulica e distributiva, ma anche per la determinazione di parametri chimici in continuo.

In Italia circa l’85% delle acque destinate al consumo umano viene prelevata dalle falde. Questo garantisce una miglior qualità ed una maggiore gradevolezza (particolare non indifferente quando poi si tratta di ottenere il gradimento dell’utenza). Ma le falde sono più vulnerabili a situazioni di eventuali contaminazioni o inquinamenti. E quindi necessitano di attenti interventi di protezione e monitoraggio.

Nel futuro l’impegno sarà quello di garantire la salvaguardia della salute pubblica, e nello stesso tempo di fornire un’acqua gradevole per chi la consumerà.

E tutto questo si dovrà interfacciare con uso oculato e sostenibile della risorsa acqua, ma delle risorse in generale.

Riferimenti utili.

  1. World Health Organization. Guidelines for drinking-water quality incorporating first addendum. Geneva: WHO Ed. 2006; Vol. 1, 3rd ed. 2
  2. UNI EN ISO 22000. Sistemi di gestione per la sicurezza alimentare. Requisiti per qualsiasi organizzazione nella filiera alimentare. Milano: Ente Nazionale Italiano di Unificazione; 2005.
  3. World Health Organization. Water safety plan manual: Step-by-step risk management for drinking-water suppliers. Geneva: WHO Ed.; 2008 Vol. 1, 3rd ed.

 

I misteri di Report.

In evidenza

Claudio della Volpe

Pochi giorni fa la trasmissione Report ha denunciato come “misterioso” e non giustificato l’aver trovato una certa quantità di titanio, nelle bibite gasate che stava analizzando per motivi legati al loro metodo di produzione; in effetti è un buon argomento di vendita la “misteriosità” della ricetta di alcune di queste bibite e nell’ambito di una trasmissione sulla Coca-Cola il tema presenta un certo interesse. Ho seguito anch’io quella trasmissione e sono rimasto colpito da questo apparente “mistero”; non essendo un esperto ho voluto approfondire. Il titanio era riportato alla concentrazione di alcuni ppb, ossia parti per miliardo, che corrispondono a microgrammi per chilogrammo.

Inoltre nei medesimi giorni un intervento sul nostro blog ha riguardato un analogo tema; infatti nel post: Poletilentereftalato nell’industria alimentare

https://ilblogdellasci.wordpress.com/2016/01/24/polietilene-tereftalato-nellindustria-alimentare/

pubblicato oltre un anno fa Luigi Campanella poneva l’accento sui problemi legati alla cessione da parte del PET, il polietilentereftalato, il componente essenziale dei contenitori; esso potrebbe avere problemi di cessione specie se la conservazione delle bottiglie non è fatta nel modo migliore.

In quel post Luigi riportava la presenza di piccole quantità di antimonio nella soluzione, ma soprattutto di componenti provenienti dal polimero e di elementi di degradazione del PET che secondo alcuni autori potrebbero addirittura avere effetti mutageni; vi rimando al post e ai lavori in esso citati per maggiore completezza.

In un recente intervento sul post un lettore poneva la domanda se la presenza di titanio, i cui composti stanno sostituendo l’antimonio come componente dei catalizzatori di polimerizzazione del PET, può essere giustificato. Nella medesima domanda poneva anche il problema se l’uso dell’acido acetico 3% fosse una scelta giusta, e quale fosse il suo pH. A questa seconda domanda rispondo immediatamente: dato che una soluzione 3% di acido acetico corrisponde a circa 30g per litro, ossia 0.5M, il suo pH si calcola immediatamente dalla costante acida essere attorno a 2.5, dunque proprio i valori che il lettore chiede.

In effetti negli ultimi anni si sono introdotti catalizzatori a base di titanio nella produzione di PET; questo è ampiamente documentato in letteratura; si veda per esempio qui, una conferenza internazionale del 2006, quindi oltre 10 anni fa, in cui i catalizzatori a base di titanio sono proposti come alternativa al più inquinante antimonio. I vantaggi rispetto all’antimonio sono dati anche dai risultati tecnici, come la trasparenza del polimero finale, la cessione ridotta di monomero e così via.

La concentrazione di titanio nella massa del materiale da catalizzare è dell’ordine delle decine di ppm, ossia parti per milione (mg per chilogrammo di polimero) e dunque è ragionevole immaginare che una cessione di questo catalizzatore possa arrivare a concentrazioni dell’ordine dei ppb, mille volte inferiore, nel contatto con la soluzione acidula di bevanda o comunque con una soluzione acquosa (microgrammi per litro). Non c’è dunque alcun mistero nella presenza di ppb di titanio nelle bibite date, che sono concentrazioni largamente inferiori a quelle ritenute potenzialmente pericolose.(Ovviamente l’esatto rapporto dipenderà dalla storia della bottiglia, potrebbe essere anche 1:100 o perfino 1:10 se la storia del’immagazzinamento lo consente).

E’ da dire che il titanio è usato anche per un altro scopo molto diverso ed è usato direttamente in alcune bibite come “clouding agent” ossia come agente di “oscuramento” per rendere per esempio le bibite di succhi di frutta più simili a quelle naturali; il tema è ampiamente noto ed è stato trattato in tesi come questa che linko che sono anche esse liberamente scaricabili dalla rete (ovviamente in inglese)

https://www.theseus.fi/bitstream/handle/10024/93815/julkaistava%20versio_%20Anne%20Kuisma_TiO2.pdf?sequence=1

Tesi di Anne Kuisma presso la Università finlandese Metropolia di scienze applicate ad Helsinki, la maggiore della Finlandia.

In questo caso la concentrazione di titanio (denominato qui come E171 in genere) è molto più alta, può arrivare molto al di sopra di quella determinata nelle bibite studiate da Report.

In un recente lavoro pubblicato da EFSA che è l’organismo europeo che si occupa di questi temi si è rianalizzato il tema del pericolo da titanio; il report si chiama:

Re-evaluation of titanium dioxide (E 171) as a food additive. EFSA Panel on Food Additives and Nutrient Sources added to Food (ANS) pubblicato nel giugno 2016, scaricabile liberamente da qui.

La conclusione del panel di esperti è che la sicurezza generale del prodotto è notevole e che il limite di ben 2.25g/kg di peso corporeo come assorbimento è valido; comunque il panel di esperti attende sviluppi della letteratura per stabilire un limite di assorbimento per i potenziali effetti mutageni della sostanza che sono stati più volte indicati in letteratura ma senza la rigorosità necessaria.

Titanio tetrabutossido, possibile catalizzatore per PET

Ovvio che nel caso del titanio usato come clouding agent non stiamo parlando dei medesimi composti di titanio usati come catalizzatori (per esempio titanio tetrabutossido) ma di TiO2, un ossido inorganico molto comune.

Questo fra l’altro mi fa ricordare che il biossido di titanio (TiO2) è uno dei principali componenti delle vernici bianche (Corradini mi ricordo che lo diceva sempre a lezione, una delle prime cose che ho sentito da lui) ed una delle sostanza di sintesi più usate del mondo. Il biossido nanometrico, come aerossido o P25 è anche uno dei comuni composti usati in laboratorio per costruire le celle di Graetzel, le celle fotovoltaiche a colorante organico attivato.

Un recente lavoro a riguardo della mutagenicità/cancerogenicità dell’E171 è quello comparso su Scientific Reports 2017 e che riguarda l’effetto della quota di nano particolato presente anche nell’E171 usato per scopi alimentari; il lavoro è stato citato da Report, ma senza citare per esempio la pubblicazione dell’EFSA. In esso si studia l’effetto aggravante della frazione di nanoparticolato presente nell’E171 ma su tessuti di ratto in cui il tumore è stato indotto artificialmente e anche su ratti normali attraverso lo studio dellla formazione di ACF, ossia di lesioni precancerose; tuttavia è da dire che la relazione fra questi ACF e lo sviluppo successivo di cancro al colon dell’animale da esperimento non è ben chiarito (si veda anche qui).

Non intendiamo qui dare alcuna risposta sul tema, il compito è degli organismi deputati allo scopo che lo faranno, che lo stanno già facendo; la questione o mistero piuttosto è quando Report si deciderà, come anche gli altri giornalisti, a rivolgersi ai chimici invece di ventilare inesistenti misteri, come quello della “ingiustificata” presenza di titanio nelle bibite. Siamo per il principio di precauzione, ma vorremmo meno allarmismo e più giornalismo di inchiesta (vero). Fra l’altro la segnalazione di Luigi sugli effetti dei residui del polimero rimane sempre valida.

 

Intercalazione e altre storie.4.

In evidenza

Claudio Della Volpe

Aliso canyon è una valle a nord di Los Angeles, non lontana dai posti mitici della costa ovest degli USA: Santa Monica, Beverly Hills, etc.

Nel 1938 fu scoperto colà un deposito petrolifero che fu sfruttato fino al 1970 quando si esaurì (come forse sapete il petrolio ha questo difettuccio). Dopo un incidente la zona fu venduta ad una compagnia che distribuiva gas che la usò come deposito del proprio gas a partire dal 1972.

La Aliso Canyon natural gas storage facility è costituita da 115 pozzi con un contenuto totale di oltre 86 miliardi di piedi cubici di gas naturale, per la distribuzione a tutti i residenti del bacino di L.A. e costituisce, come dimensioni, il secondo deposito degli USA, detenuto dalla SoCalGas (Southern California Gas Company).

Il 23 ottobre 2015 fu ivi scoperta la più grande fuga di gas da un bacino artificiale di questo tipo nella storia americana; in effetti il fenomeno probabilmente era iniziato qualche giorno prima, segnalato da malori da parte di residenti della zona ed alcuni osservatori si sono riferiti ad esso chiamandolo non “leak” ma “blowout” e dunque considerandolo non un piccola perdita, ma un vero e proprio scoppio, un grande incidente; comunque sia il fenomeno, che trovate illustrato su wikipedia è continuato per un lungo periodo, poichè è stato complicato risolverne la causa, una rottura nel sistema di tubazioni che giaceva migliaia di metri sotto terra e che è stata acuita dalla scarsa ed inopportuna manutenzione della grandi valvole usate per regolare il sistema.

Esiste un video che verosimilmente rappresenta, fa comprendere le dimensioni del fenomeno, registrato con una telecamera IR.

I lavori per risolvere il fenomeno, contro il quale non esistevano piani di risposta adeguati, sono durati a lungo e la fuga di gas è stata eliminata ufficialmente solo il 18 febbraio 2016 (quattro mesi dopo). Nel frattempo si è stimato che sono entrate in atmosfera quasi 100.000 ton di metano, una quantità veramente enorme, pari ad 1/6 delle perdite normalmente stimate per tutto il consumo italiano di un anno. Gli effetti locali hanno obbligato migliaia di famiglie a spostarsi dalla zona e sono costati alla SoCalGas milioni di dollari; inoltre l’inquinamento dovuto alle piccole quantità di benzene e di tiocomposti presenti nel metano si è diffuso su una vasta area, anche esterna alla Aliso Canyon.

Ma la reazione che ci interessa sottolineare qui ha riguardato l’effetto sulla generazione di elettricità.

Il metano è usato fra l’altro dalle molte centrali elettriche che giocano un ruolo di equilibrio complessivo nel funzionamento della rete elettrica. La indisponibilità prolungata della sorgente di metano principale dell’area di L.A. ha obbligato a correre ai ripari con la costruzione di una struttura alternativa e basata sulle batterie al litio e le energie rinnovabili.

Nel numero di febbraio 2017 la rivista Qualenergia ha segnalato l’entrata in funzione di una capacità di accumulo elettrochimico pari al 15% di tutta quella esistente a livello mondiale e basata su batterie al litio, stimolata proprio dall’episodio di Aliso Canyon.

Dice Qualenergia:

Tesla, Greensmith Energy e AES Energy Storage hanno infatti inaugurato tre enormi accumuli agli ioni di litio, due da 20 MW (e 80 MWh) e uno da 30 MW (e 120 MWh), per un totale di 70 MW. Tutto questo nel giro di 6 mesi dall’avvio del progetto, con Tesla che ha completato il suo impianto addirittura in 3 mesi.

Le installazioni assorbiranno l’energia in eccesso nei picchi di offerta – ad esempio la produzione del fotovoltaico durante le ore centrali del giorno – e la restituiranno nei picchi di domanda, ad esempio in quello serale, rimpiazzando in parte il ruolo di impianti flessibili come i cicli combinati a gas.

La stima numerica viene da Bloomberg, un gruppo di informazione finanziaria, ben informato sul tema e a cui si fa spesso riferimento per le statistiche aggiornate del FV. Sappiamo quindi indirettamente che a livello mondiale abbiamo una capacità di accumulo elettrochimico pari a circa 7 volte questa, 1.4GWh, tutto sommato una quantità modesta se la paragoniamo ai consumi di energia elettrica e che dà il senso di quanto rimane da fare in questo settore. Per paragonare i valori rileggetevi alcuni dei dati pubblicati negli articoli precedenti di questa serie (qui, qui e qui).

Il lavoro da fare è enorme e per questo prima si parte e prima si arriva; e ancor più dunque rimangono iniziative sostanzialmente stupide e nocive quelle intraprese dal nostro beneamato governo che insiste ad agire a favore delle energie fossili e degli interessi petroliferi, gasieri e carbonieri in Italia. Contravvenendo alle proprie promesse politiche all’indomani del referendum sulle trivelle il nostro governo ha deciso di favorire ancora una volta le estrazioni entro le 12 miglia marine:

http://www.huffingtonpost.it/2017/04/05/petrolio-dora-in-poi-nuove-trivellazioni-entro-le-12-miglia_a_22026817/

Il testo del decreto testè approvato non lascia dubbi;

“”Nel 2011 il Consiglio di Stato ha stabilito che le concessioni esistenti possono continuare a estrarre entro le 12 miglia fino a esaurimento della capacità del bacino del petrolifero o fino a quando lo considerano produttivo. Ma sempre nel rispetto del progetto originariamente autorizzato”, spiega il costituzionalista Enzo Di Salvatore, autore dei quesiti ‘No Triv’ sottoposti a referendum lo scorso anno e invalidati dal mancato raggiungimento del quorum.

Esempio: “Se hai una concessione con tre piattaforme e 7 pozzi ma finora ne hai realizzati solo 5, ne puoi fare altre due”. Cosa cambia con il nuovo decreto? “Puoi modificare il programma inizialmente autorizzato, in corso d’opera. Dunque se ho bisogno di ulteriori pozzi rispetto alla concessione data, posso farlo. E’ un decreto che contraddice la ratio del divieto stabilito da Monti”.

Stupido è chi lo stupido fa” (Forrest Gump). Speriamo che regioni e associazioni ambientaliste ricorrano contro questo decreto. Come chimici abbiamo già detto cosa pensiamo: le risorse fossili sono inquinanti, climalteranti e finite, occorre cambiare strada nella produzione e nell’uso dell’energia, rivolgendosi alle varie forme di rinnovabile e costruendo una adeguata infrastruttura di supporto e stoccaggio. Altro che trivelle!

La diversa presenza di Primo Levi

In evidenza

Mauro Icardi

Il prossimo 11 Aprile ricorrerà il trentesimo anniversario della morte di Primo Levi. E sul web, sui giornali già si possono leggere molti articoli che ne ricordano la figura di uomo, di reduce dell’olocausto, di scrittore. Non ultimo di chimico. Il salone del libro di Torino ne ricorderà l’opera e la figura, e nel 2017 è stata pubblicata la nuova edizione ampliata delle Opere Complete in due volumi, che sarà completato da un terzo volume che raccoglie le interviste che Levi rilasciò. Il festival della scienza e dell’innovazione di Settimo Torinese che si terrà dal 15 al 22 Ottobre prossimi sarà dedicato a Levi e alla chimica.

Nel mare magnum di cose che si scriveranno mi sentivo di voler fare un piccolo omaggio. Partendo da una considerazione fatta da Ernesto Ferrero, cioè che non sono trascorsi trent’anni dall’assenza di Levi, ma bensì dalla sua “diversa presenza”. E trovo che davvero questa frase sia la descrizione più vera. Mai come oggi, e costantemente da quel 11 Aprile del 1987 la parabola di Levi è cresciuta, rivelando un tesoro inestimabile di opere, di scritti che dovrebbero di fatto trasferire la sua opera nel novero degli autori che sono i capisaldi delle antologie scolastiche. Cosa che ai tempi in cui ho studiato io non era poi così evidente e chiara. Levi si mescolava e confondeva con altri autori del memorialismo della deportazione e dell’olocausto.

La notizia della sua morte mi giunse inaspettata. Ma credo non soltanto a me. Levi era ormai scrittore a tutti gli effetti fin dal 1975, anno del suo pensionamento dalla carica di direttore tecnico della Siva. L’avevo conosciuto leggendo per primo “Il sistema periodico” verso la fine degli anni 70, quando il libro era già uscito da circa quattro anni. Un libro che mi aveva decisamente rapito e affascinato.

Vi erano certamente nel libro riferimenti al tragico periodo storico che Levi andava vivendo, in particolare le leggi razziali e la cattura da parte dei nazifascisti. Ma il libro mi affascinava per le descrizioni del laboratorio, delle esperienze che lo scrittore faceva. Del racconto “Ferro” dedicato alla figura di Sandro Delmastro mi appassionava la parte dedicata all’analisi qualitativa sistematica, purtroppo ormai cancellata dai programmi scolastici negli Istituti Tecnici.

Levi collaborava con il quotidiano “La stampa” ed il mensile “Airone” e quindi leggevo i suoi articoli con moltissimo interesse. Uno in particolare lo trovai davvero inusuale e moderno: “Il gabbiano di Chivasso” una intervista immaginaria con un gabbiano ormai dedito a frugare nelle discariche, piuttosto che a scrutare il mare per procurarsi il pesce, pubblicata sul numero di Marzo 1987 nella rubrica “Zoo immaginario- Le storie naturali di Primo Levi”. In quel periodo molte riviste scientifiche o ambientalistiche trattavano dell’argomento della sempre più frequente inurbazione di animali selvatici, dalle volpi fino appunto ai gabbiani.

Soltanto un mese dopo Levi diventò “diversamente presente”. Io non abitavo più a Settimo Torinese ed ero andato a lavorare da due mesi in una azienda che faceva vernici nelle vicinanze di Varese. Un trasferimento tutto sommato anomalo tra Piemonte e Lombardia, visto che i nati a Torino sono definiti dispregiativamente “bogia nen” che per i non Torinesi significa una tendenza negativa all’immobilismo. Per me significava uscire dalla famiglia e crearmene una mia. Levi relativamente al suo trasferimento a Milano dice che “E’ cosa risaputa che i Torinesi trapiantati a Milano non vi allignano o vi allignano male”. Non è sempre così, ma è vero che certi tratti caratteriali dei Torinesi siano molto simili, e che il legame con la città sia sempre particolarmente forte.

Ricordo perfettamente che il proprietario mi chiese se “conoscessi il Dottor Levi” visto che nativo di Torino, provenivo proprio da Settimo Torinese. Lui lo aveva conosciuto, ed era logico visto il comune mestiere di fabbricanti di vernici, sia pure destinate ad usi diversi. Per i fili elettrici quelle prodotte a Settimo Torinese, per il legno quelle prodotte a Mornago. La domanda mi colse di sorpresa, ma dovetti ovviamente dire di no.

Non ho mai avuto questa possibilità. Levi teneva molte lezioni nelle scuole per parlare dell’esperienza del Lager ma non venne, o non fu mai invitato in quelle che ho frequentato.

Durante un ritorno a casa dei miei appresi dal notiziario radio la notizia della sua morte. Inaspettata, improvvisa. Strana e con un certo alone di mistero. Quasi una maledizione che sembrava accumunarlo a Cesare Pavese. Sul sito del centro internazionale di studi a conclusione della biografia si legge “Muore suicida nella sua casa di Torino”.

Evitai di leggere articoli che indagassero troppo sulle ragioni del suo gesto, qualunque potessero essere. Mi colpirono due cose: la prima era un mio ricordo personale. Quando ero ragazzo, all’incirca negli anni tra la fine delle elementari e le medie spesso arrivavo in bicicletta fino al cancello della Siva. La ragione era semplice. La fabbrica era situata alla periferia di Settimo, ed io partivo da casa giurando di restare intorno all’isolato, invece mi spingevo ad esplorare la zona industriale. Ho il ricordo della colonna di cui parla Levi nel capitolo “Clausura” de “La chiave a stella”, che rivedevo anche ogni volta che ritornavo dai miei in automobile anni dopo. Ma da bambino mi affascinava come ogni altra cosa che non si conosce. Quando la curiosità è irrefrenabile, e si cerca di capire a cosa serva una colonna che si studierà più avanti. Una colonna di distillazione.

Ora la Siva è stata ristrutturata e diventerà un museo della memoria. Settimo Torinese si è candidata per diventare la capitale italiana della cultura 2018. Nella trasformazione di quella che era una città dormitorio, una delle tante anonime della cintura torinese, la presenza di Levi ha avuto un suo ruolo. Anche per questo da ex settimese non posso che esserne lieto.

La seconda cosa che mi colpì fu che di Levi io avevo letto molto, ma non avevo fino mai letto i suoi due primi libri. Recuperai presto acquistando l’edizione in un unico volume di “Se questo è un uomo” e “La tregua” completa dell’appendice scritta per l’edizione scolastica scritta nel 1976. L’appendice tenta di dare conto delle principali domande che a Levi venivano poste relativamente alla sua esperienza di deportato nei lager nazisti.

Leggere se questo è un uomo fu una seconda scoperta. Colposamente tardiva, ma che mi riempì di una stupore pieno di rispetto. Mi colpì la serena dignità dello stile letterario usato per narrare di quella esperienza. Un libro che parla di una delle più grandi tragedie della storia, senza alzare i toni, ma con la consapevolezza che occorre essere testimoni. Pacati ma inflessibili. Non giudici, ma testimoni.

La diversa presenza dello scrittore mi salta agli occhi ogni volta che nella sezione della mia libreria dedicata alle sue opere trovo libri dove nelle note biografiche la data della sua morte non compare, perché acquistati da me antecedentemente.

E allo steso modo la percepisco quando vedo che la sua figura e la sua opera sono attuali.

Indispensabili sia per il valore della testimonianza, che per quello della divulgazione della chimica.

E’ una diversa presenza costante nel tempo.

Nota: tra le tante iniziative io consiglio il riascolto di Io sono un centauro. Vita e opere di Primo Levi

di Marco Belpoliti

a cura di Monica D’Onofrio

(In onda su Radio3 Suite, aprile 2007)

Questo il link

http://www.radio3.rai.it/dl/radio3/ContentItem-9f787d6e-bb78-4a1e-8386-fa901c91a588.html

 

Musei, scienza e mediazione culturale.

In evidenza

Luigi Campanella

Negli ultimi decenni si è andato consolidando nelle amministrazioni pubbliche e in particolare nelle istituzioni culturali il riconoscimento della centralità dell’utente, con significativi cambiamenti di prospettiva nella progettazione e nella gestione delle attività e dei servizi.

L’esigenza di interpretare le aspettative del pubblico (o meglio dei pubblici) e di verificarne poi il gradimento è oggi maggiormente avvertita dai responsabili e curatori dei musei, tradizionalmente impegnati più sul versante tecnico-scientifico della ricerca, della documentazione, dell’ordinamento e della conservazione delle collezioni che su quello della comunicazione e della divulgazione.

Lo sviluppo del turismo culturale, la democratizzazione della cultura hanno sollecitato un progressivo miglioramento dei servizi di orientamento e di accoglienza, il prolungamento degli orari di apertura dei musei, il confronto con esperienze straniere, mentre il restauro e l’adeguamento alle normative di sicurezza delle strutture che ospitano le collezioni storiche (realizzati grazie anche a finanziamenti speciali, dal FIO ai fondi europei) hanno costituito spesso un’occasione preziosa per ripensare allestimenti e percorsi, per creare nuovi spazi espositivi o di intrattenimento (dalle caffetterie, ai bookshop, ai laboratori didattici), per rimuovere le barriere architettoniche.

Il quadro che emerge dall’ultima indagine effettuata nel 2007 dall’Ufficio Studi del Ministero presso 158 musei statali, i cui risultati sono pubblicati nel volume Musei, pubblico, territorio. Verifica degli standard nei musei statali, edito da Gangemi, risulta quindi, almeno in parte, soddisfacente.

L’esame dei rapporti del museo con il pubblico effettivo e potenziale (realizzato attraverso l’autovalutazione degli stessi direttori d’istituto, che hanno compilato un questionario assai analitico, redatto sulla base delle linee guida e degli standard dell’Atto di indirizzo emanato con il DM 10 maggio 2001) ha interessato diversi aspetti: dall’accesso (raggiungibilità, segnaletica esterna, orari e giorni di apertura, accoglienza e confort) alle dotazioni e servizi essenziali (strumenti di comunicazione primaria, sussidi alla visita, servizi educativi, biblioteca/centro di documentazione/fototeca, servizi accessori), alle attività di valorizzazione, promozione e divulgazione, agli strumenti di analisi del pubblico e verifica del gradimento della visita.

Impossibile sintetizzare in poche battute i risultati, che nella pubblicazione sono illustrati anche con riferimento alle diverse tipologie di collezioni, dimensioni, aree geografiche di appartenenza.

Per fornire solo qualche elemento, si può affermare che appaiono soddisfacenti gli orari e la continuità dell’apertura, le dotazioni e i servizi essenziali dei musei: le didascalie sono assicurate per tutte le opere esposte nel 94% degli istituti che hanno partecipato all’indagine, pannelli illustrativi o schede mobili di sala sono presenti in 149 istituti su 158, guide brevi sono disponibili nel 75% dei musei, le visite guidate sono previste nell’84% dei casi esaminati, sia pure con modalità di erogazione non sempre ottimali.

Meno frequenti sono invece le audio guide (proposte solo nel 24% dei casi), le postazioni multimediali (presenti nel 18%), i cataloghi generali a stampa (disponibili solo nel 29% dei musei) e ancora carenti risultano in generale gli apparati in lingua straniera.

Ulteriori margini di miglioramento dovrebbero interessare gli strumenti di orientamento alla visita, la segnalazione dei percorsi e una chiara identificazione delle sale.

Viene inoltre riconfermata da questa indagine la vocazione didattico-educativa dei musei statali: l’86 % dei musei analizzati, attraverso la Soprintendenza di riferimento, dispone di un servizio educativo e l’80% ha dichiarato di stabilire rapporti strutturati con le scuole del territorio, anche se gli scarsi finanziamenti e il ridotto numero di personale dedicato limita di fatto il numero dei progetti realizzati e quindi l’ impatto delle iniziative sul territorio.

Negli ultimi anni è notevolmente aumentata la presenza dei musei statali su internet: il 79% dei musei risulta dotato di un sito web che fornisce almeno le informazioni essenziali sulle collezioni e i servizi.

Per quanto riguarda la valorizzazione, mentre si è rilevata un’ampia diffusione delle esposizioni temporanee (organizzate nel 2006 dal 73% dei musei), di conferenze ed altri eventi, sembrano ancora scarsamente praticate altre forme di promozione dell’immagine e delle iniziative (da realizzare attraverso rapporti costanti con i media, con gli organismi di promozione turistica, con gli albergatori, gli esercizi commerciali, etc.) e non sono sufficientemente sviluppate iniziative volte alla fidelizzazione del pubblico, forme di partenariato con altre istituzioni nazionali e internazionali per la realizzazione di progetti scientifici e divulgativi comuni.

Proprio queste linee si spera saranno maggiormente sviluppate in futuro, grazie anche all’impulso che verrà dalla nuova Direzione generale per la valorizzazione.

Un contributo sostanziale potrebbe anche venire dal riconoscimento da parte delle istituzioni della figura del mediatore culturale, capace per il museo di concepire nuovi modi per conoscerlo ed apprezzare le sue collezioni. Con il loro agire i mediatori culturali sottolineano la pertinenza sociale del museo e facilitano non solo l’accesso al suo patrimonio ma anche l’interazione con la sua cultura. Per raggiungere tale obiettivo, collaborano con i diversi settori del museo, ma anche con i colleghi che operano nelle reti pedagogiche, culturali, sociali ed economiche.

I loro compiti principali possono essere così descritti:

   * concepire, realizzare, coordinare, seguire e valutare le attività e la creazione di supporti per il pubblico attuale e potenziale: i progetti educativi e culturali elaborati devono allacciare il maggior numero di legami tra il museo e la popolazione;

   * partecipare alla concezione di esposizioni permanenti e temporanee, integrandovi le attività pensate per soddisfare le esigenze dei visitatori;

   * garantire l’accompagnamento dei visitatori e degli interlocutori nell’ambito dei progetti educativi e culturali legati alle collezioni come pure alle manifestazioni temporanee del museo;

   * creare supporti e materiali didattici per le diverse forme di mediazione culturale (mediazione-presenza, mediazione tecnologica, ecc.);

   * formare e dirigere i collaboratori che partecipano ai progetti di mediazione culturale o scientifica del museo;

   * curare le relazioni con i colleghi coinvolti nella mediazione culturale come pure con i vari tipi di pubblico;

   * informare il responsabile o la responsabile della mediazione culturale dei bisogni e delle attese del pubblico;

   * partecipare alla valutazione dei programmi e delle attività di mediazione culturale come pure agli studi sui diversi tipi di pubblico;

   * dare il proprio apporto alla ricerca e allo sviluppo nel campo della mediazione culturale e contribuire in tal modo alla diffusione dell’attività del museo;

   * tenersi aggiornati sulle ultime novità e tendenze che riguardano il proprio settore, accrescendo così le proprie competenze professionali.

I mediatori culturali sono dunque l’interfaccia fra popolazione e museo: da un lato contribuiscono alla democratizzazione dell’accesso alla cultura e ad un’educazione pluralistica, dall’altro valorizzano il museo all’interno di una comunità. In passato alcuni giornalisti illuminati (cito uno per tutti Foresta Martin) hanno svolto anche questa funzione attraverso i loro continui interventi e le loro pubblicazioni. Oggi le pagine della Scienza nei quotidiani sono meno presenti ed il patrimonio rappresentato dai giornalisti di competenza si è purtroppo impoverito.

Quest”ultima riflessione riguarda soprattutto i Musei Scientifici: il loro carattere prevalentemente storico e collezioniostico che ha prevalso dal Rinascimento all’Illuminismo oggi deve integrarsi con un ruolo formativo del Museo. L’utente non è più una lastra fotografica vergine: i mezzi telematici di informazione lo hanno già in qualche modo impresso per cui un approccio solo di documentazione  non basta, soprattutto se il Museo deve svolgere anche un ruolo formativo nella cultura scientifica. Se trasferiamo queste considerazioni ai Musei di Chimica c’è subito da rilevare che molti possono essere gli spunti guida: la dimensione delle apparecchiature, simbolicamente rappresentata da “Dall’armadiio alla Scatola”, l’evoluzione chimica dell’universo, la chimica nel corpo umano, la sensibilità analitica: dal macro al nano.

Materiali nanostrutturati con proprietà antiappannanti

In evidenza

Rinaldo Cervellati.

La nebbia è il fenomeno meteorologico per cui l’umidità dell’aria, a contatto con particelle solide o liquide (aerosol atmosferico) si condensa in microscopiche o submicroscopiche gocce di acqua liquida. A causa della diffusione della luce solare o artificiale la nebbia appare più o meno come un fitto alone opaco che riduce la visibilità fino anche a pochi metri, diventando così molto pericolosa. Il problema si complica perché la nebbia può ulteriormente condensare incontrando superfici come i parabrezza degli autoveicoli, compresi i vetri delle cabine degli aerei.

A questi inconvenienti si è tentato di ovviare rivestendo queste superfici con materiali trasparenti idrofobici, tuttavia anche l’utilizzo di materiali superidrofobici a struttura scabra si è rivelato insufficiente a evitare la condensazione delle goccioline più fini di nebbia che scivolano fra le scabrosità, accumulandosi in gocce più grandi fino a formare rivoli d’acqua.

Nella grande classe degli artropodi si posso individuare particolari tessuti dotati di proprietà essenziali per la loro sopravvivenza. Gli occhi antiriflesso delle zanzare e le ali impermeabili e autopulenti delle cicale ne sono un esempio (Fig. 1).

 

Guidati da questi esempi naturali, il gruppo di ricercatori guidati dal Prof. David Quéré di ESPCI (École supérieure de physique et de chimie industrielles, Parigi) ha recentemente intrapreso una ricerca sistematica per la progettazione di superfici idrofobiche nanostruttrate che superano il problema dell’appannamento.

La ricerca, riportata da c&en newsletter del 13 marzo, è pubblicata on line su Nature Materials:

  1. Mouterde et al., Antifogging abilities of model nanotextures, Nat. Mat., 2017 DOI: 10.1038/nmat4868

Poiché l’idrorepellenza dipende da dimensioni e forma delle scabrosità della superficie, i ricercatori hanno usato una tecnica laser per realizzare modelli nanostruttrati di forma e dimensioni diverse in base alle condizioni di esperienza. Sono state realizzate matrici con strutture a cilindri, piloni, coni e vari altri tipi di nanoprotuberanze. Anche la disposizione delle protuberanze è stata presa in esame, a reticolo quadrato, romboidale. Le matrici sono film sottili del copolimero polistirene-poli metil metacrilato, il tutto rivestito infine con i gruppi idrofobici di clorosilano fluorurati. Per dare un’idea delle dimensioni di una struttura a nanoconi, l’altezza dei coni è 115 nm e la distanza fra essi è 52 nm (Fig. 3 sinistra).

Il gruppo di ricerca ha poi sottoposto questi modelli a esperimenti in atmosfera che riproduce in modo realistico la formazione di rugiada. Queste condizioni sono state mantenute costanti per 45 minuti scattando una foto ogni 2 secondi al microscopio inverso. L’analisi statistica dei risultati ha mostrato che dimensioni e forma sono determinanti per l’insorgenza dell’idrorepellenza. Tuttavia la performance largamente migliore è stata realizzata dalla matrice a nanoconi. Infatti la loro forma e impacchettamento fanno si che gocce che arrivano fra le basi dei coni vengono talmente strette da generare una pressione che le fa schizzare via (Fig. 3 destra).

Notare che le strutture a cilindro e nanoconi riproducono quelle degli occhi di zanzara e delle ali di cicala rispettivamente.

Gli autori dicono comunque che l‘ottima prestazione dei nanoconi deve essere ulteriormente studiata esplorando forme intermedie fra cilindri e coni (effetto forma) e la densità dei coni (effetto dimensioni). D’altro canto l’eiezione delle gocce all’esterno della matrice pone interessanti problemi di fluidodinamica.

Certamente il tasso di espulsione di gocce d’acqua di dimensioni inferiori anche a 2μm riscontrati in questo lavoro è talmente più grande di quanto osservato in precedenza, ciò potrebbe già aiutare gli ingegneri a progettare più efficienti parabrezza antiappannamento, specchi, e celle solari.

Aggirare l’indeterminazione?

In evidenza

Claudio Della Volpe

La Meccanica Quantistica (MQ) è una concezione delle cose radicalmente diversa dalla meccanica classica e basata su una matematica più sofisticata e complessa; proprio per questo motivo sia gli addetti ai lavori che il grande pubblico fanno fatica a capirsi e la divulgazione ne soffre moltissimo.

Un buon esempio di questo problema viene da una recente scoperta effettuata in terra spagnola ma ad opera di un gruppo internazionale di scienziati diretto da Morgan W. Mitchell e pubblicata su Nature in un articolo il cui primo nome è quello di un giovane italiano Giorgio Colangelo.

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

La maggior parte dei giornali divulgativi che hanno riportato la scoperta si sono lanciati in titoli del tutto fuori luogo:

Scientists evade the Heisenberg uncertainty principle

oppure

The study reports a technique to bypass the Heisenberg uncertainty principle.

Ma se uno legge con attenzione non c’è nessuna evasione o aggiramento.

Anche il giornale dell’INAF che ha intervistato l’autore italiano, l’abruzzese Giorgio Colangelo scrive:

Indeterminazione, scacco ad Heisenberg

Il più celebre principio della meccanica quantistica è stato aggirato grazie a uno stratagemma, messo a punto all’Icfo di Barcellona

Le cose sono più complesse e dunque più difficili da esprimere; l’intervista successiva è a questo proposito più chiara, ma anche l’autore si lancia in una spiegazione tutto sommato al limite del rigore e che lascia un pò di ….incertezza.

D. Colangelo, partiamo dall’inizio, da quel principio che Werner Karl Heisenberg enunciò 90 anni fa, nel 1927, e che ora voi state sfidando. Cosa dice esattamente?

R.«Il principio di indeterminazione di Heisenberg correla due quantità per descrivere completamente un sistema fisico. Questo vale per posizione e velocità di un atomo ma anche per l’ampiezza e la fase di un segnale. Al conoscere precisamente una di queste due l’altra diventa indeterminata, per cui resta impossibile descrivere completamente il nostro sistema. Tuttavia altri sistemi fisici, come per esempio lo spin di un atomo, non vengono descritti da due, bensì da tre quantità, come per esempio le tre direzioni spaziali su cui può orientarsi lo spin».

D.Questi sistemi a tre quantità non sono soggetti anch’essi al principio d’indeterminazione?

R.«Questi sono descritti da una relazione d’indeterminazione un po’ più generale che correla le tre quantità dello spin: la relazione d’indeterminazione di Robertson-Schrödinger. Anche in questo caso risulta comunque impossibile conoscere esattamente tutto del sistema, cioè le tre orientazioni dello spin, tuttavia se ne possono conoscere quasi precisamente due. E quelle due sono sufficienti per conoscere l’ampiezza e la fase di un segnale rivelato dagli atomi con estrema precisione, che è quello a cui effettivamente siamo interessati».

D. Geniale: ne “sacrificate” una per salvare le due che vi servono. E siete stati voi i primi a pensarci?

R.«Probabilmente per un teorico questo fatto era già noto, perché è una conseguenza semplice della teoria. Ma spesso le idee semplici sono anche quelle che possono essere applicate ai sistemi più diversi. Il nostro merito è che noi siamo stati i primi ad accorgerci che da questa conseguenza si poteva derivare un protocollo sperimentale semplice da utilizzare nella pratica. E abbiamo dimostrato, con un esperimento, che se ne poteva ottenere un vantaggio metrologico significativo rispetto a quello che è fatto fino a ora, tanto da poter migliorare gli attuali strumenti».

 

«Il nostro esperimento ha dimostrato che, effettivamente, l’uso di spin atomici in opportune configurazioni rispetto al campo magnetico permette di misurare ampiezza e fase dello spin con precisione oltre i limiti classici.

Si può tentare di fare meglio senza avere la certezza di riuscirci? Ci provo e potrei non riuscirci.

Cominciamo col ricordare di cosa parliamo.

In MQ le grandezze fisiche sono rappresentate da operatori, ossia operazioni analitiche condotte su funzioni, le funzioni d’onda; poniamo di avere a che fare con le due operazioni prodotto e derivata applicate entrambe ad una funzione d’onda e sia questa funzione indicata da ψ(x).

Se applichiamo due operatori uno dopo l’altro alla funzione l’ordine di applicazione non è indifferente; poniamo di applicare prima il prodotto e poi la derivata o prima la derivata e poi il prodotto avremo:

Come si vede i due risultati non sono uguali e dunque la loro differenza non è nulla; tale differenza viene definita commutatore e si dice che il commutatore fra i due operatori non è nullo e che i due operatori non commutano.

Se questo avviene le due grandezze corrispondenti ai due operatori sono dette incompatibili; di più se la differenza fra le due operazioni è pari a ossia all’unità immaginaria per il quanto di Planck diviso 2 pigreco le due grandezze si dicono canonicamente coniugate.

Il famosissimo principio di indeterminazione di Heisenberg che proclama la non conoscibilità contemporanea delle quantità fisiche con precisione assoluta si riferisce proprio a grandezze o variabili incompatibili e coniugate, non a qualunque coppia (o tripletta) di grandezze o variabili.

Già in passato la comprensione del principio di indeterminazione ha portato a problemi; per esempio Condon nel 1929 credette di aver trovato una violazione del principio nel caso dei momenti angolari dell’atomo di idrogeno, ma le grandezze a cui faceva riferimento sono incompatibili ma non coniugate e dunque il principio di indeterminazione non si applicava.

U. Condon, Remarks on uncertainty principles, in Science, nº 69, 1929, pp. 573-574.

Alle variabili che non siano coniugate ma solo incompatibili si applica una diversa relazione detta relazione di indeterminazione di Robertson- Schroedinger. Mentre Schroedinger lo conoscete sicuramente , non molti si ricorderanno di Howard Percy Robertson un fisico matematico che diede punti anche ad Einstein, perchè fece da referee ad un suo lavoro e lo rifiutò, costringendo a cambiarne le conclusioni; Einstein non visse bene la cosa, ma la Fisica e noi tutti ne abbiamo avuto giovamento.

Questa però è un’altra storia che potete trovare qui:

Einstein Versus the Physical Review Daniel Kennefick

Physics Today 58, 9, 43 (2005); doi: 10.1063/1.2117822 View online: http://dx.doi.org/10.1063/1.2117822

In conclusione alle grandezze misurate dal gruppo di ricercatori guidato da Mitchell si applica la relazione di Robertson e non quella di Heisenberg e dunque non c’è alcun aggiramento. Ma cosa dice la relazione di Robertson?

La relazione dice che il prodotto delle due deviazioni standard riferite a due grandezze incompatibili deve essere superiore alla metà del valore medio del commutatore applicato ad una certa funzione; in definitiva mentre Heisenberg si applica nel caso di misure delle osservabili sullo stesso sistema la disuguaglianza di Robertson fa riferimento alla distribuzione dei valori (con deviazioni standard σA e σB ) delle osservabili A e B in un insieme statistico di sistemi quantistici identici. Le due condizioni sono alquanto diverse e dunque lo sono anche le rispettive “violazioni”. Tutto qua spero di non aver detto sciocchezze. Correggetemi.

Per saperne di più:

Simultaneous tracking of spin angle and amplitude beyond classical limits”, di Giorgio Colangelo, Ferran Martin Ciurana, Lorena C. Bianchet, Robert J. Sewell e Morgan W. Mitchell

Intercalazione e altre storie. 3.

In evidenza

Claudio Della Volpe

Continuiamo a parlare di accumulo energetico elettrochimico e di intercalazione come abbiamo fatto nei due post precedenti (che trovate qui e qui).

Molti sanno del litio come intercalante, e ne riparleremo in un prossimo post, ma pochi immaginano che altri ioni possano intercalare con utilità e parliamo qui di sodio e ione idronio, H3O+.

Il primo è vicino ad una applicazione commerciale, mentre il secondo è in stato di studi di laboratorio.

La ricerca nel campo delle batterie ad intercalazione usanti sodio è iniziata nel 1980, ma batterie commerciali allo ione sodio non sono di fatto ancora sul mercato mentre quelle allo ione litio i cui primi esemplari sono stati prodotti nel 1970 sono diventati una realtà pratica già nel 1991 Ovviamente la situazione attuale che spinge così fortemente verso le rinnovabili ha suscitato di nuovo interesse sul tema e così dal 2010 è ripresa una ricerca intensa.

Storicamente l’inserzione di ioni sodio a temperatura ambiente fu dimostrata nel 1980 in TiS2 e nel medesimo anno si provarono le proprietà elettrochimiche di composti come NaxCoO2 , simile a quello comunemente usato col nome di cobaltite nelle batterie al litio ricaricabili.

Vedete qui sotto uno schema del funzionamento delle batterie al sodio-ione, che non si distacca più di tanto da quello delle battterie al litio-ione.

           In fase di carica gli ioni sodio migrano dall’ossido misto alla grafite usata casomai in una forma nanocristallina che consente una penetrazione maggiore del sodio.

Tuttavia se consideriamo in dettaglio alcune proprietà dei diversi ioni che si possono usare al posto del litio ci rendiamo conto che mentre la capacità teorica rimane sostanzialmente invariata il voltaggio della batteria scende in modo significativo spostandosi verso ioni più carichi, la cui reversibilità di intercalazione fra l’altro è inferiore; ciò che attira verso ioni diversi dal litio è sostanzialmente il costo più basso; fra tutti questi aspetti il sodio costituisce un buon compromesso.

Journal of The Electrochemical Society, 162 (14) A2538-A2550 (2015) Review—Practical Issues and Future Perspective for Na-Ion Batteries Kei Kubotaa,b and Shinichi Komaba

Non è dunque strano se il lavoro di ricerca si è concentrato verso batterie di questo tipo sperimentando anche al posto della grafite altre sostanze di intercalazione, come per esempio composti di Na e Sb . C’è stato il ripetuto annuncio da parte di una ditta, la Aquion, della realizzazione di dispositivi commerciali la cui struttura è descritta nella figura qui sotto e che comprende un catodo misto di grafite e fosfato di titanio, mentre il catodo è un ossido misto di manganese. In effetti sembra sia già possibile comprare queste batterie definite “miste” anche in Italia:

http://www.tecnolario.it/prodotti/solare-fotovoltaico/batterie-per-accumulo-di-energia/177-batterie-aquion-energy.html

Un altro lavoro sulla intercalazione di ioni diversi da litio è stato molto recentemente publicato su Angewandte Chemie; si tratta di un lavoro ancora di laboratorio che ha testato la possibilità di intercalare reversibilmente lo ione idronio in un elettrodo cristallino di un colorante rosso con proprietà semiconduttrici, un derivato del perilene (i 5 anelli centrali qui sotto), la sua dianidride nelle posizioni 3,4,9,10 (PTCDA).

Gli autori di questo lavoro hanno dimostrato per la prima volta che gli ioni idronio possono essere reversibilmente immagazzinati in un elettrodo cristallino di questo materiale con una capacità di accumulo di 85 mAh/g alla velocità di scarica di 1A/g. L’analisi ai raggi X mostra che avviene una significativa e reversibile dilatazione della struttura per assorbimento degli ioni idronio da una soluzione acida, fenomeno spiegabile solo per intercalazione degli ioni idronio nella struttura originale come proposto qui sotto, con una reazione corrispondente alla riduzione della dianidride ad acido. Questa ipotesi è stata confermata attraverso una analisi teorica usando il metodo cosiddetto DFT la teoria del funzionale della densità (Density Functional Theory, DFT) una teoria quantistica microscopica per lo studio di sistemi a molti elettroni.

E’ interessante notare che i sistemi di accumulo elettrochimico di idrogeno esibiscono di solito efficienze coulombiche basse a causa della evoluzione di idrogeno indicata in inglese come HER. In questo caso invece la specie che si intercala è proprio lo ione idronio che ha un raggio ionico di 100pm (picometri) simile a quello dello ione sodio.

Certo al momento i risultati sono esclusivamente di laboratorio, ma considerate che questa è la dimostrazione sperimentale di un sistema di accumulo basato interamente sulla chimica organica e sarebbe il primo potenzialmente sostenibile. Una sorta di elettrodo ad idronio da accoppiare ad altri elettrodi per realizzare una batteria funzionante. E dite voi se è poco.

 

Acesulfame K: un dolcificante per monitorare l’urina nelle piscine

In evidenza

Rinaldo Cervellati

L’acesulfame potassico (ACE K) è un dolcificante di sintesi, oggi largamente impiegato da solo o in associazione con altri edulcoranti, solitamente con l’aspartame. A differenza di quest’ultimo, l’ACE K è resistente al calore e a pH sia acidi che basici, ha un potere dolcificante 200 volte quello della saccarina e uguale a quello dell’aspartame, il che lo rende particolarmente utile in pasticceria, per prodotti ad alta conservazione, come pure nell’industria cosmetica.

Dal punto di vista chimico l’ACE K è il sale di potassio del 6-metil-1,2,3-oxathiazine-4 (3H) -one 2,2-diossido[1]. Si presenta come polvere cristallina bianca, solubile in acqua. La sua struttura è mostrata in figura 1.

A tutt’oggi non sembrano esserci pericoli per la salute nell’impiego di acesulfame K come additivo alimentare, esso è stato approvato sia dall’agenzia statunitense FDA (Food and Drug Administration) sia dall’European Food Safety Authority (EFSA, con codice E950).

La caratteristica interessante di ACE K è che non viene metabolizzato dall’organismo, in altre parole una volta ingerito viene escreto con le urine praticamente intatto. Quindi non solo i tessuti non lo metabolizzano ma neanche la flora batterica presente nel lume dell’apparato digerente, dalla bocca all’intestino.

Questa caratteristica ha motivato un gruppo di ricercatori dell’Università di Alberta (Canada) a utilizzare ACE K come marker per l’urina nelle piscine. La ricerca, recentissima, riportata da c&en newsletter on line del 7 marzo è pubblicata su Environmental Science and Technology Letters

(L. K. Jmaiff BlackstockW. WangS. VemulaB. T. Jaeger, and X. F. Li, Sweetened Swimming Pools and Hot Tubs, Environ. Sci. Technol. Lett.2017, on web March 1, DOI: 10.1021/acs.estlett.7b00043)

L’immissione di urina umana nelle piscine e negli idromassaggi è un problema di sanità pubblica, affermano gli autori, infatti anche se l’urina di per sé è sterile, contiene però molti composti azotati (urea, ammoniaca, aminoacidi, creatinina) che possono reagire con i disinfettanti contenuti nell’acqua. Per esempio reagendo con il cloro queste sostanze formano composti volatili (trialometani, acidi aloacetici, aloammine, e alonitrometani) che possono indurre patologie. L’esposizione a questi composti, ad esempio alla tricloroammina provoca irritazione agli occhi e all’apparato respiratorio fino a indurre una forma di asma[2].

I ricercatori canadesi, guidati dalla Prof. Xing-Fang Li,hanno messo a punto un appropriato metodo analitico per la determinazione di ACE K nell’acqua senza necessità di pre-concentrazione. In breve si tratta di cromatografia liquida ad alta prestazione (HPLC) accoppiata a spettrometria di massa tandem (MS-MS), una tecnica di riframmentazioni successive effettuate su frammenti di ioni già analizzati. Si tratta in pratica di ripetere più volte la frammentazione e l’analisi sugli stessi ioni. Sono stati analizzati 250 campioni da 31 fra piscine e idromassaggi e più di 90 campioni di acqua dai corrispondenti rubinetti di alimentazione, tutta acqua municipale di due città canadesi.

Il monitoraggio è stato effettuato nell’arco di tre settimane e i campioni sono stati tutti analizzati in triplicato.

I risultati sulle due città hanno mostrato che la quantità di ACE K riscontrata nelle piscine e idromassaggi va da 30 ng/L a 7110 ng/L, in confronto all’intervallo 6 – 15 ng/L per l’acqua dei rubinetti. Nel caso delle piscine e vasche riscaldate i valori mostrano una grande variabilità, spiegabile in base ai cicli temporali di cambio dell’acqua, al numero di utenti ed eventi, e alle pratiche di facility management. In genere, nelle piscine si aggiunge acqua dolce solo per mantenerne i livelli, mentre nelle vasche idromassaggio di strutture comunitarie l’acqua viene sostituita frequentemente per evitare problemi di salute associati con il loro più intenso utilizzo.   La variabilità nel caso dell’acqua dei rubinetti è molto minore.

Con opportuni metodi statistici i ricercatori hanno potuto ricavare un valor medio per la quantità di ACE K contenuta nelle strutture delle due città: 156 ng/L per la prima città, 210 ng/L per la seconda, valori di molto superiori a quelli dell’acqua dei rubinetti (6-15 ng/L). A questo punto, in base alla capacità delle piscine, 420000 L per la prima città, 836000 L per la seconda e utilizzando il valor medio della quantità di ACE K contenuta nell’urina umana misurata su campioni provenienti da 20 individui (2360 mg/mL), i ricercatori hanno stabilito che il volume di urina contenuta in una tipica piscina pubblica della prima città è mediamente di 30 L, mentre nella seconda si arriva a 75 litri.

Sebbene sia considerata una grave scorrettezza, il 19% degli adulti ha ammesso di aver urinato in piscina almeno una volta, ma la situazione è più preoccupante come mostrato in una recente indagine:

http://healthypools.org/files/WQHC_swimmer_hygiene_survey_results.pdf

Il metodo analitico di analisi dell’urina nelle acque utilizzato dai ricercatori canadesi presenta ottime caratteristiche: LOD = 0.5 ng/L; LOQ = 2.2 ng/L, oltre a una rapida determinazione del marker acesulfame K.

I risultati riportati in questa ricerca sottolineano la necessità di monitoraggi frequenti dell’acqua di piscine e idromassaggi ma prima di tutto sarebbe necessario un maggiore rispetto delle regole e della salute pubblica da parte degli individui[3].

Per un dettagliato approfondimento della “chimica in piscina”, si rimanda a:

Henry Arnaud, C. The chemical reactions taking place in your swimming pool. Chem. Eng. News 2016, 94, 28−32.

http://cen.acs.org/articles/94/i31/chemical-reactions-taking-place-swimming.html

[1] Acesulfame K è stato sintetizzato casualmente per la prima volta nel 1967 dal chimico tedesco Karl Clauss della allora Hoechst AG Company.

[2] Molti continuano a pensare che episodi di irritazione a occhi e gola siano imputabili al cloro o ad altri disinfettanti che lo contengono, in realtà la causa principale di questi episodi è dovuta a composti prodotti dalla reazione fra urina e cloro.

[3] La ricerca riguarda il Canada, ma è presumibile che in altri Paesi la situazione non sia molto diversa (v. link). Nel 1997 una ricerca tedesca riportò che l’escrezione di urina media per nuotatore è di 70 mL.

L’acqua, un indicatore di sostenibilità.

In evidenza

Luigi Campanella, ex Presidente SCI

Acqua, cultura, pace: un triangolo molto significativo. Pace vuol dire messa in comune di ricchezze e di risorse: il nostro Pianeta è nato senza barriere, senza confini. Le risorse del pianeta appartengono a tutte le Nazioni. Il pianeta Terra non conosce né le Nazioni, né i confini di proprietà degli Uomini. Esso cela, conserva ed elargisce i beni primari perché i Regni di Natura più evoluti ne possano trarre sostentamento.

E’ in questo spirito che l’Umanità deve operare con scambievole collaborazione, utilizzando le materie prime secondo il principio di equità. Fra queste risorse l’acqua è di certo la più necessaria per il nostro corpo: si può sopravvivere alla fame non alla sete.

L’acqua è una risorsa essenziale per la vita dell’uomo.Essa è fondamentale non solo per la sopravvivenza stessa, ma anche per attività quali agricoltura ed industria. Senza di essa non vi può essere sviluppo ed il mantenimento delle risorse idriche è problema molto importante. Le riserve idriche sono infatti soggette ad un deterioramento dovuto a molti fattori, tra i quali gli scarichi industriali, l’utilizzo di pesticidi in agricoltura, l’inquinamento atmosferico, riportato al suolo dalle piogge acide.

La ricchezza d’acqua non sempre significa disponibilità: in un terreno agricolo ad esempio si possono creare a seguito di ripetuti interventi sbagliati da parte dell’uomo delle condizioni assai negative a fini della trasferibilità e del trasporto dell’acqua. Sono stati messi a punto test idonei propri e finalizzati a misurare non la quantità di acqua presente, ma il grado di disponibilità.

Anche l’aspetto energetico sembra oggi cambiare. L’era dell’idrogeno, la nuova forma pulita di accumulo dell’energia ci obbliga a considerare l’acqua anche da questo punto di vista: risorsa preziosa di idrogeno. Se poi gli aspetti economici di bilancio non saranno soddisfatti, questo nulla toglie ad un’ennesima preziosità dell’acqua, essere un abbondante potenziale contenitore di idrogeno. Tra l’altro l’impiego della luce solare (in presenza di un catalizzatore) come energia estrattiva apre ulteriori spazi da percorrere.

Lo stesso ruolo che l’acqua esercita per il nostro corpo, la cultura esercita per la nostra anima e la nostra mente che sono alimentate dalla cultura, intesa in senso formativo e stimolante, conoscitivo e sociale. Traduzioni, religioni, arti di un popolo ne rappresentano la ricchezza comune, ma anche quella di ogni singolo cittadino. Queste risorse, acqua e cultura, contribuiscono alla crescita sociale ed economica, alla qualità, della vita, alla salute dei popoli ma esse stesse, se distribuite in modo iniquo, diventano strumenti di discriminazione, di dominio e di potere. La pace ne risulta compromessa.

A chi vengono tolte acqua e cultura vengono sottratte risorse di vita. Ne risulta un quadro internazionale di paesi troppo ricchi e paesi troppo poveri: allora la globalizzazione che potrebbe in senso positivo essere interpretata come messa a comune di risorse, trasferimento di tecnologie, condivisione di progresso, caduta di barriere diviene invece occasione per discriminazioni, compressioni, prepotenze.

La comunità culturale è certamente più sensibile alle discriminazioni e all’equa ripartizione delle risorse di quanto non lo sia la comunità dell’acqua, intesa come espressione della comunità economica. La pace che da questo viene spesso compromessa può essere salvata da quella: in questo senso convegni, incontri, appelli delle comunità scientifiche e culturali rappresentano preziosi strumenti in difesa della pace, dell’equilibrio sociale,del diritto alla vita ed alle sue indispensabili risorse.

 

Quaestio de aqua. Riflessioni sulla giornata mondiale dell’acqua.

In evidenza

Mauro Icardi.

Mercoledì 22 Marzo 2017 è la giornata mondiale dell’acqua. E di acqua è molto difficile non parlare, per motivi davvero molto evidenti. Lo abbiamo sentito ripetere da almeno due decenni. L’acqua è una risorsa che non è inesauribile come inconsciamente abbiamo sempre pensato. Il tema della corretta gestione e protezione di una risorsa vitale indispensabile, si lega a filo doppio anche ad altri problemi ambientali che ci troviamo a dover affrontare. Uno su tutti quello del riscaldamento globale che impatta notevolmente sul ciclo idrogeologico dell’acqua.
Le risorse disponibili di acqua dolce sono sottoposte a una pressione crescente, ulteriormente aggravata dagli effetti dei cambiamenti climatici. Dagli anni ’80 il tasso dei prelievi di acqua dolce è cresciuto ogni anno dell’1%. Tra il 2011 e il 2050 si prevede che la popolazione mondiale crescerà del 33%, passando da 7 a 9 miliardi di persone, mentre la domanda di beni alimentari crescerà nello stesso periodo del 70%.
Ma contestualmente secondo quanto riportato dal quinto rapporto dell’IPCC (Gruppo intergovernativo sul cambiamento climatico) circa il 7% della popolazione mondiale vedrà ridursi la disponibilità di risorsa idrica del 20% per ogni grado di innalzamento della temperatura globale.
Altri numeri sono indicativi: 750 milioni di persone nel mondo secondo l’Unicef non hanno accesso all’acqua potabile. Noi ci permettiamo di usarla anche per i servizi igienici.

Foto-giornatamondiale-dellacqua

E a proposito di servizi igienici un terzo della popolazione mondiale non vi ha accesso.
Mentre lo scorso anno il tema centrale della giornata era dedicato al legame possibile tra acqua e lavoro, la giornata del 2017 pone l’attenzione ai reflui, alle acque rilasciate dagli impianti di depurazione civili e industriali, che raggiungono i corpi idrici superficiali; gli impianti non sempre sono presenti e talvolta non funzionano efficacemente o sono insufficienti.
Per il futuro ci si propone di raggiungere “l’Obiettivo di Sviluppo Sostenibile n°6” – acqua potabile e servizi igienico-sanitari per tutti entro il 2030 – dimezzando la percentuale di acque reflue non trattate e aumentando il riciclo dell’acqua con un riuso sicuro.
In futuro, la possibile carenza d’acqua richiederà l’impiego di risorse idriche non convenzionali, come ad esempio la raccolta di acqua piovana e il riciclaggio di acque reflue e di deflusso urbano.
Tutto questo richiede ovviamente un grande sforzo. E questo deve avvenire non solo nei paesi meno sviluppati, ma anche in Italia.

Discharge_pipe

Per le inadempienze nell’attuazione della Direttiva l’Italia ha già subito due condanne da parte della Corte di Giustizia Europea, e l’avvio di una nuova procedura di infrazione.
E a questo proposito devo purtroppo constatare che quando si parla di acqua appunto, sembra che tutto si limiti al parlare e basta. E che a parlare siano i soggetti più disparati, ma che troppo spesso i tecnici e gli operatori del servizio siano i meno ascoltati.
Dopo il referendum del 2011 che ha sancito la volontà degli Italiani che l’acqua sia gestita da aziende pubbliche, tutto sembra essersi rallentato. Premesso che ho votato a favore della gestione pubblica dell’acqua, devo però constatare che spesso si sono fatte molte discussioni stancanti ed inutili, di pura lana caprina. Uno dei tabù è quello legato alla tariffa del servizio idrico. Occorre ricordare che le aziende del ciclo idrico non ricevono finanziamenti dalla fiscalità generale, ma solo dalle bollette dell’acqua e dalla tariffazione degli scarichi industriali. Altro tasto dolente è la resistenza che c’è sia da parte della politica locale, che della pubblica opinione che spesso sono contrarie a priori all’aggregazione (prevista per legge) del ciclo idrico a livello di gestione unica provinciale. Per motivi diversi (campanilismo, lotte politiche) ma che di fatto impediscono la creazione di strutture più grandi che possano essere meglio organizzate a livello tecnico ed operativo.

Sedimentprima

Sono situazioni che vivo e seguo da ormai dieci anni. E’ infatti dal 2007 che in provincia di Varese si è iniziato il processo di aggregazione. Ancora non è terminato, si attende una decisione del Consiglio di Stato a seguito di un ricorso presentato da una delle aziende del territorio.
Nel frattempo gli investimenti ormai non più differibili sono ancora fermi.
Sarebbe il caso di fare una riflessione anche su queste tematiche. L’acqua non arriva nelle case se le strutture non sono efficienti, e questo vale per acquedotti e conseguentemente si riflette sui depuratori. Quindi fermo restando che debba essere un bene pubblico e universale non è con atteggiamenti di rigidità, e qualche volta di demagogia che si migliora la situazione. Le multe europee potrebbero costarci 482 milioni di euro l’anno.
Allo stesso tempo però non è accettabile che, come dichiarato dall’allora amministratore delegato di Nestlè Peter Brabeck nel 2005 l’acqua sia “la più importante delle materie prime che abbiamo oggi nel mondo“,
ma anche che “La questione è se dovremmo privatizzare la fornitura dell’acqua comune per la popolazione. E ci sono due opinioni diverse in merito. Un’opinione, che ritengo sia estremistica, è rappresentata dalle ONG, che fanno rumore allo scopo di dichiarare l’acqua un diritto pubblico.

L’acqua deve essere e restare un diritto pubblico universale.

Per farlo nel migliore dei modi dobbiamo tutti imparare a conoscerla, a rispettarla e a non sprecarla inutilmente. Visto che il tema riguarda quest’anno la depurazione voglio citare un piccolo esempio.
Ultimamente a pochi giorni di distanza uno dall’altro, nel territorio della provincia di Varese due sfioratori di piena sono entrati in funzione, sversando liquami nei fiumi Olona e Ticino in periodo di tempo secco. Questo si è verificato a causa del fatto che le pompe di sollevamento dei liquami agli impianti di depurazione sono risultate ostruite da stracci.

sfioratore

Sarebbe bastato buttare quegli stracci nel bidone apposito, e non nel wc per evitare l’inquinamento dei due corsi d’acqua.

Io credo che, almeno nei paesi sviluppati, molte persone considerino l’acqua disponibile in maniera praticamente inesauribile, ritengano che quella potabile debba costare poco se non essere gratuita, e non si preoccupino affatto di quello che è il processo laborioso di depurazione, ogni volta che premono il pulsante di uno sciacquone. E magari sono accaniti consumatori di acqua in bottiglia, ed in questo caso non si preoccupano del fatto che un bene demaniale, un bene universale sia gestito da multinazionali private che, per sfruttare i diritti di captazione delle fonti pagano canoni di fatto irrisori e fanno su questo bene di diritto universale profitti enormi.
Non sono questi gli atteggiamenti che dobbiamo adottare. Dobbiamo pensare che l’acqua è vita. Frase che può sembrare banale, ma che invece non lo è affatto.
Un impegno di tutti a preservarla, un impegno soprattutto di chi come me nell’acqua e nel suo trattamento e gestione ha trovato il suo lavoro quello di fare informazione e di impegnare le proprie risorse e le proprie conoscenze.
Per augurare a tutti buona giornata dell’acqua credo che questo brano de “ Il Piccolo Principe” sia davvero indicato.

pozzo principe

“Buongiorno”, disse il Piccolo Principe.
“Buongiorno”, disse il mercante.
Era un mercante di pillole perfezionate che calmavano la sete. Se ne inghiottiva una alla settimana e non si sentiva più il bisogno di bere.
“Perché vendi questa roba?” disse il Piccolo Principe.
“È una grossa economia di tempo” disse il mercante. “Gli esperti hanno fatto i calcoli. Si risparmiano cinquantatré minuti alla settimana.”
“E cosa se ne fa di questi cinquantatré minuti?”
“Se ne fa ciò che si vuole…”
“Io”, disse il Piccolo Principe, “se avessi cinquantatré minuti da spendere, camminerei adagio adagio verso una fontana…”

Intercalazione e altre storie.2.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto il concetto di intercalazione e discusso di una delle sue applicazioni in elettrochimica, come anche delle ricadute economiche della tecnologia elettrochimica moderna.

Ma perchè parlare di accumulo elettrochimico?

Personalmente ritengo che lo sviluppo del settore accumulo energetico sia fondamentale per la crescita seria delle energie rinnovabili; è pur vero che negli ultimissimi anni quasi il 40% dell’energia elettrica italiana è stata prodotta da rinnovabili, ma di fatto l’energia elettrica è solo una parte dell’energia che consumiamo, circa 300TWh/anno contro quasi 200 Mtoe/anno (oltre 2300TWh equivalenti) di energia primaria; pur considerando che il 60% dell’elettrico è prodotto da fossile, stiamo parlando (se vogliamo abbandonare il paradigma fossile) di almeno altri 1500-1600TWh equivalenti di elettrico da estrarre da qualche altra parte; dunque per passare integralmente alle rinnovabili quanti impianti FV o eolici o idro ci servono? E dato che il loro tempo di funzionamento complessivo annuale è solo del 10-15% (per il solare) e 20-30% (per l’eolico) del totale (tecnicamente si chiama fattore di capacità) quanti impianti nominali dobbiamo avere per usarli quando c’è sole o vento ed accumularne il prodotto per il futuro uso? Risposta approssimata diciamo in media 5 volte in più. Oggi per ogni MW rinnovabile installato occorre usare una guardia equivalente di fossile, questo pochi lo dicono, ma il settore fossile si frega le mani per questo; ma in futuro dovremo farne a meno e come faremo?

La risposta è questa: dovremo avere una quantità di impianti multipla rispetto alla loro potenza nominale e una corrispondente capacità di accumulo.

Il consumo italiano di energia annua primaria totale corrisponde (spalmando banalmente i numeri precedenti in un anno) a circa 200-250GW continui, ossia moltiplicando per il fattore di capacità delle rinnovabili parliamo di circa 1 TW installato e backuppato di energia rinnovabile; avete capito bene 1000GW (oggi sono 120 compreso tutto); e tenete presente che un backup di 1 giorno corrisponderebbe a 5-6TWh. E’ una quantità enorme, che occuperà molto territorio.

Al momento il nostro paese dispone di una ridicola capacità di idroelettrico di pompaggio come segue:Se li usassimo al massimo sono 67GWh, ossia 0.067TWh; ma li sottoutilizziamo perfino come qui mostrato:Quindi 0.067TWh, contro 5-6 al giorno, necessari per il futuro: caspita, ma sono 100 volte di meno del necessario (per ogni giorno di backup)!!!

E allora?

Deve cambiare tutto. Abbiamo molti investimenti da fare, altro che piattaforme petrolifere!

Ovviamente sto trascurando cose fondamentali; parlo del risparmio energetico (risparmio!! non efficienza), parlo di altri metodi di accumulo (si può estendere l’idro? Quanto possono pesare altri metodi fisici o chimici?), parlo per esempio dell’ammodernamento del parco dei principali utilizzatori elettrici, i motori elettrici installati che sono in Italia quasi 100GW totali; pochi aggiornati alle tecnologie moderne: abbiamo già accennato a questo tema che prevede l’uso generalizzato degli inverter e dei motori in grado di usare una frequenza variabile.

La velocità di rotazione del motore è strettamente connessa con la frequenza della tensione con cui lo si alimenta. Nell’inverter la tensione alternata della rete (trifase o monofase) viene raddrizzata in corrente continua e quindi viene riconvertita in corrente alternata trifase a frequenza variabile per alimentare il motore. Una cosa del genere consentirebbe di ridurre i consumi ed esaltare la flessibilità del sistema.

Chiaro che sto approssimando. Ci sarà anche dell’altro (penso all’eolico di alta quota per esempio che teoricamente è immune dal problema discontinuità).

Qualcuno dirà: e l’idrogeno, l’idrogeno dove lo metti? Secondo me l’idrogeno è un metodo molto sopravvalutato; l’efficienza complessiva dell’idrogeno è bassa, molto bassa e dunque la strada dell’drogeno come vettore ed accumulo probabilmente non è così facilmente percorribile; ma non posso parlare di tutto in un solo post, ne riparleremo. A parte che per usare l’idrogeno ci vogliono 9 g di acqua per ogni grammo di idrogeno e non è acqua sporca o di mare. Questo è un costo nascosto e spesso trascurato in un mondo che va incontro ad un enorme cambiamento climatico che sta alterando le precipitazioni.

Tornando all’accumulo elettrochimico; è una strada possibile e ragionevole, ma ci sono da mangiare molte pagnotte; una di queste è capire bene, molto bene l’intercalazione.

L’intercalazione è oggi un argomento di avanguardia nel senso che molte ricerche sulla scienza e la tecnologia delle batterie, nel tentativo di scoprire meccanismi e metodi di accumulo energetico che ci aiutino a risolvere il problema di rendere più affidabili le energie rinnovabili, cercano di usare ed estendere l’intercalazione. Cosa hanno concluso? Continueremo questo discorso in un prossimo post.

La struttura del benzene fra chimica classica e chimica quantistica

In evidenza

Rinaldo Cervellati

 Quando ai chimici capita di avere a che fare con il simbolo stilizzato del benzene, con un cerchio inscritto in un esagono, quasi inevitabilmente il pensiero va agli orbitali molecolari dei sei elettroni p degli atomi di carbonio della molecola. Tuttavia questo simbolo fu introdotto a rappresentare il “sestetto aromatico” nel 1925 dai chimici britannici James W. Armit e Sir Robert Robinson[1] [1], qualche anno prima dell’interpretazione in base al concetto di risonanza di Pauling (1928) e del metodo degli orbitali molecolari di Hückel (1931).

Sir Robert Robinson

Arbit e Robinson scrivono:

il possesso di tali gruppi [elettronici] conferisce stabilità chimica come mostrato, per esempio, da una ridotta insaturazione e dalla tendenza a mantenere il tipo[chimico]. Queste sono, naturalmente, le caratteristiche principali dei sistemi benzenici, e qui la spiegazione è ovviamente che sei elettroni sono in grado di formare un gruppo che resiste alla rottura e possono essere denominati il sestetto aromatico [enfatizzato nell’originale]. Perciò:

Il cerchio nell’anello simboleggia l’opinione che sei elettroni nella molecola di benzene producono una associazione stabile che è responsabile del carattere aromatico della sostanza.[1].

Gli autori non cercano di interpretare il motivo per cui questi sei elettroni conferiscano questa particolare proprietà, essi si muovono nell’ambito della teoria di Lewis e poiché in tale teoria un legame a coppia elettronica condivisa viene rappresentato con un segmento che collega i due atomi contraenti il legame, ritengono opportuno usare un particolare simbolo per il sestetto elettronico responsabile dell’aromaticità. Al momento, scrivono Armit e Robinson, non si richiede alcuna assunzione particolare per quanto riguarda la posizione degli elettroni o delle loro orbite nello spazio.

Riprenderemo più avanti le idee di Robinson in proposito, vale tuttavia la pena ricordare che il cerchio inscritto nell’esagono cominciò a essere largamente usato nei testi e nei lavori di chimica organica solo più di venticinque anni dopo, verso la fine degli anni ’50 − inizio degli anni ’60 del secolo scorso.

L’interpretazione della geometria e della struttura della molecola del benzene fin dalla sua scoperta nel 1825 da parte di Michael Faraday[2] che lo isolò dal residuo oleoso della produzione del gas illuminante[3], chiamandolo bicarburo di idrogeno, è una storia lunga e complicata che qui viene riassunta senza pretesa di completezza. Molti altri composti con le proprietà del benzene furono scoperti in seguito, tanto che nel 1855 il chimico tedesco August Wilhelm von Hofmann (1818 – 1892) usò per essi il termine aromatici[4].

Nel 1834 fu determinata la formula minima del benzene (CH) e qualche tempo dopo la sua formula molecolare, C6H6, la prima molecola conosciuta con un numero uguale di atomi di carbonio e idrogeno. Altri fattori intrigarono i chimici del 1800 nel tentativo di attribuire al benzene una ragionevole struttura molecolare, in particolare il fatto che preferisse di gran lunga le reazioni di sostituzione a quelle di addizione e non rispondesse ai test analitici tipici delle sostanze contenenti doppi o tripli legami.

Fra il 1867 e il 1899 furono proposte diverse possibili formule di struttura, le principali sono riportate in figura 2.

I chimici di oggi, soprattutto i più giovani, possono pensare che si tratti di baggianate prive di alcun fondamento ma le cose non stanno affatto così. Se questi tentativi (che comunque cercavano di accordarsi ai fatti sperimentali) non ci fossero stati, probabilmente la rappresentazione moderna (quella “vera”?) avrebbe richiesto più tempo. Inoltre si è poi scoperto che composti reali corrispondono ad alcune di esse. Ad esempio, il diene biciclico, biciclo[2.2.0]esa-2,5-diene, sintetizzato nel 1962 è anche chiamato diene di Dewar perché ha la stessa struttura di quella che Dewar propose per il benzene. Una molecola con struttura analoga a quella di Lademburg, esiste e si chiama prismano (tetraciclo[2.2.0.02,6.03,5]esano), chiamato anche benzene di Lademburg, sintetizzato nel 1973. Infine, il benzvalene (triciclo[3.1.0.02,6]esa-3-ene), sintetizzato nel 1971, ha una struttura somigliante a quella proposta da Armstrong per il benzene, ed è a partire da esso che si è ottenuto il prismano.

Si può far risalire la prima struttura geometrica in accordo con la reattività del benzene ai lavori di Friedrich August Kekulé von Stradonitz[5] che, basandosi sull’evidenza che tutti gli atomi di carbonio nel benzene sono equivalenti ai fini della sua reattività (un solo derivato monostituito, tre isomeri disostituiti), postulò che gli atomi di carbonio fossero legati tra loro a due a due alternativamente con un singolo e un doppio legame in un anello chiuso a forma esagonale.

F.A. Kekulè

Per spiegare il fatto che questa struttura insatura rispondesse in modo negativo ai saggi di insaturazione, Kekulé avanzò l’ipotesi che i legami doppi e semplici scambiassero la loro posizione lungo l’anello con velocità tanto elevata che le reazioni caratteristiche degli alcheni non potevano avvenire. Le formule di struttura originali di Kekulé sono riportate in figura 4

Guardando la formula di struttura proposta da Thiele[6] nel 1899, si potrebbe pensare che egli abbia preceduto Robinson nel rappresentare un cerchio inscritto in un esagono ma le cose non stanno così. Nella rappresentazione di Thiele il cerchio è tratteggiato e non a caso, egli nel tentativo di giustificare la struttura di Kekulé avanzò l’ipotesi della valenza parziale in relazione ai doppi legami carbonio−carbonio. Il cerchio tratteggiato starebbe quindi a indicare queste “valenze parziali”che poco hanno a che vedere con il sestetto aromatico di Robinson.

L’aneddotica ci racconta che nel 1890 durante un convegno in suo onore per il 25° anniversario della struttura esagonale del benzene, Kekulé raccontò che 25 anni prima si era addormentato davanti al fuoco e nel sonno aveva visto un serpente che si mordeva la coda (l’ouroboro, un antico simbolo di origine egizia rappresentante un serpente o un dragone che si mangia la coda). Lo scienziato si svegliò e per tutta la notte lavorò per risolvere l’enigma della struttura ciclica esagonale del benzene.

Tuttavia la versione italiana di wikipedia (https://it.wikipedia.org/wiki/Friedrich_August_Kekul%C3%A9_von_Stradonitz)

riporta che due biochimici americani, John Wotiz e Susanna Rudofsky, nel 1984, studiando gli archivi di Kekulé conservati all’università di Darmstadt trovarono alcuni riferimenti, rispettivamente del 1854 e del 1858, a un saggio del chimico francese August Laurent (1807-1856), mai più successivamente citato dallo scienziato tedesco. In questo saggio il chimico francese proponeva già per il cloruro di benzoile una formula di struttura esagonale. Sembra quindi che quando Kekulé pubblicò la struttura esagonale del benzene ne avesse idea fin da circa dodici anni prima, ciò che non gli toglie nulla ma ridimensiona un aneddoto circolato per molto tempo.

Nonostante l’enorme importanza che ebbero nello sviluppo della strutturistica organica, le formule di Kekulé non si accordavano con le evidenze sperimentali per cui le lunghezze dei sei legami C−C dell’anello sono tutte uguali cui corrisponde un’energia di legame intermedia fra quella di un singolo e di un doppio legame. Ciò ci riporta al sestetto di Sir Robinson e alle prime interpretazioni quantomeccaniche. Come ricordato all’inizio del post, nella seconda metà degli anni venti e l’inizio anni trenta del secolo scorso nascono e iniziano a svilupparsi parallelamente due teorie con lo scopo di applicare la meccanica quantistica all’interpretazione del legame chimico: la teoria del legame di valenza (VB) e quella dell’orbitale molecolare (MO). Le due teorie si diversificano in quanto la prima si concentra sugli orbitali degli elettroni fra atomi che contraggono il legame, mentre la seconda considera l’insieme degli orbitali elettronici nella molecola. Nella teoria VB ha giocato un ruolo importante il concetto di risonanza, introdotto da Linus Pauling[7] nel 1928, come un modo di descrivere elettroni delocalizzati entro certe molecole o ioni molecolari per i quali il legame non può essere espresso con un’unica struttura di Lewis. Una molecola (o ione) con tali elettroni delocalizzati è rappresentato da più strutture (chiamate anche strutture di risonanza o strutture canoniche) che nel loro insieme contribuirebbero alla struttura della molecola (o dello ione). La struttura del benzene sarebbe quindi un ibrido di risonanza fra le due strutture di Kekulé, schematizzata come in figura 5:

le (principali) strutture canoniche essendo separate dal simbolo della freccia a doppia testa.

Sir Robinson non accettò mai la teoria della risonanza e questo suo istinto era giustificato. Gli argomenti su cui Pauling aveva basato il concetto di risonanza si rivelarono in seguito poco fondati e di natura puramente fenomenologica.

Come sappiamo oggi le due teorie (VB e MO) sono sostanzialmente equivalenti, conducendo in tutti i casi a conclusioni simili. L’unica differenza sta nel formalismo usato e nel concetto di risonanza, rivelatosi, secondo alcuni, fuorviante per i chimici organici, avendo dato luogo a numerosi errori e malintesi. Ad esempio, Hugh Longuet-Higgins[8] ebbe ad affermare che la teoria della risonanza, lungi da essere una benedizione, aveva contribuito poco all’avanzamento della chimica del 20° secolo [2]. George Willard Wheland (1907-1972), allievo di Pauling, estimatore e diffusore della teoria della risonanza però scrisse:

“la risonanza è concetto inventato dall’uomo, in un certo senso più fondamentale della maggior parte delle altre teorie fisiche. Non corrisponde ad alcuna proprietà intrinseca della molecola stessa, ma è solo uno strumento matematico deliberatamente inventato dal fisico o chimico per la propria convenienza.” [3]

Molti pensano che sarebbe opportuno eliminare i termini risonanza ed energia di risonanza, sostituendoli con delocalizzazione ed energia di delocalizzazione.

Un ulteriore episodio contribuì ad alimentare la sfiducia di Sir Robertson verso la chimica quantistica. Lord Todd e J.W. Cornforth, biografi di Robinson, così lo raccontano [2].

Nel 1931 Erich Hückel[9] pubblicò un trattamento teorico (teoria MO) sulle sostituzioni aromatiche elettrofile giungendo alla conclusione che l’effetto di gruppi elettron attrattori doveva essere orto- para direttore, mentre i gruppi elettron repulsori sarebbero stati meta direttori. Conclusioni diametralmente opposte a quelle espresse da Robinson e sostenute da Lapworth, sicché i due scrissero una nota alla rivista Nature affermando che i risultati di Hückel erano in netto contrasto con le evidenze chimiche sperimentali. Hückel replicò, più con compatimento che con rabbia, che le sue conclusioni erano una conseguenza diretta della teoria quantistica, quindi al di là di ogni critica, pertanto dovevano essere i chimici organici a trovare l’errore nei loro esperimenti. Infastidito da questa supponenza Robinson interpellò Edward Milne, famoso matematico e fisico-matematico a Oxford per chiedergli di controllare i calcoli di Huckel. Dopo aver ascoltato attentamente Robinson, Milne rispose: “Se ho ragione, Hückel ha ottenuto tutto esattamente al contrario. In tal caso è ovvio cosa è successo, ha sbagliato un segno”. Tuttavia Milne rifiutò di perdere tempo a cercare uno sbaglio di segno nei calcoli di Hückel. Per quanto lo riguardava, la cosa finiva lì, per Robinson fu anche la fine della chimica quantistica.

(L’errore fu trovato più tardi dal chimico americano George Willard Wheland, però non era così banale come aveva pensato Milne. Hückel fece una serie di assunzioni semplificative non giustificabili o scorrette. Lo sbaglio non riguarda quindi la chimica quantistica, ma il suo uso scorretto da parte di Hückel).

La sfiducia di Sir Robinson nella chimica quantistica durò fino alla fine della sua vita. A questo proposito Lord Todd e J.W. Cornforth affermano:

Il primo trattamento quantistico rappresentò invero un effettivo avanzamento rispetto al concetto originale di Robinson del sestetto elettronico, culminato nei lavori di Lennard-Jones e Coulson[10] dell’inizio anni ’40 ma ci volle diverso tempo per essere fruibile, anche a causa della mancanza di sensibilità chimica da parte di coloro che vi contribuirono. Se Robinson avesse avuto un atteggiamento diverso e si fosse impegnato a fondo nello studio dei metodi quantomeccanici e con la sua profonda conoscenza della chimica organica, probabilmente la chimica organica teorica avrebbe seguito uno sviluppo molto più rapido [2].

Comunque il simbolo dell’esagono con cerchio inscritto non ebbe subito un grande impatto nei testi di chimica organica, lo stesso Robinson non ne fece uso nel suo saggio sulla teoria elettronica dei composti organici 4]. Solo alla fine del 1950 e primi anni 1960 il simbolo finalmente fece la sua comparsa nei testi introduttivi di chimica organica, in particolare nell’edizione 1959 del conosciutissimo testo di Morrison e Boyd, dove fu utilizzato non solo per il benzene, ma anche per naftalene, antracene, fenantrene e altri aromatici policiclici [5, 6]. Ma il dibattito sull’uso del simbolo non è cessato. Ancora nei tardi anni ’90 due autori avevano idee diametralmente opposte: McMurray (1996) rifiuta di usarlo considerandolo ambiguo mentre Solomons (1992) ne fa ampio uso. Questo dibattito prosegue anche sul significato del simbolo. Alcuni vorrebbero restringerlo al sestetto aromatico del benzene, come nell’originale intenzione di Robinson, altri lo ritengono applicabile a tutti i composti che obbediscono alla regola di Huckel[11] per l’aromaticità [6].

Infine, data l’importanza del simbolo per l’anello benzenico gli sono stati assegnati due unicode uno per l’esagono con cerchio inscritto:

http://www.fileformat.info/info/unicode/char/23e3/index.htm

l’altro per l’esagono con i tre doppi legami alternati: http://www.fileformat.info/info/unicode/char/232c/index.htm

Bibliografia

[1] J. W. Amit, R. Robinson, Polynuclear Heterocyclic Aromatic Types. Part II. Some Anhydronium Bases, J. Chem. Soc., 1925, 1604-1618.

[2.] Lord Todd and J. W. Cornforth, Robert Robinson 13 September 1886 – 8 February 1975., Biogr. Mems Fell. R. Soc., 1976, 414-527.

[3] George Willard Wheland, The Theory of Resonance and Its Application to Organic Chemistry, John Wiley & Sons, New York, 1944 (1a Ed.), 1955 (2a Ed.)

[4]R. Robinson, Outline of an Electrochemical (Electronic) Theory of the Course of Organic Reactions, Institute of Chemistry: London, 1932.

[5]R. T. Morrison, R. N. Boyd, Organic Chemistry, Allyn and Bacon: Boston, 1959. Gli autori originariamente utilizzarono linee tratteggiate per il cerchio. Nelle edizioni successive queste furono sostituite da linee continue.

[6] W.B. Jensen, The Circle Symbol for Aromaticity, J. Chem. Educ., 2009, 86, 423-424.

[1] Sir Robert Robinson (1886-1975) chimico organico britannico. Premio Nobel per la Chimica 1947 per i suoi studi sui composti contenuti nelle piante: polifenoli, antociani e alcaloidi. Noto anche per alcune sintesi e per la scoperta della struttura molecolare di morfina e penicillina. A lui si deve l’introduzione delle frecce per indicare gli spostamenti elettronici nei meccanismi della chimica organica. Membro dell’Ordine al Merito del Regno Unito 1949.

[2] Michael Faraday (1791-1867), insigne fisico e chimico inglese noto sopratutto per i suoi contributi fondamentali nell’elettromagnetismo e nell’elettrochimica.

[3] Il gas illuminante (o gas di città), ampiamente usato per l’illuminazione notturna delle città prima dell’energia elettrica, veniva ottenuto per distillazione del carbon fossile (litantrace) e distribuito attraverso un complicato sistema di tubazioni. Tipicamente la miscela gassosa era costituita dal 50% di idrogeno, 35% di metano, 10% di monossido di carbonio e 5% di etilene. In alcune città, ad es. Bologna, nei pressi della Stazione Centrale è ancora in piedi l’enorme struttura cilindrica del gasometro, dove veniva immagazzinato il gas illuminante.

[4] Il termine si riferì inizialmente ai derivati del benzene che hanno in generale un odore gradevole, al contrario dei composti alifatici, successivamente fu esteso a molti composti, ad es. contenuti nelle piante anch’essi di odore gradevole. Va detto comunque che vi sono composti “aromatici” dal cui “aroma” è meglio stare alla larga…

[5] Friedrich August Kekulé von Stradonitz (1829-1896) chimico tedesco pubblicò un primo lavoro sul benzene nel 1865 in francese perché in quell’anno stava insegnando nel Belgio francofono (Kekulé, F.S,Sur la constitution des substances aromatiques., Bulletin de la Societe Chimique de Paris, 1865, 3, 98–110.). L’anno successivo pubblicò un più ampio articolo in tedesco sullo stesso argomento (Untersuchungen über aromatische Verbindungen.,  Liebigs Annalen der Chemie und Pharmacie. 1866, 137, 129–36). Nella seconda metà del XIX secolo Kekulé è stato uno dei più eminenti chimici.

[6] Friedrich Karl Johannes Thiele (1865 – 1918), chimico organico tedesco, mise a punto diversi strumenti per la sintesi organica compreso un apparecchio per la misura del punto di fusione, detto tubo di Thiele. Fra le sintesi che si devono a lui ricordiamo la condensazione di chetoni e aldeidi con ciclopentadiene come strada per ottenere fulveni.

[7] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

[8] Hugh Cristopher Longuet-Higgins (1923-2004), inglese, chimico teorico e cognitivista, ancora prima di ottenere il dottorato propose la struttura corretta per il diborano B2H6 con legame a 2centri-3elettroni fra i due anelli H2B, talvolta detto legame a banana. Fu professore di Fisica teorica a Cambridge, poi cominciò a interessarsi di intelligenza artificiale e nel 1967 si trasferì a Edimburgh dove co-fondò il Dipartimento di Intelligenza delle Macchine. Cambiò ulteriormente interesse, occupandosi di psicologia sperimentale all’università del Sussex.

[9] Erich Armand Arthur Joseph Hückel (1896-1980), chimico e fisico tedesco. Noto principalmente per lo sviluppo della teoria di Debye-Huckel per le soluzioni elettrolitiche e per il metodo di Hückel per il calcolo approssimato degli orbitali molecolari di sistemi π.

[10] Charles Alfred Coulson (1910 –1974) britannico, matematico applicativo e chimico teorico. Considerato un pioniere nell’applicazione della teoria quantistica della valenza a problemi di struttura molecolare, dinamica e reattività. Curioso il fatto che Coulson succedette a Milne come Professore di Matematica a Oxford nel 1952. Fu poi chiamato a ricoprire la cattedra di Chimica teorica, istituita nel 1972.

[11] Secondo questa regola, tra tutti i composti ciclici, quelli aromatici: (a) hanno struttura planare e atomi di carbonio ibridati sp2; (b) hanno un numero di elettroni π delocalizzati su tutto il ciclo, pari a 4n + 2, dove n è un numero intero maggiore o uguale a 0.

 

Ci risiamo….

In evidenza

Mauro Icardi

Dopo che i giornali nel riferire di tristi fatti di cronaca, in particolare di violenza familiare o di genere hanno confuso con allarmante regolarità e frequenza acidi e basi, definendo acido un prodotto come la soda caustica, adesso anche il quiz preserale “L’eredità” mette in mostra alcune disarmanti lacune nella conoscenza chimica di base.

Qui a fare la brutta figura sono i concorrenti, non certo gli autori del programma.
Prima di riferire l’episodio nello specifico vorrei fare un breve preambolo. I quiz sono programmi televisivi che da sempre hanno avuto un gran riscontro da parte del pubblico televisivo. Se il programma a quiz annovera autori di valore, e propone argomenti validi può diventare utile nel suo insieme.
Io personalmente ho un buon ricordo di una certa televisione del passato, ed in particolare di programmi come “Chissà chi lo sa” condotto da Febo Conti.

Pensato per ragazzi che frequentavano la scuola dell’obbligo, in generale faceva riferimento nelle domande a quiz ad argomenti presenti nei programmi scolastici.
Negli anni successivi si è assistito ad una maggior tendenza alla spettacolarizzazione, e meno alla qualità del programma e delle domande poste. La televisione generalista ha perso molto nella qualità generale della sua offerta. La concorrenza delle tv a pagamento e di Internet si è fatta sentire, la rincorsa al sensazionalismo e alle ragioni degli inserzionisti pubblicitari e agli indici di share anche. Il risultato è stato quello di una flessione nella qualità dell’offerta televisiva.
Si sono proposti programmi letteralmente inguardabili. Ricordo con sgomento la “Pupa e il secchione”, “Tamarreide” e buon ultimo a rinverdire la tradizione “Riccanza”.
Io ho di fatto smesso da molti anni di guardare programmi televisivi, ma prima di cenare mi concedo un’ora per guardare programmi come “L’eredità”, oppure nel periodo estivo “Reazione a catena” perché sono costruiti sulla risoluzione di giochi che sono derivati dall’enigmistica.
Durante lo svolgimento della puntata i concorrenti sono chiamati a rispondere anche a domande di cultura generale.
Di strafalcioni e di risposte improbabili ne ho sentite molte. Molti concorrenti faticano a collocare personaggi storici nella loro giusta epoca, anche se si tratta di personaggi del novecento. Memorabile chi ha risposto che Hitler era stato nominato cancelliere tedesco nel 1979.

eredità

Qualche giorno fa su una domanda relativa alla chimica, nella quale ai concorrenti veniva mostrata la formula bruta del saccarosio (C12H22O11) e chiesto a quale composto chimico appartenesse, venivano loro date quattro possibilità di risposta. Una ovviamente era quella esatta e poi tra quelle errate vi era sia l’acido solforico che l’ammoniaca. Inutile dire che la risposta giusta è arrivata dopo che i tre concorrenti precedenti avevano indicato quelle errate.

Onestamente faccio molta fatica a capire come chi sia stato anche solo alla scuola dell’obbligo non abbia mai sentito parlare degli zuccheri, o che non si ricordi almeno a memoria che la desinenza –osio si riferisca ad essi. Oppure non abbia mai sentito parlare di formule elementari come quelle dell’acido solforico o dell’ammoniaca. La sensazione che ho provato è di delusione e sgomento. Bastava aver seguito con un minimo di attenzione le lezioni di quelle che ai miei tempi si chiamavano osservazioni scientifiche durante gli anni della scuola media, per non incorrere in errori così grossolani e banali.

acido solforico
Sono anni che veniamo informati del fatto che in Italia cresce l’analfabetismo di ritorno, che gli Italiani mostrano da sempre una ostinata disaffezione alla lettura ed allo studio.
Episodi come questo ne sono una triste conferma. Spesso però si tende a sminuire la gravità di cose come queste (mi riferisco agli errori grossolani su domande non eccessivamente difficili nei quiz televisivi). Spesso i commenti che sento in altri programmi radiofonici o televisivi tendono a sminuirne la gravità e a mettere in campo elementi quali l’emozione. In generale percepisco quasi una elevazione dell’ignoranza a pregio e simbolo di modernità.
E allora chiudo citando le parole che Isaac Asimov scienziato, oltre che scrittore di conosciutissimi racconti di fantascienza scrisse nel 1980 in un articolo pubblicato su Newsweek.
C’è una specie di culto dell’ignoranza negli Stati Uniti e c’è sempre stato. L’anti-intellettualismo si è insinuato come una traccia costante nella nostra vita politica e culturale, alimentato dal falso concetto che democrazia significhi la mia ignoranza vale quanto la tua conoscenza
Bisogna cercare di invertire questa tendenza senza alcun dubbio o tentennamento.

Briscole, tromboni e trombette.

In evidenza

Claudio Della Volpe

Qualche mese fa abbiamo segnalato su questo blog le posizioni di alcune riviste e di alcuni scienziati sulla elezione di Donald Trump* alla presidenza degli USA; posizioni molto critiche.

In questi giorni abbiamo la conferma di alcuni di quegli effetti e di quelle previsioni, in parte catastrofiche.

La prima è che Trump ha cominciato a revocare la precedente dirigenza e a nominarne una nuova; in particolare ha nominato il nuovo capo dell’EPA: Scott Pruitt.

Nel corso di un’intervista condotta dall’emittente CNBC, Pruitt ha risposto a una precisa domanda sul ruolo della CO2 e in generale dell’attività umana rispetto al riscaldamento climatico

I think that measuring with precision human activity on the climate is something very challenging to do and there’s tremendous disagreement about the degree of impact, so no, I would not agree that it’s a primary contributor to the global warming that we see,” ha detto alla CNBC; “But we don’t know that yet. … We need to continue the debate and continue the review and the analysis.”

Nei fatti non c’è alcuna “mancanza di consenso”, né tantomeno “enorme”. Negli ultimi anni tutte (e sottolineo il tutte) le principali organizzazioni scientifiche hanno concordato che siano le attività umane a contribuire più di ogni altro fenomeno al surriscaldamento del pianeta, attraverso le emissioni di CO2.

La stessa pagina web dell’EPA afferma “Il diossido di carbonio è il principale gas serra che sta contribuendo al recente cambio climatico

Il punto di vista di Pruitt è agli antipodi di quello di NASA e NOAA .

The planet’s average surface temperature has risen about 2.0 degrees Fahrenheit (1.1 degrees Celsius) since the late 19th century, a change driven largely by increased carbon dioxide and other human-made emissions into the atmosphere,” hanno affermato NASA e NOAA nel gennaio 2017.

Il Sen. Brian Schatz, co-presidente della Senate Climate Action Task Force, ha violentemente criticato Pruitt per i suoi commenti definiti “extreme” and “irresponsible.”

Anyone who denies over a century’s worth of established science and basic facts is unqualified to be the administrator of the EPA. Now more than ever, the Senate needs to stand up to Scott Pruitt and his dangerous views,” ha affermato.

Come ci racconta Il Post: Pruitt ha del resto una lunga storia alle spalle di negazionismo del riscaldamento globale. Da procuratore generale dell’Oklahoma, Pruitt fece causa all’EPA per 13 volte contestando i suoi regolamenti per proteggere l’ambiente, ridurre le emissioni e regolamentare lo sversamento di sostanze pericolose nei fiumi. Nel corso degli anni, Pruitt ha inoltre ricevuto numerosi contribuiti e finanziamenti da parte delle aziende petrolifere. Secondo un articolo del New York Times, Scott Pruitt intende portare nell’EPA suoi ex collaboratori e conoscenti che negano il riscaldamento globale.

In passato Pruitt ha anche detto di essere contrario all’accordo di Parigi sul clima, il più importante e incisivo degli ultimi anni, già osteggiato dall’amministrazione Trump. Il nuovo capo dell’EPA vorrebbe inoltre rivedere le regole dell’agenzia che impongono ai produttori di veicoli di costruire motori più efficienti e meno inquinanti.

Già questo basterebbe a far capire che le preoccupazioni che avevo richiamato nel post di qualche mese fa erano ragionevoli. Ma quel che mi preoccupa ancor più sono le conseguenze di questo cambio della guardia americano sul resto del mondo visto il ruolo guida in politica che gli USA hanno sulle classi dirigenti di molti altri paesi.

In Italia abbiamo assistito al seguente episodio che coinvolge il Corriere della Sera, un giornale che sappiamo essere in prima fila nell’attaccare l’interpretazione corretta del global warming; il suo ex-direttore Paolo Mieli non le manda a dire. Ai suoi commenti ha risposto in maniera dettagliata Oca Sapiens, una delle più famose blogger italiane. Ma stavolta Mieli e gli altri giornalisti-ignoralisti (l’autrice dell’articolo in questione si chiama Serena Danna) l’hanno combinata grossa; sentite qua.

Il blog Climalteranti (a cui ogni tanto contribuisco) l’ha definita “L’infortunio della Lettura”. Infatti riguarda il supplemento La lettura publicato settimanalmente dal Corriere.

Ne trovate il testo integrale qui.

Ci racconta Climalteranti:

L’idea della giornalista, Serena Danna, non è affatto nuova: un “dibattito” alla pari fra un negazionista con poche o nulle competenze in climatologia e un esperto di clima. Ne abbiamo visti tanti in passato, anche in televisione. Essendo la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante in materia, è una cosa poco sensata. Come lo sarebbe dare spazio all’odontotecnico che straparla di vaccini. 

William Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina minore del negazionismo climatico. Il termine “scettico” per Happer è scorretto sia dal punto di vista culturale che giornalistico: si tratta di un fisico nucleare senza alcuna pubblicazione sul clima, consulente di petrolieri e produttori di carbone e membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo “confronto”). La sua presentazione nella colonna informativa si conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione scientifica a supporto.

Nell’intervista pubblicata da “La Lettura” del 26 febbraio 2017, intitolata “Credetemi, il clima non è surriscaldato”, William Happer ha rispolverato molti dei miti del negazionismo climatico, da tempo confutati dalle evidenze scientifiche disponibili. Come spiegato nel precedente post, nell’articolo dell’inserto culturale del Corriere della Sera (qui il testo) è stato proposto un finto confronto fra il fisico William Happer e il climatologo Mark Cane (raggiunto via mail, Cane ha dichiarato di non essere al corrente della presenza di un interlocutore nell’articolo, com’è raccontato qui). Molte delle affermazioni di Happer non sono state confutate nell’articolo, che ha anzi dato pari dignità, e più spazio e visibilità complessiva, alle sue opinioni rispetto a quelle del climatologo Cane.

Sarebbe difficile confutare punto per punto qui le affermazioni di Happer, per cui vi rimando per una confutazione puntuale delle ridicole posizioni di Happer a questo post a cui ho anche un po’ contribuito.

Ma la cosa grave rimane: uno dei principali giornali italiani ha “costruito” un falso confronto fra le posizioni pro e contro il GW disinformando nel merito i suoi lettori e addirittura tenendo non informato almeno uno dei suoi intervistati di cui ha confuso volutamente il ruolo scientifico : uno esperto di lunga data definito un ambientalista, e un non–esperto lobbista a pagamento per Big Oil, definito come la guida degli scienziati scettici. Non solo.

Leggendo l’articolo del Corrierone-La Lettura si ha l’impressione che i due discutano tra di loro, ma in effetti non sanno nemmeno di farlo, come scritto da Cane (si veda l’ultima parte di questo link); le loro frasi sono semplicemente giustapposte dall’autrice secondo il proprio intendimento e non si capisce se quelle frasi siano risposte a precise domande o meno. E questo spiegherebbe anche perché le frasi citate di Cane a volte appaiano del tutto fuori tema. Ma è questo un modo di fare informazione o disinformazione? Non sembra il massimo della correttezza dott. Fontana(direttore del Corriere), dott. Troiano (direttore de La Lettura), dott. Mieli (attualmente redattore) e dott. Danna (autrice dell’articolo)!

*Il titolo del post viene dal significato della parola inglese trump: briscola; il resto potete immaginarlo da soli.

Link utili:

https://www.desmogblog.com/william-happer

http://ocasapiens-dweb.blogautore.repubblica.it/2017/03/05/californexit/

http://www.climalteranti.it/2017/02/27/linfortunio-de-la-lettura/

Il colore giallo.

In evidenza

Luigi Campanella, ex Presidente SCI.

Colori a base di sostanze minerali sono stati utilizzati sin dalla preistoria: gesso, ocra, nelle varie gradazioni dal rosso chiaro al giallo chiaro; neri ricavati da biossido di manganese o da carbone di legna, sono stati utilizzati per le pitture rupestri del paleolitico superiore, più raramente terre verdi e ossido di manganese marrone, ed eccezionalmente anche violetto di manganese.

A partire dal neolitico si amplia la gamma di minerali utilizzati per la pittura e la ceramica, e si creano vari coloranti a base vegetale o animale per la tintura di tessuti, quali il rosso di robbia, il blu indaco, il blu di guado, il giallo di reseda. Con lo sviluppo della tecnica metallurgica diventano inoltre disponibili nuovi composti metallici, come ossido salino e carbonato basico di piombo, antimoniato di piombo.

Gli Egizi sono stati il primo popolo a dedicare un particolare impegno nella preparazione di colori per la pittura. La “fritta Egizia” o “blu Egizio”, ottenuto per cottura in forno a 800-900o di una precisa miscela di calce, ossido di rame e quarzo, e successiva macinazione, partendo da minerali come calcare, malachite e sabbia, è il più antico pigmento di sintesi. Altro pigmento di sintesi è l’antimoniato di piombo, dal Seicento noto come giallo di Napoli, prodotto come ossido o carbonato di piombo e ossido d’antimonio, ottenuti mediante trasformazioni di minerali.

Alcuni pigmenti prodotti (inventati?) circa 4000-5000 anni fa sono rimasti dei colori fondamentali fino al 1700-1800. Per esempio la biacca rappresenta fino alla fine del 1800 un pigmento fondamentale della pittura.

Unico documento rimasto della pittura greca: La Tomba del Tuffatore a Paestum (480-470 a.C.)

Dell’epoca greca non sono rimasti documenti diretti dell’arte pittorica, ma solo ampie descrizioni (a parte la tomba del tuffatore e i dipinti su vaso).

In epoca romana, soprattutto a partire dall’epoca imperiale era disponibile una gamma sufficientemente ampia di pigmenti. Quelli più apprezzati erano il minio e il cinabro, estratti minerali che mescolati a ocre davano differenti toni di rosso, come quelli delle pareti pompeiane; il blu, il porpora, il verde estratto da una preziosa lega di rame e stagno utilizzata per produrre un bronzo dorato, il crisocalco; il giallo oro, il nero, il bianco, per il quale si utilizzavano almeno tre varianti di creta, distinguendo tra bianco brillante e bianco opaco. Si producevano anche colori splendidi, luminosi e resistenti, a partire da sostanze organiche, come il rosso porpora, che si ricava dalla secrezione di un gasteropodo del genere Murex, e un blu superbo, denominato vitrum, ottenuto dal guado, che si affiancava all’indaco e all’azzurrite, minerale composto di carbonato basico di rame. Anche i pigmenti gialli erano disponibili sin dall’antichità in molte varietà e in genere stabili e resistenti. Tra questi, terre gialle, solfuri come l’orpimento e il realgar, l’antimoniato di piombo e il giallo di reseda, un pigmento vegetale utile sia in tintoria che in pittura.

I pigmenti utilizzati nel Medioevo sono quelli ereditati dall’antichità. Minio e cinabro sono i due colori base del primo Medioevo (basti pensare alle miniature), insieme alla lamina d’oro, ottenuta semplicemente per battitura delle monete. Un importante nuovo pigmento è il blu oltremare prodotto dal blu lapislazzuli, importato dal lontano Afganistan, che si aggiunge all’azzurrite; da questa si sono ottenute diverse tonalità utilizzando differenti gradi di macinazione. I pittori medioevali fecero anche largo uso di sostanze organiche: tinture blu indaco e blu di guado cui aggiunsero il tornasole, oltre alla lacca di chermes, o cremisi, e alla lacca rossa del brasile.

Dal XI al XIV secolo la pratica della pittura passa dai monasteri alla città ed inizia l’attività professionale dei pittori, passando con Giovanni Bellini e con Tiziano, dalla tempera alla pittura a olio. I pittori erano costretti per dare luminosità ad aggiungervi biacca, divenuto segno rivelatore del passaggio dal colore medioevale a quello moderno. Ancora alla fine del Rinascimento i pittori preparavano direttamente nelle loro botteghe i propri pigmenti; così ai materiali di base si aggiungevano tutta una serie di materie come leganti e cariche.

I colori primari per il pittore sono il rosso (rosso-magenta), il blu (il blu-ciano) e il giallo. Ogni popolo in ogni tempo ha attribuito ai colori significati simbolici diversi e i nomi dati alle tinte variano da una cultura all’altra. Come racconta Manlio Brisantin, studioso dei colori, oggi il giallo affascina pittori, musicisti, stilisti, pubblicitari, consumatori, per la sua natura calda, luminosa, positiva. Ma non è sempre stato così. Nel passato il giallo è stato spesso associato a caratteristiche negative: era il colore della menzogna, del tradimento, della malattia, della follia.

Colore primario e perciò base di innumerevoli sfumature di colore, il giallo era uno dei colori prediletti dagli impressionisti, da Matisse e Gauguin, dai Fauves e dai rappresentanti dell’arte astratta come Mirò,che generalmente alla ricerca di colori vivi e contrari in buona parte a miscugli fra colori hanno trovato nel giallo le due caratteristiche cercate, colore caldo e preimario (insieme al rosso ed all’azzurro). Kandinskij nel suo “Lo spirituale è nell’arte” associa il giallo al triangolo, al misticismo e allo spirituale: colore dell’oro, del sole, del grano, del pane fragrante, dell’elevazione.

Orpimento giallo allo stato di minerale

Questo colore così pieno di significati, nasconde altri segreti che riguardano il mistero della sua composizione e produzione sin dall’antichità. Cennini lo definisce colore “artificiato” per poi ribadire, tuttavia, la sua provenienza non alchemica. Con il progredire della scienza moderna, questo colore divenne il centro di un dibattito sempre più appassionato che investì persino la prestigiosissima Acadèmie Royale des Sciences de Paris, dove vi si dedicano ancora oggi incontri enciclopedici, intrecciando la passione per settori culturali della conoscenza naturale all’attenzione per altri più coinvolti negli interessi economici dell’industria,come dimostrato dalle aree di studio più sviluppate nell’accademia,che vanno dalla biologia alla biofisica,dalla metrologia alla geodesia. Giallo di bario, giallo di cadmio, giallo di cobalto, giallo di cromo, giallo di marte, giallo di napoli, giallo di piombo-stagno, giallo di smalto, giallo di spincervino, giallo di stronzio, giallo di titanio, giallo di zinco, giallo indiano, giallo minerale, gomma gutta, lacca gialla, litargirio, massicot, ocra gialla, oro, oro musivo. orpimento, terra di siena naturale, terra d’ombra naturale, zafferano, sono i nomi dei pigmenti gialli più noti.

Nel XX secolo l’uso del colore deve essere messo in relazione soprattutto a Matisse (quello della forma probabilmente a Cezanne): colori basati sulla gioia indotta dalle tinte cobalto,cromo e cadmio della chimica del secolo prima.

Ulivi con cielo giallo e Sole di Vincent Van Gogh. 1889. SI trova in un museo di Minneapolis (USA)

La pittura acrilica, una tecnica nuova pittorica, è nata in epoca relativamente recente. Le prime ricerche ed i primi esperimenticon emulsioni sintetiche iniziarono intorno agli anni ventida parte di pittori messicani come Orozco, Rivera e Siqueiros,la cui esigenza era quella di avere colori con le caratteristiche di praticità come quelli ad olio,duttilità come quelli a tempera, trasparenza come l’acquarello e resistenza agli agenti atmosferici come l’affresco. Le vernici sono prodotte con polveri colorate (pigmenti) mischiate con una resina acrilica (quasi esclusivamente di origine chetonica) di essicazione variabile, generalmente veloce, a seconda delle resine, dei pigmenti e della fabbrica produttrice. Presentano vantaggi e difetti, ma hanno una caratteristica importante:a differenza delle tradizionali tempere, sono indissolubili una volta asciutti.

I colori acrilici sono tranquillamente mescolabili fra loro e come diluente è preferibile semplice acqua, utilizzabile anche per cancellare, prima dell’asciugatura, parti di colore. Alcuni tipi di colori acrilici sono sensibili alla luce che li fa schiarire, tipo i colori rosso-violacei e blu-violacei, perché creati con pigmenti derivati da composti chimici organici fotosensibili, a questo fenomeno si ovvia con una lacca di resina acrilica con filtro UV che protegge tali colori.

Per gli altri colori non c’è bisogno di fissativo perché la resina acrilica che li compone li fa resistere alla luce e agli agenti atmosferici, smog compreso. Si comprende allora l’importanza della scelta dei sistemi di illuminazione focali e generali all’interno dei musei e delle gallerie d’arte,in quanto da essa può dipendere la salvaguardia di opere d’arte pittoriche

Quel nostro ingegnoso collega: Leo Baekeland.

In evidenza

Giorgio Nebbia.

“Sappi che l’avvenire è racchiuso in una sola parola, una sola: plastica”. Nel celebre film “Il laureato”, di Mike Nichols (1967) è questo il consiglio che un amico di famiglia dà al giovane Braddock (Dustin Hoffman), durante la sua festa di laurea, per indicare dove orientare il suo futuro di lavoro.

La frase rifletteva il pensiero corrente nell’età dell’oro della plastica; si può ben dire che il Novecento è stato segnato dai nuovi materiali sintetici che, del resto, sono “nati”, si può dire, proprio agli inizi del secolo scorso, nel 1906.
A quell’anno infatti risale il brevetto americano n. 942.699 depositato da Leo Baekeland (1863-1944), per un nuovo materiale ottenuto dalla combinazione del fenolo con la formaldeide. Quando fece la rivoluzionaria invenzione “della plastica” questo Leo Baekeland era già un personaggio speciale. Nato in Belgio da modesta famiglia, si era laureato in chimica, poi si era trasferito negli Stati Uniti, animato dalla passione per le invenzioni, e per il successo economico.

Leo Baekeland (1863-1944)

Baekeland aveva già inventato una carta fotografica, chiamata Velox, con la quale era possibile sviluppare le fotografie anche alla luce artificiale, una innovazione molto importante perché fino allora le fotografie potevano essere sviluppate soltanto alla luce del Sole; per la produzione di questa carta Velox aveva fondato la società Nepera. George Eastman (1854-1932), altro imprenditore nato povero che aveva fatto una fortuna con l’invenzione della macchina fotografica popolare Kodak, capì l’importanza dell’innovazione e acquistò nel 1899 la Nepera e i brevetti Baekeland per un milione di dollari, una cifra allora favolosa.

Ma intanto altri problemi richiamarono l’attenzione di Baekeland; la fine dell’Ottocento era stata caratterizzata dall’espansione dell’elettricità; le forze del calore e del moto delle acque potevano essere trasformate in elettricità mediante dinamo e l’elettricità poteva azionare le macchine mediante motori elettrici e l’elettricità poteva arrivare dalle dinamo ai motori e agli impianti di illuminazione e nelle città e nelle fabbriche e ai telegrafi mediante fili di rame. Per evitare dispersioni e perdite nelle dinamo e nei motori i fili elettrici erano rivestiti con la gommalacca, una sostanza resinosa che esce dai rami di alcune piante in seguito alla puntura di una cocciniglia, l’insetto Laccifera lacca, che va a deporvi le uova. L’aumento della richiesta aveva reso la gommalacca scarsa e costosa e Baekeland cercò di ottenere un surrogato artificiale.

Qualche anno prima, durante le ricerche per la sintesi dell’indaco, il grande chimico tedesco Adolf von Baeyer (1835-1917) aveva osservato che dalla reazione del fenolo, un liquido derivato dalla distillazione del catrame di carbone, con la formaldeide, un sottoprodotto della distillazione secca del legno, si formava un residuo resinoso e appiccicoso che rappresentava uno scarto inquinante; partendo da questo rifiuto Baekeland studiò a fondo la reazione fra fenolo e formaldeide e osservò che il materiale resinoso risultante era un buon isolante elettrico e rappresentava il surrogato ideale della gommalacca. Si trattava della prima vera macromolecola artificiale e quindi era la prima materia plastica.

La resina fenolo-formaldeide non si rivelò soltanto adatta come vernice e isolante elettrico. Nel 1907 si scoprì che, miscelando la resina con farina fossile, si otteneva una materia solida, stampabile a caldo, che fu chiamata bachelite e che ebbe un grande successo per oggetti domestici, telefoni, apparecchiature elettriche, eccetera. Baekeland creò la società “Bakelite” per la fabbricazione e commercializzazione delle resine fenolo-formaldeide (la società fu venduta successivamente al gigante chimico Union Carbide).

Gli anni successivi videro molti altri successi della materia scoperta da Baekeland; mentre cercavano dei surrogati per la mica, il minerale usato come isolante elettrico in sottili fogli, alcuni scoprirono che una materia adatta allo stesso scopo, che fu chiamata “For-mica” (al posto della mica) si otteneva miscelando resine fenolo-formaldeide con segatura o polvere di legno; da questa scoperta derivarono i laminati plastici denominati “formica” ancora oggi usati, partendo da resine diverse.

Leo Baekeland, che era stato, oltre che scienziato e inventore, un fortunato e abile imprenditore, morì nel 1944 nella sua villa vicino New York.

Ormai si parla di resine fenoliche per indicare molte materie plastiche sintetiche termoindurenti ottenute facendo reagire con formaldeide o con altre aldeidi, il fenolo e i cresoli, con addizione di vari materiali di carica. Benché non siano fra le più diffuse materie plastiche commerciali, sono usate ancora per molti oggetti di uso comune e addirittura alcuni stilisti ne stanno riscoprendo alcune virtù estetiche.

Ho voluto raccontare questa storia perché offre l’occasione di alcune considerazioni; molte invenzioni sono nate alla ricerca di surrogati di materiali diventati scarsi e costosi; molte invenzioni sono nate osservando le proprietà di cose buttate via, rifiutate; molti inventori erano nati poveri e sono diventati persone di successo perché tenevano gli occhi aperti sul mondo circostante. Pasteur disse una volta che il caso aiuta la mente preparata.

Che cosa potremmo fare per aiutare tanti giovani, scoraggiati e disoccupati, ad aprire gli occhi su un mondo che è ancora pieno di cose da scoprire, di scarti da trasformare in oggetti utili, e in occasioni di lavoro e di benessere anche personale ?

 

Intercalazione e altre storie. 1.

In evidenza

Claudio Della Volpe.

Dato che il nostro blog vuole occuparsi soprattutto di chimica dell’antropocene dobbiamo in qualche modo fare spazio a quei concetti di chimica, una volta considerati avanzati, ma che oggi costituiscono la base di molte delle applicazioni antropoceniche della chimica. L’intercalazione è uno di questi. Nel discuterne l’aspetto scientifico e tecnico troveremo, quasi naturalmente, i motivi per cui chimica e società ci appaiono così strettamente connesse.

Una delle parole entrate più di recente (si fa per dire eravamo comunque negli anni 60 del secolo scorso) nel linguaggio dei chimici è : intercalazione.

La inventò Lerman, un biologo USA. analizzando il caso delle acridine, molecole aromatiche, che interagivano col DNA intercalandosi fra le basi del DNA, distorcendole dunque inducendo effetti mutageni; oggi trovate il termine nel linguaggio ufficiale della chimica: http://goldbook.iupac.org/I03077.html.

intercalaz1Tuttavia intercalazione è anche quella che dà luogo a composti veramente curiosi, come per esempio il potassio metallico che si intercala fra gli strati della grafite formando un composto dalla formula KC8 o il litio, che in analoghe circostanze forma un LiC6. Ioni diversi possono co-intercalare con effetti reciproci che possono essere anche molto interessanti.

intercalaz2L’intercalazione si può immaginare come una interazione mediata da un legame “a trasferimento di carica”, una parziale donazione di carica fra gli orbitali di frontiera degli atomi coinvolti, dall’HOMO di uno al LUMO di un’altro.

Questi composti sono alla base di molte moderne applicazioni elettrochimiche, come per esempio le batterie al litio ricaricabili.

Nelle batterie al litio lo ione litio viene sostanzialmente pompato contro il suo gradiente di potenziale elettrochimico da un ambiente ad un altro in fase di carica. In particolare il litio può essere spostato dalla cobaltite (un ossido misto di litio e cobalto) verso la grafite durante la fase di carica e tornare verso la cobaltite nella fase di scarica. Lo ione viaggia attraverso la soluzione elettrolitica mentre gli elettroni, come in ogni processo elettrochimico, viaggiano attraverso il circuito esterno; dunque il litio si libera dell’elettrone, si “ossida” sull’elettrodo di grafite e si “riduce” sull’elettrodo di cobaltite, come si può vedere in figura:

intercalaz3Ma se il litio si “ossida” e si “riduce” sui due lati rimanendo però sempre nella sostanza uno ione positivo, quale è il motore del processo? Nelle comuni batterie gli ioni coinvolti sono quelli che si ossidano e si riducono, qui sembra di no. Come riconciliare questa descrizione con le conoscenze comuni di elettrochimica?

Possiamo visualizzare il processo in due modi diversi; in uno meno formale il litio abita i due contesti dei due elettrodi e si sposta fra due potenziali (elettro)chimici diversi; una stessa specie in entrambi gli elettrodi. E il processo non dipende dal suo stato di ossidoriduzione, che rimane il medesimo, ma dal potenziale chimico dei due sistemi, più basso nella cobaltite, più alto nella grafite.

In modo più formale possiamo attribuire al contesto, al resto degli atomi, non al litio, la variazione dello stato di ossidazione: nel contesto della grafite il carbonio acquisisce una carica formale -1/6, oscillando fra 0 e -1/6, mentre nella cobaltite, un’ossido misto CoLiO2, il cobalto oscilla fra due stati +3 in presenza del litio intercalato e +4 in sua assenza, con l’avvertenza che la deplezione di litio dall’elettrodo non può superare il 50% per rimanere un processo reversibile, con tutte le variazioni di volume e di densità che comportano un notevole comportamento a fatica che a lungo andare distruggerà comunque entrambi gli elettrodi.

Come in molte altre batterie ricaricabili (quelle basate su elettrodi allo stato solido) occorre che non tutto il reagente che mettiamo in gioco reagisca se vogliamo che il processo possa essere effettivamente invertito. Solo le batterie con reagenti allo stato liquido e in cui la parte solida funga solo da catalizzatore, possono sfuggire a questa regola e non portare quote morte di reagente (per esempio le batterie al vanadio meglio conosciute come batterie in flusso, flow batteries).

In questo modo possiamo anche interpretare correttamente come anodo la grafite, poichè in fase di scarica il carbonio nell’anodo si ossida da -1/6 a 0, inviando elettroni, mentre il cobalto si riduce da +4 a +3 accettando tali cariche al catodo. Viceversa in fase di carica.

E’ da notare che in condizioni tipiche il rapporto fra atomi intercalati e strati di grafite è tipico di composti non-stechiometrici, ossia che non seguono le leggi usuali di combinazione della chimica, poichè solo alcuni strati o alcune porzioni sono interessati all’intercalazione.

In definitiva l’intercalazione ha espanso l’insieme dei numeri di ossidazione del carbonio (e di altri atomi) a valori frazionari, che raramente sono considerati nelle presentazioni basiche di questo concetto.

Questo meccanismo di funzionamento delle batterie al litio (almeno di alcune) chiarisce due ordini di cose; da una parte a differenza delle tradizionali batterie non esiste un solo potenziale tipico di queste batterie, perchè in effetti ogni coppia di elettrodi fa storia a se e corrisponde ad un salto di energia differente.

Ma non solo; questo spiega l’interesse tecnologico ed economico per le altre specie chimiche coinvolte in questi materiali. Sui giornali degli ultimi giorni qualcuno avrà notato degli articoli che raccontavano la storia del rastrellamento del cobalto sul mercato mondiale.

Gli elettrodi di cobaltite, composto ormai di sintesi perchè non ne esiste più di naturale, sono quelli che in coppia con la grafite producono la più alta differenza di potenziale, ma sono anche quelli che più facilmente danno luogo a problemi di surriscaldamento in fase di ricarica (un fenomeno che va sotto il nome di effetto runaway). Tuttavia il cobalto costituisce comunque un componente importante delle moderne batterie al litio; proprio per questo si pensa che il raddoppio del prezzo del cobalto negli ultimi mesi sia la conseguenza di un rastrellamento del prodotto sul mercato mondiale da parte di pochi operatori che intendono controllare il mercato dell’energia in questo modo.

La Repubblica Democratica del Congo produce quasi la metà del cobalto a livello mondiale. Il cobalto lavorato viene venduto a tre aziende che producono batterie per smart phone e automobili in Cina e in Corea del Sud. Queste ultime riforniscono le aziende che vendono prodotti elettronici e automobili in Europa e in America.

Il cobalto è estratto dai residui di lavorazione di altri metalli e le formazioni più ricche sono in Congo.

Insieme con i prezzi del litio anche il cobalto e la grafite stanno andando alle stelle e sono al centro della speculazione finanziaria.

In un mondo che ha sempre più fame di energia e risorse, il controllo sociale di queste risorse diventa sempe più necessario. Quando qualcuno si lamenta dei flussi crescenti di migranti di colore dall’Africa si dovrebbe ricordargli che per dare a lui un telefonino di ultima generazione si sta sacchegiando la terra d’Africa (oltre il cobalto anche il tantalio, il coltan viene dallAfrica) e le guerre e le migrazioni sono indotte anche da questo furto di ricchezza ai danni delle giovani generazioni di quei paesi. C’è un costo sociale dell’energia, che paghiamo in questo modo, che la grande speculazione ripartisce sui consumatori specie europei e sui giovani africani, costretti dalle guerre e dalla distruzione dell’ambiente, oltre che dal cambiamento climatico e dalla povertà, a lasciare la loro terra.

 

Inquinanti organici e loro effetti negli impianti di depurazione.

In evidenza

Mauro Icardi.

L’interesse per i microinquinanti organici, in particolare per gli effetti che essi possono esercitare sull’ambiente è al centro di ricerche, convegni e studi non solo nella comunità scientifica, ma anche tra gli addetti alla gestione operativa degli impianti di depurazione e di potabilizzazione. Molti di questi composti organici sono di origine sintetica, possono avere proprietà mutagene, carcinogene o teratogene anche a livelli di concentrazione molto bassi (ppb-ppt, ossia parti per miliardo, 10-9

o parti per biliardo,10-12).
Generalmente questo tipo di sostanze costituisce una parte abbastanza limitata del contenuto organico totale di uno scarico (circa 1%-2%) e conseguentemente i saggi di routine aspecifici come COD, TOC, BOD risultano poco significativi per il controllo della loro efficienza di rimozione, in special modo per impianti di depurazione biologica meno recenti e non dotati di un trattamento terziario delle acque depurate prima dello scarico nel corpo idrico finale (filtrazione su sabbia o su carboni attivi, oppure ossidazione con lampade UV.)
Per quanto riguarda l’origine dei microinquinanti di questo tipo essi possono provenire sia dalla rete fognaria, sia dal dilavamento di suoli sia da precipitazioni atmosferiche. Anche i processi di clorazione finale delle acque trattate o il condizionamento del fango tramite polielettroliti organici possono rappresentare fonti puntuali di sostanze organiche inquinanti.

depuratore

Dal punto di vista della loro determinazione analitica la fase importante è quella del loro isolamento e concentrazione ancor prima della loro determinazione strumentale. Le tecniche solitamente sono quelle di concentrazione tramite evaporatore rotante o colonnine di preconcentrazione.
Per quanto riguarda le concentrazioni presumibilmente riscontrabili, mentre gli inquinanti organici che arrivano attraverso la rete fognaria di solito raggiungono concentrazioni più elevate (mg/lt per i tensioattivi per esempio) microgrammi/litro per solventi, quelli che affluiscono all’impianto di depurazione per percolazione o per dilavamento atmosferico (fonti diffuse) hanno normalmente valori di concentrazione più bassi (microgrammi/litro o picogrammi litro).
Per quanto riguarda i principali processi di rimozione in un impianto di trattamento di acque di rifiuto si distinguono quattro principali tipi di di processi.
Adsorbimento sul fango: questo processo dipende dalla concentrazione del fango biologico misurata come carbonio organico e dalla lipofilicità del composto organico. Per quest’ultimo parametro può essere utile utilizzare il coefficiente di ripartizione ottanolo/acqua (Kow) dalla solubilità in acqua.
In passato diversi studi hanno mostrato che la rimozione di composti organici per adsorbimento diventa significativa per valori di log Kow > 4
Altro fenomeno che può intervenire nella degradazione è quello di stripping. Questo effetto risulta lievemente maggiore in impianti con areatori superficiali (turbine) . L’esperienza e studi di laboratorio hanno mostrato che composti con punti di ebollizione inferiori a 150 ° C riescono in qualche misura ad essere volatilizzati con questo tipo di meccanismo durante un normale processo di trattamento biologico a fanghi attivi.
Degradazioni di tipo chimico possono avvenire principalmente per idrolisi. L’effetto di degradazione fotochimica è invece assai poco rilevante. Questo a causa della bassa efficienza di trasmissione della luce sia nell’acqua inquinata che nella stessa vasca biologica di trattamento, che sono di per sé anche dal punto di vista analitico matrici piuttosto complesse.
Il meccanismo principale di funzionamento di un depuratore biologico a fanghi attivi è però la degradazione biologica. In questo caso la previsione e la standardizzazione del comportamento di questi inquinanti è maggiormente variabile. Influiscono non solo le caratteristiche chimico fisiche degli inquinanti, ma anche i periodi di acclimatamento della biomassa, gli eventuali effetti di accumulo. Le biodegradbilità sono quindi variabili. Da composti che mostrano spiccata attitudine alla biodegradabilità, ad altri che invece risultano invece refrattari nonostante lunghi periodi di acclimatazione della biomassa.
Un terzo tipo di composti mostra biodegradabilità fortemente variabili ed influenzate non solo dalla sorgente di inoculo batterico, ma anche dalle caratteristiche di gestione e di modalità di operazione gestionali dell’impianto. Questa caratteristica rimane di fatto costante dalla modalità di prove in scala di laboratorio, di impianto pilota, fino all’impianto reale.
Negli anni passati su un inquinante non particolarmente critico e presente normalmente nelle acque di scarico come l’alchilbenzensolfonato lineare (LAS) che non è particolarmente refrattario si è visto sia nelle prove di laboratorio, e in seguito applicando i risultati di queste ultime nella gestione ordinaria dell’impianto si potevano ottenere abbattimenti dell’ordine del 75-80% rispetto alla concentrazione del LAS nelle acque in ingresso all’impianto.

abs

La rimozione per adsorbimento su fango riusciva mediamente ad abbattere il 20% del LAS, e la restante quantità tramite degradazione batterico-enzimatica. La degradazione del LAS non risultava influenzata dal carico organico (inteso come valori di COD e BOD) ed era sufficiente un tempo di ritenzione in vasca di ossidazione che non scendesse al di sotto dei tre giorni. Anche il frequente ricambio della biomassa in vasca di ossidazione con una regolazione mirata dello spurgo fanghi manteneva costante l’abbattimento.
Oggi la situazione si presenta decisamente più complessa. In particolar modo per la presenza piuttosto rilevante di metaboliti di farmaci, di moltissimi composti di sintesi e delle loro miscele nelle acque di rifiuto da destinare al trattamento
Occorre quindi una sinergia globale tra enti preposti al controllo, gestori ed autorità d’ambito. La perizia dei gestori di impianti, il gran lavoro di ricerca a livello universitario e degli stessi gestori deve essere adeguatamente supportato da investimenti importanti e da una trasformazione del sistema della gestione della risorsa idrica. Altrimenti ogni sforzo sarà di fatto inutile. Fermo restando il concetto (rimarcato recentemente anche da Papa Francesco) sulla necessità assodata di considerare l’acqua e la sua disponibilità in quantità adeguate e di qualità come un bene primario ed un diritto essenziale per gli esseri umani e per la loro sopravvivenza sul pianeta.

– B Hultmann, Removal of specific pollutants in biological waste water treatment
Water pollution Research Report n° 6 ,EUR 11356 Brussel 1988
-P.L MC Carty and M Reinhard, Statistical evaluation of trace organics removal by advance waste water treatment
P.V. Roberts, Volatilization of organic pollutants waste water treatment _ Model studies. Draft Final Report EPA-R -806631, Cincinnati Ohio, 1982

L’elio forma molecole stabili ad alte pressioni

In evidenza

Rinaldo Cervellati

Gli autori di libri di testo di chimica potrebbero presto dover riscrivere i capitoli sui gas nobili e l’inerzia chimica, commenta Mitch Jacoby nel riportare, per c&en newsletter, la notizia della sintesi di un composto di elio e sodio stabile ad alte pressioni, ottenuto da un team di ricercatori internazionale. Il gruppo, una ventina di ricercatori in prevalenza russi, cinesi e americani con alcuni europei fra i quali l’italiano Carlo Gatti, ha recentemente pubblicato i dettagli della ricerca (Xiao Dong et al., A stable compound of helium and sodium at high pressure, Nature chemistry, 2017 on line 6 february 2017, DOI: 10.1038/nchem.2716).

La caratteristica più nota dell’elio è stata la sua assenza di volontà di reagire. Con una configurazione elettronica stabile, affinità elettronica tendente a zero e una energia di ionizzazione superiore a quella di tutti gli altri elementi, l’elio è il prototipo dell’inerzia chimica.

Per esaminare la scarsissima reattività di questo elemento, gli scienziati hanno tentato sia attraverso metodi teorici sia sperimentali di individuare le condizioni per ottenere composti dell’elio. Con scarso successo, almeno fino a oggi, ottenendo solo specie insolite, come il radicale HeH+, stabile solo nella sua forma positivamente carica, e HHeF, una molecola metastabile. Al contrario, è noto da molto tempo che i gas nobili a più elevato peso atomico, xeno e cripto, sono in grado di formare una varietà di composti stabili. In particolare i fluoruri di xeno: XeF2, il difluoruro, è il più stabile, si presenta come un solido cristallino bianco molto sensibile all’umidità, disponibile commercialmente e usato nelle reazioni di fluorurazione. Il tetrafluoruro, XeF4 è stato il primo composto di un gas nobile a essere sintetizzato nel 1962 (H. H. Claassen, H. Selig e J. G. Malm, Xenon Tetrafluoride, J. Am. Chem. Soc., 1962, 84, 3593), si presenta pure come solido cristallino sensibile all’umidità, molto più reattivo del difluoruro. L’esafluoruro, XeF6, è ancora più reattivo potendo funzionare sia come donatore sia come accettore di ioni fluoruro.

Il team internazionale di ricerca, coordinato dai Prof. Artem R. Oganov (Skolkovo Institute of Science & Technology, Mosca; Stony Brook University, USA), Xiang-Feng Zhou (Nankai University, Tianjin, Cina; Chemistry Division, Brookhaven National Laboratory, NY USA), Hui-Tian Wang (Nankai University, Tianjin, Cina), ha continuato e ampliato la ricerca di composti stabili dell’elio.

fig-1a-oganov

Oganov

fig-1b-xiang-feng-zhou

xiang-feng-zhou

Il gruppo ha usato una strategia computazionale nota come previsione della struttura evolutiva (USPEX) per individuare gli scenari di interazione elio-sodio in una vasta gamma di pressioni. La conclusione è stata che Na2He dovrebbe essere termodinamicamente stabile a pressioni superiori a circa 115 GPa, cioè più di 1 milione di volte superiore a quello della pressione atmosferica della Terra.

Per realizzare gli esperimenti i ricercatori hanno utilizzato una cella a incudini di diamante (DAC) che permette di raggiungere altissimi valori di pressione, ottenendo infine il composto cercato. In breve, e con riferimento allo schema di figura 2:

fig-2-schema-apparato-sperimentaleuna cella ad incudini di diamante è formata da due diamanti tagliati a forma di tronco di piramide con punta molto fine in modo da esercitare una fortissima pressione. Il campione (cioè l’oggetto in questione), che in condizioni normali può essere sia solido, che liquido o gassoso, di dimensioni opportune, viene posto tra le facce piane dei due diamanti naturali, e mantenuto in questa posizione mediante una guarnizione metallica, anch’essa schiacciata tra i diamanti. I due diamanti sono poi pressati uno contro l’altro e così facendo esercitano una grande pressione sul campione posto nel mezzo. Si usano i diamanti naturali perché essi sono gli oggetti più duri che esistono in Natura e non si danneggiano a causa delle altissime pressioni che producono. Si possono così studiare, in condizioni estreme, sistemi di grande importanza in fisica fondamentale, in geologia, in scienza dei materiali e in astrochimica.

Il composto Na2He è stato caratterizzato per diffrattometria a raggi X, spettroscopia Raman e altri metodi. Il gruppo di ricerca riporta che la sua struttura è simile a quella del minerale fluorite, è elettricamente isolante e rimane stabile fino a 1000 GPa. La struttura del nuovo composto è mostrata in figura 3.

fig-3-struttura-di-na2he

Questa scoperta dimostra che l’elio non è completamente inerte come si pensava”, ha commentato Carlo Gatti (Istituto di Scienze e Tecnologie Molecolari del CNR, Milano), che ha contribuito allo studio come esperto di legami chimici, “In certe condizioni può formare dei composti e addirittura assumere una carica negativa. Di fatto, quello che capita è la creazione di coppie elettroniche che occupano alternativamente le posizioni dell’elio”.

fig-4-carlo-gatti

Carlo Gatti

Na2He appartiene infatti alla categoria dei cosiddetti elettruri – materiali cristallini simili a sali – in cui gli elettroni prendono il posto degli ioni negativi alternandosi a un reticolo di ioni carichi positivamente, rappresentati in questo caso dal sodio.

I ricercatori hanno anche teorizzato che il composto Na2HeO, che non hanno ancora sintetizzato, dovrebbe essere stabile a pressioni superiori a 15 GPa.

Questo studio mette in evidenza come l’alta pressione può essere utilizzata per la sintesi di composti con nuove stechiometrie e strutture elettroniche“, dice Eva Zurek, specialista in chimica computazionale presso la State University of New York, SUNY a Buffalo. Na2He non potrebbe mai essere stabile in condizioni atmosferiche, osserva Zurek, ma è stato ottenuto a circa il 40% della pressione presente al centro della Terra. I risultati amplieranno la comprensione dei processi chimici che possono verificarsi a grandi pressioni all’interno giganti gassosi come Giove e Saturno.

Il chimico inorganico Sven Lidin dell’Università di Lund (Svezia), osserva che le implicazioni per l’astronomia sono chiaramente interessanti “ma per quanto riguarda la nostra percezione della reattività chimica, questo risultato è un cambio di prospettiva.

Dice infatti Lidin: già le scoperte precedenti di altri composti dei gas nobili avevano messo in chiaro che l’inerzia è una questione di condizioni di reazione. Ma l’elio è stato un resistente anche in condizioni estreme, perché si tiene i suoi elettroni chiusi quasi ermeticamente e non li lascia andare. Questi nuovi risultati, aggiunge, mostrano che in un certo senso, “l’ultimo bastione sulla inerzia chimica è finalmente caduto.

Fonte: c&en newsletter web february 9, 2017

Il simbolo R ha sempre indicato un sostituente alchilico?

In evidenza

Rinaldo Cervellati.

In un precedente post si è detto che l’introduzione dei termini gruppo funzionale e serie omologhe è dovuta al lavoro pionieristico del chimico francese Charles Frédéric Gerhardt (1816-1856), che nel suo importante trattato Précis de Chimie Organique (1844) utilizzò questi concetti per sistematizzare e classificare tutti i composti organici noti all’epoca. Secondo lo storico della chimica W.B. Jensen, in quel trattato Gerhardt utilizzò per primo il simbolo R per scrivere le formule generali delle diverse classi di composti. Tuttavia, dice Jensen, il motivo della scelta della lettera R non è ancora chiaro. La spiegazione più ovvia è che fosse l’abbreviazione per la parola “radicale”, un termine introdotto da un altro chimico francese, Guyton de Morveau[1], nel 1786 per designare l’elemento o la combinazione di elementi che formavano acidi reagendo con l’ossigeno [1].

fig-1-louis-bernard_guyton_de_morveau

Guyton de Morveau

Però, fin dagli inizi del 19° secolo, il termine era usato per indicare qualsiasi specie monoatomica reattiva (“radicali semplici”) o poliatomica (“radicali composti”), frammenti di una molecola più grande che mantengono la propria identità in una serie di reazioni chimiche [2].

Un secondo possibile significato per la R di Gerhardt è il termine “residuo” (résidue) e il suo equivalente tedesco Rest. Questi termini erano stati introdotti da Gerhardt nel 1839 come parte della sua teoria dei residui per le reazioni organiche. Questa teoria postulava che le reazioni organiche fossero “guidate” dalla eliminazione di piccole molecole inorganiche stabili, come H2O, HCl, NH3, ecc., i composti organici essendo solo il risultato della combinazione casuale di frammenti organici o, appunto, residui rimasti nelle molecole di partenza dopo l’estrazione dei componenti necessari per il prodotto inorganico eliminato [3].

Entrambe le interpretazioni non sono però coerenti con l’uso che fa Gerhardt della lettera R nel suo Précis, infatti egli la usò sia per simboleggiare le molecole degli idrocarburi sia porzioni di esse o, come egli si espresse, per rappresentare “gli elementi combustibili” (les éléments combustibles). Egli limitò successivamente il suo utilizzo alle formule generali di idrocarburi e frammenti di idrocarburi contenenti il rapporto 2/1 fra idrogeno e carbonio (cioè CnH2n), impiegando simboli più elaborati per indicare altri rapporti, come R+2 per CnH2n+2 e R−4 per CnH2n-4, ecc.

Un altro chimico francese, August Laurent[2] (amico di Gerhardt), nel suo Méthode de Chimie, del 1854, utilizzò R nel significato originale di Guyton de Morveau per generalizzare le formule di diversi ossidi binari (ad es. RO, RO2, R2O3, ecc.), come pure per simbolizzare il nucleo (noyau) idrocarburico di svariate molecole organiche [4].

fig-2-auguste_laurent

Auguste Laurent

Fra Guyton-Morveau e Gerhardt, il grande J.J. Berzelius utilizzò nel 1819 la lettera R nel suo nuovo simbolismo chimico alfabetico come abbreviazione per qualsiasi “radicale combustibile” [5]. Berzelius usò questa abbreviazione nei suoi successivi lavori anche per le formule generalizzate degli ossidi, ad es. R + O, R + 2O, R + 3O, ecc, in cui R sta a significare un elemento o un radicale semplice.

Tutto questo, insieme alla definizione di R come rappresentante “les éléments combustibles”, suggerisce fortemente che Gerhardt stesse ancora usando il termine e il simbolo nel significato suggerito da Guyton e Berzelius e non nel significato moderno di radicale alchilico. Sarebbe difficile infatti credere che Gerhardt non fosse al corrente dei lavori di Berzelius quando scrisse il Précis, il chimico svedese era infatti considerato dai contemporanei la massima autorità in chimica.

Il famoso “Sunto” di Cannizzaro del 1858 [6] sulla determinazione dei pesi atomici contiene secondo Jensen la prima esplicita identificazione della lettera R con il termine radicale. A conferma di ciò Jensen cita la frase:

I indicate by the symbol RIm any monoatomic metallic radical, whether simple or compound, and with the symbol RIIm any biatomic metallic radical.

contenuta in una traduzione inglese del “Sunto” [7].

fig-3-stanislao-cannizzaro

Stanislao Cannizzaro

Ho trovato il riscontro nell’originale italiano a p. 354:

Indico col simbolo RIm qualsiasi radicale metallico monoatomico sia semplice sia composto; e col simbolo RIIm qualsiasi radicale metallico biatomico. Se nella stessa formula o nella medesima equazione voglio in generale indicare 2 o più radicali monoatomici, l’uno diverso dall’altro, aggiungerò ai simboli le lettere minuscole abc, perciò Rma’Rmb’ indicherà una unica molecola formata da 2 radicali diversi…

E prosegue a p. 355:

Le molecole dei radicali metallici monoatomici son rappresentate dalla formula (RIm)2; quelle dei radicali biatomici collo stesso simbolo del radicale esistente nei composti, poiché è carattere di questi radicali aver la molecola fatta da un sol atomo o da un sol gruppo che ne fa le veci.

Ritengo necessaria l’aggiunta di queste citazioni per far meglio comprendere l’importanza della chiara distinzione fra atomo e molecola fatta da Cannizzaro. Come noto il Sunto di Cannizzaro fu distribuito al Congresso di Karlsruhe del 1860 che terminò con la proposta di adottare concetti diversi per molecola e atomo e passare al nuovo sistema di pesi atomici e molecolari (J.I. Solov’ev L’evoluzione del pensiero chimico, EST, Mondadori, 1976, pp. 177-178).

Di regola, ai suoi radicali semplici corrispondevano atomi o elementi elettropositivi e i suoi radicali composti a gruppi atomici compresi frammenti idrocarburici. Cannizzaro ha anche introdotto il simbolo X:

X indica tutto ciò che vi è nella molecola, oltre l’idrogeno metallico; così, a cagion d’esempio, nel caso dell’acido acetico X = C2H3O2, essendo questi i componenti che insieme ad H fanno l’acido acetico[3].

In generale X rappresenta quindi sostituenti elettronegativi, come O, OH, e gli alogenuri.

Personalmente reputo Cannizzaro il più grande chimico del 19° secolo.

È curiosa la forma con cui Cannizzaro decide di pubblicare i risultati del suo lavoro, sottoforma di lunga lettera all’amico Sebastiano De Luca (conosciuto nel biennio 1845-47 a Pisa sotto la guida del chimico prof. Raffaele Piria) in cui espone un ampio riassunto delle lezioni di chimica svolte all’Università di Genova dove era stato chiamato a ricoprire la cattedra di chimica. Secondo alcuni biografi l’opera nasce sostanzialmente dall’esigenza didattica di chiarire a se stesso e ai propri studenti concetti e principi sui quali fino ad allora regnava la più assoluta confusione. Pare abbia affermato: «Io non ebbi veramente l’ambizione di proporre una riforma, non ebbi altro scopo che quello pedagogico». Ma è proprio la consapevolezza della validità didattica della sua teoria a spingerlo a comunicarne i risultati al mondo scientifico. Secondo altri, il suo maestro Piria lo rimproverava proprio per la grande attenzione con la quale Cannizzaro svolgeva l’attività didattica, a scapito della ricerca e gli rivolgeva non poche pressioni al riguardo. Quella di presentare i risultati della ricerca come lezioni potrebbe quindi essere stata anche una forma di ironia nei confronti di Piria. Nel Sunto è compresa un’analisi storica dettagliata del periodo in cui nacque e si sviluppò la teoria atomico-molecolare.

Seguendo Cannizzaro, Mendeleev ha fatto ampio uso del simbolo R per rappresentare le formule generali di ossidi (R2O, RO, R2O3, ecc.) e idruri (RH, RH2, RH3, ecc.) – corrispondenti alla valenza massima degli elementi nei gruppi della sua tavola periodica. Formule che comparirono nella parte superiore della forma breve della tavola periodica per più di 70 anni [8].

fig-4-periodensystem_mendelejew

forma corta della Tavola Periodica

Al contrario, nei primi testi e trattati di chimica organica non si fece uso della lettera R, che comparve saltuariamente nel testo di Erlenmeyer del 1867 [9], dopo di che il suo utilizzo nella letteratura organica aumentò lentamente durante il resto del 19° divenendo comune in tutto il 20° secolo.

*Questo post è sostanzialmente una traduzione ragionata e ampliata dell’articolo di W.B. Jensen: Why is R Used to Symbolize Hydrocarbon Substituents?, J. Chem. Educ., 2010, 87, 360-361.

[1] G. de Morveau, Ed., Encyclopédie méthodique (chymie), Vol. 1, Panckoucke: Paris, 1786, p. 142.

[2] J. B. Dumas, J. Liebig, “Note sur l´état actuel de la chimie organique,” Comptes rendus 1837, 5, 567-572.

[3] C. Gerhardt, “Sur la constitution des sels organique à acides complexes et sur leurs rapports avec des sels ammoniacaux,” Ann. chim. phys. 1839, 72, 181-214.

[4] A. Laurent, Méthode de chimie, Mallet-Bachelier: Paris, 1854, pp. 177-189, 425-4252

[5] J.J. Berzelius, 1819, nuova prefazione aggiunta alla traduzione francese del suo lavoro Essay on the Theory of Chemical Proportions and on the Chemical Influences of Electricity.

[6] S. Cannizzaro, “Sunto di un corso di filosofia chimica,” Il Nuovo Cimento 1858, 7, 321-366.

[7] traduzione inglese del Sunto: Sketch of a Course of Chemical Philosophy, Alembic Club Reprint No. 18, Livingstone: Edinburgh, 1949. Citazione a p. 41 della traduzione.

[8] D. Mendeleev, “Die periodischen Gesetzmässigkeit der chemischen Elemente,” Ann. Chem. Pharm. 1872, 8 (Suppl.), 133-229. Traduzione inglese disponibile in: W. B. Jensen, Ed., Mendeleev on the Periodic Law: Selected Writings, 1869-1905, Dover: Mineola, NY, 2005, pp. 38-109.

[9] E. Erlenmeyer, Lehrbuch der organischen Chemie, Winter: Leipzig, 1867, pp. 186, 210.

[1]Louis-Bernard Guyton, Baron de Morveau (Louis-Bernard Guyton-Morveau dopo la Rivoluzione Francese, (1737 – 1816) chimico e politico francese, noto in particolare per aver contribuito al nuovo sistema di nomenclatura chimica, insieme a Lavoisier e altri.

[2] Auguste Laurent (1807-1856) chimico francese, scoprì l’antracene, l’acido ftalico e identificò il fenolo. Introdusse un nuovo metodo di nomenclatura organica basato sui gruppi funzionali.

[3] Ai tempi di Cannizzaro era uso indicare il numero di atomi nelle molecole con apici anziché con pedici.

 

Datazione dei manufatti di cemento.

In evidenza

Luigi Campanella, ex Presidente SCI.

Alcuni anni fa una legge stabilì che potevano essere salvaguardate costruzioni costruite senza il rispetto delle distanze dalle rive del mare purchè costruite più di 20 anni prima. Si scatenò una vera bagarre sulla datazione di molte costruzioni per farle datare anteriormente ai 20 anni richiesti.

La datazione del cemento era e resta un’operazione assai delicata a cui la chimica dà un sostanziale contributo. Inoltre il poter caratterizzare un materiale cementizio invecchiato rende possibile una migliore valutazione nella determinazione di eventuali interventi di consolidamento (nel campo dell’edilizia civile) o di restauro (nel campo dei beni culturali), oltre – come si è detto- la sua datazione anche al fine di contribuire a dipanare dispute legali riguardanti la collocazione temporale di costruzioni edili.

Allo scopo di individuare dei possibili indicatori analitici per la diagnosi dell’invecchiamento di manufatti cementizi la prima operazione da fare è esaminare alcuni campioni provenienti da manufatti cementizi appena lavorati (fresco, circa 1 mese) e invecchiati naturalmente (non inferiore a 10 anni) o artificialmente mediante esposizione combinata a luce e calore e procedere con una diagnosi circa le alterazioni con tecniche rapide, che non richiedono pretrattamenti, quali l’analisi termica simultanea (analisi termogravimetrica (TGA) e differenziale (DTA), la diffrattometria a raggi x (XRD).

A cosa sono dovute le alterazioni suddette?

Rispondere a questa domanda è già gettare una base per la datazione. Individuare modifiche del manufatto, che sono riferibili al suo invecchiamento, risulta utile nella diagnosi dell’età del materiale

Diversi processi chimico-fisici avvengono tra le prime fasi della lavorazione del cemento, in cui si procede all’impasto con acqua, e le successive fasi dell’indurimento. Dopo 28 giorni si ha una maggiore definizione della composizione e della struttura; è infatti dopo tale periodo che sono previste le prove meccaniche per rispondere ai requisiti di legge riguardanti le opere di edilizia civile. In pratica, però, alcuni processi avvengono con cinetiche talmente lente e in dipendenza dell’ambiente circostante, che alcune modifiche del manufatto si manifestano solo dopo diversi anni dalla sua preparazione.

9780820602127-3La composizione chimica del cemento, anche se variabile e dipendente dalla zona di provenienza, essenzialmente è determinata dai seguenti componenti.

  • Il clinker che rappresenta il costituente principale. dal punto di vista mineralogico, esso può essere considerato come una roccia artificiale, sostanzialmente a base di silicati ed alluminati insieme ad una fase vetrosa a base di ossidi, la cui formazione è basata sulle reazioni in fase solida e sulla fusione di parte dei suoi costituenti, con la formazione di un magma eutettico in seno al quale si completa la formazione dei composti cristallini non fusibili.
  • Il gesso è molto diffuso in natura in giacimenti di origine sedimentaria, talvolta ricoperti da depositi di cloruro di sodio o di argille e marne. Esso è costituito essenzialmente da solfato di calcio biidrato CaSO4 2H2O, ma di rado è allo stato puro e presenta spesso impurezze quali silice, allumina, ossido di ferro, ossido di manganese, carbonati di calcio e di magnesio, minerali argillosi.

Secondo la normativa UNI EN 197-1-2001 il solfato di calcio può essere aggiunto al clincker durante la macinazione sia sotto forma di gesso (solfato di calcio biidrato CaSO4·2H2O), di gesso semiidrato (CaSO4·1/2H2O), o come anidrite (solfato di calcio anidro CaSO4) o come miscela di questi.

  • La Pozzolana e le ceneri volanti

La Pozzolana è una roccia di origine vulcanica presente in varie località del Lazio, della Sicilia e della Campania (p.e. Pozzuoli). E’ costituita da ossidi,in prevalenza di silicio,ma anche di alluminio,fero,calcio ed altri metalli. Essa è costituita da lapilli e ceneri vulcaniche cementatesi per azione degli agenti atmosferici i quali, agendo sui componenti delle lave a base di silicio, hanno dato origine ad un prodotto di natura acida che contiene silice (SiO2) in forma reattiva, capace cioè di reagire a temperatura ambiente con l’idrossido di calcio formando dei composti insolubili. La pozzolana macinata insieme al gesso e al clinker è usata per produrre cementi pozzolanici.

triangle_imagelargeQuando si impasta il cemento con l’acqua, la massa in breve comincia a indurire (fa presa); col procedere del tempo l’indurimento prosegue (può durare anche molti anni) e se la malta è mantenuta sott’acqua può assumere consistenza lapidea. Diverse teorie sono state proposte per spiegare le reazioni che accompagnano presa e indurimento; di esse, una ne attribuisce la causa alla formazione dei composti cristallini che si originano dalla reazione dei componenti dei clinker con l’acqua, l’altra invece sostiene che si formino sostanze di natura colloidale.

cemento2

Illustrazione schematica dei pori nel silicato di calcio in diversi stadi di idratazione http://matse1.matse.illinois.edu/concrete/prin.html

Oggi si è giunti in parte ad una fusione di queste due teorie e la presa e l’indurimento delle malte cementizie vengono attribuiti all’idrolisi e all’idratazione degli alluminati e dei silicati di calcio presenti nel clinker con messa in libertà di idrato di calcio e alla formazione anche di ferriti di calcio idrati. Dei suddetti composti idrati solo l’idrato di calcio può dare cristalli sufficientemente grandi da essere visibili al microscopio, gli altri formano cristalli di dimensioni all’incirca uguali a quelle delle particelle colloidali. Il processo di presa del cemento prosegue con quello di invecchiamento durante il quale alcune delle reazioni descritte proseguono ed altre se ne instaurano, sostanzialmente reazioni della matrice con l’acqua che favoriscono una maggiore idratazione del materiale riferibile sia all’acqua di costituzione, che di adsorbimento. Inoltre l’ambiente di esposizione soprattutto nelle atmosfere urbane può facilitare l’innescarsi di reazioni che modificano la matrice.

I processi di invecchiamento del materiale cementizio, portano a modifiche composizionali e strutturali della matrice che possono essere messe in evidenza all’analisi diffrattometrica e termogravimetrica, in quanto capaci di discriminare fra cementi “giovani” e cementi “vecchi” sulla base di differenze riguardanti il loro stato di idratazione, ossidrilazione, carbonatazione e cristallizzazione.

In sintesi la ricerca di indici capaci di agire da marker dell’invecchiamento del cemento è avvenuta a partire da un confronto fra cementi preparati di fresco e cementi invecchiati naturalmente od artificialmente. Al fine di evidenziare le possibili differenze si è ricorsi all’uso di tecniche diffrattomentriche e di metodi termici.

Si è pervenuti alla conclusione che all’aumentare del tempo di invecchiamento aumenta la quantità d’acqua rilasciata al riscaldamento (dal 2-3% all’8-10%), diminuisce il rilascio di anidride carbonica (dal 35-40% al 6-10%) alla temperatura di decomposizione del carbonato e diminuisce il peso del residuo del processo di calcinazione (dal 40-42% al 16-20%). Tali differenze sono da attribuire a una degradazione subita durante l’invecchiamento dei composti che caratterizzano la formazione del cemento. A riprova di ciò a tali variazioni corrispondono ben individuate variazioni degli spettri di polvere ai raggi X.

 

Sapori e aromi dei pomodori

In evidenza

 Rinaldo Cervellati.

Negli ultimi decenni i pomodori sono diventati il prodotto fresco preferito negli USA, e sono in cima al settore frutta e verdura, con una quota di mercato di quasi il 10%. In seguito al forte aumento della domanda, i produttori hanno cercato di rendere i pomodori sempre più attraenti all’aspetto, incrementandone il colore rosso e il tempo di conservazione, senza tuttavia considerare l’impatto che queste modifiche avrebbero potuto avere sul gusto e sul profumo del prodotto, come sostiene il Dott. James Giovannoni, biologo molecolare presso l’USDA (United States Department of Agriculture).

fig-1-varieta-di-pomodoriIl Dott. Giovannoni afferma che la maggior parte dei pomodori che arrivano ai supermercati ha subito una mutazione genetica che provoca un ritardo nella produzione degli ormoni di maturazione, con conseguente incremento della durata di conservazione. Un danno collaterale di tale mutazione, tuttavia, è la diminuzione della produzione di zucchero, con conseguente alterazione del sapore del prodotto. Al tempo stesso, quando i produttori hanno selezionato frutti di colore rosso uniforme, essi non si sono resi conto che le zone verdi della buccia, oltre a essere una “eredità” di specie selvatiche, sono ricche di cloroplasti, organuli essenziali per la produzione di sostanze aromatiche.

Di conseguenza, molti consumatori americani che hanno avuto familiarità con il delizioso sapore e la consistenza di un pomodoro appena raccolto, si sentono traditi da queste “sfere rosse” poco saporite e quasi prive di odori vendute in molti supermercati.

Ma il ripristino dell’aroma e del sapore del pomodoro potrebbe avvenire nei supermercati USA grazie ai risultati di una dettagliata ricerca genetica effettuata da un team internazionale di 20 ricercatori (a prevalenza americani e cinesi, qualche europeo)[1] guidati dai Dott. Harry J. Klee, professore di Scienze Orticole all’Università della Florida e Sanwen Huang dell’Accademia Cinese di Scienze Agrarie di Pechino.

fig-2-harry-klee-and-sanwen-huang

harry-klee-e-sanwen-huang

Il gruppo di ricerca ha sequenziato il genoma di 398 varietà di pomodoro fra selvatiche, antiche e moderne. Aiutati anche da un panel di assaggiatori qualificati, i ricercatori hanno identificato 28 composti caratterizzanti gli aromi e i sapori più gradevoli dei pomodori, fra essi il frondoso geranilacetone, il floreale β-ionone e l’agrumato 6-metil-5-epten-2-one. La ricerca ha evidenziato che la maggior parte delle varietà moderne da supermercato presentano livelli molto più bassi di 13 fra queste molecole aromatiche rispetto alle varietà antiche [1].

fig-3-composti-isolatiPer individuare quali regioni del genoma di pomodoro sono responsabili della biosintesi di queste sostanze, il team ha preso in considerazione quelle varietà di pomodoro che le contengono a livelli elevati. Klee afferma che il lavoro ha fornito una mappa chimica e genetica in grado di dare indicazioni per migliorare il sapore degli attuali pomodori dei supermercati americani. Dice infatti a c&en: “Uno degli scopi della ricerca è stato quello di poter dire ai produttori: ecco cosa manca, ecco perché, e qui ci sono i marcatori molecolari che si possono utilizzare per recuperare i tratti perduti. Stiamo cercando di riportare il calendario indietro di decenni recuperando le caratteristiche che erano presenti nei pomodori nella prima metà del 20° secolo“.

Infine, il Dott. Giovannoni commenta: “Non so se è possibile produrre un pomodoro da supermercato con le stesse caratteristiche di quello coltivato nel proprio giardino, ma non ho dubbi che questo lavoro possa aiutare i produttori a immettere sul mercato pomodori migliori di quanto sono adesso.

Anche in questo caso che riguarda una questione assai controversa, cioè gli organismi geneticamente modificati, si propone un aspro contrasto fra ogiemmefobici e ogiemmefilici. Se cerchiamo di guardare spassionatamente allo specifico del problema penso che a nessun mediterraneo verrebbe in mente di produrre pomodori geneticamente modificati. I nostri pomodori con le loro innumerevoli varietà non ne hanno certamente alcuna necessità commerciale, ci saranno però delle regole comunitarie come per le quote latte. Confesso che non ne ho idea. Almeno però so che mentre la legislazione sugli OGM è abbastanza restrittiva in Italia e in Europa, è però molto permissiva negli USA (e in Asia ?). Il fenomeno pomodori ne è un esempio.

Senza regole, soprattutto senza ricerca il rischio è quello di produrre vegetali che, se va fatta bene “san solo di carton” (come direbbe Crozza). Ma potrebbe anche andar peggio…

Fonte: c&en newsletter, web: Jan 26, 2017

 [1] D. Tieman et al., A chemical genetic roadmap to improved tomato flavor, Science, 2017, 355, 391 –394. DOI: 10.1126/science.aal1556

[1] La ricerca ha ricevuto notevoli finanziamenti, oltre che dalla NSF (National Science Foundation) e da varie Istituzioni Cinesi, anche dall’European Research Council e dall’European Commission Horizon 2020 program.

Composti alifatici su Cerere.

In evidenza

Diego Tesauro.

I siti di tutte le riviste scientifiche ed anche di alcuni quotidiani in tutto il mondo stanno divulgando la notizia, a seguito di un articolo comparso sulla rivista Science (1), che sono state rilevate presenze di composti organici alifatici nel cratere Ernutet del pianeta nano Cerere in una superficie di 1000 Km2. Cerere è il più grande dei nano-pianeti (o pianeti nani, questo il nuovo nome ufficiale per gli ex pianetini) della fascia asteroidale compresa fra Giove e Marte, secondo la più recente definizione della IAU; fu scoperto da Giuseppe Piazzi a Palermo il primo giorno del XIX secolo, prima ancora che fosse scoperto Nettuno, per cui fu definito come l’ottavo pianeta. E’ oggetto da circa due anni di osservazioni da parte della sonda ESA-NASA Dawn che mediante due spettroscopi (uno nell’IR e l’altro nei gamma) ci sta rilevando le caratteristiche della sua superficie.(sul blog si era parlato della scoperta di ghiaccio sul medesimo nano-pianeta).

Dall’analisi degli spettri IR ottenuti mediante lo spettrografo VIR è stato possibile rilevare le bande di assorbimento caratteristiche delle frequenze di stretching simmetriche e antisimmetriche del metile e del metilene caratteristici dei composti alifatici.

Perché tanta enfasi viene posta nell’osservazione di questa classe di composti? Negli ultimi anni, come era prevedibile, stiamo scoprendo che composti organici nello spazio sono presenti in moltissimi corpi del nostro sistema solare ed anche in nebulose esterne. I composti organici nello spazio vengono suddivisi in due classi la IOM (insoluble organic matter) costituita essenzialmente da idrocarburi aromatici e la SOM (soluble organic matter) costituita da composti pre-biotici come amminoacidi e composti azotati solubili in acqua. Questi ultimi si ritrovano principalmente in condriti carbonacee. L’ultima scoperta riveste interesse per diversi motivi. Innanzitutto l’osservazione di composti alifatici è più rara e più frequentemente nelle IOM vengono osservati composti di natura aromatica e cluster di molecole aromatiche, in quanto in questi composti il legame chimico è più forte e resiste alle condizioni energetiche estreme a cui sono sottoposte molecole nello spazio.

Inoltre la scoperta su Cerere permette di supporre che le molecole alifatiche, simili ai minerali di catrame o asfaltite, per la loro natura, non siano presenti a seguito di impatti di condriti asteroidali o comete nelle quali sono state rilevate molecole organiche anche complesse. Negli impatti l’energia in gioco non permetterebbe la sopravvivenza di composti del genere in quanto il legame chimico alifatico C-H non sarebbe stabile nelle condizioni fisiche di impatto. Studi cinetici (2) dimostrano infatti che a 100°C in 200 anni il legame C-H non è stabile e che questa stabilità si riduce a soli 90 sec a 400°C, temperatura raggiunta e superata negli impatti. Questa osservazione fa propendere per una natura endogena dei composti sul nano-pianeta.

Questa ipotesi è rafforzata dal fatto che gli spettri delle molecole sono stati rilevati in zone più ricche di carbonati e argille contenenti ammoniaca rispetto al resto del pianeta. Pertanto si ritiene che i composti alifatici siano prodotti da processi idrotermali, come quelli che possono anche produrre materiale organico sulla Terra (3), attivi nel passato Cerere, quando l’asteroide era più caldo in profondità rispetto ad ora. Ma resta sconosciuto il meccanismo che ha portato i minerali in superficie. Questo meccanismo di produzione di sostanze organiche potrebbe essere attivo anche in asteroidi, quali le condriti, anche se in questo caso, si propende piuttosto per una formazione dei composti organici nel gas interstellare. Questa ipotesi è suffragata dall’abbondanza isotopica degli elementi che le costituiscono (4).

La scoperta si deve ad un gruppo di ricercatori fra i quali spiccano numerosi nomi di italiani.

  1. C. De Sanctis et al. Localized aliphatic organic material on the surface of Ceres Science  355, 719-722 (2017)
  2. Kebukawa, S.Nakashima, M. E.Zolensky, Kinetics of organic matter degradation in the Murchison meteorite for the evaluation of parent-body temperature history. Meteorit. Planet. Sci. 45, 99–113 (2010).
  3. B.Williams, B.Canfield, K. M.Voglesonger, J. R.Holloway, Organic molecules formed in a “primordial womb.” Geology 33, 913–916 (2005).
  4. M. O’D.Alexander, M.Fogel, H.Yabuta, G. D.Cody The origin and evolution of chondrites recorded in the elemental and isotopic compositions of their macromolecular organic matter. Geochim. Cosmochim. Acta 71, 4380–4403 (2007).

Chimbufale.1. Accendere il fuoco con una batteria al limone.

In evidenza

Claudio Della Volpe

Accendere il fuoco con una batteria al limone.E altre storie.

La lotta alle bufale è stato sempre un nostro ambito, ben prima che, come succede oggi, perfino i governi cercassero di impadronirsene; e sinceramente preferiamo che sia la rete a generare gli anticorpi, non strutture centralizzate che potrebbero mascherare facilmente attacchi alla libertà di stampa. Esistono d’altronde siti antibufale “spontanei”, specializzati e famosi, come quello di Paolo Attivissimo (http://bufalopedia.blogspot.it/p/cose-la-bufalopedia.html).

Bufale chimiche ne girano parecchie.

Oggi parliamo qui della bufala di accendere il fuoco con una batteria al limone che compare da mesi sulle pagine video della Stampa senza commenti negativi da parte della redazione. Ma potete trovarla anche su Youtube o in giro per la rete; spiace che un giornale così diffuso come la Stampa non abbia i necessari anticorpi.

http://www.lastampa.it/2016/03/15/multimedia/scienza/sapete-come-accendere-un-fuoco-con-un-semplice-limone-9ty316mZxRrIHN7RJOiNWJ/pagina.html

La Stampa: Sapevate che un limone può essere utilizzato per accendere un fuoco? Il segreto è trasformarlo in una batteria artigianale, che funziona con elettrodi di rame e zinco. Nel video pubblicato da NorthSurvival , l’esperimento è presentato come trucco salva-vita, nel caso ci si perda nel bosco, ed è realizzato con fermacampioni di rame, chiodi di zinco, un pezzo di fil di ferro e un po’ di lana d’acciaio. Per le sue caratteristiche chimiche l’agrume può innescare un processo che genera energia, anche pochi Volt sono sufficienti per questo scopo.

lemon1L’origine di questa bufala è un sito americano, di “sopravvivenza”, Northsurvival; siti di questo tipo sulla base della diffusa paura di una catastrofe mondiale di qualche genere parlano di continuo di come fare a sopravvivere; d’altronde ci sono casi più semplici come perdersi in un bosco o in un’isola deserta in cui la cosa potrebbe risultare utile. In fondo accendere il fuoco è una delle azioni base della sopravvivenza.

La foto che vedete rappresenta il dispositivo che secondo il filmato sarebbe in grado di generare l’energia necessaria a portare all’incandescenza un pezzetto di spugna-lana metallica (di ferro o acciaio) e dunque innescare la combustione di legno o altro materiale; una guardata ai seguenti (e veritieri filmati) è forse più chiara;

fuoco acceso con batteria da 9V:

https://www.youtube.com/watch?v=snjocUdBs30

fuoco acceso con 2 batterie da 1.5V in serie:

https://www.youtube.com/watch?v=htfBaJME4m4

Il filmato de La Stampa è simile, solo che si usa come sorgente non una batteria commerciale da 9V o due da 1.5 in serie, ma un limone modificato come in figura; anche nel filmato del limone la cosa sembra funzionare, ma ragionevolmente si tratta di un videomontaggio e vedremo perchè.

Nei due filmati citati prima si fa partire l’incendio di materiale secco usando come innesco la lana di ferro e una batteria messa in corto su di essa.

La cosa è credibile almeno come ordine di grandezza; cerchiamo di stimare quanta energia e quanta potenza serve allo scopo.

Si tratta di portare al calore rosso almeno qualche decina diciamo 100mg di ferro partendo da temperatura ambiente per effetto Joule; l’evento si verifica quasi istantaneamente, segno che potremmo trascurare le perdite per raffreddamento.

Il calore specifico del ferro è poco meno di 0.5 J/grammo; dobbiamo quindi fornire 0.05J/°C per un innalzamento di temperatura fino a circa 800°C; circa 40J in un secondo, ossia una potenza dell’ordine di 40W per un brevissimo periodo (anche in due secondi, 20W).

Le caratteristiche delle batterie commerciali da 9V alcaline sono una capacità di 0.5Ah (1800 coulomb, ossia 1800/96485= 0.02Faraday circa), ed una energia di 16200J (9×0.5×3600); se messa in corto circuito una batteria del genere potrebbe fornire la corrente richiesta teoricamente per oltre 400 secondi (16200/40); ma quando scaricate a questa velocità la reazione elettrochimica le cose non sono lineari, c’è tanta dissipazione. Dai dati di letteratura tuttavia non è banale avere questo tipo di informazioni che sono più simili a quelle di sicurezza, legate al rischio di incendio da batteria; inoltre una batteria sollecitata in questo modo si surriscalda e può dare luogo anche ad una esplosione.

Se trascuriamo l’inevitabile abbassamento del voltaggio durante una scarica di questo tipo, se stimiamo in un solo secondo il tempo di lavoro possiamo facilmente concludere che per ottenere 40W abbiamo bisogno nei due casi di 4-5A nel primo caso e di oltre 13A nel secondo.

Dati sperimentali si possono trarre da siti di appassionati come questo: http://physics.stackexchange.com/questions/30594/short-circuit-an-alkaline-battery

Da questo sito si ricava sperimentalmente, senza alcun tentativo di giustificazione teorica (trattandosi di un fenomeno complesso) che una singola AA alcalina in corto circuito o meglio con una resistenza applicata molto bassa, può arrivare a quasi 10A; mettendone due in serie (teoricamente il voltaggio aumenta senza variazione della corrente) possiamo dunque arrivare molto vicino al valore richiesto (basterebbe considerare 2 secondi il tempo necessario di contatto); nel caso della 9V alcalina il requisito è certo; dunque i due video sono credibilissimo quello della batteria a 9V, un pò meno l’altro ma la cosa almeno teoricamente può funzionare in entrambi i casi.

ATTENZIONE: Ovvio che stiamo parlando di dati molto approssimati perchè in effetti un corto circuito effettivo implicherebbe quasi l’azzeramento della differenza di potenziale, e dunque una corrente ancora maggiore necessaria per giustificare la potenza termica dissipata; ci sono da considerare il ruolo della resistenza interna della batteria e quello delle resistenze di contatto. Comunque, anche applicando l’espressione potenza=I2R alla dissipazione termica, un filo di ferro da 1mm2 di sezione e lungo 1cm ha una resistenza a t ambiente dell’ordine di 1 milliohm (mΩ), ma a 800°C (la resistività del ferro a 25°C è 10-7Ωm, ma il suo coefficiente termico è 0.00651/°C) più alta che a 25°C.

A 800°C dunque la R vale:

lemon2R=0.001Ωx(1+0.00651×800)=0.006Ω; servirebbero 80A in queste condizioni, ma sperimentalmente ne servono 10 volte di meno; perchè? Probabilmente la resistenza effettiva è maggiore a causa della resistenza di contatto ai capi del filo, ossia lo scadente contatto fra filo e eletttrodi della batteria dà una mano. Una resistenza di soli 0.5 Ω, farebbe scendere la corrente a meno di 9 Ampere, pienamente alla portata del sistema.

Ma cosa succede passando ad una batteria al limone? Già come funziona una batteria al limone?

La batteria al limone in effetti è un must della divulgazione chimica; ci sono perfino articoli scientifici pubblicati su varie riviste come JCE (Journal Chemical Education); una batteria al limone, o alla patata l’avrete costruita di sicuro; ma allora dove è il problema?

http://surface.syr.edu/che/2

https://www.scientificamerican.com/article/generate-electricity-with-a-lemon-battery/

http://www.autopenhosting.org/lemon/p181.pdf

Beh come al solito il diavolo è nei dettagli.

E’ una batteria molto simile a quella di Volta; due pezzi di metalllo, zinco e rame immersi in una soluzione acquosa acidula, sia pur compartimentata in cellule, dunque con una resistenza al movimento della cariche certamente maggiore che in una soluzione vera e propria e dunque risultati peggiori.

In quelle condizioni (una volta chiuso il circuito) lo zinco tende ad ossidarsi e il rame invece si comporta da semplice conduttore passivo, consentendo la riduzione dell’acido citrico presente nel limone con sviluppo di idrogeno gassoso.

Zn(s)—> Zn++(aq) +2e

2H+(aq)+2e —> H2(g)

Il voltaggio considerato è la somma dei voltaggi ottenibili dalle due semireazioni; facendo una enorme approssimazione 0.76V per lo zinco (anche se almeno in partenza la conc. di Zn++ è trascurabile) e 0 circa per l’idrogeno, in pratica a circuito aperto non supereremo gli 0.7volt. Trascuro completamente l’effetto delle concentrazioni, l’equazione di Nernst. Se volessi considerare Nernst, dovrei stimare la concentrazione di H+ legata alla presenza di acido citrico e ipotizzare ancora una volta una pressione parziale di idrogeno che almeno all’inizio è trascurabile.

Per stimare la capacità della batteria chiediamoci quanto acido citrico c’è in un limone? Attorno a 50ml di una soluzione che è al 5-7% in peso di acido citrico, dunque atttorno 2-3 grammi di acido, che corrispondono a circa 12-13mmoli (dunque circa 0.25M), dunque teoricamente 6 millimoli di idrogeno molecolare e 12.5 millimoli di elettroni; un limone corrisponde alla rispettabile quantità di 12.5 mmoli di carica elementare da estrarre, che sono oltre 1200 coulomb. Però attenzione questa non è una soluzione e basta; è una struttura biologica, compartimentata, e inoltre l’acido citrico è un acido debole (la prima Ka=7.5×10-4, dunque sempre in approssimazione una conc. di H+ di circa il 2% del totale, 5×10-3M)), di cui solo quello attorno all’elettrodo di rame immerso potrà partecipare velocemente alla reazione; dobbiamo stimare un calo di almeno 10 volte, forse di 20; 50-120 coulomb di carica disponibile. Questi stessi dati messi nell’equazione di Nernst ci consentirebbero di stimare anche il potenziale della semireazione, che diventerebbe negativo, attorno a -0.3V, in accordo con quanto detto sopra (Nota sulla reazione di riduzione).

In questo caso abbiamo varie stime della corrente tipica di questa batteria; per esempio nel lavoro di Svartling per accendere un piccolo LED rosso che necessita di circa 40mW occorrono quattro limoni in serie, dunque circa 10mW per limone; dato che il voltaggio è attorno a 0.7V abbiamo una corrente di 14mA circa; siamo su un livello molto più basso delle batterie commerciali. Comunque il valore di 0.014A e la stima di 50-120 coulomb si corrisponderebbero nel senso che quella corrente se mantenuta per un’ora corrisponde a 50 coulombs, dunque ordine di grandezza giusto.

lemon3Anche immaginando che il video la racconti giusta immaginando di porre “in serie” sei dispositivi non supereremmo i 60mW e saremmo dunque ben lontani dalla potenza necessaria, fra uno e due ordini di grandezza sotto la necessità.

Un esame del video incriminato è stato pubblicato già tempo fa con una verifica sperimentale e un giudizio negativi; lo trovate qua; aggiungiamo i nostri commenti.

https://offgridweb.com/preparation/starting-fires-with-a-lemon-real-or-hoax/

Il commento più importante da fare è sul come la batteria al limone viene proposta sul sito bufalino; confrontate l’immagine del sito con quella di un lavoro serio, pubblicato su JCE e vi rendete conto immediatamente di una differenza enorme: come sono messe “in serie” le tre batterie al limone nel lavoro di Svartling e le immaginifiche 6 nella bufala.

Se guardate con attenzione nel sito della bufala la connessione è assurda in quanto si tratta di fatto di una sola batteria al limone, costituita dai due elettrodi estremi, mentre quelli intermedi non costituiscono alcun dispositivo elettrochimico, ma sono solo pezzi di metallo connessi fra di loro; la similitudine è geometrica, non fisica; fra ciascuna delle singole coppie e quelle adiacenti non c’è alcuna separazione, condividono la stessa soluzione elettrolitica; ma le batterie non sono fatte così, esigono che ciascuna di esse, quando sono messe in serie abbia un suo proprio ambiente elettrochimico omogeneo alla batteria stessa, (e se vogliamo essere precisi a sua volta dotato di separatore fra i due elettrodi per evitare il mescolamento spontaneo e dunque la reazione in forma chimica non elettrochimica).

lemon4Per avere 6 batterie dovremmo separare il limone della bufala in sei pezzi indipendenti. Qui sotto lo schema a tre limoni.

lemon5Questo a mio parere è l’errore concettuale più forte e va al di là dei valori numerici di corrente e tensione, quel limone è una singola batteria, di più con i suoi elettrodi molto lontani e dunque che massimizzano la resistenza interna e peggiorano i risultati: il contrario di una buona batteria.

Conclusione è una bufala, non si può accendere il fuoco con una batteria al limone (e nemmeno con 6) in corto circuito.

Alcuni link utili.

http://hypertextbook.com/facts/2001/EtanMarciano.shtml

http://cr4.globalspec.com/thread/64677/Lemon-Battery-Capacity

https://prezi.com/93yh49bihq4-/factors-affecting-current-of-fruit-batteries/

http://www.odec.ca/projects/2011/duduj2/fruit-veg-battery.html

******************************************************

Nota sulla reazione di riduzione. E’ interessante notare che si sceglie di solito come reazione di riduzione per questo processo e anche per la reazione di Volta (che usò una soluzione acidula con i medesimi elettrodi) quella dell’idrogeno, con i problemi che si diceva nel testo: quali sono le effettive concentrazioni dei reagenti? Dove è l’idrogeno gassoso in equilibrio e che pressione parziale ha? Ma c’è un’altra reazione di riduzione che è anche termodinamicamente più favorita e che non soffrirebbe i medesimi problemi concettuali: la riduzione dell’ossigeno sciolto in soluzione il cui potenziale è positivo, molto più favorevole dunque di quello del protone, nelle condizioni date (che non sono di attività unitaria) dell’ordine di +0.8V. Ma come mai non si sceglie questa reazione?

O2(g) +4H+(aq)+4e –>H2O

Beh nel limone mi vien da dire per mancanza di ossigeno disciolto nel liquido interno del limone, a causa delle barriere cellulari. L’acido citrico c’è , l’ossigeno no, anche nella mela o nella patata è lo stesso come provato dal cambio di colore se li tagliate.

Ma nel caso della reazione di Volta (dunque usando una soluzione e non il limone come eletttrolita) invece la questione è molto ampia; la scelta fra i due reagenti è importante in molti altri ambiti, come nelle celle a combustibile per esempio; la risposta potrebbe essere non tanto termodinamica, ma cinetica; ossia quale sovratensione hanno rispettivamente il protone e l’ossigeno nel ridursi su un elettrodo di rame o di grafite poniamo, se costruiamo la cella con grafite e zinco, tanto il rame è inerte nel contesto dato? La risposta a queste domande è complessa; per chi fosse interessato consiglio di approfondire leggendo qualcosa sull’analisi cosiddetta di Sabatier o sul diagramma vulcano, che è lo stesso e casomai leggendo questi riferimenti:

Oxygen-tolerant proton reduction catalysis: much O2 about nothing?†

David W. Wakerley and Erwin Reisner*   Energy Environ. Sci., 2015, 8, 2283

Oppure

Electrocatalytic Oxygen Reduction Reaction Chaojie Song and Jiujun Zhu

E si tenga presente che il termine attività in questo contesto si riferisce alla catalisi e non alla termodinamica, più vicino concettualmente all’affinità di De Donder che ad altro.

Anche nella lemon battery c’è da studiare per una vita e non solo alle elementari. Si può ripetere questo esperimento dalle elementari all’università trovando sempre di cosa discutere.

Chimicamente alla moda. 2.

In evidenza

(la prima parte di questo post è pubblicata qui).

Marino Melissano

(seconda parte)

Coloranti azoici

Detti anche azocoloranti, derivano formalmente dall’azobenzene. Presentano colori brillanti e buoni requisiti tintoriali anche se, rispetto ad altri coloranti, sono meno stabili alla luce, al lavaggio e al candeggio.

melissano21

Il Metilarancio un esempio di colorante azoico.

I coloranti Azoici sono composti caratterizzati dalla presenza di uno o più gruppi azoici (-N=N-), in genere in numero da 1 a 4 , legati a radicali fenilici o naftilici , che sono generalmente sostituiti con alcune combinazioni di gruppi funzionali che includono: ammine (-NH2), cloruri (-Cl), idrossili (-OH), metili (-CH3), nitro (-NO2), acido solfonico sali di sodio (-SO3Na+. I coloranti azoici , sintetizzati a partire da composti aromatici non sono basici in soluzione acquosa (a causa della presenza dei legami N=N, che riducono la possibilità di avere elettroni spaiati sugli atomi di azoto) , sono facilmente ridotti a idrazine e ammine primarie, funzionando come buoni ossidanti.

Di conseguenza i coloranti azoici possono rilasciare una o più ammine aromatiche che sono cancerogene in concentrazioni superiori a 30 mg/kg (0,003 % in peso). Per questo, non possono essere utilizzati come coloranti di articoli tessili e di cuoio che potrebbero entrare in contatto diretto e prolungato con la pelle.

A questo proposito esiste una delle restrizioni cogenti più conosciute. E’ stata introdotta negli anni ’90 e recepita dalla Direttiva CE 2002/61, che, oggi, è stata sostituita dal Regolamento REACH ed è stata recepita anche dalla legislazione di molti Paesi extra UE (Cina ad esempio).

Le ammine cancerogene previste sono 22.

I metodi da seguire per l’esecuzione delle prove sono ben definiti, (EN 14362-1 e EN 14362-3), eppure queste sostanze sono ancora usate, soprattutto per il loro basso costo. Siveda per esempio:

http://cirs-reach.com/Testing/AZO_Dyes.html

E’ interessante notare che in un studio analogo a quello di GP (European survey on the presence of banned azodyes in textiles) condotto nel laboratorio ISPRA per l’UE sullo specifico problema dei colorati azoici e dei loro derivati cancerogeni nei tessuti nel 2008 il numero di campioni esaminati non fu diverso come ordine di grandezza da quelli esaminati dallo studio GP e anche i risultati non si distaccarono troppo. Vale la pena di dire che in quel caso ci fu forse più attenzione ai dettagli statistici del problema, come si può evincere dall’abstract del lavoro che accludiamo in nota (Nota ISPRA 2008[i], lavoro intero scaricabile qui).

Anche nel caso dei coloranti azoici oltre il contatto diretto esiste la possibilità dell’assorbimento tramite la catena alimentare, la qual cosa indica anche un potenziale danno ambientale oltre che il ritorno “sistemico” verso la specie umana, che come super-super-predatore diventa così il collettore di tutto ciò che essa medesima scarica nell’ambiente. Questo fenomeno per i coloranti azoici è documentato in un recente testo.

The discharge of azo dyes into water bodies presents human and ecological risks, since both the original dyes and their biotransformation products can show toxic effects, mainly causing DNA damage. Azo dyes are widely used by different industries, and part of the dyes used for coloring purposes is discharged into the environment. The azo dyes constitute an important class of environmental mutagens, and hence the development of non- genotoxic dyes and investment in research to find effective treatments for effluents and drinking water is required, in order to avoid environmental and human exposure to these compounds and prevent the deleterious effects they can have on humans and aquatic organisms.

Nella ricerca GP gli azoici sono stati trovati in un numero molto limitato di casi; le immmagini e il marchio implicato in questo caso si possono trovare nel report originale.

Formaldeide

Gas incolore, dall’odore penetrante, ha la proprietà di uccidere batteri, funghi e virus, perciò viene largamente impiegato come disinfettante e conservante in moltissime produzioni industriali: mobili, vernici, truciolati, colle, detersivi, materiali isolanti. E’, inoltre, utilizzata come agente reticolante per le paste da stampa e come ausiliario nella concia delle pelli.

Essendo un gas, viene rilasciato nell’aria, provocando irritazioni e bruciori a occhi, naso e gola, ma anche cefalee, stanchezza e malessere generale. È solubile nell’acqua, perciò i lavaggi ne riducono la concentrazione fino alla totale scomparsa.

In campo tessile, la formaldeide può essere rilasciata dalle resine utilizzate per conferire agli abiti le caratteristiche antipiega. Negli anni più recenti, a livello europeo, tale rischio è estremamente contenuto, grazie ai progressi dell’industria chimica, che hanno consentito un’ottimizzazione consistente delle resine che, se correttamente applicate, sono definibili a “zero contenuto di formaldeide”.

Il primo paese a livello mondiale che ha posto restrizioni sul valore di formaldeide rilasciata da un tessuto è stato il Giappone (1973 – legge 112) che, per oggetti destinati ai bambini, ne impone di fatto l’assenza.

Gradualmente anche i paesi europei si sono adeguati e, pur con limiti diversi, esistono leggi che ne regolamentano l’utilizzo nella maggior parte di essi (Germania, Austria, Olanda, Francia, Norvegia, Finlandia, Slovenia, Repubblica Ceca).

Il metodo più noto per la determinazione della formaldeide nei tessuti trattati è il metodo giapponese JIS L 1041. Esiste tuttavia una norma europea sostanzialmente equivalente: la EN ISO 14184-1, mentre per il cuoio si applicano i metodi della serie EN ISO 17226.

A livello di Unione Europea non esiste tuttavia un divieto o una restrizione specifica applicata al settore tessile, neppure in ambito REACH. Le restrizioni sono invece previste da alcuni marchi volontari, che, di fatto, si rifanno alla legge giapponese prevedendo in genere come limiti massimi:

da 16 a 20 mg/kg (bambini); 75 mg/kg (per prodotti a contatto con la pelle); 150- 300 mg/kg

(per prodotti non a contatto con la pelle).

Comunque la formaldeide, che si usa fin dal 1923, è considerata a basso livello di concentrazione se presente nel prodotto finale a meno di 100ppm, ossia meno di 100mg/kg di tessuto.

Anche questa sostanza e’ stata trovata in alcuni jeans (https://pubs.acs.org/cen/government/88/8836gov2.html) ma non nei test effettuati da Green Peace.

Metalli pesanti

Cadmio, Piombo, Mercurio, Cromo(VI), Nichel. I metalli pesanti come cadmio, piombo e mercurio vengono utilizzati in alcuni coloranti e pigmenti. Questi metalli possono accumularsi nel corpo per molto tempo e sono altamente tossici, con effetti irreversibili, inclusi i danni al sistema nervoso (Piombo e Mercurio) o al fegato (Cadmio).

Il Cadmio è anche un noto cancerogeno.

Il Cromo(VI) che è utilizzato in alcuni processi tessili e conciari dell’industria calzaturiera è fortemente tossico, anche a basse concentrazioni, per molti organismi acquatici. Qualsiasi articolo in cuoio, o parte in cuoio di un articolo, che entri a contatto diretto o indiretto con la pelle non dovrà contenere Cromo(VI) in concentrazione superiore o uguale a 3 mg/kg di materiale “secco” (0,0003%)perché provoca, tra l’altro, dermatiti, allergie e irritazioni. La concentrazione massima indicata nel Regolamento REACH coincide con il limite di rilevabilità del metodo di prova ufficiale, EN ISO 17075.

I composti del Cromo(VI) sono stati valutati dall’IARC come cancerogeni per l’uomo.

Il Nichel rilasciato dai coloranti usati per tingere, è fortemente allergizzante.

Dal primo maggio 2015 l’Ue ha vietato la vendita di scarpe e pelletteria in cui la concentrazione del metallo superi i 3 mg/kg.

Anche Cadmio, Mercurio e Piombo sono stati classificati come ‘sostanze pericolose prioritarie’ ai sensi della normativa dell’Unione europea sulle acque e sottoposti a rigorose restrizioni.

Trovati in biancheria intima, jeans, maglie da calcio. E’ interessante notare che negli allarmi RAPEX una quota significativa è relativa all’uso di qualcuno di questi metalli, specie nei pellami per uso umano. (Infine il Nichel non dimentichiamolo è un componente delle monete che usiamo tutti i giorni e la sua presenza in concentrazione superiore a quella che può scatenare dermatiti è stata denunciata in tempi e luoghi non sospetti (http://www.nature.com/news/2002/020912/full/news020909-9.html))

Perfluorocarburi (PFC)

Composti contenenti in modo preponderante legami carbonio-fluoro. La loro particolare struttura li rende idrofobici e lipofobici, ovvero in grado di repellere l’acqua e le sostanze oleose/grasse

Sono utilizzati per rendere i tessuti e oggetti impermeabili, resistenti all’acqua e resistenti alle macchie.

E’ dimostrato che i PFC sono tossici e bioresistenti. e che un’esposizione a PFC è correlata a minore peso alla nascita nei neonati, colesterolo elevato, infiammazione al fegato, indebolimento del sistema immunitario, tumore del testicolo, obesità
Trovati in tessuti outdoor e per sportivi anche di grandi marche. D’altronde sappiamo che la produzione di questi materiali per i più disparati usi ha avuto un effetto di inquinamento notevole nelle zone di produzione, fra cui alcuni dei nostri distretti industriali (http://corrieredelveneto.corriere.it/veneto/notizie/cronaca/2016/20-aprile-2016/inquinamento-miteni-valori-pfas-superiori-limiti-240327880018.shtml).

Abbiamo velocemente tratteggiato la situazione, ma ovviamente questa descrizione non è completa non solo perché il mercato evolve ma anche perchè evolve la chimica e cambiano i metodi di produzione ed analisi e le conoscenze mediche.

Esistono e da molti anni leggi e numerosi protocolli di sicurezza (come Oeko-Tex) a cui le aziende si attengono, ma dato che nonostante tutto i problemi ci sono, come abbiamo visto, Altroconsumo, insieme a Greenpeace, ha chiesto ai marchi d’abbigliamento di andare oltre il Reg. REACH e la certificazione Oeko-Tex ed eliminare dalla produzione, gradualmente entro il 2020, tutte le sostanze tossiche.

Nasce così la Campagna DETOX.melissano22

La campagna Detox di Greenpeace chiede ai marchi della moda di impegnarsi su base del tutto volontaria nell’eliminare l’utilizzo di tutte le sostanze pericolose entro il 2020 e chiede a tutti i loro fornitori, nell’ottica della massima trasparenza, di rendere pubblici su una piattaforma online indipendente, i dati relativi allo scarico di inquinanti dalle loro strutture.

Diventa sempre più ampia la lista di aziende che hanno scelto di sottoscrivere l’impegno Detox, tra cui 35 gruppi della moda e dell’abbigliamento che rappresentano più di 100 marchi, che da soli costituiscono il 15% ,in termini di fatturato, della produzione tessile mondiale. Ciononostante anche nel nostro paese la copertura è a macchia di leopardo.

Tra gli aderenti alla campagna ci sono vari grandi gruppi e marchi internazionali, interi distrettti produttivi del tessile italiano e il numero cresce di continuo; negli ultimi giorni per esempio avrete letto sui giornali che il gruppo Gore Fabrics si è impegnato ad eliminare i derivati perfluorurati la cui produzione si è dimostrata ecologicamente nociva.

Trovate la lista delle aziende che hanno sottoscritto l’impegno Detox e il testo dello stesso su https://www.confindustriatoscananord.it/chi-siamo/attivita-e-progetti-speciali/detox

L’iniziativa Detox è del 2011 ed ha catalizzato a sua volta altre iniziative come per esempio ZHDC (Zero Discharge of Hazardous (ZDHC) Programme); è da dire che questa iniziativa va a rilento.

Infatti sebbene esista una lista di prodotti che sono bannati non dall’uso generale nel procedimento produttivo ma dall’uso intenzionale, sul sito troviamo scritto ancora oggi:

In 2014, the Programme began developing a universal set of XML-standards to organise the way key chemical data should be collected and shared for the benefit of all stakeholders.

In 2016, the Programme will release the ZDHC Chemical Registry, an online data sharing portal for chemical companies to asses a product’s compliance against ZDHC’s MRSL. Read more on the Chemical Registry here.

Ma sfortunatamente quel link “here” è vuoto.

Per comprendere uno dei limiti di questa impostazione si può fare riferimento all’uso di NPE che è il più comune degli alchilfenoletossilati; NPE non è consentito come uso diretto e questo va benissimo, ma può essere usato in prodotti che lo contengono come “impurezza” fino ad una concentrazione di 500ppm, ossia 500mg/kg di prodotto; la concentrazione permessa nel prodotto finale non deve superare 100ppm (0.01%); è chiaro che esiste una “driving force” per far diffondere l’impurezza in quantità anche superiori a quelle consentite.

Inoltre se si va a vedere in dettaglio si trova che la concentrazione massima tollerata per NPE è superiore alla concentrazione critica micellare (CMC) della sostanza; in pratica il protocollo (e la legge europea) consente di usarla ancora come tensioattivo (infatti la CMC di NPE15 è 0.1mM, ossia 22mg/kg (22ppm) contro un limite legale di 100 ppm (0.01% nella legge europea nel prodotto finale e un limite concesso nel protocollo ZHDC di 500ppm, quasi 25 volte superiore); per le varie lunghezze di catena degli etossilati la CMC varia ma è comunque inferiore a 100ppm!

Non è comunque banale fare un confronto fra i due approcci, mentre per meglio approfondire i risultati già ottenuti del progetto Detox si può guardare ai risultati degli scarichi in alcune zone industriali italiane.

Che cosa possiamo fare, prima di acquistare un capo di moda?

In realtà è necessaria un’attività di informazione, dalla filiera e al consumatore, sia sulle sostanze utilizzate e sui relativi rischi potenziali sia sull’attività di prevenzione che fanno le aziende.

Le fibre artificiali (quelle naturali modificate) e quelle sintetiche (dette anche “man-made“, sintetizzate dall’uomo), che coprono oggi il 70% dei consumi mondiali di fibre tessili, arrivano in buona parte dall’Estremo Oriente. Anche in questo blog si è detto altre volte che il primo produttore chimico mondiale con una quota del 66%, è la Cina, che esporta in Europa prodotti meno costosi e a volte già trattati con dei coloranti. Per questo motivo la semplice richiesta della etichetta “made in Italy”, di per se, non esclude prodotti confezionati in Italia, ma con tessuti importati da altri paesi i cui controlli potrebbero essere meno efficienti.

I vestiti non parlano, non ci raccontano la loro storia e le sole etichette non ci aiutano nella scelta. Cerchiamo certificazioni sulla sostenibilità (Oeko-Tex) e smart labels di “Made in colours”, con codice a barre o QR code, che permette di conoscere tutte le sostanze usate nel ciclo produttivo.

Altroconsumo consiglia i marchi che hanno firmato l’accordo Detox e che si sono classificati Detox leader mentre altri non lo hanno fatto.

Più in generale:

Evitiamo l’acquisto di indumenti con stampe plastificate ed etichettati come: antiaderente, resistente alle macchie e all’acqua.

  • Laviamo i capi prima di indossarli per la prima volta
  • Evitiamo di far indossare a bambini e adolescenti capi di dubbia qualità. Se si notano sulla pelle reazioni allergiche imputabili a un capo di abbigliamento, segnaliamolo anche all’associazione Tessile e Salute, che indicherà un laboratorio per far analizzare il capo sospetto.
  • Per lo sport ricordiamo che il sudore e il calore favoriscono l’assorbimento delle sostanze rilasciate dai tessuti e potenzialmente dannose per cui massima attenzione.
  • Evitiamo indumenti con un’etichetta mancante o contraffatta
  • In ultimo ricordiamo che il suggerimento di preferire il cotone bianco per la biancheria potrebbe essere insufficiente (infatti non possiamo escludere che un capo di colore bianco non contenga di per se sostanze potenzialmente dannose e perfino non possiamo escludere trattamenti con sostanze coloranti che esaltino il bianco, in fondo l’occhio non è uno spettrofotometro, pensiamo agli effetti di certi derivati degli stilbeni con proprietà fluorescenti e comunemente usati a questo scopo)

PIU’ ETICA E MENO ESTETICA

L’inversione di tendenza in campo ambientale non è data solo dall’avvento di prodotti che non siano dannosi per l’uomo, (così detti verdi), ma forse ancor più dai nostri comportamenti. E qui sorge ancora la domanda: siamo veramente pronti a cambiare il nostro stile di vita? Siamo convinti che occorre rinunciare a qualcosa e, che l’era del consumismo sfrenato è finita?

  • Come al solito, siamo degli autodidatti e come tali il percorso è lungo.

In Italia manca un’educazione ambientale, intesa non solo come rispetto della Natura, ma anche come educazione ad un futuro migliore, ecologicamente, economicamente e socialmente sostenibile, in cui ben si inserirebbe il vestire sostenibile.

Questa è la vera sfida su cui ognuno di noi è chiamato a dare il suo contributo e il ruolo del Chimico sia nei processi di analisi e di controllo, sia nei processi di sintesi di sostanze che sostituiscano quelle dannose, è essenziale.

**********************************************************

[i] Nota ISPRA 2008: A European survey on the presence of banned azodyes in textiles, in particular textile clothing, produced all over the world was performed. The selection of fabrics was planned among coloured textile products, in order to cover as many different types of fibres and type of garments as possible. The whole population was considered as target. Samples were bought in 24 Member States of the European Union, from different sources, with different compositions and various production countries or areas. Part of them was printed and some were “easy care” or Oeko-Tex labelled. A total of 116 samples were analysed with standard method EN 14362-1 (without extraction) and 72 also with standard method EN 14362-2 (with extraction). Measurements were performed in duplicate and standard deviations were calculated.

In the case of the method without extraction, 2.6 % of samples (3 out of 116) intended to be in direct contact with skin contained over 30 mg/kg of some banned aromatic amines, which is the limit established by Directive 2002/61/EC. The highest concentration (434.2 mg/kg) was measured for benzidine. Other ten samples (8.6 %) contained some prohibited aromatic amines in levels lower than the limit. Comparison between method EN 14362-1 and a slightly modified version of it showed that generally the standard method gave lower results than the ones obtained with the modified one.

Considering the method with extraction from fibres, only one sample T188 contained some banned aromatic amines, one of which, benzidine, in concentration of 39.0 mg/kg. Several not carcinogenic aromatic amines, different from the ones listed in Directive 2002/61/EC, were detected in 21 samples. They were quantified based on calibration curves of some banned aromatic amines of similar structure. Their concentration was often higher than 30 mg/kg and in certain cases even higher than 100 mg/kg. Colour fastness to washing, perspiration and saliva was evaluated for the samples which contained some forbidden aromatic amines, in order to estimate the tendency of dyes to migrate. Results showed a very high colour fastness in terms of colour degradation, except for some samples including the two positive ones T188 and T292. On the contrary, colour fastness in terms of staining was not high, in particular on polyamide. Staining was generally higher to washing at 60°C than to saliva at 37°C; the lowest staining was obtained to perspiration at 37°C. Almost no differences were observed among results obtained with acid and basic saliva or with acid and basic perspiration simulants. The three positive samples T148, T188 and T292 were among the worst specimens concerning both colour degradation and staining.

Following the recommendations of the European Chemical Bureau’s Technical Guidance Document, data were used to estimate adult and child dermal exposure to carcinogenic aromatic amines. From data obtained with the EN-14362-1 standard method and the modified one, the maximum dermal uptakes evaluated in the case of a child were 8.2 and 11.8 mg/kg bw and, in the case of an adult, 3.1 and 4.4 mg/kg bw respectively.

Chimicamente alla moda. 1.

In evidenza

Marino Melissano*

*Marino Melissano è stato fino a pochi giorni fa vicepresidente di Altroconsumo, uno dei pochi chimici (già docente universitario, libero professionista, coordinatore di progetti europei, membro dell’ordine dei Chimici in Trentino) in una posizione chiave nelle associazioni di consumatori e ambientalisti.

Premessa

melissanoPochi sanno che l’industria tessile è la seconda più inquinante al mondo, dopo quella del petrolio. La scioccante dichiarazione è dovuta ad una delle principali esponenti del settore, Eileen Fisher, una magnate dell’industria tessile.

Nel tessile si possono usare molte sostanze tossiche, che inquinano e possono lasciare tracce sui capi di abbigliamento. L’esistenza di questo rischio è riconosciuta dall’UE ed esiste una categoria dedicata nel servizio RAPEX, ossia nella segnalazione rapida di casi di merci pericolose che entrino nel mercato europeo.(si veda Nota RAPEX[i]).

Dobbiamo conoscerle ed essere coscienti di ciò negli acquisti.

Se vogliamo veramente cambiare il mondo, se vogliamo invertire la tendenza all’inquinamento, se vogliamo che le generazioni future possano vivere in un ambiente più pulito e più rispettoso dei diritti altrui, se vogliamo un’economia più equilibrata che muti i concetti di profitto e lavoro, se vogliamo risorse meglio distribuite, se vogliamo che i diritti di noi consumatori siano il punto-chiave di ogni politica industriale e sociale.

DOBBIAMO CAMBIARE IL NOSTRO APPROCCIO ALLE COSE, DOBBIAMO INTERPRETARE UN NUOVO RUOLO, DOBBIAMO ESSERE PIU’ COSCIENTI DI CIO’ CHE ACQUISTIAMO, IN DEFINITIVA AVERE NUOVE RESPONSABILITA’.

“Tutti pensano di cambiare il mondo, ma nessuno pensa a cambiare sé stesso” (Tolstoj)

Questo vale anche per la moda, che non deve essere solo trendy, ma deve diventare sempre più sostenibile, deve diventare «uno stile».

                                                   «La moda passa, lo stile resta» (Coco Chanel)

melissano2Panorami incontaminati e boschi lussureggianti hanno a che fare con una moda sostenibile?

Estetica senza etica: un abito nuovo ci veste o ci gratifica?

La Chimica e la moda

Greenpeace (GP), nel 2011 ha scoperto due impianti tessili in Cina che scaricavano sostanze pericolose nei fiumi Azzurro e delle Perle. Così ha fatto analizzare prima le acque e poi 141 campioni di vestiario di 20 diversi marchi, prodotti in Paesi in via di sviluppo (trovate questo report insieme agli altri qui). Questo numero potrebbe apparire ridotto rispetto al numero di capi presenti sul mercato mondiale; ma in effetti è ben noto che anche un campione relativamente ridotto di dati può comunque considerarsi rappresentativo dell’intera popolazione statistica, purchè raccolto con criteri appropriati, quali una copertura completa di tutte le principali aree di produzione e tipologie di prodotto, una numerosità di dati raccolti per area proporzionale alla produzione complessiva dell’area stessa, e così via. D’altronde vedremo più avanti altri studi con coperture analoghe e fatti da enti istituzionali.

Nello studio citato di GP i 2/3 dei campioni contenevano sostanze tossiche o cancerogene (nonilfenolo etossilato, ftalati, formaldeide, coloranti contenenti ammine).

Secondo uno studio realizzato dalla Ue, il 7-8% delle patologie dermatologiche è dovuto a ciò che indossiamo, mentre il Sistema europeo di allerta rapido per i prodotti non alimentari piazza l’abbigliamento al primo posto della classifica per presenza di sostanze pericolose. (Chemical substances in textile products and allergic reactions)

L’Associazione Tessile e Salute ha eseguito, per conto del Ministero della Salute, un’indagine sui tessili circolanti in Italia. E’ risultato che:

  • Il 15% erano privi di etichettatura
  • Il 34% riportavano una composizione errata
  • Il 29% aveva un pH fuori dai limiti: a livello comunitario non esiste una restrizione cogente specifica relativa al valore di pH consentito per un prodotto di abbigliamento in tessuto o pelle, anche se esistono norme volontarie per la sua determinazione e requisiti definiti, a livello volontario, da alcuni marchi. (Nota sul pH[ii])
  • Il 4% conteneva ammine aromatiche (cancerogene)
  • Il 4% coloranti allergenici
  • Il 4% metalli pesanti
  • Il 6% formaldeide

Sono stati monitorati 400 casi di dermatiti gravi ed è risultato che fossero causate:

  • 69,1% da tessili
  • 16,5% da accessori metallici
  • 14,4% da calzature

Quello della sicurezza dei capi di abbigliamento è insomma un problema che le associazioni ambientaliste e dei consumatori, tra cui Altroconsumo, denunciano da tempo, senza trovare adeguato ascolto, salvo in occasione di eventi eclatanti come il ritiro di pigiami per bambini posti sotto sequestro dalla Procura di Torino perché risultati tossici.

Le leggi sono carenti, obsolete e frammentate. la norma Uni/Tr 11359, sulla gestione della sicurezza degli articoli di abbigliamento è l’unico documento normativo sistematico sulla materia.

Vediamo più da vicino questi composti.

melissano3NONILFENOLIETOSSILATI (NPE):

Vengono usati in genere come detergenti industriali e nella produzione di detergenti.

Sono tensioattivi che possono funzionare da interferenti endocrini, di conseguenza il loro commercio è stato limitato in Europa e non si trovano più nei prodotti per bucato negli Stati Uniti. L’NPE, che è stato individuato anche in pigiamini per bambini e nella biancheria intima viene rilasciato al momento del lavaggio dei tessuti e, una volta disperso nell’acqua, si degrada in altri composti, tra cui il nonilfenolo, che si accumula nei pesci, interferendo con il loro sistema endocrino..

L’ NPE che è usato, come detergente ed è responsabile dell’inquinamento idrico e dell’alterazione degli ecosistemi acquatici, pur essendo vietato da più di 10 anni negli articoli prodotti in UE, non è vietato nei capi importati.

Gli Stati membri dell’Unione Europea hanno raggiunto nel 2016 un accordo per vietare l’impiego del nonilfenolo etossilato (NPE) anche nei tessuti importati all’interno della UE, ma la messa al bando avrà effetto entro il 2021.

Esiste, però, uno studio dell’Agenzia danese per l’ambiente che ha concluso che le concentrazioni di NPE, più alte nei tessuti di origine cinese di aspetto brillante, non pongono rischi per la salute umana pur essendo tossici per gli organismi acquatici.

Il fenomeno può essere considerato una sorta di effetto rebound, simile a quello che avviene per certi farmaci; se assumete i farmaci antinfiammatori non steroidei (FANS) per via orale avete un potenziale effetto gastrolesivo dovuto alla inibizione di alcuni enzimi; per evitare questo effetto si può somministrare il farmaco per altre vie, non orali, per esempio attraverso una pomata direttamente sull’arto infiammato; ma il farmaco anche per questa strada può avere effetti gastrolesivi (ma notevolmente inferiori), in quanto una volta assorbito entra in circolo e dunque può arrivare allo stomaco dal circolo ematico, anche se in concentrazioni inferiori. In analogo modo se voi impedite il contatto diretto fra NPE e pelle umana, imponendo una concentrazione finale rilevabile molto bassa sui tessuti ed anche un lavaggio preventivo, NPE si diffonderà comunque nell’ambiente dove entra in biosfera; miliardi di capi cedono piccole quantità di composto che, sommate insieme, oltre ad essere lesive per alcune specie animali (stimolano la femminilizzazione in varie specie), entrano nella catena alimentare e per questa strada vengono infine ri-assorbite dall’uomo.

Occore precisare tuttavia che sebbene gli NPE siano stati trovati in quantità significativa nel latte umano anche nel nostro paese, ed ovviamente anche in altri paesi, non esiste ancora una associazione chiara fra questo bioaccumulo e la sorgente effettiva di questi composti, così ampiamente usati in passato.

Alcuni esempi di capi, pubblicati da Greenpeace, in cui sono stati trovati NPE con le immagini dei capi incriminati si possono trovare nel report originale.

melissano4FTALATI

Famiglia di composti di sintesi usati nell’industria delle materie plastiche come agenti plastificanti, o meglio, come sostanze aggiunte al polimero per migliorarne la flessibilità e la modellabilità.

Sono sostanze tossiche soggette a restrizione europea. Il loro uso in concentrazioni >0,1% è vietato nei giocattoli e negli oggetti per la prima infanzia, compresi gli indumenti. Il più recente documento riguardante questi prodotti e il loro uso è di meno di un anno fa: https://echa.europa.eu/documents/10162/22286145/four_phthalates_annex_xv_report_initial_appendices_en.pdf/f86ddf58-a578-486f-88d3-9d9c21139ad3.

E’ bene chiarire che i composti soggetti a restrizioni non sono genericamente gli ftalati ma alcuni ftalati, i principali dei quali con le sigle: DEHP, DBP, DIBP, and BBP corrispondono ai cosiddetti ftalati a basso peso molecolare.

melissano5

Sperimentazioni sugli animali da laboratorio hanno mostrato che i tipici effetti critici riguardano la tossicità epatica, testicolare e riproduttiva.

Non essendo legati stabilmente alla matrice polimerica, gli ftalati possono facilmente migrare e depositarsi sulla pelle, ma anche essere inalati o ingeriti.

Si sospetta che alcuni di essi agiscano come interferenti endocrini.(http://ehp.niehs.nih.gov/0901331/)

In campo tessile sono usati per le stampe di scritte o disegni da applicare a magliette o pigiamini, specie nell’abbigliamento dei più piccoli. Se la stampa si “screpola” facilmente vuol dire che contiene pochi ftalati, viceversa una stampa che resta sempre morbida e inalterata ne contiene molti.

Alcune di queste sostanze sono disciplinate dal regolamento REACH, e soggette ad autorizzazione (Allegato XIV) o a restrizione (Allegato XVII).

Alcuni esempi, pubblicati da Greenpeace, di capi in cui sono stati trovati ftalati con le immagini dei prodotti implicati si possono trovare nel report originale.

(continua)

Note dell’autore.

[i] Nota su Rapex: Dal 2012 esiste un sistema di allerta rapido per tutte le merci pericolose gestito dalla Unione Europea i cui report sono pubblici e che si può consultare a questo indirizzo e a cui qualunque cittadino si può abbonare gratuitamente: http://ec.europa.eu/consumers/consumers_safety/safety_products/rapex/alerts/main/index.cfm?event=main.listNotifications

Nella categoria Clothing, textiles and fashion items il rischio chimico è stato segnalato nel corso del 2016 69 volte, cioè per 69 diverse merci di questa categoria. Nel 2015: 69 – 2014:95 – 2013:99- 2012:66. In tutti i 400 casi individuati per la categoria in questione da quando il sistema esiste il rischio è stato giudicato “serio”. Questo dà contemporaneamente l’idea che un sistema del genere è utile perché il rischio c’è ed è un rischio significativo (anche se il numero di merci in ingresso in EU è molto più elevato) ma anche del fatto che esistono metodi di verifica e controllo efficaci. D’altronde per il medesimo motivo pone anche il problema di quanti casi NON vengano individuati: in pratica questi casi probabilmente sono solo la punta dell’iceberg di un fenomeno più esteso di violazione delle regole. (si veda anche: http://www.mercipericolose.it/approfondimenti-mp/pillole-di-reach/471-restrizioni-reach-sugli-ftalati-e-rapex)

  • [ii] (Nota sul pH): La necessità di una restrizione cogente è conseguente al fatto che la pelle umana ha un pH 5,5 e che al contatto con sostanze a comportamento acido o basico che mostrano valori di pH molto diversi da 5,5 sviluppa fenomeni irritativi anche molto significativi.
  • Il metodo per la determinazione del pH su tessili è descritto nella norma EN ISO 3071, e quello per il cuoio nella norma EN ISO 4045.
  • In Cina, al contrario, la restrizione dei valori del pH è un requisito cogente (Standard GB 18401) che impone, per i prodotti tessili destinati all’abbigliamento, valori di pH compresi tra 4,0 – 7,5 (per bambini fino a 36 mesi); tra 4,0 – 8,5 (per prodotti a diretto contatto con la pelle); 4,0 – 9,0 (per prodotti non a diretto contatto con la pelle).

 

Il dilemma del tensioattivo (e del chimico)

In evidenza

Mauro Icardi.

Il fenomeno della diffusione di schiume da tensioattivi sulla superficie di molti fiumi italiani negli anni 70, rivelò agli occhi degli italiani che la situazione dell’inquinamento idrico era oggettivamente grave, e che occorreva porvi rimedio. Il 1976 vide promulgata la legge 319/76 da tutti meglio ricordata come Legge Merli, termine cha ha poi identificato per abitudine presso la pubblica opinione anche le successive normative di regolamentazione degli scarichi idrici, fino a non molti anni fa.
Le schiume di qualunque genere e provenienza (biologiche, marine o altro) portano le persone ad identificarle con quelle dei tensioattivi. Questo è ormai un atteggiamento mentale consolidato.
La presenza di schiume superficiali su corsi d’acqua effettivamente reca a chi le vede una sorta di fastidio, crea un’immagine stridente con l’idea che ognuno di noi ha di quello che deve essere un fiume limpido e pulito.

ticino-2

I tensioattivi sintetici sono prodotti derivanti principalmente dall’industria petrolchimica (nota). La loro funzione principale è quella di diminuire la tensione superficiale della molecola di acqua, ed aumentare la bagnabilità dei prodotti che sono messi a lavare. Pare impossibile, ma l’acqua da sola ha uno scarso potere detergente.
Molto presto si scopri che detersivi sintetici la cui struttura molecolare era ramificata non erano attaccabili dai microrganismi naturali, quindi non potevano essere degradati tramite i meccanismi biologici di autodepurazione.
Si stabili per legge quindi che i tensioattivi dovevano essere biodegradabili almeno all’80% . Vennero formulati prodotti tensioattivi a catena lineare più “appetibili” e più facilmente biodegradabili dalle comunità batteriche.
Ora occorre ragionare su questa percentuale di abbattimento e fare qualche riflessione più generale su quello che le normative prevedono, e sull’evoluzione dei trattamenti di depurazione.
Abbiamo parlato di tensioattivi biodegradabili all’80%. Se guardiamo i limiti normativi ci accorgiamo che questo limite si riduce al 50%. Il limite tabellare di legge (Dlgs 152/2016) prevede che possano essere scaricati in fognatura al massimo 4 mg/l di tensioattivi totali (anionici, cationici, non ionici), e che all’uscita di un impianto di trattamento il limite massimo tollerato, sempre di tensioattivi totali, sia di 2 mg/l.
Un impianto normale, non dei più sofisticati, anche se privo di un trattamento terziario raggiunge agevolmente questa percentuale di abbattimento e la supera nella quasi totalità dei casi, salvo particolari condizioni di criticità che possono essere dovute o a sovraccarico o ad avarie di tipo meccanico/elettrico. Queste ultime di solito si risolvono in tempi brevi tramite la messa in funzione di unità di riserva (per esempio pompe o sistemi di areazione).
Nella mia esperienza personale sugli impianti ho notato che la percentuale di abbattimento reale è dell’ordine del 75%, quindi congruente con quella di biodegradabilità dei tensioattivi e molto al di sotto del limite di legge. La concentrazione residua di tensioattivi totali è normalmente al di sotto di 1 mg/l. (varia da 0,5 a 0,7 mg/l.)
Eppure questa concentrazione residua è ancora più che sufficiente a produrre schiume, soprattutto se il flusso di acqua depurata viene sollevato a quote superiori con l’ausilio di pompe (per esempio nel trasferimento dalla sezione di sedimentazione finale a quella di disinfezione). E se il flusso dell’acqua in uscita dall’impianto è turbolento.

schiume.jpg

Il moto turbolento del fluido aumenta l’effetto. Questo è perfettamente spiegabile, visto che le bolle di sapone sono sacche di gas trattenute all’interno di una pellicola lamellare formata da una pellicola d’acqua in mezzo a 2 pellicole di sapone. La struttura lamellare dell’interfaccia tra l’acqua nelle pareti della bolla e l’aria , interna o esterna, è fondamentale per garantire la formazione e stabilità della bolla. Il sapone o il tensioattivo riducendo la tensione superficiale dell’acqua si dispone sulle pareti, sia nell’interfaccia interna che in quella esterna della bolla con le code lipofile orientate verso l’aria. Tra i 2 film si trova l’acqua. Il sistema lamellare ha una sua specifica elasticità e resistenza da cui dipende la capacità di fare bolle con le caratteristiche più svariate: enormi, piccolissime, che si dissolvono rapidamente. Nella parete della bolla, l’acqua può scorrere e per gravità scendere verso il basso.

chimica17

Questo è il primo fattore , il drenaggio, che porta all’indebolimento delle pareti della bolla e poi alla sua dissoluzione. La stessa acqua poi può evaporare , attraverso le pellicole di tensioattivo .Questo è il secondo fattore che porta all’indebolimento delle pareti della bolla e poi alla sua dissoluzione. Come si vede ci sono molti fattori (di carattere chimico-fisico) che fanno sì che si possano vedere residui di schiume all’uscita di un depuratore.
I tensioattivi che arrivano all’ingresso di un impianto sono poi una miscela dei più svariati tipi. A parte la normale divisione (anionici, cationici, non ionici) sono in genere quelli usati per la detergenza personale, per il lavaggio dei piatti, per il bucato. Se andiamo a guardare le tabelle di formulazione ci accorgeremo che le formulazioni non sono ovviamente tutte uguali.
Esistono prove di schiumeggiamento che mettono a confronto diversi saponi e tensioattivi e che misurano sia lo strato, che il tempo di permanenza della colonna di schiuma che si forma. Da questo si può notare che per esempio i saponi con una coda idrofobica più lunga possono formare più schiuma.

Si potrebbero poi citare ancora tanti temi quali la viscosità, la densità delle molecole di tensioattivo sulla superficie della bolla, la concentrazione critica micellare.

micella.png

Ma quando si è alle prese magari con un comitato di cittadini, o con associazioni ambientaliste non sempre questa sembra essere la soluzione migliore. Perché bisogna riuscire a parlare un linguaggio che sia comprensibile a tutti. E già di per sé questa cosa richiede impegno e costanza.
Andrebbe ricordato poi anche il collegamento con il cambiamento del regime delle precipitazioni, con i sempre più lunghi periodi di siccità, e quindi con la riduzione delle portate in molti fiumi. Che quindi mettono in crisi quella che è stata per decenni la filosofia di progettazione dei depuratori. Raggiungere dei ragionevoli e tecnicamente praticabili livelli di abbattimento di vari inquinanti, e lasciare che il carico inquinante residuo venga biodegradato naturalmente. Ma questo tipo di approccio sta entrando pesantemente in crisi.
Ne ho scritto in questo post pubblicato su “Risorse,Economia,Ambiente”
https://aspoitalia.wordpress.com/2016/02/24/siccita-che-fine-fa-lacqua-sporca/

Questo è un altro tema “caldo”. I tecnici idrici ne saranno coinvolti in pieno. E in questo caso lo sforzo dovrà essere molto coordinato, chiamando in causa chimici, ingegneri ambientali, progettisti.
Ma anche politici e cittadini. Questi ultimi a mio parere devono giustamente vigilare sull’operato delle società che si occupano di trattamento delle acque. Ma come per i rifiuti dove si deve impararne la corretta gestione, altrettanto si deve fare nella gestione dell’acqua e nel corretto uso dei prodotti di detergenza, senza eccedere inutilmente nel loro uso.
Lo scorso anno Luca Mercalli in una puntata del suo programma “Scala Mercalli” ha mostrato cos’è il “lato b” dell’acqua, cioè il trattamento di depurazione.
Ma non credo che ancora tutti siano consapevoli di questo. C’è un’analogia stringente tra il non buttare rifiuti nell’ambiente e nell’essere più attenti nell’uso dell’acqua che poi dovrà essere depurata.
Le sinergie e l’impegno di tutti sono imprescindibili.

(nota del blogmaster) Non fatevi ingannare dalla dizione tensioattivi “naturali”; in Natura esistono, è vero, sostanze ad azione tensioattiva, come le saponine, che sono glucosidi, ma i tensioattivi intesi come saponi, come li intendiamo comunemente sono eslusivamente prodotti dall’attività umana a partire da varie materie prime. Non esistono saponi “estratti” come tali da qualche altro materiale naturale (potreste usare la Saponaria officinalis come tale, ma non è poi così efficace). Perfino la ricetta “naturale” del sapone, quella delle nostre nonne, necessita di trattamenti chimici veri e proprii, come l’uso di potassa estratta dalle ceneri, da addizionare a grasso più o meno raffinato. E se volete farlo bene dovete usare soda non potassa. L’aggettivo “naturale” per i tensioattivi è sostanzialmente abusivo.

Archeometria delle ossa.

In evidenza

Luigi Campanella, ex Presidente SCI

L’uomo da sempre lotta contro il tempo che passa cercando di conservare giovane ciò che invecchia: dagli oggetti al vestiario dal corpo alla mente. Però lo stesso uomo cerca di misurare l’invecchiamento perché da esso si possono ricavare informazioni e conoscenze. Il corpo umano è im gran parte degradabile, le parti di esso che più resistono al tempo sono quelle minerali:ossa e denti, preziose entrambe attraverso la misura della loro età per assegnare un residuo umano ad un tempo storico.

Durante la vita l’osso è uno dei tessuti connettivi del corpo ed è costituito da cristalli del minerale idrossiapatite, depositati su una matrice fibrosa della proteina collagene. Il minerale occupa il 71 per cento del volume, il collagene il 19, altre proteine il 2 e l’acqua l’8 per cento. Dopo la morte, le proteine si decompongono lentamente: questa decomposizione graduale rappresenta la base di un metodo di datazione delle ossa: il dosaggio dell’azoto. Il minerale restante è soggetto a sciogliersi in condizioni di terreno acido. Le ossa si sono conservate in siti archeologici molto diversi, e molto diverso è anche il loro stato di conservazione. Le ossa possono essere datate tramite diversi metodi. Il più comune è quello della datazione al radiocarbonio: sia il collagene che i componenti minerali possono essere databili. Recentemente un certo numero di campioni ossei sono stati datati tramite test all’uranio. Datazioni relative possono essere ottenute in base agli scambi chimici, collegati al tempo, che avvengono nelle ossa dopo la sepoltura. In particolare essi comprendono il dosaggio del fluoro e dell’azoto e la racemizzazione degli amminoacidi.

       Racemizzazione degli amminoacidi

Dopo la morte, le ossa insieme al resto del corpo, cominciano a decomporsi. Nelle ossa ciò significa la disgregazione , e il cambiamento della componente proteica, soprattutto il collagene.

Come le altre proteine il collagene è costituito da molecole di amminoacidi, e sono proprio queste che si separano e si disgregano; tale decomposizione ha suggerito un metodo di datazione, la datazione con l’azoto. Oltre all’effettiva disgregazione gli amminoacidi che rimangono intatti sono soggetti ad altro cambiamento. Durante la vita, tutti gli amminoacidi hanno un particolare orientamento riguardo la loro struttura molecolare (sono isomeri levogiri di tipo L.) . Dopo la morte gli amminoacidi si riallineano secondo un’immagine speculare della loro struttura molecolare (destrogiri , o di tipo D). La reazione, chiamata racemizzazione (o epimerizzazione), avviene lentamente e a un ritmo relativamente uniforme. La misurazione della proporzione della molecola di tipo D rispetto a quella di tipo L dovrebbe quindi fornire un metodo di datazione. Sfortunatamente la racemizzazione dipende anche dalla temperatura, dall’acqua del sottosuolo e dal grado di disgregazione delle molecole di collagene. Ciò rende difficile ottenere date affidabili.

         Datazione con l’azoto

Dopo la sepoltura, il collagene presente nelle ossa si decompone gradatamente, in maniera lenta e relativamente uniforme. Le ossa appartenenti alla stessa epoca e conservate in condizioni simili possiedono grosso modo la stessa quantità di collagene non ancora decomposto. Uno degli elementi essenziali del collagene è l’azoto, e quindi calcolandone la quantità contenuta nelle ossa antiche ritrovate si può risalire alla quantità di collagene già decomposto . La datazione relativa delle ossa in un contesto stratigrafico si può quindi determinare tramite il contenuto di azoto.

         Dosaggio del fluoro

L’acqua di falda che contiene fluoro si infiltra nei depositi e il fluoro viene assorbito nel reticolo dei cristalli del componente minerale dell’osso sepolto (nello stesso modo in cui il fluoro viene assorbito dagli strati superficiali dei denti tramite ripetuti spazzolamenti con dentifricio al fluoro). Ponendo un ritmo costante nella percolazione dell’acqua del terreno, la concentrazione di fluoro nell’ osso dovrebbe essere proporzionale alla sua età. E possibile attribuire date relative a ossa provenienti dallo stesso contesto stratigrafico paragonandone il contenuto di fluoro. Il falso di Piltdown fu smascherato proprio con questo metodo.

Le ossa sono uno dei materiali più comunemente inviati ai laboratori per la datazione al radiocarbonio con AMS (spettrometria di massa con acceleratore). Questo perché le ossa animali e umane sono spesso oggetto di studi archeologici.

Datazione al radiocarbonio

Molte delle informazioni che abbiamo sull’era preistorica sono state apprese grazie agli studi archeologici e alla datazione al radiocarbonio delle ossa. La datazione al radiocarbonio delle ossa è inoltre in grado di fornire informazioni più dettagliate sulle civiltà antiche.

Componenti delle ossa

Un osso è composto di materia al 30% organica ed al 70% inorganica. La porzione organica è rappresentata dalle proteine; la porzione inorganica include il minerale idrossiapatite, costituito da fosfato di calcio, carbonato di calcio, fluoruro di calcio, idrossido di calcio e citrato. La parte proteica, principalmente collagene, garantisce resistenza e flessibilità alle ossa, mentre l’idrossiapatite fornisce rigidità e solidità strutturale.

In teoria è possibile datare sia i componenti organici, sia quelli inorganici. Tuttavia, la struttura reticolare aperta dell’idrossiapatite la rende facilmente contaminabile dai carbonati provenienti dalle falde acquifere. Non è inoltre possibile applicare la rimozione dei carbonati contaminanti tramite lavaggi con soluzione acida diluita, poiché l’idrossiapatite è solubile in acido.

I laboratori utilizzano la componente proteica dei campioni di ossa nella datazione con AMS, poiché questa è relativamente insolubile in acido e può essere facilmente separata dall’idrossiapatite e dagli altri carbonati.

datazione14c

Tesi per la prova finale del Corso di Laurea in Fisica A.A. 2002-03 Tecnica di datazione con il Carbonio14 Candidato: Francesco Vernocchi Relatore: Prof. P. Corvisiero

Nei casi in cui la parte proteica dei campioni d’ossa non è ben conservata ed ha iniziato a degradarsi a causa di temperature elevate ed aggressione da parte di funghi o batteri, i laboratori con AMS effettuano la datazione al carbonio dei singoli amminoacidi per verificare se alcuni di essi presentano la stessa età radiocarbonica. Questo processo può essere svolto dai laboratori con AMS data la piccola quantità di campione richiesta.

Il buon esito della datazione di ossa dipende dal contenuto di collagene. La quantità e qualità del collagene (la componente organica che viene estratta e datata) dipende dall’ambiente di sepoltura dell’osso e dalle sue condizioni (pH, T, acidità del suolo…). L’osservazione dell’osso è il primo passo da effettuare per avere una indicazione del contenuto di collagene. Per esempio, le ossa compatte dovrebbero contenere sufficiente collagene per la datazione, mentre ossa spugnose, friabili e porose, di solito non contengono abbastanza collagene- o non ne contengono affatto – per la datazione. Per la calibrazione della datazione delle ossa, è importante specificare, nella “Submission form” (nel paragrafo “Note particolari sul campione”) se in vita gli individui possano aver avuto un’alimentazione terrestre piuttosto che marina o d’acqua dolce, deducibile dal contesto in cui è stato trovato il campione o da altre analisi isotopiche.

E’ importante che il materiale osseo inviato sia in buono stato di conservazione. Si suggerisce, se a disposizione,di utilizzare femore o in alternativa denti.

per documentazione: http://www.aknews.it/la-datazione-delle-ossa/

Naturale o sintetico? Note sull’ identità chimica.2.

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo esaminato un paio di casi non comuni di identità chimico-molecolare non legati semplicemente alla formula della sostanza e abbiamo visto che la distinzione naturale-sintetico può essere molto complessa (o come dice Scientific American una zona grigia)

Lo abbiamo fatto perché a me appare superata la polemica stucchevole fra chemofobici (che vogliono materiali chemical free) e chemofilici (che fanno cherry picking fra i vari casi di sostanze di sintesi più pure e quindi meno allergeniche o tossiche, oppure che fanno notare come i veleni più potenti per unità di massa siano naturali non sintetici, la tossina del botulino LD50 di 1ng/kg di peso); nonostante questo impegno la fallimentare strategia chemofilica non impedisce la nascita, la crescita e il prosperare di una pseudo-bio-filosofia chemofobica.

Personalmente ritengo che la strategia chemofilica sia sbagliata anche perché non è affatto vero che i composti naturali e sintetici con la medesima formula chimica siano identici: lo sono per la loro formula, lo sono per i loro effetti pratici, lo sono funzionalmente, ma non lo sono necessariamente all’occhio del chimico (non chemofilico, né tanto meno chemofobico).

identita22 identita21

Il caso del para e orto idrogeno chiarisce bene una cosa: la formula chimica tradizionale che esprime solo numero atomico e legame chimico non dice tutto, è una approssimazione; la dimostrazione è nel fatto che orto- e para-idrogeno hanno non solo proprietà fisiche diverse, come temperatura di transizione di fase o entalpia di transizione, ma anche diversa reattività chimica. La cosa è manifesta a bassa temperatura, per esempio nelle nubi interstellari, argomento dell’astrochimica.( DOI: 10.1038/NCHEM.2359)

identita23Le costanti di reazione delle due molecole sono diverse a bassa temperatura e diventano ben sovrapponibili solo sopra i 30K; nello spazio interstellare la chimica dell’idrogeno è divisa dunque fra quella del paraidrogeno e quella dell’ortoidrogeno: studi sono ancora in corso.

Ma questo potrebbe essere considerato un caso estremo; consideriamo allora esempi più semplici e generali di identità molecolare: quali differenze possiamo attribuire a composti o sostanze (quindi miscele di composti) di origine naturale o sintetica con la medesima formula?

Non stiamo parlando di singole molecole, ma di composti o sostanze in quantità macroscopica: la chimica è una scienza macroscopica, nel caso generale, e ha a che fare con grandi numeri di molecole o atomi.

Le differenze si possono ascrivere a

  • diversa purezza quantitativa e diversa composizione delle impurezze, prodotte da reazioni del tutto diverse nei due casi; questo costituisce una sorta di marchio indelebile della sostanza o del composto, anche a parità di costituzione delle singole molecole; è infatti impossibile avere una purezza del 100%, almeno al momento.
  • diversa composizione isotopica del composto; questo può manifestarsi sotto forma di isotopologia (un atomo qualunque è di diverso tipo isotopico) o sotto forma di isotopomeria (ossia un medesimo atomo e sempre quello è sostituito da isotopi diversi); va da se che una molecola isotopomera di un’altra è anche una sua isotopologa; il viceversa non è dato.
  • diverso stato magnetico del nucleo come è il caso di para- ed orto-idrogeno, fenomeno che corrisponde ad isomeria di spin e che genera livelli energetici diversi e diverse reattività.

Ciascuno di questi casi presenta molti esempi e corrisponde in genere ad una medesima “formula” chimica, pur in presenza di diversità macroscopiche del materiale. Ovviamente alcuni isotopi hanno un proprio simbolo e si può sempre indicare il numero di nucleoni, il numero di massa A, identita24a fianco al simbolo, ma comunemente questo non viene fatto con sistematicità.

Le distinzioni di identità sono talmente forti da dare luogo a metodi sperimentali ben acclarati o tabulati, a norme precise con effetti legali per distinguere fra diverse origini del composto o della sostanza.

Cominciamo dal caso più banale; come distinguere genericamente una sostanza organica sintetica o naturale? Le sostanze naturali organiche vengono da un pool di atomi di carbonio che scambia regolarmente con l’atmosfera; gli atomi di carbonio dell’atmosfera sono soggetti ai raggi cosmici e dunque danno luogo a reazioni nucleari che producono quantità macroscopiche di 14C; viceversa i materiali sintetici vengono nella stragrande maggioranza da un pool di atomi di carbonio residente fuori dall’atmosfera da molto tempo (carbone, petrolio, gas naturale) protetto dai raggi cosmici e in cui dunque la quota di 14C si è ridotta (esiste una tecnica di datazione isotopica basata su questo fenomeno) oppure è scomparsa; ne segue che le sostanze o i composti sintetici sono genericamente meno radioattivi di quelli naturali. Stessa formula, diversa composizione isotopica, molecole isotopologhe o isotopomere; l’alcool etilico sintetico e quello naturale per esempio sono così diversi da poter essere distinti applicando le procedure stabilite dal metodo ASTM D6866-05 basato proprio su questo fenomeno di decadimento radioattivo.

D’altronde l’effetto isotopico fra i due atomi è significativo; la differenza di velocità nella polimerizzazione fra monomeri di stirene contenenti questi due isotopi è dell’ordine del 10%. Non si tratta solo di radioattività, ma proprio di chimica, di reattività.

Tuttavia anche se usassimo monomeri di stirene ottenuti da materiale naturale avremmo reazioni di polimerizzazione dello stirene di un 10% più lente solo per la quota di 14C (che è troppo piccola per avere effetti macroscopici). La conseguente chimica verde sarebbe più lenta di quella normale, sintetica, ma per una quantità troppo piccola per essere attualmente misurata (ringrazio il collega Ragaini di avermi fatto notare un errore nel mio ragionamento).

Questo potrebbe far pensare che le differenze isotopiche e dunque fra isotopomeri e isotopologhi abbiano solo un ruolo analitico; in Natura avvviene però che le piante (e dunque i loro enzimi) siano di fatto in grado di distinguere; per esempio piante cosiddette C3 e C4, dotate di diversi meccanismi di fotosintesi, hanno un rapporto fra 12C e 13C diverso nei loro tessuti e questo vuol dire che i loro enzimi sono in grado di discriminare fra isotopi (si noti che questi sono isotopi stabili); una conseguenza chimica di questo è che isotopomeri o isotopologhi diversi hanno diversa reattività e che i sistemi biologici sono in grado di discriminare; anche se al momento non abbiamo esempi tecnologici di questo, inventati da noi (se non di tipo analitico)  la differenza di principio rimane.

Passiamo al problema delle impurezze; l’urea è stata la prima molecola naturale ottenuta per via sintetica; è una storia di errori e serendipità. Wholer voleva sintetizzare il cianato di ammonio, (che ha una formula bruta uguale all’urea) NH4OCN, ma per riscaldamento il cianato da lui ottenuto per doppio scambio a partire da cianato di argento e cloruro di ammonio si trasformò in urea e dunque la sua sintesi non riuscì, ma produsse un risultato così eclatante da essere poi la base della moderna chimica di sintesi. Viva gli errori!

La sintesi commerciale dell’urea si ottiene oggi in vari modi, ma in ogni caso una percentuale significativa di biureto è presente nel prodotto commerciale; il biureto è un prodotto che deriva dalla condensazione di due molecole di urea ad alta temperatura, NH2-CO-NH-CO-NH2, e può avere effetti deleteri su alcune piante se si utilizza l’urea con troppo biureto come concime (http://fshs.org/proceedings-o/1954-vol-67/67-69%20%28OBERBACHER%29.pdf)

L’urea estratta dall’urina umana o animale, viceversa, non contiene affatto biureto come impurezza, per cui la ricerca del biureto potrebbe costituire un semplice metodo per distinguere l’urea sintetica da quella naturale.

Tuttavia è chiaro che si possono ridurre, sia pur faticosamente e costosamente, le impurezze al di sotto di una soglia qualsivoglia, fare scomparire insomma i residui indesiderati.

Ma tornando all’urea, nonostante la purificazione rimane qualche segno della diversa origine delle molecole di urea? La risposta è positiva. Si tratta della cosiddetta impronta isotopica. In genere sembra ci sia più 15N nell’urea naturale, ma la questione è complessa ed un’analisi dettagliata della questione potete trovarla in letteratura (https://wwwrcamnl.wr.usgs.gov/isoig/isopubs/itchch16.html).

La diversa impronta isotopica di materiali di differente origine va molto al di là della distinzione naturale/sintetico poichè consente, per esempio, di risalire all’origine di un prodotto e facilita la sua geolocalizzazione. La geochimica e in genere le scienze ambientali sono grandi utilizzatrici di questi metodi. Quindi non solo naturale o sintetico, ma fatto in un certo modo o in un certo posto; le molecole che pure sembrano uguali nella formula e nella accesa polemica anti-chemofobica, si rivelano poi alquanto diverse e memori della loro origine e della loro storia nella realtà dell’analisi chimica: le molecole sono glocali, globali nella formula, locali nei dettagli.

Una interessante considerazione potrebbe essere quella di capire se in genere sia possibile al di là dei casi di diversa origine del medesimo composto capire con qualche criterio se un prodotto sia di origine naturale o sintetica, cioè se esso esista in natura prima della nostra sintesi o no; il chemical space di cui abbiamo ripetutamente parlato nel blog è costituito oggi di oltre cento milioni di molecole(108), ma potenzialmente tale numero è strabocchevole (1060): come distinguere ora e in futuro l’origine dei composti? Una proposta ci viene dall’uso dei metodi dei descrittori molecolari (di cui pure abbiamo parlato nel blog) con capacità di distinzione che superano il 90% da parte di programmi automatici (J. Chem. Inf. Comput. Sci. 2000, 40, 1245-1252).

Termino con una informazione; l’acqua possiede due isomeri di spin separabili, dunque due molecole del tutto identiche secondo i criteri normali ma separabili come tali e conservabili a -18°C per qualche settimana; cosa facciamo, vietiamo la notizia ai supporters dell’omeopatia? (SCIENCE  VOL 296                   28 JUNE 2002)identita25Aggiungo che il solito russo genialoide propone una idea teorica anomala: (Biofizika. 2013 Sep-Oct;58(5):904-9. S.D. Zakharov) sappiamo che l’acqua comune è una miscela di due quasi fasi definite comunemente acqua strutturata tipo ghiaccio e acqua destrutturata (è acclarato almeno dagli anni 60 il sito che vi linko è quello celeberrimo di Martin Chaplin); Zakharov ipotizza che le strutture tipo ghiaccio siano strutture di para-acqua legate in cluster chiusi, per spiegarne la nulla libertà di rotazione, mentre la ortoacqua sarebbe invece l’acqua destrutturata; l’idea è intrigante. L’abstract è in inglese, ma l’articolo è in russo.

Mentre la fisica scopre un’universo in cui la materia oscura domina quella normale 6:1 noi ci crogioliamo in una descrizione dell’identità molecolare basata solo su numero atomico e legame chimico, la formula tradizionale; Montalbano direbbe: “mi sono pirsuaso che le vostre carte di identità sono scadute, signore molecole!”.

Naturale o sintetico è una polemica che non mi appassiona, si sarà capito; la chimica moderna ha dimostrato con le sue sofisticate tecniche analitiche che è possibile risalire all’origine e perfino al luogo o alle reazioni di formazione di un composto o di una sostanza; certo l’uso delle formule ci consente di schematizzare potentemente il numero atomico Z e i legami di un composto ,ma nella realtà dell’analisi si potrà poi andare oltre e perfino in alcuni casi determinare l’origine e distinguere molecole affatto identiche, come nel caso di para e ortoidrogeno o di orto e para-acqua.

La materia non è fatta solo di nuvole elettroniche e per vedere l’albero si corre il rischio di perder di vista la foresta, come diceva il filosofo. Se abbiamo fallito finora nella lotta contro la chemofobia vale la pena di tentare nuove strade, nuovi approcci, in cui argomenti considerati “avanzati” siano usati e spiegati al “volgo profano”; in fondo naturale o sintetico è solo una questione di rischio/beneficio (non di costo/beneficio, ci sono rischi che non hanno prezzo).

Anche la distinzione fra specialisti e gli altri non mi appassiona; non ci sono argomenti per specialisti, c’è solo la scarsa tradizione a fare divulgazione, i chimici non hanno nemmeno un indirizzo di ricerca sulla didattica, un settore disciplinare che se ne occupi.

Sogno un mondo in cui la chimica sia conosciuta e amata da tutti, come un potente strumento di indagine e di sopravvivenza, che ci consenta però di essere più “umani” possibile; dopo tutto, la nostra specie conosce il fuoco (e dunque la chimica) da quando esiste.

Naturale o sintetico? Note sull’identità chimica. 1.

In evidenza

Claudio Della Volpe

 Uno dei più comuni tormentoni nell’ambito della divulgazione chimica e dell’uso del termine “chimico” riguarda il rapporto fra ciò che è naturale e ciò che è sintetico; da una parte ci sono i sostenitori dell’idea, del meme che “naturale” è sempre meglio, che “chimico” è sporco, che cercano il Santo Graal ovvero le inesistenti sostanze “chemical free”, che potremo definire i chemofobici; e dall’altra ci sono i difensori del mondo chimico, che a questo punto etichetterei come chemofilici, che sono pronti a trovare esempi in cui le cose naturali sono spesso più tossiche o velenose o più allergeniche di ciò che è “chimico” o più correttamente sintetico.

identita11identita12Si tratta di un tormentone che risale probabilmente alla sintesi dell’urea e che ritroviamo spesso nei blog o sui siti a carattere divulgativo, ma anche in testi professionali. Personalmente come chimico credo che tutto sia fatto di materia e dunque soggetto alle leggi della chimica, ma, come direbbe il commissario Montalbano, “mi sono fatto pirsuaso” che le cose siano più complicate di come la mettono i punti di vista chemofobico e chemofilico, il cui scontro rischia di mascherare fatti veramente interessanti e che superano entrambi i punti di vista, almeno nella loro vulgata più comune.

D’altronde se tutto è chimica ci saranno casi in cui il naturale è più adatto allo scopo e altri in cui il sintetico è più adatto; tutto qua. Non è una guerra di religione; la cosa interessante è che in molte occasioni l’identità delle molecole e dei composti è più complessa e sfuggente di quanto si pensi e per un chimico, ma anche per il grande pubblico, questo argomento è molto più interessante e stimolante della solita e ormai, lasciatemelo dire, ridicola e stucchevole polemica fra naturale e sintetico.

Cercherò dunque di analizzare alcuni esempi in cui l’identità molecolare è per così dire ambigua e discuterne con voi.

Comincio dalla molecola più semplice, quella di idrogeno, due protoni e due elettroni, tenuti insieme dalle forze di legame. Trascuriamo l’esistenza degli isotopi dell’idrogeno (deuterio e trizio) consideriamo un sistema costituito solo di molecole tutte uguali di isotopo 1H (e già questo è un bel problema, avere una purezza del 100% sarebbe praticamente molto molto difficile e costoso, dubito che esistano prodotti commerciali o anche di laboratorio garantiti con questa purezza; si possono avere purezze a 6 “nove”, ossia 99.9999% o anche oltre, ma il salto al 100 è cosa lontana ancora dalla nostra tecnologia[i]).

Ma comunque anche le molecole di idrogeno isotopo 1, supposte ad una purezza del 100%, non sarebbero tutte uguali; ohibò e perchè mai, dirà qualcuno? Queste molecole non sono tutte uguali, sono distinguibili dal punto di vista chimico-fisico per un semplice motivo che viene definito isomeria di spin.

identita13Di cosa si tratta? Anche a temperatura ambiente il normale idrogeno è una miscela di due specie in equilibrio fra di loro ma dotate di proprietà diverse, per esempio due punti di fusione diversi (di circa 0.1K) e proprietà termodinamiche differenti; il paraidrogeno e l’ortoidrogeno posseggono i due protoni con uno spin, una proprietà che potremmo definire un campo magnetico intrinseco alle particelle e legato secondo una concezione classica alla sua rotazione; tale spin può assumere due direzioni e dunque i due nuclei possono avere spin allineati o no; in questo secondo caso l’energia del sistema è minore e questa specie predomina a bassa temperatura, mentre a temperatura ambiente predomina l’ortoidrogeno (in un rapporto 3:1). La transizione fra i due stati è un processo lento e che non avviene velocemente se non in presenza di un catalizzatore.

Le conseguenze pratiche di questo fatto sono vistose: se congelate bruscamente l’idrogeno partendo da t ambiente, conservando dunque il rapporto a favore dell’ortoidrogeno e tornate dopo un mese, anche in presenza di un isolamento ottimale del sistema troverete che metà del vostro campione è tornato gassoso; il motivo è che a bassa temperatura predomina il paraidrogeno e che la transizione libera calore; ne consegue che lentamente l’idrogeno molecolare ripristina l’equilibrio e il calore in eccesso viene usato dal sistema per cambiare stato; grazie al vostro isolamento perfetto l’idrogeno solido torna gassoso. Per evitare questo se congelate idrogeno lo dovete fare in presenza di un opportuno catalizzatore come l’ossido di ferro così che la transizione verso il paraidrogeno sia quasi immediata, quando raffreddate. L’isomeria di spin è presente in molti altri casi anche per altre molecole comuni, come l’acqua per esempio, e le sue conseguenze non sono sempre semplici da capire. La lezione è che anche molecole apparentemente identiche dal punto di vista “chimico” possono essere diverse e parecchio. Ortoidrogeno e paraidrogeno non hanno formule diverse.

Il fatto è che la chimica è una scienza basata essenzialmente sulle proprietà del guscio elettronico; non a caso quando si presentano anche in forma professionale i calcoli quantomeccanici si fa una approssimazione che si chiama di Born-Oppenheimer, ossia si disaccoppiano i moti elettronici da quelli del nucleo quando si scrive il cosiddetto hamiltoniano; i nuclei sono fatti di particelle molto più pesanti (almeno 2000 volte nel caso più semplice, o centinaia di migliaia di volte o milioni di volte per i nuclei pesanti) e dunque le velocità degli elettroni (chiamate velocità di Fermi, dell’ordine di milioni di metri al secondo) sono almeno decine di migliaia di volte più alte di quelle del nucleo (che si muove a centinaia di metri al secondo, come il suono, velocità fononiche). Questo permette di semplificare l’hamiltoniano, (eliminando i pezzi legati all’energia cinetica del nucleo) e i calcoli; noi chimici consideriamo in genere i nuclei come se fossero fermi, ma le cose reali sono diverse e più complicate, è bene ricordarlo. La materia non è fatta solo di un guscio elettronico. Vedremo più avanti gli effetti di queste differenze dal punto di vista della reattività.

Passiamo ad un caso di identità completamente diverso; il tramadolo. Si tratta di un caso di identità molecolare veramente affascinante. Il Tramadol è un analgesico oppioide sintetico in commercio fin dagli anni 70 inventato dalla Grünenthal GmbH ed usato in tutto il mondo per il trattamento del dolore da moderato a severo.identita14Come vedete dalla figura si tratta di una molecola otticamente attiva e contenente ben due atomi di carbonio asimmetrici (con 4 sostituenti diversi); il racemo ottenibile da una delle due coppie di enantiomeri (quella indicata in figura) è usato come farmaco. Fin qui niente di strano, fino al 2013, quando un gruppo di ricercatori francesi diretto da M. De Waard trova il composto in natura. L’autore racconta:

Iniziando un progetto di ricerca teso a scoprire prodotti naturali con funzione di antidolorifico, abbiamo focalizzato la nostra attenzione sulla pianta sub-Sahariana Nauclea latifolia Sm. (Rubiaceae) comunemente conosciuta come pesca africana o albero puntaspilli. Questa pianta ha una lunga tradizione di uso da parte della popolazione locale per il trattamento di una grande varietà di disturbi , inclusi problemi digestivi seri, disordini neurologici e malattie infettive. In Camerun la pianta viene usata nel trattamento del dolore, della malaria, della febbre, dell’epilessia e delle convulsioni infantili. Eravamo particolarmente interessati all’uso tradizionale della corteccia della radice di N. latifolia nel trattamento del dolore. Precedenti ricerche fitochimiche di N. latifolia avevano portato alla identificazione di alcaloidi, prevalentemente naucleammidi, come i costituenti principali. Estratti di questa pianta hanno mostrato atttività antipiretica, antinocicettiva, antinfiammmatoria e antimalarica. In questo studio, un frazionamento dell’estratto crudo, guidato dalla bioattività antinocicettiva, ha portato all’isolamento di un potente prodotto analgesico.

Il prodotto trovato, illustrato nella fig. 1, tratta dal lavoro di De Waard, era proprio il tramadolo, presente come racemo della medesima molecola sintetica già in commercio. La cosa fece scalpore in quanto sono pochissimi i composti sintetici ritrovati in Natura e per di più con queste caratteristiche di serendipità. Per esempio l’anticancerogeno sintetico 5-fluorouracile (%-FU), che era stato inizialmente sintetizzato nel 1957, fu più tardi isolato dalla spugna marina Phakellia fusca. Al contrario sono milioni quelli naturali copiati per sintesi dall’uomo per i motivi più diversi, ovviamente usando metodi di sintesi in genere diversi da quelli delle piante o degli animali e a partire da reagenti diversi.

Spesso la copia nasce da esigenze di costo o di purezza o di disponibilità; le copie sono funzionalmente indistinguibili dagli originali, a volte risultano perfino migliori, prive di quelle impurezze estrattive che possono danneggiarne l’uso come nel caso dell’ormone somatotropinico, anche se in questo caso il sintetizzatore è un batterio geneticamente modificato; altre volte superano i limiti di disponibilità della materia prima come nel caso del tassolo. Ovviamente in tutti questi casi l’equivalenza funzionale fra la sostanza naturale e quella sintetica deve essere testata di volta in volta; non sempre, come vedremo, l’equivalenza funzionale corrisponde ad una perfetta identità molecolare. Attenzione all’uso dei termini nei casi di interesse medico: nel contesto degli ormoni umani la vexata questio dell’uso di ormoni naturali o sintetici non esclude che l’ormone naturale per eccellenza, il progesterone, sia prodotto per sintesi parziale o totale con ottimi risultati. In quel contesto sono chiamati di sintesi quei composti che mimano l’azione del progesterone ma non presenti nell’organismo naturalmente.

Incuriositi dal fatto che un composto sintetico fosse trovato in natura come racemo e non come enantiomero (come capita di solito nelle piante2) e per di più il medesimo racemo e con il medesimo rapporto isotopico per l’azoto e il carbonio del prodotto commerciale, Michael Spiteller ed il suo gruppo pubblicavano un anno dopo sulla stessa importante rivista un brillante lavoro in cui dimostravano conclusivamente come stessero effettivamente le cose.identita16Badate, il lavoro di De Waard era un lavoro estremamente ben fatto; egli si era posto il problema dell’inquinamento ambientale ed aveva infatti analizzato il contenuto più intimo delle radici, trovando conferma della presenza del tramadolo racemo. Ma ciononostante aveva commesso un errore. Spiteller confermò la presenza della sostanza con le medesime caratteristiche trovate da De Waard, ma grazie ad una visuale più ampia ne trovò l’origine.identita17

Nelle zone centrosettentrionali del Camerun l’uso del tramadolo commerciale è legato alla sofferenza di uomini ed animali nel lavoro dei campi; il clima arido rende difficile e duro il lavoro; il tramadolo viene correntemente usato per ridurre la fatica e migliorare il risultato, come le foglie di coca in Sud-America; la conseguenza è che il territorio (attraverso le escrezioni di uomini e animali) è inquinato dal tramadolo che viene assorbito dalle radici delle piante e si ritrova pari pari nell’analisi di De Ward; questa osservazione ha consentito a Spiteller di discriminare le situazioni di altre zone del Camerun dove il prodotto non è conosciuto od usato e dove le stesse piante non contengono tramadolo; fra l’altro Spiteller sostiene che l’uso tradizionale della corteccia della pianta risente della presenza del composto di sintesi inquinante ad un livello che ne esalta gli effetti collaterali. Non so se la polemica fra De Waard e Spiteller sia finita, ma certo questa storia è una meravigliosa metafora della situazione del mondo: perfino in un lontano territorio tropicale l’inquinamento è arrivato al punto che i più bravi chimici del mondo faticano a distinguere fra una sostanza naturale ed una sintetica!

Ma questa è anche la ragione per cui la polemica fra chemofobici e chemofilici mi appare stantia, almeno se impostata al solito modo; nella seconda parte di questo post vi mostrerò dati alla mano che è quasi sempre possibile distinguere fra composti sintetici e naturali con la medesima formula; in fondo quando noi diciamo ai chemofobici che due composti naturali e sintetici sono identici, hanno la stessa formula, stiamo solo dicendo che le loro molecole sono fatte da atomi con il medesimo numero atomico e legati da identici legami chimici, ma queste due sole proprietà non comportano né che macroscopicamente parlando la sostanza o il composto corrispondente sia la medesima (abbia le medesime impurezze per esempio) né che microscopicamente le molecole non siano isotopologhe o isotopomere o perfino abbiano lo stesso stato energetico. Un chimico sarebbe capace di distinguere perfino fra le molecole di idrogeno (isotopo 1H) contenute nell’atmosfera terrestre e in quella gioviana. E allora che senso hanno le rivendicazioni e gli argomenti dei chemofobici e dei chemofilici?

(continua)

Note.

  • [1] Per confronto la purezza isotopica necessaria per la realizzazione del progetto Avogadro immaginato fantasiosamente da Egidi nel 1963 e divenuto realtà solo in tempi recenti per definire il campione di massa contando gli atomi di una sfera perfetta di 28Si arriva solo a 4 “nove”: 99.99% (EgidiC 1963 Phantasies on a natural unity of mass Nature 200 61–2); la purezza a 6 nove è quella del silicio usato per l’elettronica, ma in quel caso non è purezza isotopica ma solo rispetto alle impurezze di altri atomi componenti; una purezza a 5 nove basta invece per costruire le giunzioni P-N per il fotovoltaico.

2 Il caso del linalolo è molto interessante; nell’industria del profumo il linalolo, è presente in tre forme; avendo un atomo di carbonio asimmetrico (cioè con 4 sostituenti diversi) la forma d- e quella l- corrispondenti ai due differenti aromi del coriandrolo (dal coriandolo) e del licareolo (dalla lavanda), il racemo è quello venduto invece comunemente a livello industriale; tre numeri CAS per il linalolo.identita18

Reagente, gruppo funzionale, sostituente, substrato: chi ha introdotto questi termini?

In evidenza

 Rinaldo Cervellati.

Tutti i chimici usano abitualmente questi termini, ormai entrati nel loro lessico con un significato ben preciso. Ma è sempre stato così? Seguiamo quanto racconta lo storico William B. Jensen e scopriremo aspetti interessanti.

Anzitutto Jensen sostiene che, mentre è relativamente semplice rintracciare l’origine e lo scienziato che ha introdotto termini di radice greca e latina, altre parole sono adattamenti del linguaggio di tutti i giorni, che solo gradualmente sono entrati nella letteratura scientifica, acquisendo infine il significato tecnico ufficiale della disciplina. In questi casi è generalmente impossibile assegnare una determinata data e l’ideatore di quel termine. Ci si deve quindi accontentare di stabilire il periodo di tempo corrispondente alla loro introduzione.

Tutti e quattro i termini di cui sopra, che costituiscono il nucleo dell’attuale vocabolario chimico sopratutto per la descrizione della reattività organica[1], sembrano essere esempi di questo processo indiretto.

Per cercare l’origine della parola “reagente” occorre risalire alla seconda metà del 1700, quando entrarono comunemente in uso reazioni accompagnate da variazione di colore o da comparsa di precipitati per stabilire la presenza di determinate sostanze in soluzioni acquose. Le soluzioni delle sostanze chimiche utilizzate per effettuare questi test divennero note come “soluzioni prova” o, più in breve, come “prove”. In effetti esse stavano rispondendo (cioè reagendo) alla presenza di vari agenti in acqua, come acidi, ferro, ammoniaca libera, ecc.

In altre parole, la reazione sta all’azione come il reagente sta all’agente, dove l’agente e l’azione descrivono i fattori causali e il reagente e la reazione descrivono i fattori che rispondono. Anche se esempi sull’utilizzo di reazioni con variazioni di colore e formazione di precipitati per scopi analitici risalgono al 17° secolo, il primo tentativo di raccogliere e sistematizzare questi saggi analitici si deve al chimico svedese del 18° secolo Torbern Bergman[2], con la sua vasta opera Physical and Chemical Essays (1779-1781). Bergman scrisse la sua opera in latino e preferì comunque fare riferimento alle sue soluzioni test come “precipitanti”. In realtà fu il traduttore in inglese Edmund Cullen che usò il termine reagente in una nota a piede di pagina della traduzione inglese dell’opera di Bergman [1][3].

fig-1a-torbern-bergman

Torbern Bergman

fig-1b-frontespizio-vol-iIl termine “gruppo funzionale” fa la sua prima apparizione negli scritti di vari chimici organici francesi negli anni 40 del 1800, in relazione al riconoscimento del fatto che i composti organici possono essere classificati in classi come acidi, alcoli, ammine, ecc. in base al loro comportamento chimico. Charles Gerhardt[4], nel suo Précis de Chimie Organique del 1841 scrive [2]:

In questa sezione esamineremo i principali gruppi di composti organici classificati secondo le loro “funzioni chimiche” [fonctions chimiques nel testo originale]… Rivedremo in successione: 1. i sali (acidi); 2. le anidridi; 3. gli amidi, 4. gli alcaloidi, 5. gli alcoli; 6. gli eteri; 7. gli acetoni; 8. gli idrocarburi; e 9.i gliceridi.

fig-2-charles-f-gerhardt

charles-f-gerhardt

Così si cominciò a parlare di un dato composto a seconda che si comportasse (cioè funzionasse) come un acido o un alcool, ecc. Una volta accertato dai chimici che questo comportamento comune a una classe era associato alla presenza di caratteristici gruppi atomici all’interno delle molecole appartenenti a quella classe, fu quasi naturale fare riferimento a questi raggruppamenti comuni come gruppi funzionali.

Il terzo di questi adattamenti è il termine “sostituente”, che cominciò ad apparire nella letteratura della chimica organica nel tardo 19° secolo. Derivato dalla parola latina substituere, che significa “sostituire”, è stato utilizzato per descrivere un atomo o gruppo di atomi che vengono introdotti in un idrocarburo genitore tramite la sostituzione di uno o più dei suoi atomi di idrogeno terminali.

Il termine non fu però utilizzato da W. Körner[5] nel suo famoso testo sulla struttura e sugli isomeri dei derivati del benzene e da A. Brown[6] e J. Gibson nel loro ormai classico articolo del 1892 sui sostituenti orto-para e meta direttori nel benzene [3]. Il primo preferì utilizzare il termine “gruppo” [Gruppe], e i secondi il termine “radicale”. Tuttavia, in un articolo di R. Meldola[7] e F. Streatfeild, si può leggere la frase influenza degli orto-sostituenti [4].

Il terzo adattamento è il termine “substrato”, dal latino substratum, che significa fondamenta. Questo termine è stato introdotto nella letteratura biochimica in connessione con lo studio di enzimi nel primo decennio del 20° secolo. La storia dell’enzimologia non riporta chi furono i primi a usarlo o quando iniziò ad essere usato [5, 6]. Tuttavia, nella sua monografia sugli enzimi, M. Dixon[8] osserva che:

La sostanza su cui agisce un enzima, e che viene attivata dall’enzima è denominata “substrato” dell’enzima. Questo termine, originariamente introdotto da lavoratori tedeschi [German workers, nell’originale], è stato in uso comune per più di cinquanta anni ed è da preferire alla parola più generale “reagente” quando sono interessate reazioni enzimatiche.[7]

fig-3-malcom-dixonQuesta congettura storica è confermate dai commenti di W. Bayliss[9] nella sua monografia del 1908 sugli enzimi dalla quale si deduce che il termine era, a quei tempi, di recente uso e ancora provvisorio [8]:

Si rende frequentemente necessario un nome per le sostanze sulle quali gli enzimi esercitano la loro attività … Nel complesso, “substrato”, in uso da molti ricercatori, sembra rispondere al meglio a questo scopo.

fig-4-william_bayliss

W. Bayliss

La generalizzazione di questo termine da “substrato enzimatico” a “substrato di reazione” sembra essere dovuta a C. K. Ingold[10]. Avendo egli già adottato il termine reagente nell’interpretazione dei meccanismi delle reazioni organiche nel suo fondamentale lavoro del 1934 [9], senza problema utilizza il termine substrato nelle sue famose lezioni Baker del 1953 per descrivere l’oggetto di attacco del reagente [10]:

È, naturalmente, una pura convenzione quale delle due sostanze interagenti va considerata come “reagente” e che “substrato” sia la sostanza su cui agisce il reagente. Tuttavia, per molte reazioni di chimica organica è stata stabilita una convenzione simile.

fig-5-christopher-ingold

C. K. Ingold

Questa convenzione è stata infine ampiamente utilizzata nel classico testo Mechanism and Theory in Organic Chemistry, di T. Lowry e K. Richardson [11].

La IUPAC ha definitivamente ufficializzato i termini substrato, sostituente, gruppo funzionale (insieme a reagente) come facenti parte del lessico chimico nel 1997 [12].

*Questo post è sostanzialmente una traduzione ragionata dell’articolo di W.B. Jensen: Reagent, Functional Group, Substituent, and Substrate, 2012, unpublished (la rubrica “Ask the Historian” del J. Chem. Educ. fu soppressa insieme alle altre in seguito al completo reformat della rivista deciso dall’ACS nel 2011).

[1] T. Bergman, “On the Analysis of Waters”, in Physical and Chemical Essays, Vol. 1, Murray, 1784, nota a p.125.

[2] C. Gerhardt, Précis de chimie organique, Vol 1.,Fortin, Masson et Cie, Paris, 1841, p. 69.

[3] A. C. Brown, J. Gibson, “ A Rule for Determining Whether a Given Benzene Mono-Derivative Shall Give a Meta-Di-Derivative or a Mixture of Ortho- and Para-Di-Derivatives,” Chem. Soc. Trans., 1892, 61, 367-369.

[4] R. Meldola, F. W. Streatfeild, “Mixed Diazoamides Containing an Ortho-Nitro Group,” Proc. Chem. Soc., 1896, 12, 49-51.

[5] M. Dixon, “The History of Enzymes and of Biological Oxidations,” in J. Needham, Ed., The Chemistry of Life: Lectures on the History of Biochemistry, Cambridge University Press, Cambridge, 1970, Chapter 2.

[6] J. S. Fruton, Fermentation: Vital or Chemical Process?, Brill, Leiden, 2006.

[7] M. Dixon, E. C. Webb, Enzymes, Academic Press:New York, NY, 1958, p. 5.

[8] W. M. Bayliss, The Nature of Enzyme Action, Longmans, Green and Co, London, 1908, p. 7.

[9] C. K. Ingold, “Principles of an Electronic Theory of Organic Reactions,” Chem. Rev., 1934, 15, 225-274.

[10] C. K. Ingold, Structure and Mechanisms in Organic Chemistry, Cornell University Press, Ithaca, NY, 1953, p. 206. Le lezioni vennero effettivamente tenute nel 1951.

[11] T. H. Lowry, K. S. Richardson, Mechanism and Theory in Organic Chemistry, Harper & Row, New York, NY, 1976, Chapter 4.

[12] A. D. McNaught, A. Wilkinson, Compendium ofChemical Terminology: IUPAC Recommendations, 2nd ed., Blackwell Science, Malden, MA, 1997.

[1] Se è vero che i termini gruppo funzionale, sostituente e substrato sono principalmente impiegati in chimica organica, a me sembra che reagente sia generalmente utilizzato in tutti i rami della chimica.

[2] Torbern Olaf (Olof) Bergman (1735-1784), chimico e mineralogista svedese, noto per le sue ricerche sull’affinità chimica, ha dato notevoli contributi all’analisi chimica qualitativa e quantitativa, alla chimica dei metalli (nichel e bismuto). Fu il primo a proporre la distinzione fra sostanze inorganiche e organiche.

[3] Il riferimento [1] riporta la data di edizione 1784. In internet ho trovato una edizione datata 1788 https://archive.org/stream/b28774073_0001#page/n6/mode/1up per quanto abbia cercato non ho trovato la nota citata da Jensen. E’ interessante osservare che l’intera opera è composta da tre corposi volumi che descrivono in dettaglio praticamente tutte le conoscenze chimiche di quel tempo, il vol. III tratta anche le origini e la storia della chimica.

[4] Charles Frédéric Gerardt (1816-1856) chimico francese, fu allievo e collaboratore di Justus von Liebig e di Pierre Auguste Dumas e fu tra i riformatori della nomenclatura e delle formule chimiche. Si occupò di acilazioni sintetizzando, fra l’altro, l’acido acetilsalicilico seppure in forma instabile e con impurezze. Notevole la sua opera magna: Traité de Chimie Organique, 4 vol, Paris 1853-56.

[5] Wilhelm (Guglielmo) Körner (1839-1925) chimico tedesco naturalizzato italiano fu collaboratore di Cannizzaro a Palermo occupandosi di composti organici aromatici. Si interessò poi di chmica di piante e vegetali ricoprendo la cattedra di Chimica Organica nella Scuola Superiore di Agricoltura all’Università di Milano.

[6] Alexander Crum Brown (1838-1922) chimico scozzese si occupò prevalentemente di chimica organica teorica, nel 1892 (con J. Gibson) propose una regola (regola di Brown-Gibson) riguardante l’effetto di sostituzione di un gruppo organico in un anello benzenico che contiene già un gruppo. La regola può essere utilizzata per prevedere la posizione in cui il gruppo esistente dirigerà il secondo gruppo.

[7] Raphael Meldola (1849-1915) chimico britannico, si è occupato principalmente di coloranti organici sintetizzandone uno noto come il blu di Meldola. Fu anche entomologo e naturalista. Eletto Fellow of the Royal Society su proposta di Charles Darwin nel 1886.

[8] Malcom Dixon (1899-1985) biochimico britannico, si è occupato di purificazione di enzimi e di cinetica di reazioni catalizzate da enzimi. Collaborò all’assegnazione dello spettro di assorbimento del citocromo c.

[9] Sir William Maddock Bayliss (1860-1924) è stato un famoso fisiologo inglese, nella sua carriera si è occupato anche di meccanismi dell’azione enzimatica.

[10] Sir Christopher Kelk Ingold (1893 – 1970) chimico britannico, famoso per il suo lavoro pionieristico sui meccanismi di reazione e la struttura elettronica dei composti organici, a lui si devono principalmente i concetti di nucleofilo, elettrofilo, effetti induttivi e di risonanza, nonché i descrittori SN1, SN2, E1, e E2. Ingold è considerato come uno dei fondatori della chimica fisica organica. Medaglia Davy 1946, Medaglia Royal Society 1952.