Codici, merci e rifiuti: più ombre che luci. (prima parte)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Benito Leoci, bleoci@economia.unile.it

Premessa

benitoleoci

L’esigenza di distinguere oltre con un nome anche con un codice o una matricola, prodotti, merci e persino persone, è molto antica, in quanto collegata alla necessità di individuare con precisione, rapidamente e senza possibilità di errori, gli stessi oggetti o persone. Esigenza accresciuta in questi ultimi decenni con la proliferazione di composti e merci di ogni genere. L’attribuzione di un codice ad una molecola, ad un’arma portatile o ad un volume risolve problemi diversi. Nel primo caso si vuole risalire alla formula e alle proprietà chimico-fisiche della molecola, nel secondo si vuole individuare il proprietario o possessore dell’arma, nel terzo caso si vuole facilitare la ricerca del volume (1) in una biblioteca o si vogliono soddisfare altre esigenze (per compilare cataloghi, per motivi contabili, ecc.). L’ultimo settore interessato da un sistema di codificazione è quello dei rifiuti. Nel mentre però negli altri casi è stato relativamente semplice contraddistinguere con un nome o un numero o una sigla l’oggetto o la persona da identificare (si pensi ai mezzi di trasporto, alle abitazioni, al libri, alle partite IVA, ecc.), in altri settori l’impresa si è rilevata più difficile del previsto. Si pensi ai composti chimici e ai loro derivati e ai rifiuti. Esaminiamo più da vicino proprio questi ultimi due settori, in particolare quello dei rifiuti per valutare l’efficacia dei sistemi proposti.

Composti e prodotti chimici

Il bisogno di individuare con precisione le caratteristiche chimico-fisiche degli elementi e dei loro composti con l’uso di simboli e nomi, nasce nel corso del 17° Secolo (2), quando inizia la trasformazione dell’alchimia in chimica. Fino a tutto il 18° Secolo è tutto un fiorire di simboli e nomi suggeriti da coloro che si occupavano di composti, elementi, reazioni chimiche, studio delle loro proprietà, ecc.

Periodic_table.svg

D’altra parte i tentativi di Dobereiner, Newlands, Meyer e quelli più fortunati di Mendeleev (3), non nascono forse dalla necessità di ordinare, numerandoli, gli elementi chimici in modo da poter dedurre, senza errori, con una sola occhiata le caratteristiche e le proprietà connesse? Con l’attribuzione di un codice si vuole in definitiva raggiungere lo stesso scopo.

Per i composti chimici, il lavoro per individuare un sistema utile per attribuire loro un nome univoco e chiaro, è stato lungo e si deve giungere al 1919, quando nasce lo IUPAC (4) con il compito di individuare un metodo valido, riconosciuto universalmente, per attribuire un nome e una formula ad ogni molecola. Nel corso di tutto il 19° secolo, con l’aumento quasi esponenziale del numero di molecole che vengono sintetizzate o scoperte (se esistenti in natura), cresce il bisogno di approntare un sistema per individuarle, classificarle e descriverle. Evidentemente i più interessati sono gli editori del Chemisches Zentralblatt, poi di quelli del Berichte e infine del Chemical Abstracts e di altre serie di minore importanza. Questi si erano posti il compito di raggruppare in appositi volumi, da pubblicare periodicamente, i riassunti di articoli, riguardanti in qualche modo la chimica, che apparivano sulle riviste scientifiche europee e statunitensi; dopo la II Guerra Mondiale anche le riviste scientifiche dell’Oriente (Giappone, Corea, Cina). Andiamo per ordine.

ChemischesZentralblattIl Chemisches Zentralblatt nasce nel 1830 a Lipsia, su iniziativa di un certo Leopold Voss, editore e Gustav T. Fechner, filosofo-fisico, sotto il nome di Pharmaceutisches Zentralblatt. L’idea è quella di pubblicare i riassunti di articoli riguardanti prodotti farmaceutici che apparivano sulle riviste tedesche e straniere. Nel 1864 gli editori approntano un indice sistematico che può essere considerato come il primo sistema di classificazione e in un ceto senso di codificazione dei composti. Nel 1884 con l’introduzione delle formule di struttura dei composti si ha una svolta importante nella storia del Zentralblatt.

Per quanto attiene i composti organici, il primo tentativo a livello internazionale, di approntare un sistema per denominarli viene attribuito a Kekulè, che nel 1860 organizza il primo di una serie di incontri o conferenze (5). Si discute di sistemi per denominare composti chimici anche alla Conferenza di Ginevra del 1892 (Geneva Nomenclature).

Per quanto riguarda il Berichte, il primo volume appare il 1868 col titolo Berichte der deutschen chemischen Geselschaft. In Francia il 1863 nasce il Bullettin de la Societè Chimique de France. In Gran Bretagna il Journal of the Chemical Society vede la luce il 1862.

In USA parte nel 1895 la Review of American Chemical Research, su iniziativa di Arthur A. Noyes (6), che dopo due anni diventa un supplemento del Journal of the American Chemical Society (JACS). Nel 1902 diventa editore del JACS William A. Noyes, cugino di Arthur, che era convinto dell’opportunità di realizzare una rivista contenente i riassunti degli articoli riguardanti argomenti di chimica, pubblicati in altre riviste specializzate negli USA e in altri paesi. Nel giro di 4 anni convince della bontà della sua idea gli editori dell’ACS ed inizia nel 1907 l’attività. I riassunti o recensioni preparati da corrispondenti volontari, vengono riuniti periodicamente in volumi, denominati Chemical Abstracts, e inviati agli abbonati e agli iscritti all’American Chemical Society.

Queste iniziative, naturalmente, accrescono la necessità di approntare un sistema di codici, per individuare i composti chimici, dalle molecole più semplici a quelle più complesse.

Nel 1911 si riunisce a Parigi l’International Association of Chemical Societies (IACS), con lo scopo di stabilire, fra l’altro, la nomenclatura dei composti chimici organici ed inorganici, gli standard dei pesi atomici e delle costanti fisiche e altre caratteristiche.

Nello stesso periodo, praticamente dal 1897 al 1938, il Chemisches Zentralblatt conosce il massimo successo. Dopo la II Guerra mondiale inizia un lento declino aggravato anche dalla divisione della Germania nelle due repubbliche. Il 31 dicembre del 1969 cessano le pubblicazioni con l’uscita dalla produzione dell’Akademie Verlag della Repubblica Democratica che negli anni precedenti, con alterne vicende, aveva collaborato attivamente con la Verlag Chemie della Repubblica Federale (riuniti dal 1949 nella Gesellschaft Deutscher Chemiker). La Verlag Chemie confluisce nella American Chemical Society (ACS) per collaborare alla pubblicazione dei Chemical Abstract. Nei 140 anni di attività la Chemisches Zentralblatt (7) pubblica 140 volumi formati da 700 mila pagine, contenenti 3 milioni di riassunti e 200 mila pagine di indici. Ogni composto viene riportato col suo nome (o i vari nomi), con la sua formula, con il riassunto delle principali proprietà e indicizzato con un codice di individuazione.

th_Chem_Ber

Il Berichte, altra iniziativa germanica di grande successo, nel 1919 viene scisso in due serie (A: Vereins-Nachrichten e B: Abhabdlungen), per assumere dal 1947 (dopo un anno di interruzione a causa di problemi post bellici) fino al 1996 il nome di Chemische Berichte. Nel 1997 viene assorbito dal Dutch Journal Recueil des Travaux Chimiques des Pays-Bas, per formare la Chemische Berichte/Recueil e la Liebig Annalen/Recueil. L’anno successivo entrambe vengono fuse con altre riviste europee per formare rispettivamente l’European Journal of Inorganic Chemistry e l’European Journal of Organic Chemistry.

Per tutto il XX secolo a fronte delle alterne vicende delle riviste su accennate si contrappone l’inarrestabile ascesa del Chemical Abstracts che nel corso della prima metà del secolo conquista l’assoluto dominio del settore in tutto il mondo. Gran parte del successo viene attribuito ad un certo E. J. Crane che come editore, dal 1915 al 1956, si occupa dello sviluppo della rivista creando un rete mondiale di corrispondenti.

Crane nel 1956 diventa primo direttore del Chemical Abstracts Service (CAS) con la trasformazione dell’organizzazione in una divisione operativa dell’ACS. Nel 1965 viene introdotto il CAS Chemical Registry System. Il conseguente uso del CAS Registry System, per identificare le sostanze, scongiura l’uso di termini spesso ambigui che si stava diffondendo. I chimici potevano contare su una informazione precisa, utile sia per la ricerca che per evitare pericoli per la salute e l’ambiente. Nel 1968 inizia l’uso dei nastri magnetici per registrare i dati e le informazioni disponibili. Nel 1980 viene adottato il “CAS on line” per mettere a disposizione dei ricercatori il CAS Registry database. Nel 1983 l’ACS e la FIZ (8) sottoscrivono un accordo per approntare STN (9), che diventa operativo l’anno successivo. Nel 1995 viene introdotto lo SciFinder uno strumento che rende possibile l’accesso diretto ai CAS database.

Lo sviluppo e i successi dell’ACS sono inarrestabili. Per dare un’idea delle sue dimensioni e del lavoro di informazione svolto nel corso del 20° secolo, in pratica fino al 1994, basta ricordare che esso si è avvalso di circa 160 mila collaboratori o meglio recensori volontari (10), distribuiti in tutto il mondo, mentre presso la sede in USA (Columbus, Ohio) sono occupati quasi 2000 persone. Fra i suoi editori e autori si annoverano ben 200 premi Nobel. Pubblica 39 riviste scientifiche. Fino al 2010 ha raccolto e riportato più di 27 milioni di estratti di articoli scientifici. Alla fine del 2009 il CAS ha annunciato di aver registrato nel CAS Registry la 50 milionesima molecola, una nuova “arilmetilidene eterociclica” avente proprietà analgesiche (11).

Merci e codici

Nel corso del 20° secolo un gran numero di nuove molecole, fra quelle scoperte e sintetizzate, viene utilizzato per produrre merci di ogni genere (prodotti farmaceutici, vernici, pesticidi, erbicidi, tessuti, oli lubrificanti, ecc.) che vengono immesse sui mercati spesso senza un’adeguata precedente sperimentazione, circa la loro innocuità per la salute umana e l’ambiente. Alcuni di questi provocano disastri (12), altri ancora si rivelano pericolosi a lungo termine per l’ambiente e la salute (13). Sorge ancora una volta la necessità di dover individuare rapidamente e con precisione le caratteristiche di queste nuove merci, onde poter predisporre con cura le modalità del loro trasporto, della loro gestione, gli interventi da adottare in caso di incidenti. Appare evidente che l’unica via percorribile è quella di contrassegnare ogni singolo prodotto con un codice da utilizzare in caso di necessità per collegare lo stesso ad una scheda contenente tutte le informazioni necessarie (modalità di stivaggio, trasporto, tipi di interventi in caso di incidenti, ecc.). Tale esigenza è fortemente sentita per prima nel settore dei trasporti marittimi ove a partire dagli anni ’50 si era verificata una serie di disastri provocati da alcune merci durante la navigazione (14). Un apposito organismo dell’ONU si pone al lavoro e in breve appronta un volume a schede mobili, noto come Blue Book, riportanti le modalità di movimentazione e stivaggio delle merci da trasportare. Modalità che tutti i comandanti di navi mercantili devono osservare, pena la perdita della copertura assicurativa prestata dal “P&I Club” di Londra o da altre assicuratrici. Seguono volumi analoghi per il trasporto via ferrovie, via terra e via aerea (15).

bluebookecr

Per quanto poi attiene la gestione in generale dei prodotti chimici, con lo scopo di ridurre i pericoli per l’ambiente e la salute umana, in questi ultimi anni vengono emanate numerose disposizioni sia a livello ONU che UE, riguardanti le modalità di registrazione, classificazione ed etichettatura degli stessi. Poiché dette norme non sempre sono coerenti fra di loro, si sente la necessità di intervenire ancora con lo scopo di armonizzare e aggiornare le stesse (16). In sede ONU sotto la spinta delle decisioni approvate in occasione della conferenza delle NU, su Ambiente e Sviluppo tenuta a Rio de Janeiro il 1992, viene elaborato il sistema GHS (17) per la gestione di tali sostanze. In Europa nasce il regolamento 1907/2006 (REACH – Registration, Evaluation and Authorization of Chemicals), poi completato con il regolamento n. 1272/2008, (CLP – Classificazione, Labelling, Packaging), in vigore dal 20 gennaio 2009 (GUUE L 353/2008). I regolamenti REACH e CLP, affiancati, costituiscono ora il quadro normativo di riferimento per tutti gli aspetti concernenti le sostanze chimiche, sia tal quali, che contenute all’interno di miscele o merci. In essi grande attenzione viene posta all’identificazione delle sostanze, con il ricorso a vari tipi di codici (Numero di presentazione, Numero indice, Numero CE – EINECS e ELINCS, CAS e altri). Altri codici vengono usati per indicare l’etichettatura, le categorie di pericolo, le avvertenze, ecc.

Tutte le merci, dunque, prima o poi diventano rifiuti. E rifiuti si producono anche durante i processi produttivi. Nasce di conseguenza la necessità di intervenire anche sui rifiuti per attribuire loro precise denominazioni e codici inequivocabili onde seguire le varie fasi della loro gestione, sempre con lo scopo di scongiurare danni all’ambiente e alla salute delle persone.

 (segue)

 

Riferimenti

1. L’ISBN (International Standard Book Number), come è noto, è un codice formato, dal 1 gennaio 2007, da 13 cifre (prima era di 10 cifre) suddivise in 5 parti da trattini di divisione, che identifica a livello internazionale un titolo di un determinato editore. Da un ISBN si può generare un codice a barre da utilizzare per la lettura ottica. Per i periodici si usa l’ISSN (International Standard Serial Number) per identificare la testata. Per le opere musicali nella loro interezza si usa l’ISWC (alle parti si attribuiscono altri codici. Per esempio agli spartiti l’ISMN, a una registrazione video un ISAN, ecc.). Per le registrazioni sonore si usa l’ISRC. Per identificare i prodotti digitali come i file di testo, di immagini, musicali ed audiovisivi si utilizza il DOI (Digital Object Identifier), mentre le risorse su internet si identificano con l’URN (Uniform Resource Names).

2. Convenzionalmente il passaggio viene fatto coincidere con la pubblicazione, nel 1661, del famoso libro di Boyle (1627-1691), The Sceptical Chymist, considerato come l’atto di morte dell’alchimia. A chi vuole saperne di più e in fretta sull’alchimia si consiglia il bellissimo libro di Holmyard E. J., Storia dell’alchimia, Biblioteca Sansoni, Firenze, 1959.

3. Mendeleev D. I. (1834-1907) pubblica la sua prima tavola periodica nel 1869, affermando che “le proprietà degli elementi variano con cadenza periodica all’aumentare della massa atomica”. Su questo scienziato, sulla sua attività scientifica e sulle sue vicende personali, sono state scritte migliaia di pagine. In Russia è considerato un eroe nazionale. Nella metropolitana di Mosca vi è una stazione a lui intitolata facilmente individuabile oltre che dal nome anche dai lampadari a forma di molecole.

4. L’International Union of Pure and Applied Chemistry nasce il 1919 ad opera di un gruppo di chimici provenienti da diverse industrie e università che avevano notato la necessità di adottare a livello internazionale, metodi standard per pesare, misurare, denominare i composti chimici già noti e quelli che si andavano sintetizzando. A questa associazione scientifica, internazionale e non governativa, aderiscono 45 organizzazioni di nazioni diverse oltre ad altre 20 collegate in varie maniere alle prime. Collaborano oltre 1000 chimici di tutto il mondo, suddivisi in 8 divisioni a loro volta formati da vari comitati. Nel tempo i settori di interesse dello IUPAC si sono ampliati fino a comprendere lo studio degli impatti socio-politici della chimica (disponibilità di materie prime, la chimica degli alimenti e le problematiche ambientali). Attualmente lo IUPAC cura anche la pubblicazione di una serie di libri nota come “Nomenclature books series” o “Color books” (Compendium of Chemical Terminology – Gold Book, Nomenclature of Inorganic Chemistry – Red Book, ecc.).

5. Il primo Congresso internazionale dei chimici, organizzato nel 1860 a Karlsruhe da Kekulé e Wurtz aveva come scopo quello di definire alcunenozioni chimiche importanti – come quelle che sono espresse dalle parole – atomo, molecola, equivalente, atomo-basico. Esame della questione degli equivalenti e delle formule chimiche. Stabilimento d’una notazione o nomenclatura uniforme”.

6. Noyes A. A. era un professore di Chimica-fisica al MIT (Massachusetts Institute of Tecnology – USA) e la Review era all’inizio un supplemento del Technology Quarterly del MIT.

7. Per maggiori notizie si rimanda a Willstätter R. (1929), “Zue under des Chemischen Zentralblattes”, Angev. Chem., 42: 1049; Weisker C. (1973), “Das Chemische Zentralblatt – ein Nachruf”, Chemische Berichte, 106.

8. Uno dei principali enti internazionali per la fornitura di informazioni scientifiche e servizi (nel settore dei brevetti, della ricerca, dell’innovazione, ecc).

9. Un network on line internazionale che fornisce database e l’accesso alle pubblicazioni scientifiche, alla letteratura ufficiale, ai brevetti, informazioni sulle strutture, sequenze e proprietà dei prodotti e altri dati.

10. Il ricorso alle collaborazioni volontarie cessa nel 1994 sostituito da redattori professionisti stipendiati.

11. Per maggiori notizie rimandiamo a Leoci B. e Ruberti M., La nomenclatura e la codificazione degli elementi, dei composti, delle merci e dei rifiuti: luci e ombre, in Atti del convegno “I sistemi di gestione ambientale per lo sviluppo eco-sostenibile del territorio”, Università di Sassari, Alghero-Isola dell’Asinara, 24 – 25 giugno 2010.

12. Sono ben noti i disastri provocati dalla talidomite, dal borotalco all’esaclorofene, dal metilmercurio, dalla diossina e da tanti altri composti imprudentemente immessi nei prodotti commerciali o nell’ambiente.

13. Fra i tanti basti ricordare il DDT, i PCB, l’amianto, che pure si erano dimostrati molto utili per diversi usi.

14. Si veda Ruberti M. e Leoci B. (2009), Una merce pericolosa da trasportare: l’ipoclorito di calcio, in Atti del XXIV Congresso Nazionale delle Scienze Merceologiche, Torino/Alba 23 – 25 giugno 2009.

15. Ruberti M. e Mappa G. (2009), I principali riferimenti normativi internazionali per il trasporto delle merci pericolose, in Atti del XXIV Congresso Nazionale delle Scienze Merceologiche, Torino/Alba 23 – 25 giugno 2009.

16. Massari S. e Ruberti M. (2009), L’armonizzazione internazionale della registrazione, classificazione ed etichettatura dei prodotti chimici. Conseguenze per l’Italia, in Atti del XXIV Congresso Nazionale delle Scienze Merceologiche, Torino/Alba 23 – 25 giugno 2009.

17. ONU, Globally Harmonized System of Classification and Labelling of Chemicals, New York and Geneva, 2003, ST/SG/AC.10/30. Aggiornato al 2007.

 

Quanto è chimico il potenziale chimico? (IV)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.


(la 1 parte di questo post la trovate su https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

(la 2 su https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/)

(la 3 su http://wp.me/p2TDDv-Et)


a cura di Claudio Della Volpe

Il problema da affrontare, in questa breve serie di post, è quello di presentare il concetto di potenziale chimico, che è uno dei più complessi e sfuggenti di tutta la termodinamica, e per questo sgradito agli studenti e, diciamolo, anche ai docenti.

Ma anche introdurre il concetto usando meno matematica possibile e consentendo l’uso di esso a partire dalla scuola superiore o dai primi anni di università, anche quando lo studente non ha familiarità con le derivate e gli integrali. A questo scopo ho cercato di introdurre le idee di base con esempi semplici ma anche da un punto di vista diverso dal solito. (si vedano a tale scopo i primi tre post di questa serie citati all’inizio). Proseguo in questo tentativo usando ancora una volta una strada “diversa” dal solito.

La valvola termoionica è una applicazione ormai desueta e usata solo negli apparati audio Hi-Fi di grande qualità, grazie al contributo “ammorbidente” che il comportamento conferisce al suono digitale, a volte più aspro, più “duro” della realtà orchestrale.

fig1pot4

Fig 1 Diodo.Il tubo termoionico è costruttivamente simile alla lampadina del tipo a incandescenza, un involucro di vetro nel quale è praticato il vuoto contenente un filamento metallico portato all’incandescenza

fig2pot4

Fig. 2 Triodo. Il flusso della corrente elettrica sempre dal catodo all’ l’anodo è controllato dai dettagli del campo elettrico nella valvola.

Ma in realtà questa invezione, per la cui teoria fu conferito il premio Nobel per la Fisica a Owen William Richardson nel 1928, si presta bene a illustrare il potenziale chimico dell’elettrone, che è ancora più sfuggente come concetto del potenziale chimico in se, pur essendo alla base dell’elettrochimica. La valvola termoionica, che è poi un amplificatore, nelle sue varie forme è stata alla base della tecnologia elettronica della prima metà del 900, della radio, della televisione, del radar e anche del primo computer moderno ENIAC, costituito di decine di migliaia di valvole termoioniche.

Come funziona una valvola termoionica o termionica (in inglese il termine più comune è proprio il secondo thermionic)?

fig3pot4

Diodo (a sin) e triodo (a destra).

L’effetto di emissione di cariche elettriche in gas o nel vuoto a causa di un riscaldamento è un fenomeno complesso che fu studiato prima che fosse scoperto l’elettrone (che fu scoperto da Thomson solo nel 1897) ad iniziare da Guthrie, il quale mostrò che una palla di ferro al calor rosso in aria poteva conservare una carica negativa ma non positiva; ma il fenomeno termoionico vero e proprio fu isolato e analizzato più precisamente da Elster e Geitel i quali analizzarono il comportamento dell’emissione di un metallo ad alta temperatura. In particolare essi scoprirono che l’emissione di ioni positivi si verifica a varie temperature nel vuoto chiarendo dunque che si tratta di una proprietà del metallo alla temperatura assegnata. Rilevarono inoltre che tale emissione non è costante, ma tende a diminuire rapidamente, e soprattutto individuarono che ad alta temperatura si verifica l’emissione di ioni negativi, che a differenza dell’altra, mantiene un livello costante, fino alla scarica del metallo. Emerse insomma una generale tendenza ad acquisire una carica positiva a bassa temperatura ed alta pressione ed una negativa ad alta temperatura e bassa pressione .

L’effetto fu studiato anche da Edison il quale stava analizzando il comportamento dei filamenti delle lampade a vuoto.

Thomson mostrò (1899) che la scarica da parte di un filamento di carbone incandescente nel vuoto era trasportata da particelle negative, gli elettroni appunto. Nel 1900 McClelland mostrò che le correnti in uscita da un filo di platino caricato negativamente erano influenzate pochissimo dal contesto a patto che la pressione del gas fosse molto piccola.

Questo fu il punto di partenza del lavoro di Richardson che publicò poi la teoria del fenomeno nel 1901 e possiamo leggerne la storia nella sua presentazione in occasione del Nobel (http://www.nobelprize.org/nobel_prizes/physics/laureates/1928/richardson-lecture.pdf)

E’ interessante seguire le riflessioni di Richardson:

“L’idea di questi fenomeni che in generale avevano a quel tempo le persone che ci avevano lavorato era che le scariche elettriche erano trasportate da ioni ed elettroni che erano generati dall’interazione delle molecole del gas vicine al corpo caldo. Era una questione aperta se questa azione fosse puramente termica, una questione di energia cinetica o se fosse chimica, o se coinvolgesse l’intervento della radiazione…

Io pensavo comunque che fosse molto probabile che I gas interagenti avessero poco a che fare con il fenomeno principale, ma che le particelle negative, gli elettroni e , probabilmente, anche quelle positive venissero dal solido riscaldato….

Decisi che il modo migliore di fare un passo avanti fosse di eliminare le complicazioni dovute alla presenza dei gas e di trovare cosa mai avvenisse quando gli effetti dovuti ai gas fossero esclusi. Questo noon era semplicissimo al principio del secolo come lo è adesso. Principalmente a causa dell’importanza tecnica dei fenomeni che stiamo considerando l’arte di evacuare I gas ha fatto enormi passi avanti a allora. All’epoca I gasdovevano essere evacuati con pompe manuali……Nel 1901 potei mostrare che ciascuna area unitaria della superficie di Platino emetteva un numero limitato di elettroni. Questo numero aumentava molto rapidamente con la temperatura, cosiccchè la corrente massima ad ogni temperatura assoluta T era governata dall’equazione                      fig4pot4  

In questa equazione k è la costante di Boltzmann e A e w** sono costanti specifiche del materiale.

Questa equazione è completamente giustificata dalla semplice ipotesi che gli elettroni che si muovono liberamente nell’interno del conduttore caldo possano sfuggire ad esso quando raggiungono la superficie a patto che la parte della loro energia che dipende dalla componente della velocità perpendicolare alla superficie stessa fosse più grande della funzione di lavoro (work function) w. Nel 1903 ho dimostrato che le medesime conclusioni potevano essere tratte per il sodio e più qualitativamente per il carbonio.”

Notiamo subito che questa equazione è approssimata e vedremo poi perchè, ma la cosa interessante dal punto di vista didattico è che questa equazione è sostanzialmente una equazione di Arrhenius(1889) per questo fenomeno.

Se vi ricordate Arrhenius aveva sviluppato una equazione per la costante di velocità di un reazone chimica del seguente tenore:

                                                        k = A e(-Ea/RT)

dove k è la costante di velocità, A un fattore preesponenziale che può ritenersi il prodotto della frequenza delle collisioni Z e della probabilità che esse avvengano con l’orientamento giusto ρ, mentre l’esponenziale è il solito esponenziale di Boltzmann che dà la probabilità che una molecola o un atomo abbia una energia uguale a quella Ea alla temperatura T. A sua volta questa equazione, che è in gran parte empirica, mostra una enorme similarità con una delle equazioni basilari della termodinamica, ossia l’equazione di Gibbs-Helmholtz che correla la variazione della energia libera rispetto alla temperatura con l’entalpia e la temperatura stessa. Non vorrei qui entrare nel merito ma solo ricordare che tali espressioni, molto simili e solo in parte giustificate teoricamente, condividono una comune concezione che ha le sue basi nella cosiddetta teoria cinetica dei gas, una delle più formidabili teorie della fisica classica.

Se si applica tale teoria con maggiore dettaglio si arriva ad una forma esplicita del fattore preesponenziale del tipo fig5pot4

E quindi ecco che compare la radice quadrata della temperatura assoluta presente nell’espressione proposta da Richardson. Noterete anche subito, se no ve lo faccio notare io, che mentre la equazione di Richardson è scritta in termini di un flusso di materia, della corrente della valvola, la equazione di Arrhenius è scritta in termini leggermente diversi; per avere un flusso vero e proprio occorre moltiplicarla per una concentrazione, quella della specie che andrà incontro al processo reattivo vero e proprio, ma tale termine sarà identico a sinistra e a destra dell’equazione stessa; in questa forma l’analogia sarebbe completa.

E’ comunque chiaro che la corrente e la velocità di reazione, come abbiamo già detto nel primo post appartengono alla stessa classe di grandezze, quella dei flussi termodinamici generalizzati, seguendo la terminologia introdotta da Prigogine.

Nella sua presentazione Nobel, Richardson scrive ancora:

“L’idea centrale, che sta dietro alla teoria riassunta nella equazione (1) è che un gas di elettroni sta evaporando dalla sorgente calda. Se questa idea è corretta, la corrente termoionica dovrebbe essere in grado di fluire anche vincendo una piccola forza elettromotrice in opposizione perchè possiede l’energia cinetica necessaria a causa del moto vorticoso del gas di elettroni causato dal calore, il calore, il moto casuale e termico degli elettroni li spinge anche contro una piccola forza elettromotrice. A questo punto possiamo trovare molte più cose che un gas di elettroni può fare rispetto ad un gas ordinario. Dato che gli elettroni sono elettricamente carichi il loro moto può essere influenzato da un campo esterno.

Misurando la corrente elettronica che fluisce contro vari campi in diretta opposizione è possibile accertare la proporzione di elettroni emessi che hanno una componente di velocità perpendicolare allla superficie emittente in un qualunque intervallo assegnato. Facendo osservazioni sugli elettroni emessi lateralmente usando piccoli campi elettrici è possibile dedurre informazioni simili sulle componenti parallele alla superficie. Da esperimenti di questo tipo fatti nel 1908-1909, in parte con l’aiuto di F.C. Brown potei dimostrare che la distribuzione di velocità degli elettroni emessi era identica a quella di un gas con lo stesso peso molecolare degli elettroni alla temperatura del metallo. Questa eguaglianza era valida per ciascuna delle componenti di velocità. Oltre al suo interesse riguardo agli elettroni medesimi questa fu la prima dimostrazione sperimentale della legge di Maxwell per un qualunque gas, sebbene tale legge fosse stata enunciata da Maxwell nel 1859.”

fig6pot4Distribuzioni della velocità per un gas di ossigeno alle temperature di -100, 20 e 600 °C.

In definitiva un metallo a qualunque temperatura sotto vuoto è circondato da un tenue gas di elettroni che aumenta con l’aumentare della temperatura; gli elettroni sfuggono alla lora base di solido cristallino tanto più quanto più è alta la temperatura e la loro tendenza a sfuggire, in altri termini il loro potenziale chimico, è capace di vincere perfino un sia pur debole campo elettrico. Possiamo immaginare questo gas di elettroni come una sorta di vapore in equilibrio col suo liquido. Questo risultato e questa rappresentazione degli elettroni come particelle dotate anch’esse di potenziale chimico, di tendenza a sfuggire in analogia all’equilibrio liquido–vapore è un concetto che domina tutta l’elettrochimica classica e ci aiuta a spiegare anche il fenomeno di Volta e il funzionamento delle tradizionali celle fotovoltaiche.

Ogni metallo avrà un reticolo cristallino ed una porzione di elettroni che vi si muovono liberamente (gli elettroni di conduzione); il loro numero ed il campo elettrico che si stabilisce fra essi e i nuclei ad ogni temperatura decide della loro tendenza sfuggire fissando il parametro w, il lavoro elettrico necessario a superare la barriera di attrazione; queste condizioni saranno diverse per ogni metallo; se nel vuoto metto a contatto due di essi (come fece Volta, fissando l’esperimento che alla base di tutta l’elettrochimica moderna) gli elettroni del metallo con il maggiore potenziale chimico si sposterano verso l’altro metallo in un eccesso che determinerà l’esistenza di una piccola dfferenza di potenziale; una volta stabilita questa differenza di potenziale e quando essa bilancerà la differenza di potenziale chimico, il fenomeno giungerà ad un equilibrio: si otterrà una stabile differenza di potenziale a spese della differenza di potenziale chimico. Come abbiamo scritto nel primo post:

                                     μ + V zF = 0       μ =- V zF

Una situazione del genere si verificherà anche al contatto fra conduttori non metallici; per esempio nel caso del silicio gli elettroni disponibili a muoversi possono essere modificati in numero introducendo un certo numero di “difetti” nel reticolo, atomi di specie diversa con un diverso numero di elettroni disponibili; tale azione, definita di drogaggio, modifica il potenziale chimico dell’elettrone nel materiale (con grande approssimazione potremmo dire il numero e la concentrazione degli elettroni liberi di muoversi, non direttamente impegnati nel legame “forte”); mettendo a contatto due strati di silicio con elettroni a diverso potenziale chimico si stabilirà fra di essi la medesima situazione notata da Volta e questa differenza di potenziale, questa barriera di potenziale sarà molto utile nel funzionamento delle celle FV perchè impedirà agli elettroni successivamente liberati dai legami per effetto della luce (effetto fotovoltaico) di raggiungere zone a minore potenziale elettrico SENZA passare per il nostro circuito esterno che li aspetta al varco per usarne l’energia libera in eccesso.

fig7pot4

Tutte le celle FV moderne (a parte quelle di Graetzel) sfruttano questo fenomeno per obbligare le cariche liberate dalla luce a seguire la strada esterna e non quella interna per minimizzare la loro energia libera e quindi a lavorare per noi, producendo un lavoro elettrico.

Una ultima osservazione: la equazione (1) in realtà è inesatta; ce lo racconta sempre Richardson:

Nel 1911 come risultato del superamento di alcune difficoltà in connessione con la teoria termodinamica dell’emissione elettronica arrivai alla conclusione che

   fig8pot4      fosse una forma teoricamente preferibile dell’equazione per la temperatura di emissione rispetto ad (1) usando ovviamente diversi valori delle costanti.

E’ imposssibile distinguere fra queste due equazioni con l’esperimento. L’effetto dei termini T2 e T(1/2)è così piccolo in paragone al fattore esponenziale che un piccolo cambiamento in A e w lo maschera competamente. In fatti, su mio suggerimento K.K. Smith nel 1915 misurò l’emissione dal tungsteno su un così grande intervallo di temperatura che la corrente cambiava di un fattore di quasi 1012, e ancora il risultato sembrava essere ben rappresentato da entrambe le equazioni (1) e (2). E’ certamente molto soddisfacente sapere che entrambe le formule vanno bene. Non ci sono molte leggi fisiche che siano state testate su un intervallo così ampio di variazione. Il grande vantaggio dell’eq.(2) è che essa rende A una costante universale obbligando così ad usare una sola costante specifica, ossia w.

**w è la cosiddetta ” work function” per differenti elementi dovrebbe essere del medesimo ordine di grandezza di 1⁄2 (e2/d) dove e è la carica elettronica e d il raggio dell’atomo

http://www.nobelprize.org/nobel_prizes/physics/laureates/1928/richardson-lecture.pdf

per una descrizione più moderna si veda: Thermionic Emission. By WAYNE B.NOTTINGHAM . dspace-test.mit.edu/handle/1721.1/4762‎

Comprendere la Terra

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

Recensione a “Terra. Storia di un’idea” di Marco Ciardi (Laterza, 2013 – pp. 139, Euro 12,00)

 copj170

Se c’è un personaggio che può occupare un posto d’onore nella celebrazione della Giornata della Terra, questi è senz’altro il grande naturalista ed esploratore Alexander von Humboldt (1769-1859). Ho avuto occasione, alcuni anni fa, di scrivere per “La Chimica e l’Industria” qualcosa in merito a una sua lettera autografa conservata fra i cimeli del nostro Dipartimento. Seppure interessante come documento storico, quella non è una lettera importante, sicuramente è assai meno preziosa di quella spedita da Berlino il 24 ottobre 1834 e destinata all’amico Karl August Varnhagen von Ense (1785-1858). Con essa, Alexandre von Humboldt lo mise al corrente dell’ intenzione di pubblicare il Cosmos, ossia la sua opera più importante e monumentale destinata a contenere in forma organica la maggior parte del sapere scientifico dell’epoca. A dire il vero esitava sul titolo, consapevole che suonasse “pretenzioso e un po’ ricercato”, adatto tuttavia a sintetizzare il concetto di cielo e terra. Il fratello Wilhelm (1767-1835), filosofo e letterato, che purtroppo morì l’anno dopo, era d’accordo su quel titolo. Alexandre si lasciò andare a qualche altra confidenza e, quasi per prevenire qualche critica, enumerò anche alcuni difetti del suo stile concludendo però che aveva cercato di “descrivere e ritrarre la realtà nel modo più scientifico possibile, senza mai smarrirmi nelle aride regioni del sapere astratto”. Aggiungeva che “un libro sulla natura deve suscitare la stessa emozione che suscita la natura stessa”. Nelle prime pagine dell’opera, von Humboldt riportava le sue “riflessioni sui differenti gradi di piacere offerti dal quadro della natura e dallo studio delle sue leggi”. Scriveva ad esempio: “colui che, attraverso i secoli passati, è in grado di risalire la corrente del nostro sapere fino alla sua fonte primigenia , imparerà dalla storia come per migliaia d’anni l’uomo abbia faticosamente cercato di riconoscere, in mezzo al continuo mutare delle forme l’invariabilità delle leggi naturali e sia riuscito, con la forza dell’intelletto, a ridurre a poco a poco in suo potere buona parte del mondo fisico”. Il volumetto di Marco Ciardi, professore associato di Storia della Scienza e delle Tecniche all’Università di Bologna, risale proprio la corrente del nostro sapere sulla Terra, anzi della stessa “idea” di Terra. Cerca di mostrare come sia cambiata l’idea di Terra dal Seicento ai giorni nostri grazie alla scienza, ponendosi nel contempo una domanda che può lasciare perplesso qualcuno. L’autore si chiede: “siamo certi che la consapevolezza di questo cambiamento sia oggi diffusa e generalizzata?”. Il libro riproduce in copertina la celeberrima foto scattata il 7 dicembre 1972 in occasione dell’ultima missione Apollo che portò gli uomini sulla Luna. Nella foto si vede la cosiddetta Blue Marble ovvero “La Biglia Blu” che è la nostra unica casa. A dire il vero, qualche volta la nostra Terra ci fa paura. Oggi facciamo festa per lei ma circa due anni fa (maggio 2012), quando le nostre case ondeggiavano paurosamente e per alcune notti si dormiva vestiti, non credo che in tanti pensassero a Lei come un luogo molto ospitale e sicuro. Ma dobbiamo convincerci che questo è sbagliato, che Lei è un organismo vivo, da conoscere tramite i mezzi della scienza, anche per difenderci quando si agita e limitare i danni. Il libro di Ciardi serve anche a prendere un po’ più di confidenza con “La Biglia Blu” e a capire che le risorse per la nostra sussistenza sono limitate (cap. 8) e vanno usate con giudizio. Dice Ciardi: “Cerchiamo di ricordarci bene le proporzioni del calendario geologico” e aggiunge: “Rispetto alla Terra, paragonata sulla scala di un anno, ogni nostra esistenza non è molto più lunga di uno schiocco di dita. Utilizziamo questo tempo con raziocinio”. Se fossimo consapevoli della nostra piccolezza saremmo, forse, meno impauriti e quindi più sereni.

Giornata della Terra 2014

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

campanella.pm.240.shOggi si sta verificando come la crescente produzione di anidride carbonica, un inevitabile prodotto delle reazioni di combustione, stia portando alla formazione nell’atmosfera di una sorta di pellicola che, impedendo la irradiazione nello spazio del calore della terra, porta ad un aumento della temperatura media del nostro pianeta confinato ad una sorta di “serra per piante”.
La concentrazione nell’atmosfera è già aumentata di circa il 13% dall’inizio della Rivoluzione Industriale, e tale ritmo dovrebbe essere mantenuto per i prossimi 50 anni. Quali saranno gli impatti sulla vita della variazione media di temperatura prevedibile, sulla base di dati termometrici? Come sarà modificata la produzione agricola? Come la stabilità delle cappe polari?
L’esempio dal quale sono voluto partire è esemplificativo della esigenza di prevedere e programmare in anticipo gli interventi in difesa della salvaguardia ambientale.
Come sarà difficile intervenire quando l’effetto serra si sarà concretizzato, mentre assai più semplice sarebbe sviluppare politiche produttive ed energetiche che tengano conto dei rischi insiti in tale problematica, così è per esempio inaccettabile non tenere conto, con la proposizione di alternative, della distruzione che lo strato di ozono protettivo (per animali e piante) del nostro pianeta nei confronti dei raggi del sole sta subendo da parte dei propellenti gassosi a base di composti organici fluorurati o dei danni che derivano dal crescente impiego dei pesticidi il cui uso in agricoltura, salutato come un miracoloso toccasana, è stato obbligatoriamente riconsiderato alla luce della progressiva resistenza acquisita dei parassiti e dei danni ambientali ed alimentari che da esso derivano.
In futuro il controllo di questi problemi dovrà volgersi a tecnologie ecologicamente più accettabili, innanzitutto impiegando insetticidi minerali e poi basandosi su controlli biologici, da un lato con l’introduzione di nemici delle pesti delle colture e con il rilascio di insetti maschio sterili per ridurre la riproduzione, dall’altro con rotazione delle colture che riducono le perdite dovute all’azione delle pesti che sopravvivono nel suolo durante la stagione invernale.
Ed analogamente i progetti di irrigazione quando terranno conto del rischio di fenomeni di sedimentazione e di problemi di salinità dovuti all’effetto solvente dell’acqua sui sali del terreno?
Eppure trascurare questi effetti è come autoridursi le risorse idriche.
Parecchie sostanze chimiche della moderna generazione, come il cloruro di vinile ed il dietilstilbestrolo (DES) sono certamente responsabili del propagarsi di alcune forme tumorali; tuttavia ogni anno nei soli Stati Uniti vengono prodotti 1000 nuovi composti chimici senza che alcuna normativa obblighi a test tossicologici a lungo termine. Eppure in questo senso parecchi passi in avanti sono stati compiuti; la chimica ha messo a punto metodologie di controllo e di verifica delle proprietà dei composti che potrebbero essere applicate in sostituzione dei test su animali:ancora oggi però questi sono riconosciuti prioritari,anche dalla normativa REACH,che pure rappresenta un motivo di speranza ed un’opportunità.
E d’altra parte con il potenziamento delle tecnologie “soft” (biotecnologie, processi “puliti”, enzimatici, elettrochimici, funzionalizzati) molti tradizionali processi di sintesi ed industriali potrebbero essere sostituiti evitando questo pericoloso moltiplicarsi di prodotti, secondari di molte reazioni.
Molte volte esigenze politiche, sociali e di mercato vengono invocate contro il rinnovo delle tecnologie, ma se si pensa che i paesi in via di sviluppo pagano da 20 a 40 bilioni di dollari l’anno per importare le tecnologie “dure” è proprio certo che l’integrale nel caso di un nuovo “trend” sia negativo?

La trasformazione della società obbliga la chimica ad adeguarsi alle nuove richieste: da quelle di prima necessità a optional e specialità. In questi adeguamenti si sono presentate alla chimica sempre nuove sfide a in cui, proprio per contrastare l’impronta del peccato originale che la chimica pesante ha imposto purtroppo per lunghi decenni, il chimico ha cercato di innestare un comportamento sul quale i principi etici fossero ben presenti, e così nel tempo ha affrontato difficili situazioni che hanno richiesto l’assunzione di responsabilità, di codici di condotta, in definitiva di etica. Ripercorrendo gli ultimi 30 anni della storia della chimica sono molte le domande che più spesso il chimico si è dovuto imporre per salvaguardare l’etica della sua professione. Il brevetto è una forma di proprietà intellettuale, è un motore dell’economia; è giusto che lo sia anche quando conoscere il prodotto significa salvare vite innocenti?
Quando si costruisce una molecola per un fine programmato giusto fa parte dell’etica scientifica prevedere i possibili altri usi della molecola inventata? È davvero accettabile che la sperimentazione animale sia assunta a metodo di riferimento per la valutazione di tossicità ed ecotossicità? La battaglia contro gli OGM su una base più culturale e politica che scientifica, è accettabile  dinanzi allo spettro della fame nel mondo o non è più giusto battersi per una loro presenza controllata mettendo a comune metodi di valutazione? I risultati delle ricerche vengono sempre espresse in maniera responsabile e corretta o essi vengono influenzati dalla volontà di perseguire successi e di condizionare l’assegnazione di futuri finanziamenti? Siamo capaci come cittadini, ricercatori, chimici di sacrificare, sia pure in parte, le nostre libertà individuali in favore degli interessi più ampi della comunità sociale?
Domande a cui non è facile dare risposte certe, ma noi chimici sappiamo che solo rispondendo con la nostra coscienza di lavoratori e di scienziati riusciremo a rinsaldare quel legame con la società civile dal quale dipende il nostro futuro ed il successo nel nostro impegno sociale

Chimica in punta di pennello

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

Recensione al libro di Adriano Zecchina “Alchimie nell’arte. La chimica e l’evoluzione della pittura”, Zanichelli, 2012 (pp. 240, Euro 13,30)

La primavera è la stagione più favorevole per la visita alle mostre e alle città d’arte, non solo per la dolcezza del clima ma anche per le numerose festività che regalano a tutti qualche giorno di vacanza. Le occasioni non mancano e lungo tutta la penisola si può affinare il gusto del bello grazie a un patrimonio d’arte che non ha eguali al mondo. Anche quest’anno c’è solo l’imbarazzo della scelta e basta sfogliare i principali quotidiani per rendersene conto. Le locandine delle varie manifestazioni che dovrebbero attirare gli incerti gareggiano nella bellezza dei colori e nella raffinatezza delle immagini. Tra le tante, si può trovare quella della mostra “Matisse la figura”, visibile al Palazzo dei Diamanti di Ferrara fino al 15 giugno. L’immagine che hanno scelto è quella della “Giovane donna in bianco, sfondo rosso” (1946), adatta al sottotitolo della mostra che giustamente promette “La forza della linea, l’emozione del colore.”

5800Guardando il quadro si rimane colpiti dalla prepotenza del rosso, il colore che domina la scena benché faccia solo da contorno all’abito bianco della modella . È un’emozione visiva e rimarrebbe soltanto tale se qualcuno non ci aiutasse a capire Matisse e il suo tempo. Se poi lo facesse in maniera semplice e diretta, valorizzando non solo i pregi estetici dell’opera ma gli strumenti tecnici (come i colori) che hanno permesso all’artista di esprimere la propria creatività, tanto di guadagnato per noi.

ZecchinaCover_AlchArteUn aiuto del genere lo offre un agile volumetto scritto da un chimico ben noto anche in ambito SCI.

Zecchina-CROPPED_tcm18-181255Si tratta di Adriano Zecchina, già professore di Chimica Fisica all’Università di Torino, ricercatore di fama internazionale e accademico dei Lincei. Il suo è un libro utile a tutti e davvero piacevole da leggere, soprattutto per i chimici che vi troveranno, se così si può dire, i “riflessi” artistici delle loro conquiste di laboratorio. Ebbene, proprio a proposito di Henri Matisse (1869-1954), Zecchina ci spiega che l’uso, a volte quasi totalizzante, che fece dei nuovi pigmenti inorganici segnò l’allontanamento dai giochi di luce dell’Impressionismo. I colori di Matisse sono spesso “colori saturi senza sfumature, posati su un disegno che si distacca via via dalla realtà”. Zecchina ci parla anche da chimico di questi colori e così impariamo che nel quadro “La stanza rossa” (1908)

Henri-Matisse-Stanza-rossa-33458domina il solfoseleniuro di cadmio e, per allietare i nostri occhi, ecco la riproduzione nella pagina a fronte, insieme a “La danza” (1909) dove dominano il blu, il verde e l’arancio.

        ladanzaQuesto è soltanto una delle tappe del viaggio nel tempo che l’Autore compie seguendo l’evoluzione della pittura. E’ un viaggio dal Paleolitico all’arte contemporanea attraverso i colori che i pittori hanno avuto a disposizione nelle varie epoche. Leggendo il libro s’imparano tante cose, incluso il segreto del cosiddetto “blu Maya”, il pigmento derivato dall’indaco la cui stabilità è stata spiegata in tempi recenti proprio grazie alla chimica. Un’altra tappa tocca il periodo di eccezionale splendore vissuto dalla pittura tra Quattrocento e Settecento a Venezia e nelle città limitrofe. Il segreto di artisti come Tiziano, Giorgione, Tiepolo, Veronese e Tintoretto è legato non solo all’ispirazione ma anche alla tecnica e alla disponibilità di pigmenti coloranti nella Repubblica di Venezia. Venivano dall’Oriente e dai luoghi con cui la Serenissima intratteneva stretti rapporti commerciali. I pittori ne approfittavano per dare libero sfogo alla loro creatività e, se così si può dire, non badavano a spese. Ad esempio, c’è un’opera famosa di Tiziano Vecellio (1480/1485 – 1576) in cui sono presenti quasi tutti i pigmenti conosciuti all’epoca. Si tratta del quadro “Bacco ed Arianna” (1520-1523), ora alla National Gallery di Londra.

380px-Titian_-_Bacchus_and_Ariadne_-_Google_Art_Project

Come scrive Zecchina: “rappresenta quasi un catalogo dei pigmenti conosciuti fino al Cinquecento”. Ne enumera sedici, comprendenti tra l’altro tre “blu” (azzurrite, lapislazzuli, smaltino) e tre “rossi” (cinabro, lacca di robbia e ematite). Viene quasi automatico il parallelo con la tavola periodica di Mendeleev, un “catalogo” degli elementi che al pari dei colori per il pittore e delle note per il musicista, costituisce lo strumento della creatività per il chimico. Zecchina è riuscito nell’intento di scrivere un’opera il cui valore divulgativo è già stato riconosciuto da coloro che l’hanno inserita nella cinquina dei finalisti del Premio Galileo 2014. Forse l’ha favorito non solo la confidenza con la Tavola di Mendeleev ma anche quella con la tavolozza. Da tempo infatti coltiva la passione per la pittura e proprio l’anno scorso una retrospettiva dei suoi quadri a Torino è stata accolta con molto favore. Non ci rimane che fare il tifo per lui, sia come chimici che come appassionati d’arte, in vista dell’attribuzione del Premio Galileo che avverrà a Padova il 9 Maggio. Forza Adriano!

vedi anche: http://www.scienzainrete.it/contenuto/articolo/marco-taddia/tavola-e-tavolozza-intervista-chimico-pittore/aprile-2014

Il caso Terni

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

intervista ad Andrea Liberati di Italia Nostra, con un breve commento finale di Luigi Campanella, ex Presidente SCI

Come molti di voi lettori anche noi della redazione apprendiamo spesso le notizie dell’inquinamento del bel paese dai giornali, ma altre volte sono le organizzazioni culturali di “volontari” sociali come Italia Nostra od altre analoghe che si fanno carico di denunciare i problemi. A Terni, una cittadina di quella ridente Umbria che fino a qualche tempo fa conoscevamo solo come “cuore verde” del nostro paese, Italia Nostra (IN) ha denunciato con forza la situazione di inquinamento causata dalla esistenza di una grande acciaieria che coesiste con la città da molti decenni. Ci siamo quindi rivolti ad Andrea Liberati che ci racconta il punto di vista di IN.

Andrea-Liberati-242x180Andrea Liberati, Italia Nostra, Terni

Caro professore mi sento di dire questo:

DA DOVE SIAMO PARTITI: I SUOLI
A fine dicembre 2013, dopo aver ottenuto da Arpa Umbria alcune carte relative alla concentrazione dei metalli pesanti nei suoli, documenti grezzi, senza indicazione dei livelli massimi, suggeriti o di legge, dopo averle analizzate assieme al Wwf, abbiamo ritenuto di denunciare pubblicamente, anche in sede giudiziaria, una situazione a nostro avviso di assoluta emergenza: come forse ha letto, il livello di nichel nei suoli di uno dei quartieri contigui alle Acciaierie cittadine, Prisciano, è risultato mensilmente anche superiore di ben 23 volte rispetto al limite della normativa tedesca, mediamente comunque sforata di 10 volte, normativa considerata benchmark pure in Italia, nell’attesa che da noi si legiferi puntualmente al riguardo.
Questa storia, a nostro avviso, non può essere irrilevante in termini di rischio sanitario: nel gennaio 2014 abbiamo chiesto al sindaco di avviare la perimetrazione della zona di pericolo, con particolare riferimento a coltivazioni e allevamenti. Al momento, 20 marzo, nessuna risposta.

1.METALLI nelle deposizioni 2011-2013

IL CONFRONTO
Abbiamo poi comparato la situazione locale con quella di Aosta, dove insiste la Cogne Acciai Speciali, verificando che, nel nostro stesso quartiere di Prisciano, si registrano anche concentrazioni medie annuali di cromo nei suoli pari a quelle che ad Aosta si verificano solo sul tetto delle locali acciaierie.
E’ stato questo l’unico confronto a noi possibile: infatti possiamo
attestare in modo incontrovertibile che in Italia, non esiste un modello standard di analisi delle emissioni siderurgiche o, ancor peggio, la raccolta dati può risultare fortemente carente. Differentemente, ad Aosta si è fatto un lavoro meritorio, con la disposizione tutt’attorno l’azienda di deposimetri e numerose centraline provviste di caratterizzazione dei metalli.

terni

LE CENTRALINE
A Terni, invece, su questo genere di controlli siamo indietro. E’ vero che le centraline c’erano in numero adeguato, ma erano utili per il controllo del solo PM 10 e l’unico apparecchio che ci ha fornito notizie sui metalli nell’aria si trova a km 3 circa dai forni fusori, qui comunque si registra da tempo un preoccupante dato annuale di nichel attorno al valore limite di soglia superiore.
Questa centralina poi si troverebbe, secondo Arpa, in quel che è stato definito quale punto di massima ricaduta, conformemente a proiezioni matematico-digitali.
Pur non essendo tecnici, abbiamo contestato tali calcoli, chiedendo ufficialmente di collocare invece punti di prelievo aria-suolo nelle zone più densamente abitate e vicine agli impianti, centro città incluso, con centraline nuove e capaci di caratterizzare i metalli.
Tali dispositivi si stanno disponendo in parte adesso, ma l’importantissima centralina peraltro vecchia e misurante il solo PM10- che insisteva nel citato quartiere di Prisciano, contiguo all’azienda, è spenta da ormai 15 mesi, stavolta non a causa di Arpa: conformemente alle prescrizioni dell’AIA rilasciata alle Acciaierie nel 2010, sono loro a dover provvedere alla sostituzione.
Ora ci sarebbe un braccio di ferro con Arpa proprio su tali ritardi. Non è escluso che entro breve ci rivolgeremo anche qui alla Magistratura, poiché le Acciaierie intenderebbero prendersi -sembra- altri tre mesi per installare un impianto che, con ogni probabilità, ci dirà verità pesantissime anche in merito al tasso di nichel nell’aria.

CONTROLLI SULLE INDUSTRIE SIDERURGICHE ITALIANE: VERSO UNO STANDARD COMUNE?
Noi stiamo muovendoci soltanto sulla base di pochi dati, per quanto rilevanti e comunque ufficiali.
Forse non è un caso che proprio a Terni, alla fine di febbraio 2014, si siano riunite tutte le Arpa d’Italia, decidendo ˆsembra- uno standard comune nelle verifiche degli impianti siderurgici, oltre quelle imposte dalla legge sui camini, a nostro parere del tutto minimali, considerando che, ad esempio, moltissimo resta fare nello studio delle emissioni diffuse e non captate, largamente presenti anche in loco.
Su questo specifico tema, quanto eseguito dall‚Arpa della Vallée aiuta a capire meglio l’argomento e la sua complessità.

LE DISCARICHE DI SCORIE, LA NUOVA GALLERIA DEI VELENI‚ E IL S.I.N.

A questi problemi se ne aggiungono altri: due discariche di scorie
siderurgiche vecchie di decenni che, scarsamente impermeabilizzate e per lo più a cielo aperto, col loro percolato stanno visibilmente distruggendo la galleria stradale sottostante, impermeabilizzata anch’essa forse non proprio ad opera d’arte, costruita assurdamente proprio lì sotto appena cinque anni or sono, ma nel concorso unanime di tutti gli attori: Comune, Provincia, Regione, Stato, Soprintendenze, Autorità di Bacino, istituzioni varie, come abbiamo dimostrato trovando i relativi documenti e conferenze di servizi.
Trattandosi però di zona SIN è stata altresì accertata la mancanza del placet da parte dell‚ex Ufficio Qualità della vita del Ministero dell’Ambiente, competente per le attività in zona SIN: il risultato?
Oggi, a fronte del caos totale che sta montando e delle conferenze di servizi straordinarie convocate in questi giorni con tutti gli interessati presso il Ministero suddetto, alla luce dell‚emergere di almeno una vittima sul lavoro che quello stesso tunnel ha disseminato per via della contaminazione da cromo esavalente, questo tracciato è divenuto figlio di N.N., con un assurdo scaricabarile istituzionale.
In questo inestricabile groviglio, è comunque emerso che le acciaierie, pur in ritardo nei processi di recupero della scoria, loro prescritti dall’AIA entro fine 2012 e non attuati se non quali studi sperimentali, stanno portando avanti la tesi di un‚ulteriore espansione delle suddette discariche, una delle quali andrebbe così a interferire con un sito di pregio, vocato alla World Heritage List Unesco, l’area della Cascata delle Marmore, realizzate dai romani nel 220 a. C.
Il Ministero dell‚Ambiente non sembra favorevole a tale allargamento, mentre gli Enti Locali si sono espressi favorevolmente al riguardo sin dal 2005, confermando tale orientamento nell’AIA 2010, pur in assenza di uno studio idrogeologico.
Quelli recentemente effettuati da autorità locali e dalla stessa Acciaieria sono stati considerati lacunosi finora dal Ministero dell’Ambiente. Esami che comunque hanno appurato la pesante contaminazione delle falde superficiali e profonde -almeno- della zona delle discariche, con contrasti tra azienda e istituzioni sulle effettive cause e responsabilità di ognuno.
La situazione è oggettivamente molto grave e abbiamo pertanto richiesto formalmente di poter partecipare alle prossime Conferenze di servizi che si terranno al Ministero dell’Ambiente relativamente al SIN e alle discariche. Si tenga poi presente che questi dati li abbiamo ottenuti soltanto grazie alla nostra abnegazione; nonostante l’estrema delicatezza della situazione, la trasparenza è talora ancora un miraggio e la gente non sa alcunché.

SENTIERI

Domanda: Come mai secondo lei il documento Sentieri, che è stato un progetto nazionale sugli effetti dell’inquinamento sulla salute pur evidenziando  per Terni Papigno “un eccesso della mortalità per tutte le cause e per tutti i tumori rispetto all’atteso; tra le donne si è osservato un eccesso di mortalità per tutti i tumori e per le patologie dell’apparato digerente
alla fine per il sito Terni Papigno poi consiglia un’approfondimento solo per gli addetti all’impianto?

Risposta:

Quanto a Sentieri‚ non è vero affatto che, almeno per Terni, tale
progetto dice che va tutto bene.  E’ vero il contrario, tanto che, quando venne pubblicato, si registrarono polemiche a non finire, facilmente rinvenibili on line (ternioggi.it). La inviterei pertanto a rileggere quel documento, perché anzitempo segnalava delle criticità che non abbiamo voluto o potuto vedere. E che ora, e sempre più pesantemente, scontiamo.

Ovviamente, qualora avesse suggerimenti specie su nichel e cromo, non esiti a fornirceli.
La ringrazio.
Un saluto cordiale

******************************************************************************* da Luigi Campanella, ex presidente SCI

Caro Claudio,
in merito alla questione acciaierie di Terni ti riporto le mie osservazioni:

1.
La contaminaziona dei suoli da parte dei metalli pesanti è evidente dai dati dell’ARPA UMBRIA. Qualche perplessità la destano la variabilità dei dati e la mancanza apparente di correlazioni significative. Inoltre la concentrazione dei metalli pesanti nei suoli richiederebbe opportunatamente anche una valutazione delle relative speciazioni. Ad esempio nel caso del cromo, poi citato come responsabile della morte di una persona, è ben drammaticamente nota la differenza fra cromo (III) e cromo (IV).Con riferimento al nichel poi l’incertezza dei risultati ne preclude la significatività rispetto ai 3 valori di 10,14 e 20 microgrammi/metro cubo che sanciscono i limiti inferiore,superiore e di allarme

2.
Le emissioni siderurgiche generalmente coinvolgono aree molto estese rispetto al sito di emissione. I modelli  matematici di valutazioni di tale estensione risultano spesso non completamente attendibili in quanto troppo soggetti a fattori climatici imprevisti In ogni caso è opportuno disporre sistemi deposimetrici fino ad almeno 3-5 km di distanza della sorgente. Tali sistemi non dovrebbero limitarsi alla valutazione gravimetrica del particolato atmosferico in quanto il pericolo da questo rispetto ai danni all’ambiente ed alla salute non è correlabile solo alla quantità, ma piuttosto alla qualità. Questo è però un discorso critico che l’Europa non vuole capire e non ha ancora affrontato in quanto i limiti fissati fanno esclusivamente riferimento alla quantità del PM senza alcun riferimento alla composizione. Sarebbe anche opportuno rilevare la curva di distribuzione del PM in quanto i PM 1 e 2,5 sono certamente più pericolosi del PM10 ancorché quantitativamente compresi in questo.

3.
Per quanto riguarda i percolamenti fermo restando che la costruzione di gallerie e di insediamenti sotterranei andrebbe rigorosamente collegata a quanti insiste su di essi, in particolare eventuali siti di smaltimento, il monitoraggio è indispensabile in quanto da un lato segnala la presenza di sostanze pericolose nel terreno sovrastante e dall’altro allerta rispetto a una condizione ambientale in questi insediamenti che può portare a dei pericoli per l’ambiente sottostante ed i cittadini.

4.
C’è sempre da tenere presente che il monitoraggio è di tipo differenziale: fornisce cioè dati relativi a singoli metalli,senza considerare gli effetti integrali che derivano dalla contemporanea presenza di più elementi pericolosi. Da qui la necessità – ed anche questo è un discorso generale – di indicatori integrali di tossicità che purtroppo non vengono considerati, eppure sarebbero disponibili: vengono infatti utilizzati in altri settori (medicina del lavoro, qualità alimentare).

Ancora sull’agricoltura

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Carlo Gessa

(Nota: le lettere maiuscole inserite nel testo richiamano alle risposte di Claudio Della Volpe che sono presenti nel primo degli interventi di commento)

Permettetemi un’ ultima replica alle osservazioni del prof. Claudio Della Volpe.

 Nella mia precedente nota avevo parlato di una un’agricoltura razionalmente condotta e di una agricoltura “di rapina”. Così scrivendo, intendevo chiaramente segnalare che anche l’attività agricola può costituire un grosso pericolo per l’ambiente. Questa distinzione non si coglie nell’articolo del prof. Claudio Della Volpe, per lui la crisi del pianeta avrebbe avuto inizio con “ l’uomo agricoltore.” (A)

La nostra diversa concezione sull’argomento si ripropone, anche se in termini meno conflittuali, sui pericoli ambientali che possono derivare dall’uso delle acque di irrigazione.

In un mio contributo “La chimica e l’agricoltura per il rispetto dell’ambiente” riportato su “La Chimica e l’Industria, n° 3, 2001”, ricordo ciò che avvenne nella regione della Mesopotamia per effetto di un impiego continuo di acque ricche di sali e avverto: “Al giorno d’oggi, nonostante una puntuale conoscenza dei meccanismi di salinizzazione e di sodicazione dei suoli, circa 70 milioni di ettari di terreno vengono annualmente sottratti all’agricoltura a causa di un uso irrazionale dell’acqua. Il fenomeno interessa anche il nostro Paese e in particolare il sud della penisola dove la scarsità delle precipitazioni sta imponendo un eccessivo sfruttamento dei pozzi con conseguente infiltrazione dell’acqua di mare e peggioramento della qualità delle acque di falda. In uno scenario di questo tipo le scelte da fare sono molto difficili e dolorose, ma la prospettiva di lungo termine potrebbe essere la desertificazione del territorio.”

Ciò detto, è opportuno fare qualche precisazione: le acque da destinare ad uso irriguo devono avere certe caratteristiche. La qualità delle acque di irrigazione è un argomento trattato nei corsi universitari di “Chimica del Suolo” sul quale il docente spende da 3 a 4 ore di lezione (impiega lo stesso numero di ore per trattare “weathering delle rocce e pedogenesi”). Una agricoltura che fa tesoro di queste informazioni NON RAPPRESENTA un pericolo per l’ambiente. Il pericolo non è legato “all’agricoltura intensiva” bensì alla qualità delle acque utilizzate per irrigare i campi.

Cosa si deve fare, mi chiedo, per quelle popolazioni che vivono in territori con scarse disponibilità idriche, aventi in parte una alta concentrazione salina e principalmente di Sali sodici? Ancora, Si deve proibire l’uso di “acque Fossili?” La risposta, come può intuirsi, prescinde dall’aspetto puramente tecnico-scientifico. (B)

 Il prof CDV dice di essere un estimatore di Liebig. CDV sostiene che la crisi del pianeta si è aggravata con l’uso dei fertilizzanti inorganici, ma i fertilizzanti inorganici sono il frutto più importante del lavoro di Liebig, quello a cui deve la sua fama. Liebig nel suo FONDAMENTALE lavoro recita:

“Gli alimenti di tutte le piante sono sostanze inorganiche e minerali. La pianta vive di acido carbonico, ammoniaca, acqua, acido fosforico, silice, calce, magnesio, potassio e ferro, ve ne sono di quelle che reclamano sal marino; fra tutti gli elementi della terra che prendono parte alla vita della piante esiste una solidità tale che se in tutta la catena delle cause che determinano la trasformazione della sostanza organica venisse a mancare un solo anello, la pianta e l’animale non potrebbero esistere.

Il prof, CDV scrive : “lei mette in bocca a Liebig posizioni che sono state di fatto quelle dell’industria chimica e SOLO DOPO LA SECONDA GUERRA MONDIALE.” Il prof. CDV non insegna “Fertilità del suolo e Nutrizione delle piante” ed è quindi giustificato se ignora che Camillo Benso conte di Cavour( 1850 ) fu uno dei primi imprenditori a fare abbondante uso dei fertilizzanti inorganici, secondo gli insegnamenti di Liebig.

La frase di Liebig, citata da CDV, vuol riconoscere semplicemente l’importanza della sostanza organica per la fertilità del suolo, riconoscimento già riportato nei trattati di agricoltura della scuola georgica (Marco Terenzio Varrone, Lucio Giunio Columella sono autori ben noti a questo proposito) e oggigiorno ancora molto valido. La rivista (Agricultural Chemistry) , citando Liebig, vuole enfatizzare una pratica agronomica conosciuta da tempi antichi. La conoscenza di Liebig sulla sostanza organica era praticamente la stessa di quella di Virgilio, solo che Lui aveva intuito che anche dalla ossidazione della S.O. si liberano gli elementi nutritivi INORGANICI di cui la pianta si nutre. Il prof. CDV ammette con apprezzabile sincerità di essere ideologicamente condizionato, ma se si parla di “nutrizione delle piante” mi permetto di suggerirgli di stare ad ascoltare. (C)

 Ritorno, solo brevemente, al “ periodo di Augusto”: l’agricoltura aveva risanato molte aree paludose e insalubri della penisola. Con l’abbandono della campagna, avvenuto con l’invasione dei barbari, la foresta prendeva il sopravvento sui campi coltivati e il territorio ritornava rapidamente allo stato selvatico, ad essere cioè paludoso e insalubre. I romani rispettavano le foreste, ma il controllo e la cura del territorio lo avevano affidato all’agricoltura perché avevano capito che solo in quel modo potevano salvaguardare e migliorare l’ambiente.(D)

Il prof. CDV trova qualcosa da dire sulla frase: “Oggigiorno è in atto una velenosa campagna di demonizzazione della chimica; una sua errata applicazione potrebbe, è vero, avere disastrosi effetti, ma noi tutti siamo convinti che le scoperte registrate in questi ultimi secoli abbiano reso un eccellente servizio a tutta l’umanità e devono essere utilizzate e “manipolate con estrema cura.”

Non credo che sia una frase “ iperottimistica” poiché:

a)       raccomanda,….“le scoperte……..devono essere utilizzate e manipolate con cura;

b)riconosce,….. “noi tutti siamo convinti che le scoperte registrate in questi ultimi secoli abbiano reso un eccellente servizio a tutta l’umanità”. Spero che ne sia convinto anche CDV, pensi semplicemente ai farmaci e alla salute di uomini e animali. (E)

Mi dispiace che il prof CDV abbia segnato con la matita rossa le parole “potrebbe, è vero, avere effetti disastrosi”; speravo capisse che, tra le virgole, gli sussurravo una verità condivisa e pertanto da considerare “fuori testo”.

Non credo sia il caso di continuare a polemizzare su “termostato planetario e stufa vecchia”; lascio giudicare i lettori del blog ai quali pongo il seguente quesito: Possiamo considerare il Quaternario, con i suoi periodi glaciali e antiglaciali, un’era climaticamente poco variabile? (F)

Acetone e altre storie.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

 a cura di Gianfranco Scorrano, ex- Presidente della SCI

Se si clicca su internet “acetone” nella prima pagina si ritrova Wikipedia, e la Treccani, utili enciclopedie, e poi 4 riferimenti all’acetone nei bambini (chiamato anche chetosi: è un disordine metabolico, che si verifica quando l’organismo, dopo aver bruciato le riserve di zuccheri, comincia a bruciare anche i grassi; durante questo processo, vengono prodotte delle sostanze, chiamate corpi chetonici, che si depositano nel sangue e nelle urine ed una di queste è appunto l’acetone) e un riferimento all’uso dell’acetone per togliere lo smalto dalle unghie ( l’acetone è adoperato per rimuovere lo smalto dalle unghie con l’aiuto di un po’ di cotone idrofilo).

120px-Acetone_modello

Naturalmente se si va un po’ avanti si trovano riferimenti più “chimici” e ritroviamo le equazioni a noi più familiari. La sintesi si conduce attraverso l’idroperossido di cumene

120px-CumeneIl cumene (2-fenil-propano, preparato da benzene e propene con catalizzatori di Friedel-Crafts) è un idrocarburo che reagisce rapidamente con l’ossigeno ossidandosi ad idroperossido di cumene. Questo tipo di ossidazione è resa facile dal fatto che l’intermedio radicalico principale è un radicale cumile non solo terziario ma anche stabilizzato dall’anello aromatico, quindi molto stabile. L’idroperossido può quindi venir trattato con acido solforico per dare fenolo e acetone.

aceto13

Questo metodo è quello largamente usato per la preparazione dell’acetone, anche se in realtà è l’altro prodotto, il fenolo che interessa principalmente, dato il suo largo uso nella sintesi d vari derivati. Il mercato dell’acetone è piuttosto scarso: la produzione in Italia è essenzialmente quella dovuta alla Versalis, azienda dell’ENI, che nel suo centro di Mantova ha una potenzialità produttiva di ca. 185.000 tonnellate/anno. Il prezzo commerciale dell’acetone si aggira all’intorno di € 1100-1200 per tonnellata (quotazioni ICIS pricing), con ampie possibilità di ribasso. La Aldrich vende 1 litro di acetone 99,8% per HPLC a € 39,7.

versalis

Ma come veniva preparato nel passato l’acetone, e per quali usi? L’articolo pubblicato da Lloyd C.

Cooley su Industrial and Engineering Chemistry, 29,1399 (1937) esamina con cura e competenza questi problemi. Innanzi tutto l’acetone aveva visto un largo uso durante la Prima guerra mondiale per la preparazione della cordite: era questa la versione inglese della dinamite. Sir James Dewar e Dr W Kellner, svilupparono e brevettarono nel 1889 un nuovo esplosivo consistente di 58% nitroglicerina (in peso), 37%  nitrocellulosa and 5% vaselina (idrocarburi saturi con più di 25 atomi di carbonio). Usando acetone comesolvente, la miscela veniva estrusa sotto forma di cilindri a forma di spaghetti chiamata “cordite”.

220px-Cordite_sticks

Sticks of cordite from a .303 British rifle cartridge.

Ovviamente Alfred Nobel fece causa reclamando per i suoi precedenti brevetti ma ebbe torto dai tribunali inglesi. Comunque, il consumo di acetone era sostanzioso:la produzione delle 2000 tonnellate di cordite settimanali richiedeva 440 tons di acetone, senza recupero di solvente, che scendevano a 270 tons con recupero. Prima della guerra 15/18 l’unica sorgente commerciale dell’acetone era la decomposizione del calcio acetato ottenuto dalla distillazione del legno. Le necessità, per sciogliere l’acetilene compresso, per la produzione delle pellicole fotografiche, in farmacia come denaturante dell’alcool,etc. Naturalmente le quantità richieste dalle necessità belliche fecero nascere e sviluppare molti altri metodi: per esempio dalle alghe,per distillazione dal legno,dall’aceto, per fermentazione, etc. Tutti questi metodi sono citati e discussi nella suddetta review.

Voglio solo raccontare il metodo dalle alghe: crescevano a circa mezzo miglio dalla costa del Pacifico e potevano produrre per fermentazione, acido acetico, in presenza di sodio carbonato in sospensione: ne risultava calcio acetato che veniva trattato in evaporatori, seccato e decomposto a caldo in apposite storte per acetato. Una colonna di rettifica era sufficiente per recuperare l’acetone formato (con quantità uguale di metil etil chetone). Lo sviluppo di questo processo ha avuto i suoi problemi: primo problema la costruzione di appropriati falci giganti per raccogliere le alghe; la prima fermentazione era fatta in presenza di sodio carbonato, disponibile in California, ed il sodio carbonato decomposto a caldo: gli alti costi di manutenzione di questa parte della attrezzatura fecero cambiare la procedura sostituendo al posto del calcio carbonato soda e installando storte per acetato. La cosa peggiore fu cosa fare con le alghe residue (spente): furono prima depositate su terreni adiacenti, ma si riempirono di una enorme quantità di moscerini. Venne sviluppato un metodo per portare la fermentazione fino alla formazione di una poltiglia quasi liquida, in modo poi di poterla ributtare facilmente nell’oceano. Non mi pare che ci fossero, ai tempi della prima guerra mondiale, enti per la protezione ambientale!

Torniamo comunque ai nostri giorni: che ci si può fare con l’acetone? A parte le minuterie dell’uso per eliminare lo smalto dalle unghie, e come solvente, l’uso più rilevante si ha per la sintesi di polimeri.   In particolare, due molecole di fenolo possono condensare con una di acetone, sotto catalisi acida, per formare il bisfenolo A (la lettera A indica l’acetone):

 aceto10

(Si forma certo anche l’isomero in cui il gruppo C(CH3)2 è legato in orto a uno dei gruppi fenolici)

Il bisfenolo A (BPA) è un importante intermedio per la sintesi di polimeri di grande utilità: può reagire con il fosgene per

aceto11

dare il policarbonato (alternativamente, invece del fosgene si può usare il difenilcarbonato, che produrrà due moli di fenolo, da riciclare). Il policarbonato viene utilizzato per produrre recipienti per uso alimentare come le bottiglie per bibite con il sistema del vuoto a rendere, i biberon, le stoviglie di plastica (piatti e tazze) e i recipienti di plastica. Viene anche utilizzato nelle resine epossidiche usate per produrre pellicole e rivestimenti protettivi per lattine e tini. Il BPA può quindi migrare in piccole quantità nei cibi e nelle bevande conservati in materiali che lo contengono.acetone7

acetone6Residui di BPA sono presenti anche nelle resine epossidiche usate per produrre pellicole e rivestimenti protettivi per lattine e tini. Il BPA può migrare in piccole quantità nei cibi e nelle bevande conservati in materiali che lo contengono.

acetone8Considerando che questi polimeri, e altri, contenenti bisfenolo vengono a contatto con gli alimenti, c’è qualcuno che si preoccupa di controllare che non ci siano trasferimenti di prodotti nocivi?

La risposta è per fortuna positiva : esiste l’Autorità Europea per la Sicurezza Alimentare – EFSA, acronimo di European Food Safety Authority, un’agenzia dell’Unione europea istituita nel gennaio del 2002 che ha sede nella città universitaria di Parma. L’EFSA fornisce consulenza scientifica e una comunicazione efficace in materia di rischi, esistenti ed emergenti, associati alla catena alimentare . Tale lavoro è condotto dal gruppo di esperti scientifici dell’EFSA sui materiali a contatto con gli alimenti, gli enzimi, gli aromatizzanti e i coadiuvanti tecnologici (gruppo CEF).

acetone9

L’uso del bisfenolo A (BPA) nei materiali a contatto con gli alimenti è autorizzato nell’Unione europea ai sensi del regolamento 10/2011/UE, riguardante i materiali e gli oggetti di materia plastica destinati a venire a contatto con i prodotti alimentari. EFSA in merito

L’EFSA ha analizzato le informazioni riguardanti il BPA nel 2006, 2008, 2009, 2010 e 2011: in ciascuna occasione gli esperti EFSA hanno concluso di non poter individuare alcuna nuova prova che li conducesse a rivedere la dose giornaliera tollerabile (DGT o TDI) di 0,05 milligrammi/chilogrammo di peso corporeo/giorno (mg/kg pc/die). La DGT è una stima della quantità di una sostanza, espressa in base al peso corporeo, che può essere ingerita ogni giorno per tutta la vita senza rischi apprezzabili. Allo stesso tempo l’EFSA ha anche valutato l’assunzione di BPA da cibi e bevande per adulti, per neonati e per bambini e ha riscontrato che in ciascuno dei casi essa era ben al di sotto della DGT.

Nel febbraio del 2012, alla luce dell’analisi di nuovi studi scientifici, il gruppo di esperti CEF ha deciso di intraprendere una nuova, completa valutazione dei rischi umani associati all’esposizione al BPA tramite la dieta, considerando anche il contributo di fonti non alimentari all’esposizione complessiva alla sostanza. Il nuovo parere che ne discenderà analizzerà tutti i dati e gli studi scientifici disponibili sull’esposizione tramite la dieta pubblicati successivamente al parere EFSA del 2006. Il gruppo di esperti valuterà inoltre le incertezze legate al possibile interesse per la salute umana di taluni effetti associati al BPA osservati nei roditori a bassi dosaggi. A luglio del 2013 l’EFSA ha indetto una pubblica consultazione sulla prima parte del proprio parere scientifico in bozza, vertente, nello specifico, sulla valutazione dell’esposizione dei consumatori al BPA. Si trattava della prima revisione dell’esposizione al BPA da parte dell’Autorità dal 2006 e la prima che riguardasse fonti alimentari e non  (comprese la carta termica e fonti ambientali come l’aria e la polvere). In via provvisoria gli esperti EFSA hanno concluso che per tutti i gruppi della popolazione è la dieta la fonte maggiore di esposizione al BPA e che l’esposizione è inferiore alla precedente stima effettuata dall’EFSA.  A gennaio del 2014 l’EFSA ha presentato la seconda parte della bozza di parere vertente sui rischi per la salute umana associati al BPA. In contemporanea è stata indetta una pubblica consultazione della durata di otto settimane. Nella bozza di parere l’EFSA ha individuato probabili effetti avversi sul fegato e il rene nonché effetti sulla ghiandola mammaria collegati all’esposizione alla sostanza. Ha raccomandato pertanto che la corrente dose giornaliera tollerabile (DGT) venisse abbassata dal suo attuale livello di 50 µg/kg pc/die (o 0,05 mg/kg/pc/die) a 5 µg/kg pc/die (0,005 mg/kg/pc/die). L’Autorità ha inoltre osservato che permangono incertezze su una serie di altri pericoli per la salute ritenuti meno probabili. Di conseguenza la DGT proposta andrebbe fissata su base provvisoria, in attesa dei risultati della ricerca del National Toxicology Program (NTP) statunitense, che affronterà molte di queste attuali incertezze riguardo ai potenziali effetti del BPA sulla salute. Ad ogni modo l’EFSA ha concluso che il BPA rappresenta un basso rischio per la salute dei consumatori, in quanto l’esposizione alla sostanza chimica è ben al di sotto della DGT provvisoria.

E’ probabile che la forma finale del parere, preparata dopo aver ricevuto i vari commenti, sia approvata nella riunione del CEF di metà aprile 2014. Ovviamente spiegazioni più dettagliate sono nel sito http://www.efsa.europa.eu/.

acetone10

E’ interessante notare che anche un’altra commissione europea, l’European Chemicals Agency (ECHA) basata a Helsinki si interessa del problema. Speriamo che vadano in accordo.

Nel gennaio 2011 la Commissione europea ha adottato la direttiva 2011/8/UE che proibisce l’impiego del BPA per la produzione di biberon per l’infanzia in policarbonato.

Secondo l’annuncio ECHA del 19 marzo 2014, il Comitato per la Valutazione dei Rischi (Committee for Risk Assessment, RAC) ha adottato un parere per rinforzare la classificazione ed etichettatura (CLH) del bisfenolo A dalla categoria 2 alla categoria 1b delle sostanze tossiche per la riproduzione in riguardo agli effetti avversi alle funzioni sessuali e della fertilità, in accordo con la proposta della competente autorità francese.

Altre informazioni sul sito http://echa.europa.eu

Per saperne di più:

Lloyd C. Cooley, Acetone, Industrial and Engineering Chemistry, 29,1399 (1937)

Mel Gorman, History of acetone, 1600-1850, Chymia, 8, 97 (1962)(suggerito da M.Taddia)

Extracted: il pianeta saccheggiato.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di  Luca Pardi**, ricercatore CNR, Presidente di ASPO-Italia

lucapardi

(Recensione di Extracted, How the Quest for Mineral Wealth Is Plundering the Planet
by Ugo Bardi
Foreword by Jorgen Randers
The Past, Present, and Future of Global Mineral Depletion. 33°report del Club di Roma, Chelsea Gree, 368 pg, 25 sterline )

Extracted How the Quest for Mineral Wealth Is Plundering the Planet by Ugo Bardi Foreword by Jorgen Randers – See more at: http://www.chelseagreen.com/bookstore/item/extracted:paperback#sthash.jJW7K8DL.dpuf)Scrivere la recensione di un libro non può ne deve essere un esercizio pubblicitario, anche se spesso lo è, non in campo scientifico almeno. Questa recensione è scritta con la convinzione che la maggior parte delle persone che leggeranno Extracted di Ugo Bardi sarà intellettualmente arricchita dall’esperienza e vedrà il mondo, la storia e soprattutto la società industriale in modo diverso. Il libro è l’ultimo rapporto al Club di Roma, il 33simo. Il primo, Limits to Growth, fu pubblicato nel 1972 e fu probabilmente il primo tentativo veramente raziocinante di leggere la complessa dinamica del metabolismo sociale ed economico umano immerso negli ecosistemi terrestri.

extractedScrivere la recensione di un libro, specialmente in campo scientifico, non può ne deve essere un esercizio pubblicitario, anche se spesso lo è. Questa recensione è scritta con la convinzione che la maggior parte delle persone che leggeranno Extracted di Ugo Bardi sarà intellettualmente arricchita dall’esperienza e vedrà il mondo, la storia e soprattutto la società industriale in modo diverso. Il libro è l’ultimo rapporto al Club di Roma, il 33simo. Il primo, Limits to Growth, fu pubblicato nel 1972 e fu probabilmente il primo tentativo veramente raziocinante di leggere la complessa dinamica del metabolismo sociale ed economico umano immerso negli ecosistemi terrestri.

ugobardiIl sottotitolo di Extracted: “How the Quest for Mineral Wealth is Plundering the Planet” ci introduce all’argomento centrale dell’opera: la storia dello sfruttamento delle risorse minerali presenti nella crosta terrestre. Oltre al testo principale dell’autore, nel volume si possono leggere i contributi brevi (glimpses) su argomenti specifici di 16 esperti. Da Colin Campbell per il petrolio, a Toufic el Asmar per il suolo agricolo, da Dittimar per l’Uranio a Philippe Bihouix per Nickel e Zinco.

Nel primo capitolo intitolato “il Dono di Gaia” (Gaia’s Gift) si riprende un argomento già trattato altrove [1,2]. La dotazione di giacimenti minerali che l’uomo ha iniziato a sfruttare in temi remoti è un prodotto della natura geologica e biologica del pianeta. Quando siamo andati sulla Luna abbiamo trovato un corpo celeste geologicamente morto nel quale le rocce contengono i diversi elementi in concentrazioni corrispondenti o prossime alla media attesa per un corpo solido nel sistema solare. Si tratta di roccia indifferenziata di utilità praticamente nulla.

minieraapertaLa formazione di depositi minerali è termodinamicamente sfavorevole, va contro il secondo principio della termodinamica. Senza un gradiente energetico le diverse specie chimiche tenderebbero a raggiungere lo stato di massima entropia con una completa dispersione nella crosta terrestre in forme che sarebbe difficile da estrarre con profitto. I giacimenti minerali esistono solo perché la terra è “vivente” e può fornire l’energia necessaria per il loro formarsi. Possiamo dire che i minerali concentrati (ores) sono il dono di Gaia. Vi sono due tipi di apporti energetici che determinano questi gradienti: l’energia geotermica e quella del sole, e questi due flussi di energia interagiscono con la biosfera che gioca un ruolo importante nel favorire e/o determinare determinati processi di concentrazione. Il più importante di questi, ovviamente è quello che si è verificato nella formazione dei giacimenti di idrocarburi (petrolio e gas) e carbone. I giacimenti minerali che contengono l’intera gamma di metalli utilizzati nel corso della storia della tecnologia invece, sono spesso il prodotto di fenomeni legati al ciclo dell’acqua. L’acqua supercritica che si forma nelle zone di subduzione delle placche continetali è molto reattiva e discioglie diversi tipi di materiali caricandosi di ioni metallici che vengono spinti verso la superficie creando molti tipi di depositi minerali. Questo tipo di sintesi idrotermale è alla base dell’industria mineraria. Altri fenomeni che si verificano a temperature più basse sono largamente mediati dalla biosfera. Le cosiddette Banded Iron Formations (BIF) costituiscono ancora oggi I principali giacimenti da cui si estrae il ferro. Esse si sono formate per la precipitazione del ferro disciolto negli oceani come Fe(II) durante le “ondate” di ossigenazione atmosferica determinate dai primi organismi fotosintetici più di 2,4 miliardi di anni fa.

La storia dell’industria mineraria è letteralmente la storia di un progressivo saccheggio del pianeta. Ogni essere vivente può essere considerato un minatore dipendendo da un minimo di 16 elementi a cui si aggiungono gli elementi in tracce e micro tracce per raggiungere un numero, diverso a seconda delle fonti, ma comunque di diverse decine di elementi. Gli organismi fotosisntetici raccolgono la maggior parte della massa a loro necessaria dall’atmosfera, ma l’1% del totale lo estraggono dal suolo, cioè dal sottile e complesso strato che ricopre la crosta terrestre. Anche le piante dunque, a modo loro, sono dei minatori. Si stima che essere estraggano globalmente 0,5 miliardi di tonnellate di materiali dal suolo ogni anno, ma, inserite in modo efficiente nell’insieme dei cicli biogeochimici, non rischiano di esaurire le loro “miniere”. I cicli geochimici e quelli biologici si sono sviluppati nei tempi della Storia Naturale. “Ma recentemente qualcosa è cambiato. Ed è successo ad un tasso di sviluppo molto rapido sulla scala dei tempi geologici. Una specie appartenente al mondo animale ha iniziato a fare qualcosa che nessun animale ha mai fatto prima: estrarre minerali direttamente da sottosuolo, senza il bisogno dell’intermediazione delle piante. E’ una specie che scava, trivella, frantuma e trasforma il terreno nelle sostanze minerali di cui ha bisogno. E’ una specie di minatori: gli esseri umani.” [3 pag 30]

naniminatoriLa storia di questo popolo di minatori (tassonomicamente si tratta in effetti del genere Homo) si sviluppa durante i milioni di anni che separano il primo ominide che utilizza la selce o l’ossidiana per costruire strumenti primitivi, a quello che estrae l’Uranio ed altri metalli dalla miniera di Olympic Dam in Australia o il petrolio dai pozzi in Arabia Saudita. Dal Paleolitico all’era industriale la storia del popolo dei minatori è la storia di una continua ricerca di nuove fonti di materiali adatte a sviluppare una straordinaria gamma di strumenti extrasomatici atti, per la maggior parte, a concentrare l’energia e ad utilizzarla in modo efficiente.[4]

I metalli preziosi si trovano come tali e sono i primi metalli ad essere raccolti e utilizzati, segue il rame e le sue leghe con Stagno e Zinco. La scoperta del bronzo, lega di rame e stagno, è anche legata ad una prima manifestazione certa di globalizzazione economica, I principali giacimenti di stagno sono infatti in Cornovaglia che diventa il principale fornitore di Sn per tutta l’area mediterranea. La storia del ferro si intreccia con la Storia delle civilizzazioni. Il ferro non è brillante come oro e argento e, al contrario dei metalli nobili si corrode, ma ha proprietà meccaniche migliori una volta che si sia scoperto come lavorarlo con la forgiatura e, soprattutto, una volta che si sia scoperto le straordinarie proprietà delle sue leghe con il carbonio.

La storia dell’industria mineraria moderna inizia con la scooperta della polvere nera durante il medio-evo. Questo esplosivo da l’accesso a risorse inesplorate e inesplorabili in assenza di esplosivi.All’alba della modernità si scopre il carbone, lascito del Carbonifero, era del Paleozoico iniziata 360 milioni di anni fa, dopo il quale si sviluppa in rapida sequenza, in prospettiva storica questa volta non solo geologica, il sistema industriale che porta allo sfruttamento di giacimenti sempre più difficili da raggiungere e sempre meno concentrati di tutte le materie prime. Nello stesso periodo, mentre il sistema economico cresce sotto la spinta della disponibilità di energia e materiali a buon mercato, iniziano anche i primi allarmi sulla limitatezza delle risorse e la sostenibilità del sistema industriale.

Le società preindustriali basavano il loro metabolismo sociale ed economico su fonti energetiche rinnovabili, essenzialmente la biomassa (cioè la fotosintesi), il vento e il flusso dell’acqua e su un pugno di pochi metalli gia visti: Ferro, rame, zinco, argento, oro, mercuruio, stagno e piombo. La società industriale, grazie al flusso abbondante di energia a buon mercato fornita dai combustibili fossili, comincia a sfruttare un maggior numero di metalli, i cosidetti grandi metalli industriali[1] fino agli anni 60 del secolo scorso, e poi fino ad oggi con una crescente sollecitazione della Tavola Periodica che ha portato oggi all’uso praticamente tutti gli elementi stabili in applicazioni tecnologiche di varia natura e importanza.

mercurio

Ed è proprio nel momento attuale, quello di maggior conoscenza scientifica dei materiali estraibili dalla crosta terrestre, che la stessa conoscenza scientifica ci presenta i limiti a cui inevitabilmente il saccheggio del pianeta ci sta portando, sia sul lato delle sorgenti di materiali che su quella dei pozzi, cioè dei ricettacoli in cui abbiamo liberalmente scaricato i cascami delle nostre attività e i limiti fisico-chimici e biologici degli ecosistemi nel processo di purificazione della biosfera da questi cascami.

carbone

Al termine di una corsa plurisecolare l’umanità si trova a confrontarsi con la scarsità e scopre, come spiega Toufic el Asmar nel suo contributo sul suolo agricolo, di aver basato il suo straordinario successo ecologico, testimoniato da una quasi continua ascesa demografica coronata dall’esplosione post-ottocentesca, sull’uso in parte distruttivo del suolo agricolo, una risorsa che non può essere considerata non rinnovabile, ma che è solo lentamente rinnovabile e che al momento, secondo i dati della FAO, appare in fase di progressivo degrado. In pratica l’ulteriore risorsa minerale che l’uomo ha saccheggiato in modo predatorio è proprio il suolo dal quale trae il proprio cibo.

Come spesso accade nei libri di Ugo Bardi, e come di fatto avviene nella realtà, la storia è intrecciata con la scienza e la tecnica. Il terzo capitolo, l’ultimo della prima parte del libro, si intitola Mineral Empires: mining and wars. Esso ripercorre la storia della civilizzazione seguendo il filo del controllo delle risorse essenziali. Nell’antichità l’oro e i metalli preziosi servono per mantenere eserciti in grado di carpire nuovi territori e nuovi giacimenti degli stessi metalli preziosi. Una corsa che, come nel caso dell’Impero Romano d’Occidente, si infrange con la dura legge dei ritorni marginali decrescenti, quando le nuove conquiste oltre i limes, portano costi ingenti e ritorni minimi in termini materiali. Le ricchezze del Nuovo Mondo, alla fine del medioevo, determinano l’ascesa dei grandi imperi rinascimentali. Il carbone modifica le regole del gioco e l’Impero Britannico impone il proprio dominio su praticamente tutto il mondo. A Waterloo il carbone Inglese batte quello francese. Le guerre del XX secolo sono, in gran parte, guerre per il controllo delle risorse petrolifere.[5,6]

picco

Nel quarto capitolo Bardi affronta il tema del rapporto fra estrazione delle risorse minerali ed energia. Il tema viene affrontato immaginando l’esistenza di una Macchina Minatrice Universale che, essendo alimentata da una ipotetica fonte infinita di energia, può estrarre i materiali di cui abbiamo bisogno dalla roccia indifferenziata. Cioè senza usufrire del cosiddetto “dono di Gaia”: i giacimenti di minerali a concentrazioni superiori, a volte di diversi ordini di grandezza, rispetto alle medie della crosta terrestre. Con tale macchina non ci sarebbe alcun problema di scarsità ed esaurimento delle risorse minerali. Purtroppo tale fonte di energia infinita non esiste e non ci sono aspettative in vista perché possa esistere.

hungrymachine

In pratica i limiti all’estrazione di minerali non sono legati alle quantità assolute di questi materiali presenti nella crosta terrestre, ma limiti energetici. Estrarre minerali richiede tanta più energia quanto più essi sono dispersi. Si stima che le operazioni che ci permettono di ottenere i materiali di origine minerale di cui necessitiamo per le applicazioni tecnologiche, estrazione, arricchimento, fusione e raffinazione consumino oggi circa il 10% del consumo totale di energia primaria. Oggi l’umanità non produce una quantità sufficiente di energia per estrarre minerali da sorgenti diverse da quelle dei giacimenti concentrati convenzionali, e probabilmente non sarà mai in grado di farlo. [3 pag 113]

rameabbondanza

La non comprensione del legame fra energia e attività mineraria, legame che è stabilito dalla natura termodinamica della realtà, è stata, e tutt’ora è, alla base dell’incomprensione del fenomeno dell’esaurimento da parte delle scuole economiche dominanti in campo accademico. La legge di Lasky afferma che la quantità di un minerale aumenta man mano che il sua tenore nella roccia che lo contiene diminuisce. A questa legge corrisponde la conclusione, controintuitiva, secondo cui la quantità esistente di risorse aumenta al diminuire della concentrazione. Se questa affermazione è indiscutibile, discutibile è invece la conclusione secondo cui esistenza come riserca corrisponde a disponibilità. L’ipotesi economica è che la quantità disponibile, cioè estraibile, aumenti al diminuire della concentrazione perché l’industria estrattiva è spinta dal prezzo crescente a sfruttare depositi sempre meno concentrati mentre la tecnologia soccorre nel processo di sfruttamento dei nuovi giacimenti abbassando i costi. E’ ovvio infatti che, come abbiamo visto, ci sia un limite energetico a questo processo, in secondo luogo, anche restando in ambito puramente economico, si dovrebbe ammettere che il mercato delle commodities sia guidato dalla domanda il che, se è stato vero per la gran parte del periodo storico in cui siamo vissuti, non è detto che sia una legge naturale come dimostra la recente dinamica dell’offerta e della domanda di petrolio.[7] La stessa convinzione nella capacità della tecnologia di facilitare il processo di estrazione di risorse energeticamente sempre più “difficili” è una manifestazione di fede più che di raziocinio.

Sulla base della concezione economica delle risorse si è esaminato la possibilità di trarre i materiali dall’acqua dell’oceano o addirittura andando su altri pianeti. Se alcuni minerali sono probabilmente recuperabili nell’oceano, sia dall’acqua sia dal fondo oceanico sotto forma di noduli, l’avventura mineraria spaziale è ancora saldamente nel dominio della fantascienza.

La conclusione è che l’esaurimento dei minerali è un processo inevitabile e dovremo in qualche modo affrontarlo.

Uno dei temi caldi che si sviluppa intorno alla materia dello sfruttamento delle risorse non rinnovabili è quello della modellizzazione del processo di esaurimento (depletion modeling). Andando indietro nel tempo si incontrano molti autori delle materie più disparate che hanno sollevato il problema della limitatezza delle risorse, ma il vero e proprio sforzo per comprendere scientificamente il processo di sfruttamento ed esaurimento delle risorse non rinnovabili e di quelle rinnovabili quando vengono sfruttate ad un tasso superiore a quello di ricostituzione, è avvenuto negli ultimi decenni del secolo scorso. Nel campo delle risorse minerali il modello di Hubbert è quello che ha probabilmente raggiunto il maggior grado di popolarità, nonostante i suoi limiti [8] Il problema principale dei modelli è comunque l’incertezza sulla consistenza delle riserve minerali e fossili. Tale incertezza ha una componente intrinseca, diciamo, geologica che non può essere eliminata, infatti non avremo mai l’inventario totale dei giacimenti esistenti sulla terra, ma ha anche una componente politica ed economica, infatti le aziende private o pubbliche che detengono le riserve, siano esse di minerali o di idrocarburi, come assets finanziari, non hanno alcun interesse a renderli pubblici con precisione superiore a quella richiesta dalla legge. Se quindi in alcuni paesi, come ad esempio negli USA per il petrolio ed altre risorse minerali, l’inventario è abbastanza dettagliato, sempre per gli idrocarburi nei paesi produttori del Medio Oriente la situazione delle riserve è coperta da una fitta coltre di segreti e lo stesso vale per molte altri minerali strategici.

L’ultimo capitolo della seconda parte del libro intitolato “The Dark Side of Mining” si occupa degli aspetti sociali ed ambientali dello sfruttamento delle risorse minerarie. Il catalogo degli orrori è abbastanza noto, sia in termini sociali con l’epopea del lavoro disumano dei minatori, sia dal punto di vista ecologico, dagli effetti inquinanti delle miniere di metalli agli sversamenti di petrolio, all’inquinamento atmosferico e delle acque fino al più globale di tutti gli effetti: il cambiamento climatico.

regina rossa

L’ultima parte del libro ci porta ai possibili scenari futuri secondo l’autore. Il capitolo fa riferimento al personaggio della Regina Rossa del racconto fantastico “Attraverso lo Specchio” di Lewis Carrol “Ognuno nel reame della Regina Rossa deve correre quanto più veloce gli è possibile per restare nello stesso posto. Come nota Alice sbalordita un sacco di lavoro per non andare da nessuna parte”. La metafora fu utilizzata per la prima volta in relazione all’estrazione dello shale gas, un’impresa nella quale è necessario trivellare senza sosta nuovi pozzi per mantenere la produzione costante (ci pensino coloro che mostrano grande entusiasmo per la possibile traposizione in Europa dell’avventura americana). Ma la metafora si adatta bene ad ogni forma di industria mineraria lungo la fase di progressivo sfruttamento di giacimenti a tenore decrescente.

Le conclusioni non sono purtroppo né ovvie né rassicuranti. Una presa d’atto dell’impossibilità di intraprendere “la corsa della Regina Rossa” è ancora molto lontana sia nell’opinione pubblica che in ambiente accademico, e la politica segue in questo sonnambulismo. Il problema dell’esaurimento delle risorse minerarie e fossili viene sempre affrontato in modo superficiale attribuendo valore di legge naturale al fenomeno storico della successiva sostituzione di risorse esaurite con altre risorse, dall’età della pietra a quelle dei metalli, dalla legna al carbone, dal carbone al petrolio, dalle miniere con tenori dei metalli di qualche percento a quelle di qualche centinaio di ppm e così via. Un processo di sostituzione che ha funzionato, ma non ha alcuna garanzia di continuare a funzionare, a causa della natura fondamentalmente irreversibile dei processi naturali.

L’azione umana ha profondamente mutato gli ecosistemi terrestri al punto che oggi possiamo pensare di aver compiuto un viaggio in un pianeta diverso da quello dei nostri antenati. “Non è ovvio che ci debba piacere, ma non si può tornare indietro; ci dovremo adattare alle nuove condizioni. Non sarà facile, e si può speculativamente affermare che potremmo essere condotti al collasso della struttura che chiamiamo civiltà o perfino all’estinzione della specie umana, ma nulla è inevitabile”.[3 pag 242]

E la possibilità di evitare l’esito peggiore è tutto nella nostra capacità politica, tecnologica e nelle conoscenze scientifiche che la supportano. Appare ovvio dunque che, se si vuole evitare un collasso socio-economico determinato dalla rarefazione delle risorse minerali e dagli effetti della loro dispersione inquinante nell’ambiente, a valle di una presa d’atto del limite delle risorse, vi debba essere una strategia di mitigazione degli effetti del saccheggio del pianeta con una migrazione rapida a forme di struttamento meno intenso, basato sulle risorse rinnovabili, sull’efficienza, il riciclo, la riduzione del consumo in un unico sforzo finalizzato a ridurre l’impronta ecologica e nel lungo periodo a ripristinare almeno nelle loro parti essenziali, le funzioni degli ecosistemi terrestri.

Note Bibliografiche.

[1] Quel futur pour les métaux ? : Raréfaction des métaux : un nouveau défi pour la société. Philippe Bihouix, Benoît de Guillebon. 2010, EDP Science.

[2] La terra svuotata. Il futuro dell’uomo dopo l’esaurimento dei minerali. Ugo Bardi. Editori Riuniti University Press, 2011.

[3] Extracted. How the Quest for Mineral Wealth is Plundering the Planet. Ugo Bardi, Chelsea Green Publishing. 2014.

[4] Energy in Nature and Society: General Energetics of Complex Systems. Vaclav Smil. MIT. 2008.

[5] Pétrole, une guerre d’un siècle: l’ordre mondial anglo-américain. William Engdahl. J.-C. Godefroy, 2007.

[6] The Prize: The Epic Quest for Oil, Money and Power. Daniel Yergin. Pocket Books, 1991.

[7] Oil Supply and Demand Forecasting with Steven Kopits. http://www.resilience.org/stories/2014-02-25/oil-supply-and-demand-forecasting-with-steven-kopits

[8] Using Growth Curves to forecast regional resource recovery: approaches, analytics and consistency tests. Steve Sorrell, Jamie Speirs. Phil. Trans. Roy. Soc. A. Vol: 372. Article Number: 20120317. Published: JAN 13 2014

** Luca Pardi, 1° Ricercatore presso l’Istituto per i processi Chimico Fisici di Pisa del CNR , Chimico

Due domande scomode sul caso dei kit ritirati

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Marco Taddia

Le notizie più recenti (20 marzo 2014) sui kit per l’analisi del sangue che fornivano risultati sbagliati nella determinazione del paratormone (PTH), riferiscono che l’incontro fra il direttore generale dell’ospedale di Crema (Luigi Ablondi) e il direttore di Abbott Italia, distributrice del kit, è saltato. La motivazione è che, al momento, “nessuno è pronto per una definizione della questione dei kit fallati”. Nel frattempo, i pazienti continuano ad affluire all’ospedale per ripetere le analisi.

Vediamo di ricostruire la vicenda, di cui non tutti sono al corrente, aggiungere qualche riflessione e porci qualche domanda.

In data 12 febbraio 2014, Abbott Laboratories emanava un comunicato urgente per il ritiro di numerosi lotti del kit ARCHITECT Intact PTH 8 K25 per la determinazione del paratormone (PTH), specificando in apposita tabella le sigle dei reagenti, calibratori e controlli interessati, nonché le date di scadenza. La motivazione era l’ottenimento di risultati erronei per eccesso (13-45%), segnalato da uno studio completato nel gennaio 2014 in cui si operava un confronto con altro studio portato a termine nell’agosto 2012. L’azienda non era in grado di spiegare il malfunzionamento dei kit, invitava ad interromperne immediatamente l’impiego, lo ritirava dal commercio e s’impegnava a fornire informazioni in merito non appena disponibili.

86-Abbott

I costi sostenuti dai pazienti per ripetere le analisi sbagliate sarebbero stati a carico di Abbott ma ciò non bastava alle associazioni dei consumatori che, comprensibilmente, scendevano sul piede di guerra. Ma quale era l’entità del fenomeno? Dopo i numeri diffusi inizialmente da Abbott e dall’ospedale di Crema, da cui era partito l’allarme, ha parlato l’assessore alla Sanità della Regione Lombardia.

A seguito di una interrogazione di alcuni consiglieri regionali PD, l’assessore Mantovani, in data 19/03/2014 ha dichiarato in Commissione che i laboratori lombardi che utilizzano il kit Abbott sono 18. I kit distribuiti sono 65.000, quelli utilizzati 40.891. Come è noto, si è deciso di richiamare i soggetti potenzialmente implicati nell’errore perché ripetessero gli esami. Quelli interessati agli approfondimenti medici sono 17.603 e la previsione è di portarli a 18.000. L’assessore ha detto anche che “la Regione non è stata informata ufficialmente” dalla Abbott, mentre la nota del 12/02/2014 dovrebbe aver raggiunto tutti laboratori interessati. A livello nazionale questi sono ben 170.

Ma vediamo, in termini semplificati, di che tipo di analisi si tratta. Il paratormone (ormone paratiroideo) è un polipeptide di 84 amminoacidi con massa molecolare relativa pari a ca. 9500 dalton. Viene prodotto da quattro piccole ghiandole localizzate nel collo, dietro la tiroide. La sua secrezione è regolata dai livelli ematici del calcio: l’abbassamento della calcemia stimola la secrezione dell’ormone, l’aumento la inibisce. Il ruolo fisiologico del paratormone è strettamente legato al metabolismo del calcio. La sua importanza è legata al fatto che i livelli di calcio nell’organismo devono rimanere entro un intervallo assai ristretto di concentrazione. Il PTH favorisce l’assorbimento del calcio introdotto con gli alimenti, collaborando in questo con la vitamina D; riduce l’escrezione renale del calcio e ne aumenta la mobilizzazione a livello delle ossa.

Da questo risulta evidente che la determinazione del PHT, abbinata alla calcemia, alla fosforemia e al livello di vitamina D, serve ad ottenere informazioni decisive sul nostro stato di salute. L’eventuale sovrastima del solo PTH non pregiudica ovviamente lo stato salute e, da sola, non è mai determinante per stabilire qualsivoglia diagnosi di malattia. Ciò non vuol dire che quanto avvenuto sul piano etico sia privo di rilevanza. In genere, quando il medico riscontra un dato fuori norma fa rifare l’analisi ma non è da trascurare la preoccupazione del paziente, il disagio ecc…In questo caso poi, se i kit erano sbagliati, è chiaro che l’errore si ripeteva.

can-stock-photo_csp11386312

Marcella Marletta, responsabile della Direzione generale dispositivi medici del Ministero della Salute, intervenuta il 18/03/2014 a “Mi manda Rai 3”, aveva spiegato che il kit Abbott per gli esami del paratormone è stato venduto in 19 lotti in Europa e complessivamente 26 lotti nel mondo, compreso il Giappone. Com’è stato possibile che nessuno si sia accorto dell’errore? “Finora – ha spiegato Marletta – ci sono state solo segnalazioni; troppo poche, 2 o 3 in tutto, per far scattare una valutazione di non attendibilità del test. Queste poche segnalazioni hanno comunque portato ad uno studio condotto dalla Abbott e da altri deputati ai controlli, col risultato della sovrastima del test, che può andare dal 13 al 45% del suo valore”.

In realtà, effettuando un rapido esame della letteratura del settore, ci si accorge facilmente che sarebbe stato meglio approfondire la questione fin dal 2008. In un articolo franco-statunitense a firma Dominique Joly et al., pubblicato in Am. J. Kidney Diseases, 51(6), 2008: pp. 987-995, si affermava in maniera specifica che il test Abbott dava risultati superiori a quelli di altra marca (p. 990). L’anno dopo, usciva a firma M. Monge et al. (Laboratorio Pasteur Cerba, Saint-Ouen L’Aumone, Francia) un articolo (Clin. Chem. Lab. Med. 47(3), 2009: pp. 362-6) dall’eloquente titolo “Higher parathyroid hormone (PTH) concentration with the Architect PTH assay than with the Elecsys assay in hemodialysis patients, and a simple way to standardize these two methods”.

Gli autori concludevano che per ottenere valori “corretti” con l’Architect occorreva dividerli per 1,3. In sostanza voleva dire che il kit Abbott sovrastimava l’ormone del 30%.

Due anni dopo, è la volta di E. Cavalier che nell’anno 2009-2010 si era addirittura laureato con una bella tesi sul paratormone (vedi bibliogarfia). In un articolo pubblicato da Nephrol. Dial. Transplant 0, 2011: pp. 1–7, Cavalier et al. riferiscono di uno studio condotto con vari kit. Con il test Architect il 57,7 % dei pazienti (su un totale di 149) superava il limite di 300 pg/ml. Il valor medio era 460 ± 346. Con altri test di seconda generazione si andava dal 24,2 al 55,7%, con valori medi da 197 ± 160 a 439 ± 367. Nella valutazione dei pazienti assumeva, com’è logico, un’enorme importanza l’intervallo dei valori “normali”. Addirittura il 56,8% dei pazienti veniva classificato in maniera diversa con i due kit che differivano maggiormente secondo le linee guida KDOQI (Clinical Practice Guidelines for Chronic Kidney Disease). La percentuale si riduceva al 36,2% secondo i valori “normali” dei produttori di kit, KDIGO (Clinical Guidelines for Kidney Disease). Si riduceva ancora al 16,1% con i valori normali degli autori dell’articolo e addirittura all’8% considerando l’incertezza dei risultati.

Ma vediamo come funziona (in parole molto povere) il test incriminato, premettendo doverosamente che la determinazione del PHT non è affatto semplice ed è influenzata da numerosi fattori pre-analitici. Si tratta di un dosaggio immunologico chemiluminescente a cattura di microparticelle (CMIA). Il campione, un diluente e microparticelle paramagnetiche ricoperte di anti-PTH vengono mescolati assieme. Il PHT intatto presente nel campione si lega all’anti-PHT che si trova sulle microparticelle. Dopo il lavaggio si aggiunge anti-PHT marcato  con estere di acridinio (coniugato) che agisce da tracciante chemiluminescente e dopo un’altra serie di operazioni si misura la luce emessa che è direttamente legata alla concentrazione di PHT. Vista la procedura, si parla di metodo sandwich (http://www.ilexmedical.com/files/PDF/IntactPTH_ARC.pdf).

Concludiamo ricordando che oltre agli articoli scientifici sopracitati, riferivano di sovrastime dell’ormone con il test Architect anche segnalazioni pervenute, fin dal 2011, all’ente americano FDA (U.S. Food and Drug Administration). Ecco un documento ufficiale che lo dimostra: http://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfMAUDE/detail.cfm?mdrfoi__id=2113897)

Ci chiediamo:

1)    Il difetto riguarda soltanto i lotti ritirati oppure il kit è strutturalmente inadeguato allo scopo?

2)    Non sarebbe stato meglio ritirare i kit sospetti con maggiore tempestività preoccupandosi un po’ di più della salute dei pazienti e meno del danno per l’azienda?

http://www.salute.gov.it/imgs/C_17_AvvisiSicurezza_2863_azione_itemAzione0_files_itemFiles0_fileAzione.300651.pdf

http://www.ilgiorno.it/cremona/cronaca/2014/03/20/1041540-esami-sangue-sbagliati.shtml

http://www.humanitas.it/pazienti/info/news/diagnosi-ed-analisi/7730-esame-del-paratormone-quando-e-perche-puo-essere-utile

http://www.cremaonline.it/cronaca/19-03-2014_Paratormone,+l’assessore+regionale+Mantovani:+“in+Italia+coinvolti+170+laboratori”/

http://bictel.ulg.ac.be/ETD-db/collection/available/ULgetd-12152009-151332/unrestricted/Cavalier_These.pdf