Quando la SCI dovrebbe prendere posizione pubblica e in che modo?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Un recente episodio mi spinge a riflettere sul ruolo della SCI nella società e nella cultura italiana e a considerare il seguente quesito: la SCI (e in generale le organizzazioni dei Chimici, per esempio gli ordini professionali e il CNC) dovrebbe prendere posizione su alcuni almeno dei grandi temi che quotidianamente si pongono all’attenzione (a volte, ma non sempre, connessi direttamente con la Chimica)? E cosa potrebbero fare?

Qualcosa del genere, con qualche mal di pancia, è avvenuto nel caso del clima e mi sembra molto positivo. Ma vediamo a cosa mi riferisco.

Mi riferisco qui a un episodio avvenuto negli scorsi giorni; la condanna di alcuni dirigenti della società Syndial da parte della magistratura per un episodio di grave inquinamento verificatosi in Sardegna.

foto_526459_550x340

Lo stabilimento della Syndial di Porto Torres (foto Unione Sarda)

In questo caso la chimica è chiamata in ballo dal ruolo e dalle attività della società implicata, la Syndial, che è una società ENI che si occupa di riqualificazione ambientale; alcuni dei cui dirigenti sono stati condannati in un processo per inquinamento ambientale.

Il processo, denominato “Darsena dei veleni” era nato in seguito a un sovralluogo effettuato dai vigili del fuoco nella darsena servizi del porto industriale di Porto Torres, sopralluogo culminato con il sequestro cautelare di una parte della darsena.

L’inchiesta era poi stata avviata dalla procura della repubblica di Sassari che aveva individuato  nei vertici di Syndial e Polimeri Europa i presunti responsabili dell’inquinamento della darsena servizi (proprio a  ridosso dell’ex petrolchimico), che per anni era stata “alimentata” dalla falda acquifera inquinata caratterizzata dalla presenza di sostanze  cancerogene, con  livelli migliaia di volte superiori ai limiti consentiti dalla legge.

http://www.ansa.it/sardegna/notizie/2016/07/22/darsena-veleni-p.torres-tre-condanne_54db97af-03d6-47a2-8d8a-c228bc923906.html

Succintamente e attingendo ai testi dei giornali:

il pool difensivo di Eni – composto dai legali Carlo Federico Grosso, Mario Maspero, Fulvio Simoni, Grazia Volo, Luigi Stella, Piero Arru – (ha presentato) le controdeduzioni proprio relativamente alla costituzione delle parti civili. Dopo mesi di accertamenti e audizioni di testimoni erano stati iscritti nel registro degli indagati il rappresentante legale di Syndial Spa Alberto Chiarini, il responsabile gestione siti da bonificare Francesco Papate, il responsabile Taf Management (Taf è l’impianto per il trattamento delle acque di falda) Oscar Cappellazzo, i responsabili dell’area operativa Taf Gian Antonio Saggese e di salute, ambiente, sicurezza del Taf Francesco Leone, il rappresentante legale di Polimeri Europa Daniele Ferrari, il direttore di stabilimento Paolo Zuccarini e il responsabile della sezione salute, sicurezza, ambiente, Daniele Rancati. A tutti veniva contestato di “non aver adottato le opportune cautele” e di aver quindi “cagionato un disastro ambientale per lo sversamento in mare di sostanze inquinanti”.

Il punto è che per l’accusa, gli interventi di risanamento ambientale messi in atto dalla Syndial non avrebbero funzionato.In altri termini, dalla barriera idraulica costituita da pozzi di emungimento collegati a sistemi di trattamento delle acque e dispositivi per misurare il gradiente di diffusione dell’inquinamento, continuano a fuoriuscire inquinanti. Tesi, questa, respinta dalla difesa, che ha commissionato una perizia ad esperti americani. Per i quali la barriera bloccherebbe il deflusso delle sostanze inquinanti verso la darsena. Sempre per gli esperti della difesa, responsabile dell’inquinamento in quell’area, sarebbe una condotta fognaria della rete comunale.

In passato, è stato proprio il Ministero dell’Ambiente a denunciare l’inefficacia del sistema. Ma da allora nessuna nuova procedure di contenimento è stata messa in atto. Per avere un’idea dei livelli d’inquinamento della falda, basta riportare i dati notificati dalla stessa Syndial: “Arsenico 50 volte il limite, mercurio 10 volte il limite, benzene 139.000 volte il limite, etilbenzene 100 volte il limite, toluene 4.900 volte il limite, cloruro di vinile monomero 542.000 volte il limite, dicloroetano 28.000.000 di volte il limite, dicloroetilene 9.980 volte il limite, tricloroetilene

(http://www.sardiniapost.it/cronaca/darsena-dei-veleni-porto-torres-imputati-8-manager-eni-sit-degli-ambientalisti/)

Il rito abbreviato che ha caratterizzato il processo e che ha consentito il dibattito a porte chiuse (e questo atteggiamento sarebbe da spiegare da parte dell’ENI) si è chiuso con la condanna di tre degli 8 manager implicati (Saggese, Papate e Cappellazzo) accusati di disastro ambientale colposo e deturpamento delle bellezze naturali per avere riversato in mare rifiuti industriale altamente inquinanti. Sono tutti e tre di Syndial, e dovranno pagare oltre 500.000 euro di danni.

Infatti andranno 200 mila euro al ministero dell’Ambiente, 100 mila euro alla Regione Sardegna, 100 mila euro al Comune di Porto Torres, 50 mila euro a testa a Giovanni e Alessandro Polese (titolari di un cantiere nautico della zona). Altri 10 mila euro a testa come risarcimento dei danni morali sono stati riconosciuti alle associazioni Anpana, Lega per l’abolizione della caccia onlus, Comitato cittadino Tuteliamo il Golfo dell’Asinara e al Comitato d’azione protezione e sostenibilità ambientale per il nord ovest Sardegna.

Questi sono gli episodi che poi costituiscono la base per la immagine negativa della chimica; gli episodi in cui la Chimica viene avvicinata all’inquinamento al danneggiamento della Natura e che costituiscono il presupposto per l’uso così negativo della nostra parola chiave.

Anche se nello Statuto della nostra associazione non è esplicitamente indicata la difesa dell’immagine della Chimica, questo scopo può e deve essere, sia pure implicitamente, considerato un obbiettivo strategico; nel comma 1 dell’art. 2 si dice infatti “di divulgare la conoscenza della Chimica e l’importanza delle sue applicazioni nel quadro del benessere e del progresso della Nazione”.

statuto1Dovrebbe essere sufficiente a porsi il problema e l’obiettivo di usare come strumento l’azione legale e considerarsi parte lesa in questi episodi e di iscriversi nella lista delle associazioni che ricevono danno morale da episodi di questo tipo; su questa base la SCI potrebbe chiedere in questi casi di costituirsi parte civile nei processi di questa portata e contenuto.

Fra l’altro queste sono le condizioni per recuperare la nostra immagine positiva nei confronti dell’opinione pubblica; far vedere che ci poniamo attivamente contro i comportamenti dell’industria e dei suoi attori quando questi sono contrari all’etica e al vivere civile e alla legge stessa: chimica si ma l’uomo e la Natura vengono prima.

E’ un quesito che rivolgo al CC della SCI e a tutti i soci; apriamo un dibattito su questi temi. E aggiungo: Cosa succederebbe se in episodi del genere fossero coinvolti iscritti SCI o degli ordini? Ci sarebbe un effetto? O tutto passerebbe o passa di fatto in cavalleria? Ci sono stati soci o iscritti agli ordini contro i quali a causa di episodi del genere il filtro delle organizzazioni nazionali di categoria o culturali come la nostra abbia funzionato; non ne sono a conoscenza; chi ne sa di più?

A voi la parola.

 

Depurazione delle acque: processi innovativi.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il trattamento delle acque di rifiuto è un argomento abbastanza particolare. Ovviamente ben conosciuto dagli addetti del settore (operatori e ricercatori) e meno dal pubblico generico.
Ma come da sempre sostengo anche gli addetti credo debbano sentire l’impegno (perché tale è) di restare continuamente aggiornati sulle novità che si sviluppano da processi di ricerca, e che possono essere poi sperimentati e successivamente utilizzati nei processi di trattamento.
L’università Carlo Cattaneo di Castellanza (Va) organizza ormai da qualche anno incontri di questo tipo, aperti al pubblico, agli operatori ed agli studenti.
Nell’ultimo che si è svolto la scorsa primavera ho potuto conoscere due processi di trattamento riguardanti uno la linea di trattamento delle acque, ed uno la linea fanghi che mi hanno molto interessato.

Processo anammox

Si tratta di un processo di ossidazione dell’azoto ammoniacale effettuato da batteri che in condizioni anossiche (carenza di ossigeno disciolto) ossidano l’azoto ammoniacale usando il nitrito come accettore di elettroni.
La scoperta di questo tipo di batteri avvenne nel 1988 in un depuratore in Olanda.

anammox

Questo tipo di batteri vive spontaneamente in ambienti quali i fondali oceanici e contribuisce per circa il 70% al ciclo dell’azoto negli oceani.
La reazione, condotta in assenza di ossigeno, dei nitriti con lo ione ammonio

NO2+ NH4+(aq) –> N2(g) + 2 H2O

si differenzia da quella classica di denitrificazione (l’azoto nella forma di nitrati viene convertito per via biologica ad azoto gassoso: NO3 –> N2(g)).
Per il processo anammox la fonte è carbonio inorganico e le condizioni sono anaerobiche, mentre per la denitrificazione il carbonio è organico e le condizioni anossiche.
Questo tipo di processo dal punto di vista dell’applicazione impiantistica si può fare avvenire in due stadi separati o in un unico stadio.
Nel primo caso nel primo stadio di trattamento si conduce una normale reazione di nitritazione parziale nella quale si trasforma circa la metà dell’ammonio presente a nitrito.

NH4+ + 3/2 O2 –> NO2 + 2H+ + H2O

Nel secondo stadio avviene il processo anammox.
Se il processo viene fatto avvenire in un solo stadio dove i batteri nitrificanti e gli anammox convivono per esempio in un biofilm si ottiene il doppio vantaggio di avere costi di investimento inferiori e facilitare il controllo di processo.
Questo tipo di trattamento si presta molto bene al trattamento di reflui con alte concentrazioni di azoto (200mg/lt).
Tipicamente quindi reflui quali il percolato di discarica, oppure i digestati liquidi del trattamento fanghi e i reflui derivanti da processi agroindustriali, cioè quelli che da sempre danno più problemi con un trattamento di tipo convenzionale a fanghi attivi.
Questo tipo di processo ben si adatta a costruire sistemi modulari e compatti dal momento che questi batteri formano biofilm adesi e stabili, ma possono anche aggregarsi in forme adatte ai sistemi di biomassa sospesa molto compatta riducendo i problemi di bulking e sfaldamento del fiocco di fango, piuttosto comuni negli impianti tradizionali.
Le criticità del processo sono legate al range di temperatura ottimale (25-38°C) e al rapporto COD/N che è preferibile sia inferiore a 2. Nel caso contrario è preferibile effettuare un pretrattamento aerobico.
La tecnologia è già applicata in un centinaio di impianti (108 a tutto il 2015) e con fornitori commerciali già presenti sul mercato .
In Italia l’applicazione risulta ancora limitata, e spiace dirlo per le solite carenze che riguardano in molti casi il ritardo negli adeguamenti strutturali degli impianti e negli investimenti, una frammentazione ancora troppo elevata delle gestioni, e quindi in ultima analisi un problema culturale.

Disidratazione elettro-assistita.

La seconda tecnica che ha suscitato la mia curiosità (dote che ritengo utile e fondamentale) è questa. Il trattamento dei fanghi è di fatto quello che da sempre impegna molto chi lavora nel settore della depurazione. I problemi del corretto trattamento dei fanghi di risulta sono diversi, e variano dai costi di smaltimento fino a quelli di avere trattamenti di facile uso ed esecuzione per il personale addetto.
La disidratazione elettroassistita consiste nell’applicazione di un campo elettrico per sfruttare il fenomeno della elettroosmosi. Utilizzando corrente elettrica continua si può effettuare la migrazione dell’acqua contenuta nel fango da disidratare (la cosiddetta acqua del fango). In particolare si migliora il drenaggio dell’acqua interstiziale e capillare. Con questa tecnica si possono ottenere tenori di secco del fango che possono arrivare al 40-45% da valori del 18-30% ottenuti con la sola disidratazione meccanica con pressa a nastro o centrifuga.

becker

Il limite di questa tecnica rispetto a quelle tradizionali è la portata inferiore di fango trattabile a cui si può ovviare con l’installazione di più macchine operanti in parallelo.

nastro

L’altro problema a cui si sta lavorando è quello dell’accumulo del fango più secco all’anodo della elettropressa con conseguenti problemi di corrosione e di perdita di conducibilità nel fango. Per questa ragione si sta lavorando alla messa a punto di anodi rotanti. Il vantaggio consiste nel migliorare la fluidità del fango e la sua conduttività migliorando il drenaggio dell’acqua separata.
L’impianto di depurazione di domani sarà profondamente diverso da quello che abbiamo visto fino ad oggi. Saranno fondamentali per il suo miglior funzionamento le tecnologie oggi emergenti. E da esso si potranno recuperare sia energia che materia. Non solo biogas come già oggi avviene, ma anche biopolimeri e soprattutto fosforo.

Ancora sulla simbologia chimica

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel precedente post sull’argomento (https://ilblogdellasci.wordpress.com/2016/07/20/lorigine-della-nomenclatura-e-della-simbologia-chimica-moderna/), ho citato questa frase tratta dal libro di Solove’v [1]: “Nella trattatistica chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831”. Secondo lo storico della chimica statunitense William B. Jensen[1][2], a quei tempi i diagrammi chimici erano ancora i soli a essere impiegati nei trattati, un esempio è fornito dalla seguente figura tratta dal libro di A. Lee[2] Chemical Diagrams, Accompanied by a Concise Description of Each Decomposition, Cox, London, 1933, p.12:

nomenclatura11Questo diagramma rappresenta la reazione fra carbonato di calcio [lime] e acido cloridrico [muriatic acid] per dare cloruro di calcio e acido carbonico [anidride carbonica + acqua]. I numeri rappresentano gli equivalenti delle sostanze in base ai pesi atomici di Dalton “aggiornati”. Probabilmente Dumas in base alla simbologia di Berzelius avrebbe scritto l’equazione di reazione “in linea” circa così:

(CaO+CO2) + 2(HCl) = (CaCl2) + (H2O+CO2).

Jensen sostiene che l’apparizione delle “equazioni chimiche in linea” accompagnate dall’uso del simbolo = per separare i reagenti dai prodotti risale alla fine degli anni ’40 del 1800 e cita il famoso libro di testo introduttivo Manual of Elementary Chemistry, Theoretical and Practical, Blanchard and Lea, Philadelphia, 1a Ed. 1847, di G. A. Fownes[3]. Nella prima edizione del 1847 e certamente fino alla 7a edizione del 1860, la doppia notazione, diagramma ed equazione in linea, viene mantenuta, ma essa scompare a favore della seconda nella 12a edizione intitolata Fownes’ Manual of Chemistry Theoretical and Practical, revisionata e corretta da Henry Watts, J. & A. Churchill, London, 1877.

Tuttavia Stanislao Cannizzaro userà esclusivamente equazioni in linea con reagenti e prodotti separati dal simbolo = nel suo famosissimo Sunto di un Corso di Filosofia Chimica del 1858.

L’uso della singola freccia al posto di = arriva certamente più tardi se è vero che ancora nel 1821 gli autori del Journal of the American Chemical Society usavano = per separare reagenti e prodotti. Ad esempio [3]:

nomenclatura12L’origine del simbolo doppia freccia per indicare una reazione all’equilibrio chimico è invece più facile da ritrovare. Nel 1884 vengono pubblicati gli Etudes de Dynamique Chimique di Jacobus Henricus van’t Hoff, in cui l’autore afferma:

La trasformazione limitata, di cui dobbiamo la conoscenza a Berthollet, è caratterizzata dal fatto che essa si arresta prima di arrivare a completezza. Nello stato finale si trova dunque inalterata una parte dei corpi primitivi in presenza dei corpi nuovi formatisi; così nell’azione dell’acido cloridrico sull’azotato [nitrato] di sodio si ha una trasformazione che conduce ad acido nitrico e sale marino, ma questa trasformazione non porta mai alla scomparsa totale dei corpi primitivi impiegati.

Le osservazioni di questo tipo sono diventate via via più numerose e trasformazioni limitate si trovano ora in tutte le parti della chimica. Ora M. Pfaundler ha collegato questi due fenomeni in un solo concetto considerando il limite osservato come la risultante di due trasformazioni contrarie, conducendo l’una, nell’esempio citato alla formazione di sale marino e acido nitrico, l’altra all’acido cloridrico e all’azotato di sodio. Questa considerazione, che l’esperienza ha verificato, giustifica l’espressione di equilibrio chimico, di cui ci si serve per caratterizzare lo stato finale della reazione limitata. Io proporrei di tradurre questa espressione con il seguente simbolo:

HCl + NO3Na ⇄ NO3H + ClNa

Sostituisco dunque nell’equazione chimica, in questo caso il segno = che, in realtà non mostra solo l’uguaglianza ma mostra anche il verso della trasformazione, con il simbolo . Esso esprime chiaramente che un atto chimico si compie simultaneamente nei due versi opposti. [4, p. 4-5]

Per la simbologia delle equazioni chimiche, nel Gold Book della IUPAC, alla voce chemical reaction equation si trova:

Symbolic representation of a chemical reaction where the reactant entities are given on the left hand side and the product entities on the right hand side. The coefficients next to the symbols and formulae of entities are the absolute values of the stoichiometric numbers. Different symbols are used to connect the reactants and products with the following meanings: = for a stoichiometric relation; → for a net forward reaction; ⇄ for a reaction in both directions; ⇌ for equilibrium.” [5]

Nonostante questa raccomandazione, sono tuttavia abbastanza sicuro che nella pratica comune per le reazioni all’equilibrio si usino indifferentemente i due simboli ⇄ e ⇌, mentre per le reazioni che vanno praticamente a completezza l’uso della singola freccia valga anche a indicare la relazione stechiometrica.

[1] J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 157.

[2] W.B. Jensen, The Symbolism of Chemical Equations, J. Chem. Educ., 2005, 82, 1461

[3] W.C. Bray, A Periodic Reaction in Homogeneous Solution and its Relation to Catalysis, J. Am. Chem. Soc., 1921, 43, p. 1262

[4] J.H. Van’t Hoff, Etudes de Dynamique Chimique, Frederik Muller & Co., Amsterdam, 1886. 1 vol di pp. 214

[5] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014.02.24, p. 262

[1] William B. Jensen, chimico statunitense è Professor of Hystory of Chemistry and Chemical Education all’Università di Cincinnati, curatore della Oesper Collections della stessa Università. Ha curato la rubrica bimestrale “Ask the Historian” del Journal of Chemical Education dal 2003 al 2012. Ha fondato ed è stato il primo editor della rivista Bulletin for the History of Chemistry.

[2] Il libro di Alexander Lee, con un titolo lunghissimo, è “inteso a facilitare il progresso dello studente medico”. Si tratta di un voluminoso compendio di chimica inorganica e organica, dedicato in particolare “to the gentlemen who attending the Borough Medical Schools”.

[3] George A. Fownes (1815-1849), chimico inglese noto per i suoi saggi sulla chimica dei vegetali, professor of chemistry in varie istituzioni, famoso per il suo Manual of Chemistry di cui riuscì a curare solo le prime tre edizioni prima di morire di polmonite a soli 34 anni.

Grove contro Daniell: la “guerra” delle batterie.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Oggi tutti noi associamo le batterie ricaricabili all’uso di dispositivi sofisticati per le comunicazioni come i moderni smartphones, i telefoni cellulari intelligenti i computer portatili e anche le auto elettriche; fa parte della nostra tradizione industriale un esteso uso delle batterie ricaricabili per esempio per avviare i motori a combustione interna; batterie non ricaricabili sono in uso per le più svariate applicazioni e su un range di dimensioni veramente ampio, dai piccoli giocattoli all’avvio delle batterie di missili.

In effetti sono oltre due secoli che questo tipo di dispositivi nelle loro varie forme fa parte della nostra vita tanto che molti elementi della loro storia sono perfino andati nel dimenticatoio.

Ma in effetti sarebbe utile riflettere sulla storia delle batterie proprio perchè fanno parte integrante della nostra vita quotidiana.

Uno degli episodi più antichi e contemporaneamente più moderni di questa lunga tradizione è stata la “guerra” per il controllo del mercato del telegrafo che duecento anni fa costituiva l’ultimo grido nel campo delle comunicazioni.

Le due batterie primarie che si contesero il campo furono la batteria di Grove e quella di Daniell.

Il telegrafo è un sistema di comunicazione basato sulla trasmissione di impulsi di corrente continua lungo un filo metallico; data la scarsa potenza in gioco il segnale non può viaggiare per lunghi percorsi ed ha bisogno quindi di frequenti ripetizioni lungo la linea; stazioni alimentate in un primo momento e per lunghi anni da batterie primarie alimentavano questa ripetizione del segnale; solo dopo il 1869 entrarono in gioco le dinamo; una singola batteria di quelle a disposizione all’epoca poteva coprire una distanza variabile fra i 10 e i 20 chilometri.

Il telegrafo elettrico fu il discendente del telegrafo ottico inventato da Chappe appena dopo la rivoluzione francese nel 1793. Esso fu messo a punto per la prima volta in forma commerciale e dopo numerosi tentativi in tutto il mondo, di cui alcuni italiani, da Samuel Morse nel 1837 e la prima linea fu tra Washington e Baltimora sulla costa Est degli USA nel 1844. In Italia il telegrafo di Matteucci, nostra gloria nazionale, fu messo a punto solo a partire dal 1847.

Morse dovette giocoforza inventare anche uno speciale alfabeto che era di fatto binario, costituito di impulsi brevi e lunghi, solo due simboli base, la combinazione dei quali consentiva però di riprodurre messaggi di qualsivoglia lunghezza.

daniell1Un tasto elettrico che chiudeva temporanemente il circuito consentiva all’operatore di regolare la durata del segnale a mano ed un bravo operatore poteva trasmettere anche cento caratteri al minuto. Dato che la maggior parte delle lettere era costituita da tre o quattro caratteri questo equivaleva a scrivere decine di lettere al minuto, quindi alcune parole al minuto.

L’alfabeto Morse fu reso famoso in seguito dai messaggi inviati tramite le onde elettromagnetiche dalle navi fra cui rimane famoso l’SOS, il segnale di soccorso, che ha contribuito a salvare migliaia di vite.

Mio padre era radiotelegrafista del genio militare e mi insegnò ad usare il tasto Morse, che ancora conservo, anche se oggi non riuscirei a trasmettere messaggi, ci vuole molta pratica per scrivere e leggere il Morse.

daniell2

Il primo messaggio Morse trasmesso per telegrafo.

Il meccanismo esatto era il seguente:

daniell3La chiusura del circuito tramite il pulsante Morse invia un segnale all’elettrocalamita che, eventualmente opportunamente amplificato, genera una risposta o meccanica come indicato nella figura o acustica come avverrà in seguito, con l’uso di cuffie. I circuiti nel tempo subirono una enorme evoluzione anche per rivelare deboli segnali su grandi distanze come quelle dei cavi sottomarini transatlantici, posati a partire dal 1866.

Le batterie erano insomma il cuore del sistema; qui sotto la struttura della batteria Grove. daniell6

Un contenitore di vetro di forma cilindrica contiene una soluzione di ZnSO4 a contatto con una lamina cilindrica di Zn; all’interno un separatore poroso che la separa da una soluzione concentrata di acido nitrico in cui è immerso una barretta centrale di Platino; lo Zinco funge da polo negativo e il Platino da polo positivo; la reazione che vi si realizza è la seguente:

Zn + H2SO4 + 2 HNO3 = ZnSO4 + 2 H2O + 2 NO2(g)

Fra il 1840 e il 1860 questa sorgente elettrica fu quella dominante con una differenza di potenziale di circa 1.9V.

Sir William Robert Grove, (1811 –1896) fu uno scienziato di origine gallese che si occupò di chimica e fisica, inventò un dispositivo simile alla lampada di Edison, la cella di Grove di cui parliamo qui e la cella a combustibile, nel 1842.

Quali sono i problemi della cella di Grove? Uno è l’uso del platino che è costoso, un altro è la produzione di biossido di azoto che un gas tossico e il terzo è che durante la vita del dispositivo la tensione tende a diminuire riducendo le prestazioni.

Ci fu un tentativo di ridure alcuni problemi con la sostituzione del platino con la grafite; scriveva nel 1860, Dionysius Lardner in ‘The Telegraph Popularised’ …

Zinc being one of the most oxydable metals, and being also sufficiently cheap and abundant is generally used by preference for voltaic combinations. Silver, gold, and platinum are severally less susceptible of oxydation, and of chemical action generally, than copper, and would therefore answer voltaic purposes better, but are excluded by their greater cost, and by the fact that copper is found sufficient for all practical purposes.

“It is not, however, absolutely necessary that the inoxydable element of the combination should be a metal at all. It is only necessary that it be a good conductor of electricity. In certain voltaic combinations, charcoal properly solidified has therefore been substituted for copper, the solution being such as would produce a strong chemical action on copper.”

It was found that carbon used in place of platinum in the Grove cell
still produced the extra power which made the Grove so popular
… this combination was called a Bunsen cell.

daniell7

Un banco di celle di Grove per alimentare il telegrafo; il tavolo di legno di sostegno era cerato per ridurre gli effetti dell’acido nitrico.

Ma anche la cella Bunsen non risolveva il problema dell’evoluzione di gas tossici e della riduzione del potenziale utile.

Bunsen_cell

Si differenzia per l’utilizzo di un catodo a carbone al posto del costoso catodo di platino della pila di Grove;grazie a tale modifica, che ne abbatteva i costi, la pila di Bunsen poteva essere prodotta su larga scala. Come la pila di Grove, la pila di Bunsen utilizza un anodo in zinco immerso in una soluzione di acido solforico (H2SO4); il catodo in carbone è invece immerso in una soluzione di acido nitrico (HNO3) o acido cromico (H2CrO4). Le due semicelle sono separate da un setto poroso.

Questa situazione portò all’introduzione di tecnologie alternative; la tecnologia alternativa fu la batteria Daniell.

Anche John Frederic Daniell fu uno scienziato inglese (1790-1845) che si occupò di chimica e fisica in un periodo in cui la separazione fra queste due discipline era molto meno netta di adesso. Inventò un igrometro, un pirometro ed un barometro che portano il suo nome e si occupò anche di meteorologia. Ma la invenzione per cui lo ricordiamo adesso è certamente la più conosciuta: la pila Daniell, descritta qui sotto.daniell8 daniell9

Essa consisteva di una tazza di rame riempita con una soluzione di solfato di rame nella quale era immerso un contenitore di ceramica porosa riempito di solfato di zinco ed un elettrodo di zinco. Daniell cercava di risolvere il problema delle bolle di idrogeno che si sviluppavano nella pila di Volta dal lato del rame e la sua soluzione consistette nell’usare un diverso elettrolita, il solfato di rame, invece della soluzione acidula proposta da Volta la quale comportava la riduzione al catodo dell’idrogeno con sviluppo di bolle appunto.

Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s) . . ( voltaggio a circuito aperto 1.1018 V )

La cella Daniell è anche la base storica della definizione di Volt, che è l’unità della forza elettromotrice ; la prima definizione, quella proposta nel 1881 era fatta in modo che il potenziale generato dalla cella Daniell fosse esattamente 1V a 25°C, mentre con la definizione attuale il potenziale standard è di 1.1 V.

daniell10

Nella cella Daniell la barriera porosa è usata per prevenire il libero mescolamento delle due soluzioni; senza di essa anche in assenza di corrente gli ioni di rame diffonderebbero velocemente dal lato dello zinco e si ridurrebbero distruggendo di fatto la batteria.

Tuttavia la barriera porosa non può comunque impedire il flusso di ioni rame nella semicella dello zinco. Ne segue che la cella Daniell non può essere ricaricata elettricamente perchè trasformando l’anodo di Zinco nel catodo, gli ioni rame che hanno diffuso si ridurrebbero al posto di quelli di zinco a causa del loro potenziale più favorevole (+0.34 invece di -0.76V).

Col tempo il rame può occludere la barriera porosa e ridurre la vita della batteria, ma ciononostante la cella Daniell consentiva una resa migliore ed una vita utile più lunga della cella voltaica perché mentre l’idrogeno che si sviluppava nella cella voltaica isolava l’elettrodo, il rame che si deposita è comunque un ottimo conduttore.

Rispetto alla cella Grove la cella Daniell presenta una differenza di potenziale circa dimezzata ma non genera gas tossici, non usa materiali altrettanto corrosivi e il suo potenziale rimane sostanzialmente più costante nel tempo Solo la batteria Leclanchè potè poi sostituire la cella Daniell con risultati migliori ma ciò avvenne solo nella tarda metà del XIX secolo e la supremazia della Leclanchè durò poi negli usi pratici fino alla fine della seconda guerra mondiale

Ma l’idea che rese veramente concorrenziale la batteria Daniell divenne realtà nel 1858 e fu opera di un altro inventore di origine francese, di nome A. Callaud, che la perfezionò poi ancora nel 1862. Questa invenzione denominata “pila a gravità” faceva anche a meno del setto poroso riducendo il prezzo e semplificando l’uso e la struttura della battteria.

daniell11 daniell12Essa consisteva di un contenitore di vetro in cui un catodo di rame si trovava sul fondo mentre l’anodo di zinco era sospeso al confine fra le due zone. A causa della maggiore densità la soluzione di solfato di rame rimaneva sul fondo anche se la sua concentrazione diminuiva durante l’uso. Uno strato di solfato di zinco si formava alla estremità dell’anodo e la differenza era sottolineata dalla differenza di colore, essendo azzurra la soluzione di rame e trasparente quella di zinco.

Per ridurre i problemi di mescolamento la cella doveva continuare a produrre corrente e nel contempo evitare che una forte richiesta di corrente distruggesse l’integrità dello strato limite.daniell13 daniell14

Nonostante questi problemi, il costo basso e la facilità di impiego ne diffusero l’uso e ne spinsero l’adozione nello sviluppo di dispositivi a più celle che alimentavano tratte di telegrafo più lunghe, anche perché non c’erano gas tossici e comunque la parte chimica della batteria era isolata dall’aria tramite uno strato di olio che “impermeabilizzava” la sommità della batteria stessa (avendo densità ancora inferiore al solfato di zinco l’olio galleggiava). In una versione ancora più avanzata descritta nell’ultima immegine una sorta di imbuto consentiva l’aggiunta di solfato di rame in forma solida trasformando di fatto la batteria Daniell-Callaud in una sorta di reattore elettrochimico ibrido, a metà strada fra una batteria primaria ed una cella a combustibile.

E’ da notare che anche un inventore italiano Giuseppe Candido di Lecce partecipò alla corsa alla migliore batteria ma non riuscì a vincere perchè di fatto la scelta era stata già fatta (http://www.emerotecadigitalesalentina.it/sites/default/files/emeroteca_all/ID03_contributi-leccesi-sviluppo-pila-elettrica.pdf); la sua idea era basata su una geometria diversa e sull’uso di un setto separatore non poroso come descritto nell’immagine qui sotto:

daniell15

Riferimenti.

Power Struggles Scientific Authority and the Creation of Practical Electricity Before Edison

Michael Brian Schiffer The MIT press 2008

http://members.kos.net/sdgagnon/te4.html

https://en.wikipedia.org/wiki/History_of_the_battery#Invention_of_the_battery

L’origine della nomenclatura e della simbologia chimica moderna

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nella seconda metà del XVIII secolo la terminologia chimica era ancora intrisa del linguaggio e del simbolismo alchemico sicché a una data sostanza erano in generale associati più termini e altrettanti simboli derivati dagli alchimisti. Ad esempio per la magnesia (carbonato di magnesio) erano in uso ben nove diversi nomi.

All’inizio del 1787 Antoine Laurent Lavoisier (1743-1794) decise di affrontare il problema del linguaggio chimico, nomenclatura e simbologia con un progetto di ampio respiro che coinvolse i seguenti chimici che avevano aderito alla “teoria dell’ossigeno” rigettando quella del flogisto: Guyton de Morveau (1837-1816), Claude Louis Berthollet (1748-1822), Antoine François Furcroy (1755-1809) e, per il nuovo sistema di caratteri chimici, Jean Henri Hassenfratz (1755-1827) e Pierre Auguste Adet (1766-1848). Il progetto si concretizzò con la memoria Mèthode de nomenclature chimique, illustrata all’Académie des Sciences fra aprile e giugno 1787, poi pubblicata in volume nello stesso anno [1][1].

nomenclatura1

L’opera si basava su due regole: la prima, la più importante, stabiliva che il nome avesse un significato conforme alla funzione chimica dell’oggetto da definire; la seconda adottava l’etimologia greca come privilegiata per la formazione dei futuri nomi delle sostanze [2, p.58].

In sintesi, nel volume vengono provvisoriamente elencati come elementi circa 55 sostanze che non potevano essere decomposte in altre più semplici con qualsiasi mezzo chimico noto all’epoca. Gli elementi inclusi sono: luce; calorico (“materia del calore”); ossigeno, idrogeno e azoto; carbonio; zolfo; fosforo; gli ancora sconosciuti “radicali” dell’acido muriatico (acido cloridrico), acido borico e acido fluorico (acido fluoridrico); 17 metalli; 5 terre (essenzialmente ossidi di metalli ancora sconosciuti come magnesia, barite, e strontia); tre alcali (potassa, soda e ammoniaca); e i “radicali” di 19 acidi organici. Gli acidi, considerati nel nuovo sistema come composti di vari elementi a diverso “grado di ossigenazione”, sono stati chiamati con il nome dell’elemento coinvolto insieme al grado di ossigenazione di tale elemento, per esempio acidi solforico e solforoso, acidi fosforico e fosforoso, acido nitrico e acido nitroso, il suffisso -ico indicando acidi con una maggiore percentuale di ossigeno rispetto a quelli con il finale -oso. Allo stesso modo, ai sali degli acidi –ico veniva dato il suffisso -ato, come in solfato di rame, mentre i sali degli acidi –oso venivano designati con il suffisso –ito, come in solfito di rame. L’effetto di questa nuova nomenclatura può essere valutato confrontando il nuovo nome “solfato di rame” con il vecchio termine “vetriolo di Venere”.

La nuova nomenclatura permise, combinando opportunamente i nomi a due a due e a tre a tre, di ottenere più di 320.000 nomi. A questi corrispondevano sostanze che in larga misura non erano ancora state isolate sperimentalmente ma che Lavoisier prevedeva di ottenere quando le tecniche analitiche si fossero raffinate. Il passaggio alla nuova nomenclatura non fu immediato anche a causa della difficoltà di traduzione in alcune lingue europee. Tuttavia, poiché la nuova terminologia chimica era un linguaggio universalmente comprensibile e di facile insegnamento, il successo ottenuto dalla nomenclatura di Lavoisier non ha precedenti nella Storia della Scienza [2, p.64] e, nonostante la revisione IUPAC, continua a essere di uso comune in campo chimico.

I simboli proposti nella Méthode non ebbero però uguale successo, i caratteri consistono in figure geometriche (linee, cerchietti, quadrati, triangoli con o senza lettera all’interno).

John Dalton (1766-1844), il fondatore della teoria atomica, nella sua fondamentale opera: A New System of Chemical Philosophy (1808), propose un sistema di simboli per gli atomi degli elementi e per le loro combinazioni (atomi composti [molecole]). I simboli di Dalton sono cerchietti per gli atomi degli elementi (con un segno convenzionale o una lettera all’interno) e cerchietti a contatto fra loro per rappresentare le particelle delle sostanze composte, come mostrato in figura. [3]

nomenclatura2Non è scopo di questo post discutere le basi della teoria atomica di Dalton e il suo sistema di pesi atomici, vale però la pena sottolineare che le ipotesi di Dalton, che considerava gli atomi come sfere infinitesime dotate di massa, si basavano sulla meccanica newtoniana, una delle più grandi costruzioni nella storia del pensiero umano e che si supponeva potesse spiegare tutto l’universo, dal macro al micro. Si possono quindi considerare le figure daltoniane come rappresentazioni strutturali delle particelle delle sostanze in base alla meccanica di Newton.

A quanto pare il sistema di simboli di Dalton non ebbe largo impiego.

Il successivo sviluppo che condurrà alla simbologia attuale è dovuto al chimico svedese Jöns Jacob Berzelius (1779-1848). Grande chimico, abile sperimentatore e notevole teorico, spaziò dalla chimica inorganica (identificò e scoprì nuovi elementi, inclusi silicio, selenio, cerio e torio, sviluppò tecniche analitiche, ecc.) alla chimica organica (suoi sono i termini allotropo, isomero, polimero, catalisi), enunciò la teoria elettrochimica dualistica per interpretare l’affinità chimica.

Convinto che una notazione chimica dovesse esprimere in modo preciso di quali elementi e in che numero un composto è formato, nel 1814 pubblicò la III parte di un lungo articolo[2] intitolata:

On the Chemical Signs, and the Method of employing them to express Chemical Proportions [4]. Scrive Berzelius:

I simboli chimici dovrebbero essere lettere per la loro maggiore facilità di scrittura [rispetto a segni e figure geometriche] così da non complicare la stampa dei libri……

Prenderò quindi … la lettera iniziale del nome latino di ciascuna sostanza elementare, ma poiché molti hanno la stessa lettera iniziale, li distinguerò nel modo seguente: 1. Nella classe che chiamo metalloidi, impiegherò la sola lettera iniziale, anche se questa lettera è in comune al metalloide e ad alcuni metalli. 2. Nella classe dei metalli, distinguerò quelli che hanno la stessa iniziale con un altro metallo o metalloide scrivendo le prime due lettere del nome. 3. Se le prime due lettere sono in comune fra due metalli, in questo caso, aggiungerò alla lettera iniziale la prima consonante che essi non hanno in comune, per esempio: S = sulphur, Si = silicium, St = stibium (antimony), Sn = stannum (tin), C = carbonicum, Co = cobaltum (cobalt), Cu = cuprum (copper), O =oxygen, Os = osmium, etc.[4, p. 51-52].

Per i composti Berzelius si basa sui “volumi”, quindi: “poiché l’oxidum cuprosum si forma da un volume di rame e uno di ossigeno dovrà scriversi Cu + O, mentre l’oxidum cupricum si scriverà Cu + 2O. Allo stesso modo per l’acido solforico [anidride solforica] si scriverà S + 3O, per l’acido carbonico [anidride carbonica] C + 2O, per l’acqua 2H + O ecc.” [4, p.52].

Per composti come il solfato di rame, Berzelius suggerisce di omettere il segno + fra i “simboli” dei due componenti [ossido di rame e anidride solforica] indicando con un numero posto sopra al simbolo i “volumi” di ossigeno coinvolti, sicché CuO + SO3 sarà il solfato di rame[3].

Nascono così le formule chimiche.

“Ci si può difficilmente rendere conto dell’enorme importanza che questo linguaggio, che noi usiamo come cosa in se stessa ovvia, ebbe a quei tempi per il progresso della scienza chimica…solo a fatica riusciamo a riportarci al modo di pensare chimico del periodo anteriore all’introduzione delle formule, solo sullo sfondo del quale possiamo apprezzare il significato e l’importanza della nuova lingua”. [5]

Tuttavia i chimici dell’epoca trovarono, nell’immediato, i simboli e le formule di Berzelius poco chiari, atti a trarre in inganno e addirittura inutili. Fra i detrattori proprio John Dalton che nel 1837 sostenne che i simboli letterali di Berzelius “gli sembravano iscrizioni in antico ebraico” [5].

Jean Baptiste Andrè Dumas (1800-1824), chimico francese, pare sia stato il primo, nel 1826, a rappresentare reazioni chimiche con equazioni chimiche, utilizzando il simbolismo di Berzelius [6].nomenclatura3

Scorrendo il suo lavoro si evince che egli ritiene valida, insieme con Ampère, l’ipotesi di Avogadro e, a questi due grandi fisici teorici (insieme ai chimici Gay-Lussac, Berzelius, Mitscherlich e Dulong & Petit) vanno i ringraziamenti di Dumas [6, p. 391][4]. Dumas fu anche il primo (o quantomeno uno dei primi) a usare il segno = per separare reagenti e prodotti e a usare i coefficienti per bilanciare le equazioni chimiche [6, pp. 366, 372, 373].

Nei trattati di chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831, l’uso dei pedici per indicare il numero degli atomi della stessa specie fu proposto da J. Liebig nel 1834 [5, p. 156-157]. La “rivoluzione” nella simbolistica chimica si andava completando.

[1] MM. De Morveau, Lavoisier, Bertholet & De Fourcroy, Métode de Nomenclature Chimique, Couchet, Paris, 1787, 1 vol di pp. 313 e 5 tavole.

[2] M. Beretta, Lavoisier – La rivoluzione chimica, I grandi della Scienza, anno I, n.3, maggio 1998, Le Scienze, Milano, 1998.

[3] J. Dalton, A New System of Chemical Philosophy (3 vols. Manchester, 1808, 1810, 1827), Vol I, Part I, p. 211-212

[4] J.J. Berzelius, On the Chemical Signs, and the Method of employing them to express Chemical Proportions, Annals of Philosophy, 1814, Vol III, 51-62, 93-106, 244-256, 353-364

[5] E. Ströker, citato da J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 156.

[6] J.B. Dumas, Mèmoire sur quelque Points de la Théorie Atomistique, Annales de Chimie et de Physique, 1826, 33, 327-391.

[1] Il volume è suddiviso in articoli e note, ciascuno relativo a uno degli autori.

[2] L’intero articolo si intitola: Essay on the Cause of Chemical Proportion, and on some Circumstances relating to them: together with a short and easy Method of expressing them. Parte I: On the Relation between the Berthollet’s Theory of Affinities and the Laws of Chemical Proportions, Annals of Philosophy, 1813, Vol II, 443-444. Parte II: On the Cause of Chemical Proportions, ibid, 444-454.

[3] Successivamente Berzelius userà anche altri simboli, ad esempio O per indicare 2 atomi di ossigeno, oppure un numero di pallini pari al numero di atomi sopra al simbolo dell’elemento.

[4] Come noto l’ipotesi di Avogadro fu recepita universalmente valida solo nel 1860 grazie all’opera di Stanislao Cannizzaro.

Il recupero di terre rare: una necessità crescente.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Le terre rare sebbene poco conosciute al grande pubblico sono probabilmente in questo momento i più importanti minerali al mondo. Uno studio dell’Ente americano NCPA (National Center for Policy Analysis) sottolineava le possibili ricadute e conseguenze del monopolio cinese sulla produzione dei metalli del gruppo delle terre rare. La conclusione era che “la dipendenza dalla Cina per l’approvvigionamento di queste indispensabili materie prime pone l’economia americana in pericolo”.
Secondo la definizione IUPAC le terre rare (in inglese “rare earth elements” o “rare earth metals”) sono il gruppo di 17 elementi che comprendono lo scandio, l’ittrio e i lantanidi.

terre rare

Per capire i termini della questione proviamo a focalizzare l’attenzione sul neodimio. Questo metallo è largamente impiegato per la produzione di magneti permanenti che sono utilizzati in quasi tutti i moderni veicoli e nelle attrezzature di alta tecnologia (computer, telefoni cellulari e laser). La carenza di questo elemento non è un problema solo americano: Giappone e Corea del Sud e la stessa Europa hanno preoccupazioni simili. L’industria automobilistica che sta orientandosi verso la produzione di veicoli con maggior efficienza energetica che si basano sull’uso di componenti ultraleggeri e motori ibridi ha la necessità sempre crescente di utilizzare le terre rare.
In un altro rapporto l’Oeko Institut tedesco mostrava che nel 2012 le imprese europee hanno costruito due milioni di motori elettrici per usi industriali, dotati di magneti permanenti costituiti al 30% di terre rare.
L’elemento comune a tutte queste applicazioni è la presenza di magneti al neodimio-ferro-boro.

HydroPMG3-500x500.jpg

Il rapporto prevedendo una crescita nella domanda di questi elementi suggeriva il bisogno urgente di creare un “approccio circolare” al ciclo di vita dei magneti a base di terre rare.
Questi tipi di apparecchiature (motori elettrici e magneti permanenti) non vengono riciclati e spesso finiscono scaricati nei rifiuti domestici.
Un progetto di riciclo di motori elettrici e successivamente una sua applicazione industriale si può ottenere con tecnologie mature per la separazione: si possono triturare i motori elettrici tramite un mulino a martelli, effettuare una separazione magnetica per dividere materiale ferroso e non ferroso, e successivamente utilizzare altre separazioni fisiche per separare gli inerti leggeri dal restante materiale.
Dal punto di vista dei trattamenti chimici il recupero del neodimio e di altre terre rare dai rifiuti elettrici ed elettronici (Raee) tramite processi di tipo metallurgico prevede il recupero attraverso lisciviazione con acidi inorganici (nitrico, cloridrico, solforico).
La successiva separazione da condurre con molta attenzione perché le terre rare hanno proprietà molto simili tra loro, si può ottenere con processi di estrazione solido- liquido (cristallizzazioni o precipitazioni frazionate) o liquido-liquido mediante solventi. Quest’ultima è la più utilizzata e viene effettuata in continuo e in controcorrente con recupero dei solventi.
Con questo tipo di riciclaggio si potrebbe ottenere materiale contenente circa il 30% di terre rare allo stato puro.
Al momento non esistono imprese specializzate nel recupero di soli magneti a base di terre rare. Un impianto di questo tipo potrebbe lavorare in condizioni di efficienza economica se si approvvigionasse di almeno 100 ton di materiale/ anno.
Il paradosso è che le imprese costruttrici di magneti permanenti spediscono i residui di produzione nella Cina stessa, che però negli anni ha ridotto l’esportazione di terre rare a causa degli aumentati consumi interni.
Se nel 2005 le esportazioni cinesi di terre rare ammontavano a 65.000 tonnellate, nel 2010 questo valore si era ridotto a circa 30.000.
Recuperare terre rare con impianti adatti avrebbe il duplice scopo di ottenere risparmi economici e anche di avere minor impatto ambientale. Basti pensare che le stesse tecniche basate sull’attacco acido hanno impatti ambientali significativamente molto diversi se effettuati su materiale recuperato, piuttosto che su miniere dove la necessità di ottenere rese più elevate di materiale puro da separare dalle rocce inerti può provocare vaste contaminazioni del territorio e la produzione di ingenti volumi di materiale di risulta, senza considerare gli elevati livelli di radioattività ai quali sono esposti i lavoratori e che persistono a lungo nell’ambiente, dovuti alla frequente presenza di torio ed uranio nelle miniere di terre rare.
Un caso emblematico è quello dei villaggi vicini a Baotou, nella Mongolia interna, dove si trova la più grande miniera cinese di terre rare, i cui abitanti sarebbero stati trasferiti altrove per la pesante contaminazione di acqua e raccolti: si valuta che i reflui della lavorazione, acidi e radioattivi, ammonterebbero annualmente a circa dieci milioni di tonnellate.

mongolia cinese.jpg

La miniera di Baiyunebo, nella Mongolia Cinese, uno dei luoghi più inquinati al mondo.

Link
http://www.trisaia.enea.it/it/attivita-di-ricerca/tecnologie-ambientali/tecnologie-e-impianti-per-il-trattamento-rifiuti-e-reflui/tecnologie-ambientali/terre-rare

http://www.corriere.it/ambiente/15_giugno_24/terre-rare-metalli-strategici-miniera-scarti-elettronici-raee-7ed7abca-1a78-11e5-9695-9d78fe24c748.shtml

http://www.enea.it/it/pubblicazioni/EAI/anno-2013/n-5-settembre-ottobre-2013/tecnologie-innovative-per-il-recupero-riciclo-di-materie-prime-da-raee-il-progetto-eco-innovazione-sicilia

Letture consigliate
http://www.editoririuniti.it/libri/la-terra-svuotata.php#

Ecofarmacovigilanza.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, già Presidente SCI

La recente ripetuta denuncia dell’Unione Europea circa il pericolo che si sta concretizzando per l’ambiente e per l’uomo a causa della crescente diffusione di inquinanti di nuova generazione,per i quali i sistemi di rimozione ed i relativi impianti di trattamento non garantiscono adeguati risultati,trovano particolare riscontro con riferimento ai residui di farmaci,ormai presenti nelle acque superficiali a concentrazioni dell’ordine dei ppb.Tali valori di concentrazione sono ancora relativamente lontani dalle soglie di rischio derivanti dalla tossicità di molti di tali principi farmaceutici,ma sono anche di uno – ed in qualche caso due – ordini di grandezza maggiori rispetto ai valori che si potevano rilevare fino a 20-30 anni fa.Ciò dimostra l’esigenza di intervenire per evitare che tale trend si mantenga costante con il risultato di raggiungere in pochi anni valori prossimi ai limiti consentiti per non mettere a rischio la salute dei cittadini.Tale situazione è da imputare all’uso improprio ed esagerato che spesso viene fatto dei farmaci ed ai residui di lavorazione dei processi produttivi nel settore. Lo studio del possibile inquinamento delle acque, causato dall’immissione di farmaci e dei loro metaboliti nell’ambiente, affrontato per la prima volta nel 1977, ha subito un’accelerazione , come dimostrano i lavori reperibili in letteratura, con i loro numerosi riferimenti bibliografici.

epvMolteplici sono le cause di un tale interesse:

  • L’aumento del numero e della quantità di prodotti farmaceutici e del loro consumo mondiale, soprattutto nei Paesi industrializzati;
  • Gli ingenti quantitativi di prodotti scartati giornalmente dalle industrie farmaceutiche, perché scaduti o per effetto di controlli di qualità sempre più rigorosi;
  • La sintesi di farmaci sempre più resistenti ai comuni meccanismi di biotrasformazione, per protrarre la loro esistenza inalterata negli organismi trattati, si è tradotta in un aumento del numero di molecole più stabili ai comuni processi di degradazione chimica e biologica col conseguente incremento nell’accumulo, persistenza e diffusione di tali prodotti nell’ambiente ed in particolare nelle acque reflue alle quali pervengono;
  • Il crescente acquisto di medicinali senza ricette mediche o perfino via internet come se si trattasse di un qualsiasi alimento, con usi conseguentemente scorretti;
  • La consapevolezza che, pur nel rilevamento di concentrazioni di sostanze d’origine farmacologica in concentrazioni inferiori a quelle stabilite dalle normative vigenti, non ci sia ancora alcun’informazione attendibile sugli effetti che esse possono provocare a lungo termine sugli uomini.
  • I trattamenti terapeutici di cura e prevenzione negli allevamenti di bestiame e nelle colture ittiche:
  • L’eliminazione impropria di farmaci scaduti da parte dei consumatori;
  • La rilevante percentuale di espulsione dei principi attivi e dei loro metaboliti dopo cure mediche e veterinarie.

Fra tutte queste motivazioni, merita una particolare attenzione quest’ultimo punto, trattandosi di un’importante via di possibile inquinamento acquatico.

Infatti, quando le sostanze farmaceutiche sono somministrate agli esseri umani ed animali, possono essere escrete senza essere metabolizzate nell’organismo bersaglio, o possono essere assimilate e quindi dissolte, dando origine a derivati (metaboliti).

In entrambi i casi i derivati di tali processi (principi attivi farmaceutici e loro metaboliti) vengono scaricati se provenienti:

  • Da esseri umani nel sistema di scolo, dai quali raggiungono gli impianti di trattamento municipali, dove possono essere rimossi.In caso contrario, se ancora persistenti, possono raggiungere l’ambiente acquatico dando inizio al processo di inquinamento.
  • Da esseri animali nel terreno.In questo caso, le sostanze più resistenti all’azione degradativa dei microrganismi presenti nel sottosuolo, possono permeare attraverso di esso raggiungendo le falde acquifere o raggiungere le acque superficiali per dilavamento del terreno.

Questi composti possono raggiungere poi le acque destinate al consumo umano.

Per comprendere l’entità di un tale problema basta considerare i risultati di una ricerca condotta in Germania sin dal 1997 , dalla quale risultavano rilevati 20 differenti principi attivi assieme a quattro loro metaboliti sia nelle acque di scarico che in quelle superficiali, con picchi di 6,3 mg l-1 di Carbamazepina nelle prime e di 3,1 mg l-1 di Bezafibrato nelle seconde.

360px-Carbamazepine.svg

Carbamazepina

Bezafibrate.svg

Bezafibrato

A tale situazione in ogni caso,si deve porre rimedio.I depuratori nella maggior parte dei casi sono costruiti con riferimento a classi di composti da rimuovere che rientrano in quelle tradizionali degli inquinanti,alle quali certamente non appartengono i residui di farmaci,data la relativa novità del fenomeno.

L’intervento correttivo non può che passare da un lato per un aggiornamento tecnico dei depuratori stessi e per una loro sempre più puntuale ed accurata manutenzione e dall’altro per sistemi integrativi pubblici e privati di rimozione di tali principi.

In tale prospettiva sembra necessario porre l’attenzione su implementazioni dei depuratori realizzate con impianti a valle dei depuratori stessi e quindi in grado di integrarne l’azione e su strategie di intervento porta a porta con sistemi depurativi da attivare a valle del rilascio dei reflui delle singole industrie per rimuovere da essi i principi farmaceutici ed i farmaci eventualmente presenti.La proposta è quindi quella di dotare ogni azienda di un sistema di monitoraggio dei principi o loro prodotti di trasformazione presenti nei reflui e di un sistema di rimozione basato su processi quanto più possibilmente economici,semplici e rapidi.

La bibliografia scientifica esalta, rispetto a questo tipo di problematica, i cosiddetti AOP (metodi di ossidazione avanzata),differenziati a seconda dell’ossidante utilizzato o dell’eventuale miscela di essi.Tale approccio soffre di tutti i difetti dei processi basati su reazioni chimiche “sporche” (gestione e controllo delle reazioni,ulteriori reflui prodotti,reattivi)

Alternativamente si possono adottare metodi fisici e biologici.

I primi prevedono l’utilizzo della luce solare per realizzare,in condizione di catalisi eterogenea da parte di biossido di titanio in forma anatasio,la fotodegradazione dei farmaci eventualmente presenti.Ii processo può essere rinforzato assistendo la luce solare con un’opportuna sorgente di radiazione ultravioletta.

I secondi si affidano invece a microorganismi o a singoli enzimi (ossidasi,idrolasi,cicloossigenasi) liberi, immobilizzati o operanti direttamente in suoli di sacrificio.

In entrambi i casi si dispone della tecnologia necessarie.

 

Termodinamica ed economia.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Nel 1999 Wayne Saslow dell’Università del Texas ha pubblicato un interessante articolo su American Journal of Physics: An economic analogy to thermodynamics (in Am. J. Phys. 67 ,12, December 1999).

termofis1E’ un articolo che mi è venuto in mente leggendo un recente libro di Francesco Sylos Labini (il figlio di Paolo, l’economista) che fa l’astrofisico a Roma. Il libro di Francesco è dedicato ad una critica feroce della scarsa o nulla scientificità della economia neoclassica contemporanea, che non è stata in grado di prevedere nessuna delle grandi crisi che hanno “funestato” il cammino dell’economia negli scorsi decenni ma che ciononostante domina il panorama culturale del mondo economico e dell’università e pretende di sconvolgere le nostre vite quotidiane. E’ una lettura molto interessante.

Tutto sommato il libro di Sylos Labini prende sul serio una indicazione più volte reiterata da gruppi misti di economisti e scienziati della Natura; si veda per esempio un articolo di Charles Hall, Reiner Kümmel e altri, pubblicato su BioScience nel 2001 (BioScience, 51(8), 663)

termofis2E questo è anche un po’ lo spirito di questo post.

Ma torniamo all’articolo di Saslow; nella prima parte dell’articolo si ricordano alcune delle proprietà fondamentali delle funzioni termodinamiche che fanno parte ormai della presentazione standard della disciplina almeno a livello universitario. Un tale approccio, definito “postulazionale”, si basa su un certo numero di postulati matematici le cui conseguenze vengono poi comparate con i risultati sperimentali; i sistemi considerati sono “semplici”, escludono una serie di cose come le superfici, le cariche elettriche; e poi sono sistemi il cui stato viene definito in una condizione di “equilibrio”, ossia una condizione in cui il comportamento del sistema, che pure è costituito di un numero enorme di particelle elementari può essere considerato come dominato da un piccolo numero di parametri macroscopici che non variano nel tempo. Si postula che esista una funzione (denominata entropia) che ha il valore massimo all’equilibrio.

C’è una definizione, a cui non veniva dato gran peso quando ero studente, ma che assume invece un ruolo chiave in questo approccio: quello di grandezze estensive ed intensive. Le proprietà estensive sono additive sui sottosistemi che si considerano; le funzioni termodinamiche possono essere definite nel modo più semplice considerando in un primo momento solo variabili di tipo estensivo, una volta si sarebbe detto che crescono con le dimensioni del sistema, che è poi la definizione anche di IUPAC; per esempio la funzione energia interna U=U(S,V,N), dove S è l’entropia, V il volume e N il numero di moli.

La proprietà di estensività in effetti si può definire in modo formale; la funzione U è omogenea del primo ordine nelle sue variabili estensive ed è dunque estensiva anch’essa; il che vuol dire che se si moltiplicano per un numero a positivo le variabili S,V ed N che sono estensive, la funzione U risulta moltiplicata per a anch’essa: U(aS,aV,aN)= aU(S,V,N): il fattore a è elevato alla prima potenza (primo ordine) e la conclusione è che U è estensiva anch’essa.

Una grandezza intensiva, in questo quadro può essere definita invece come una grandezza che non cresce con le dimensioni del sistema, ossia che se moltiplico per a le grandezze estensive di cui è funzione non cresce; per esempio se definisco una funzione T=T(S,V,N) (che è una delle derivate parziali prime di U) e moltiplico per a le sue variabili, T non cresce a0T(S,V,N)=T(aS,aV,aN); la grandezza T è omogenea di ordine zero, nel senso che è si moltiplicata per a, ma a è elevata a 0, ossia è uguale a 1; se moltiplico per a le dimensioni del sistema la temperatura, la pressione o il potenziale chimico non ne sono influenzati.

C’è dunque perfetta corrispondenza fra la definizione di grandezza estensiva ed intensiva e proprietà di omogeneità di ordine 1 o zero.

Un’ altra proprietà importante delle funzioni termodinamiche è che siano anche continue e derivabili; ne segue che la funzione U è dotata di un differenziale dU= (∂U/∂S)V,NdS + (∂U/∂V)S,NdV + (∂U/∂N)S,VdN, dove le derivate parziali così definite sono grandezze intensive e corrispondono rispettivamente a T, -P e μ.

L’espressione conseguente dU= TdS -PdV + μdN è il corrispondente del primo principio della termodinamica, ma è di fatto solo il differenziale totale della funzione U.termofis3

Questo approccio formale alla termodinamica classica (solo sommariamente riassunto qui) è quello proposto oltre 50 anni fa da H. Callen in un libro che ha fatto scuola e che da allora è stato poi preso ad esempio molte volte. L’approccio ha molte altre stupefacenti conclusioni tutte dipendenti dal semplice punto iniziale che vi ho riassunto, alcune delle quali riprenderemo più avanti.

Come applicare questo punto di vista alla economia e quali sono le corrispondenze?

Anzitutto c’è da rimarcare che come nel caso della termodinamica l’equilibrio in qualche modo ha una definizione circolare; ossia un sistema è all’equilibrio se segue le regole della termodinamica; così sarebbe vero per l’economia, salvo osservare che mentre in termodinamica la teoria ha una forza enorme (Einstein diceva che la termodinamica classica è la sola teoria fisica di contenuto universale che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.), in economia le cose stanno diversamente visti gli innumerevoli fallimenti; ma procediamo.

Su questo argomento Saslow si salva in corner, nel senso che essendo un fisico scrive una cosa ovvia in partenza per tutti, (eccetto che per gli economisti neoclassici contemporanei, tipo Giavazzi e Alesina per capirci): Like thermodynamics, the present theory has predictive power only to the extent that it can relate different sets of measurements.

Sfortunatamente gli economisti neoclassici si rifiutano di confrontarsi con i dati sperimentali e non riescono a prevedere nemmeno una crisi.

In effetti la questione se esista un equilibrio generale del sistema economico e che caratteristiche abbia è uno dei problemi basilari dell’economia che rimane a tutt’oggi almeno in parte irrisolto nell’ambito stesso degli economisti neoclassici o comunque risolto sotto ipotesi che però non reggono il confronto con la realtà; in sostanza anche a prescindere dal confronto con i dati la teoria non è coerente! A questo proposito si legga per esempio B. Ingrao e G. Israel, La mano invisibile ed Laterza 2006 che conclude: “A noi sembra che si possa concludere che l’analisi matematica della teoria dell’equilibrio economico generale, nel contesto delle ipotesi classiche……ha condotto a un chiaro risultato: e cioè che esista una inconsistenza fra gli assunti dellla teoria e le conseguenze che si ricavano dal sistema delle ipotesi che ne costituiscono la struttura”.

termofis4

Ma dato che questo post non vuole essere un trattato ma solo suggerire delle letture vi mostro subito quali corrispondenze suggerisca Saslow:

termofis5Le analogie non riportate qui esplicitamente sono quelle con temperatura assoluta e entropia; la temperatura assoluta viene considerata corrispondente con il livello dello sviluppo economico, mentre all’entropia non viene assegnata alcuna analogia esplicita. Essa viene assegnata al prodotto fra equivalente entropico e temperatura, TS, che viene considerato corrispondente al cosiddetto surplus; il surplus è il risultato finale delle operazioni economiche, quel risultato in termini di plusprodotto o più volgarmente profitto che viene considerato alla base del processo, il suo scopo ultimo; una economia primitiva, arretrata viene considerata incapace di generare un plusprodotto, un profitto, quindi più T è bassa più S è bassa, in altri termini una sorta di terzo principio della termodinamica in termini economici: lim T–>0 S=0

Una delle conseguenze della omogeneità del primo ordine in termodinamica è legata al cosiddetto teorema di Eulero; si può cioè dimostrare che una funzione del tipo del U(S,V,N)=TS-PV+mN; questa equivalenza si conclude con la dimostrazione di quella che viene chiamata in termodinamica equazione di Gibbs-Duhem, ossia l’esistenza di una relazione fra tutte le variazioni delle grandezze intensive: SdT-VdP+Ndμ=0.

In modo equivalente Saslow ragiona nella corrispondenza economica.

Cominciamo col dire che la ricchezza W è la somma della ricchezza monetaria e fisica, W=λM+pN, dove M è la quantità di denaro e λ il suo valore unitario, mentre N è la quantità di beni fisici e p il loro prezzo; ovviamente M ed N sono grandezze estensive mentre l e p sono grandezze intensive (o specifiche). W si conserva negli scambi esattamente come avviene per l’energia; tuttavia Saslow propone una corrispondenza fra energia libera di Helmholtz e ricchezza riservando la corrispondenza con l’energia alla somma fra ricchezza e plusprodotto da essa generato, definito come utilità: U=TS+W=TS+λM+pN; in altri termini la funzione U=U(S,M,N) diventa l’equivalente in termini estensivi dell’energia termodinamica (trascurate per il momento il diverso segno).

L’equivalente della Gibbs-Duhem per questo sistema è

SdT+Mdλ+Ndp=0

Fra l’altro una equazione del genere implica che una diminuzione del valore del danaro o di un bene è accompagnato da un aumento della temperatura economica (ossia di quello che abbiamo chiamato livello dello sviluppo economico).

Un altro esempio di correlazione interessante è quello fra le relazioni di Maxwell e quelle di Slutsky, che sono relazioni fra derivate seconde.

Le relazioni di Maxwell in termodinamica nell’approccio di Callen, vengono fuori dalla condizione per cui se il differenziale primo della funzione termodinamica è esatto allora le derivate in croce sono eguali, esse non dipendono dall’ordine di derivazione e l’integrale sul differenziale della funzione non dipende dal cammino, la funzione termodinamica è una funzione di stato:termofis6

e la medesima proprietà vale per la funzione economicatermofis7

Potrei continuare ancora ma invito i lettori a leggere direttamente l’articolo di Saslow.

Piuttosto impiegherei ancora qualche rigo per sottolineare un limite di questo tipo di correlazioni; la questione è in che modo si possano esse concretamente applicare alle situazioni economiche.

Hall e Kümmell ricordano nel loro articolo uno dei limiti basilari dell’economia, ossia l’economia non ha mai superato la fase del moto perpetuo, non ha mai accettato il primo principio della termodinamica.termofis8

L’economia neoclassica ha una rappresentazione del mondo del tipo di quella mostrata nella parte a della figura dove i fattori della produzione (legati dalla funzione di produzione di Cobb, anch’essa omogenea di primo ordine) non contengono se non capitale e lavoro, trascurando gli apporti energetici e di risorse naturali; una rappresentazione dunque che ricorda da vicino quella di una macchina a ciclo perpetuo, che trae energia dal nulla.

Viceversa la realtà può essere vista come la figura b nella quale gli apporti fisici della biosfera e del sistema naturale non sono trascurabili affatto, ma dominanti; anzi sarebbe bene che questo schema in forma allargata e completa entrasse profondamente nella testa degli studenti di economia:

termofis9Ma allora la relazione fra economia e termodinamica dovrebbe cambiare poichè non la termodinamica classica ma quella di non equilibrio, la termodinamica dei sistemi aperti dovrebbe essere usata per fare delle analogie.

Per esempio giusto per dire; nella termodinamica irreversibile vicino all’equilibrio esistono una numerosa serie di fenomeni lineari interagenti coperti dalle relazioni di Onsager, una scoperta per cui Onsager ricevette il premio Nobel e Prigogine ne ricevette un secondo.

In questo caso le forze spingenti dei fenomeni sono i gradienti delle forze intensive che vengono correlati linearmente ai flussi come avviene nella legge di Ohm (corrente vs. differenza di potenziale elettrico) , nella legge di Fick (flusso di materia vs. gradiente di potenziale chimico) , nella legge di Fourier (flusso del calore vs gradiente di temperatura)  o ancora nei fenomeni elettrocinetici o termoelettrici, dove i gradienti di un tipo controllano, oltre a quelli a loro naturalmente congeniali, flussi di qualità diversa o in cui gradienti di un certo tipo ne generano altri di diversa qualità con una interazione fra cause ed effetti effettivamente dialettica e che hanno un numero enorme di applicazioni (elettroforesi per esempio ossia flussi di materia generati da gradienti di potenziale elettrico oppure gli effetti Seebeck e Peltier con l’interazione complessa fra gradienti di temperatura e potenziale elettrico e i loro rispettivi flussi associati).

E pensate allora a come nella moderna economia globale i gradienti, cioè le differenze, di prezzo del lavoro (il prezzo è una grandezza intensiva) dominano i flussi di lavoratori da un continente all’altro (noi le chiamiamo migrazioni) oppure lo spostamento di capitali da un continente all’altro, in senso opposto (noi la chiamiamo deindustrializzazione in Italia e sviluppo economico in Cina o nel vicino Est Europa); e come tali flussi generino nuovi gradienti. Forse effettivamente la termodinamica ha qualcosa da insegnare all’economia. Voi che ne dite?

Un chimico, un matematico e il calore. 2a Parte

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

(la prima parte di questo post è pubblicata qui)

Nel secondo dei quattro articoli che compongono la Mémoire sur la chaleur di Lavoisier e Laplace [1], i due autori riportano i dettagli e i risultati dei loro esperimenti sul calore specifico dei corpi e sul calore scambiato in alcune trasformazioni chimiche. Dichiarano anzitutto di riferire i calori specifici a quello dell’acqua posto = 1.

La descrizione degli esperimenti è molto dettagliata, così come quella del calorimetro[1] nel primo articolo, in modo che chiunque possa mettersi nelle stesse condizioni ottenendo praticamente gli stessi risultati. Riportiamo ad esempio per il ferro:

… abbiamo messo 5 libbre 15 once 4 grandi 33 grani di ferro granulato in un vaso di ferro, il cui peso era 1 libbra 4 once 4 grandi 60 grani e il coperchio pure in ferro, pesante 7 once 1 grande 15 grani; così il peso totale di ferro fu 7 libbre 11 once 2 grandi 36 grani o 7,7070319 libbre; abbiamo riscaldato questa massa in un bagno di acqua bollente, fino 78 gradi; la abbiamo poi posta in una delle nostre macchine; dopo undici ore, tutta la massa si è raffreddata a zero gradi, e dal recipiente intermedio della macchina, ben sgocciolato, si sono ottenuti 17 once 5 grandi, 4 grani o 1,109795 libbre di ghiaccio fondente, questa quantità di ghiaccio, divisa per il prodotto della massa di ferro, espressa in parti di libbra, e il numero di gradi a cui la temperatura è stata portata sopra lo zero, vale a dire il prodotto 7,7070319 x 78, dà la quantità di ghiaccio che una libbra può fondere per raffreddamento di un grado; allora moltiplicando quest’ultima quantità per 60 si ha quella che una libbra di ferro può fondere fino a zero gradi se riscaldata a 60 gradi, si trova così il valore 0.109985 libbre nella nostra esperienza; ma una libbra di acqua, raffreddandosi a 60 gradi può sciogliere una libbra di ghiaccio; il calore specifico del ferro sta dunque a quello dell’acqua come 0.109985:1; cosicché, se prendiamo uguale a 1 il calore specifico dell’acqua, quello del ferro sarà 0,109985; un secondo esperimento ci ha dato, a meno di circa un novantesimo, quasi lo stesso risultato. ([1], p. 375)[2]

Per determinare il calore specifico dei liquidi una quantità pesata di essi veniva posta in un matraccio di vetro anche esso pesato, riscaldato e immediatamente posto nel calorimetro. Nell’elaborazione dei dati Lavoisier e Laplace tenevano ovviamente conto del calore rilasciato dal vetro del quale avevano preventivamente misurato il calore specifico. Nella Mémoire si trova un esempio relativo all’acido nitrico ([1], p. 375).

calore21

In una tabella precedente la descrizione degli esperimenti, i due Autori riportano i valori ottenuti per i calori specifici di alcuni materiali e miscele.

Sono qui riportati per esempio i calori specifici del ferro battuto 0.109985, del vetro cristallo senza piombo 0.1929 e del mercurio 0.029.

I due scienziati passano poi a riportare e descrivere gli esperimenti fatti per determinare il calore sviluppato da miscele e combinazioni chimiche. Per le prime il calore viene dato in termini della quantità di ghiaccio fondente ottenuta da una libbra di miscela dopo che questa si è raffreddata fino a zero gradi. Per le seconde si riporta l’esempio della reazione fra nitrato di potassio e carbone:

Abbiamo fatto detonare in una delle nostre macchine un’oncia e 4 grandi di nitrato con 4 grandi di carbone, e abbiamo ottenuto 1 libbra e 2 once di ghiaccio fondente; ciò fornisce, per 1 oncia di nitrato, 12 once di ghiaccio fondente.([1], p. 378)

Allo stesso modo determinano il calore sviluppato dalla detonazione di un’oncia di nitrato di potassio con fiori di zolfo, trovando che in quest’ultima si sviluppa una quantità di calore maggiore di più di una libbra rispetto alla prima. Mentre la combustione di un’oncia di fosforo e quella di un’oncia di carbone sviluppano quantità di calore che differisce di due once e 48 grani.

Interessanti sono i due ultimi esperimenti descritti nel secondo articolo, riguardanti il calore prodotto da un porcellino d’india nell’arco di un certo numero di ore:

…in una delle nostre macchine abbiamo messo un porcellino d’india la cui temperatura corporea era di circa 32 gradi, di conseguenza, leggermente diversa da quella del corpo umano. L’animale non ha sofferto durante l’esperimento, lo avevamo posto in un piccolo cesto pieno di cotone, alla

temperatura di zero gradi; l’animale è rimasto 5 ore e 36 minuti nella macchina; durante questo intervallo, gli abbiamo cambiato quattro o cinque volte l’aria mediante un soffietto; rimosso l’animale, la macchina ha fornito circa 7 once di ghiaccio fondente.

In un secondo esperimento…. lo stesso porcellino d’india è rimasto per 10 ore e 36 minuti nella macchina e l’aria è stata rinnovata per tre sole volte; la macchina ha fornito 14 once e 5 grandi di ghiaccio fuso; l’animale non sembra aver sofferto in questi esperimenti[3]. ([1], pp.379-380)

Il terzo articolo, intitolato: Esame delle esperienze precedenti, e riflessioni sulla teoria del calore, inizia con alcune considerazioni su cosa sarebbe necessario conoscere per formulare una teoria completa sul calore:

… si dovrebbe avere un termometro diviso in proporzione alla quantità di calore contenuto nel fluido che lo compone e che potesse misurare tutti i possibili gradi di temperatura.

Bisognerebbe poi conoscere la legge esistente fra le quantità di calore delle sostanze e i gradi del termometro per costruire una scala fra le due quantità… Se il corpo è lo stesso fluido contenuto nel termometro, questa scala sarà rettilinea, ma è possibile che i gradi di calore non crescano proporzionalmente alla temperatura in corpi diversi, e quindi la curva può non essere la stessa per ciascuno di essi.

Sarebbe inoltre necessario conoscere la quantità assoluta di calore contenuta in un corpo ad una data temperatura.

Infine, si dovrebbe sapere la quantità di calore libero che si forma o si perde nelle combinazioni e decomposizioni. ([1], p. 380-381)

E proseguono:

Con questi dati sarebbe possibile risolvere tutti i problemi relativi al calore;…ma questi dati non si possono ottenere se non con un numero quasi infinito di esperimenti molto delicati e fatti a gradi molto diversi di temperatura.

Gli esperimenti dell’articolo precedente non danno i rapporti fra quantità assolute del calore dei corpi, essi non fanno conoscere altro che non sia il rapporto fra quantità di calore necessarie per elevare di uno stesso numero di gradi la temperatura. Occorrerebbe supporre che queste quantità siano proporzionali alle loro differenze; ma questa ipotesi è alquanto azzardata, e non può essere ammessa se non dopo numerose esperienze. Un modo semplice di verificarla sarebbe quello di osservare se le quantità di ghiaccio sciolto dal corpo raffreddandosi di 300 o 400 gradi, sono nello stesso rapporto di quando il raffreddamento è soltanto di 60 o 80 gradi; è un oggetto che intendiamo esaminare in un’altra memoria.[4] ([1], p. 381)

Il resto dell’articolo è una ricerca dell’interpretazione dei risultati degli esperimenti esposti in precedenza in base a una delle due teorie sul calore: quella del calorico (fluido di cui i corpi sono più o meno permeati secondo la loro temperatura) o a quella dinamica (forza viva che risulta dal movimento delle molecole di un corpo).

Conclude la Mémoire il quarto articolo, intitolato “Sulla combustione e la respirazione”. Viene ripreso un precedente lavoro di Lavoisier sulla combustione intitolato Mémoire sur la combustion en général (1779), in cui aveva criticato la teoria del flogisto. In base a risultati sperimentali Lavoisier e Laplace giungono ad affermare che la respirazione è una forma di combustione e che a determinare le combustioni è il consumo di una parte dell’aria (o, per usare la loro terminologia, l’air pur [l’ossigeno]). Negli esperimenti descritti il calore prodotto dalla combustione di diverse sostanze viene confrontato con le variazioni di calore dell’aria pura usata negli esperimenti stessi.

calore22

In ogni caso, come riportato nella prima parte del post, Lavoiser e Laplace non decideranno fra le due teorie sul calore.

Tuttavia molti sostengono che Laplace propendesse decisamente per la teoria dinamica, questa ipotesi è considerata “gratuita” nella nota (3) alla traduzione inglese della Mémoire [2]. Drago e Venezia citano una lunga e dettagliata analisi storica di Guerlac [3] in cui l’autore sosterrebbe che il primo e il terzo articolo sarebbero stati fortemente influenzati dal pensiero di Laplace, il secondo e il quarto da quello di Lavoisier. Attraverso un’analisi logico-linguistica di parti della Mémoire, Drago e Venezia giungono addirittura alla conclusione che la prima e la terza parte sono state scritte da Laplace, la seconda e la quarta da Lavoisier [4]. La propensione di Lavoisier per la teoria del fluido sarebbe anche evidente dal fatto che il grande chimico lo abbia elencato come elemento nel Traité élémentaire de chimie del 1789. Qualunque possano essere state le divergenze fra i due scienziati e chi di loro abbia scritto cosa, essi comunque raggiunsero un’ottima sintesi e il loro lavoro rimarrà un classico nella Storia della Scienza.

Molti anni sono dovuti passare prima che si arrivasse a riconoscere la validità della teoria dinamica, all’equivalente meccanico del calore e al I° Principio della Termodinamica (di cui la Legge di Lavoisier-Laplace è una conseguenza), ma questa è un’altra storia.

calore23

[1] M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408.

[2] Memoir on Heat, Guerlac H. translation, Neale Watson Academic Publications, New York, 1982, in Obesity Research, 1994, 2, 189-202.

[3] H. Guerlac, Chemistry as a branch of Physics. Laplace’s collaboration with Lavoisier, Historical Studies Phys. Sciences, 1976, 7, 193-276.

[4] A. Drago, A. Venezia, Lavoisier and Laplace’s “Mémoire” (1784) and two hypothesis on the nature of heat, www.researchgate.net/publication/265983781_Lavoisier_and_Laplace%27s_Memoire_1784_and_two_hypothesis_on_the_nature_of_heat

[1] Nella Mémoire gli Autori si riferiscono al calorimetro come “la nostra macchina”. La parola calorimetro è stata comunque usata per la prima volta da Lavoisier nel suo Traité élémentaire de chimie, Paris, 1789, p. vi e 387.

[2] La libbra francese (489.5 g) era divisa in 16 once (1 oz = 30.6 g) di 8 grandi (1 grande = 3.825 g), ogni grande valeva 72 grani (1 grano = 0.0531 g). Le bilance usate da Lavoiser raggiungevano la sensibilità di 1/400 di grano corrispondente a circa 0.13 mg, la sensibilità di una odierna normale bilancia analitica. Va anche sottolineato che il sistema metrico decimale fu adottato in Francia con la legge 7 aprile 1795, Lavoisier fu fra i sostenitori di questa riforma.

[3] È interessante la preoccupazione dei due scienziati per l’incolumità dell’animaletto nel corso di questi esperimenti e il sollievo espresso per non averlo fatto soffrire.

[4] Ma non ci sarà un’ulteriore memoria, la collaborazione fra Lavoisier e Laplace si interrompe nel 1774.

Trattamento e recupero di acque piovane.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

La disponibilità di acque adatte per il consumo umano (cioè per usi sia potabili che domestici) sta diventando un problema sempre più grave, non solo nei paesi a clima arido, ma anche in Europa.
Uno studio del Joint Research Center della Commissione Europea prevede che nei paesi del sud Europa gli effetti del cambiamento climatico in atto potranno provocare una riduzione fino al 40% della portata dei fiumi. Nel frattempo la crescente richiesta di acqua da parte dei settori produttivi e dalla popolazione urbana potrebbe portare a situazioni di criticità che potrebbero sfociare in misure di razionamento e in eventuali aumenti dei canoni di fornitura.

california

La soluzione per affrontare questo preoccupante scenario potrebbe arrivare dallo sfruttamento delle acque piovane. Occorre precisare però che le acque recuperabili ed utilizzabili sono solo quelle che cadono sui tetti o su appositi bacini, escludendo quelle che cadono su aree pavimentate, strade e piazzali che possono avere carichi inquinanti decisamente elevati.
In effetti le prime acque meteoriche di dilavamento non diluiscono affatto le acque reflue, essendo esse stesse cariche di inquinanti dilavati dalle superfici di deflusso.
A Taiwan una recente legislazione obbliga ad installare sistemi di raccolta per le acque piovane in tutti gli edifici pubblici di nuova costruzione. Per i palazzi privati l’obbligo non sussiste ma è un requisito indispensabile per ottenere la “green building certification” che costituisce un notevole valore aggiunto per il mercato immobiliare.
Nella provincia cinese di Gansu sono stati installati tre milioni di “Shuijiao” (cantine d’acqua) cioè serbatoi interrati per garantire la fornitura di acqua potabile ad altrettante famiglie rurali.
Prima di parlare delle tecniche di trattamento dell’acqua piovana mi piace ricordare i miei anni di infanzia. Oggi sembrerebbe impossibile ma la casa dei miei nonni materni dipendeva per l’acqua da un pozzo esterno, situazione comune in molte cascine del Monferrato nella prima metà dello scorso secolo. Le piogge contribuivano non poco al riempimento e ravvenamento del livello di quel pozzo. Io ero incaricato di agganciare il secchio al gancio e di calarlo nel pozzo facendo scorrere la corda sulla carrucola quando restavo con i nonni durante l’estate. Qualche anno dopo mio padre e mio zio (suo fratello) dotarono mia nonna rimasta vedova di una pompa idraulica per evitarle questo compito che con l’avanzare dell’età risultava per lei sempre più faticoso.

pozzo

Anche se l’acqua piovana non è sempre potabile “tal quale” (soprattutto per la presenza di contaminazioni microbiologiche) i sistemi di filtrazione sono ben conosciuti sia nelle versioni tradizionali (filtrazione su sabbia, disinfezione con ipoclorito o raggi UV) , che nelle versioni più moderne basate su moduli di ultrafiltrazione e carbone attivo. Nel caso del pozzo di mia nonna veniva utilizzato un filtro a carbone di legna che ha sempre funzionato egregiamente. Ne sono la testimonianza diretta, visto che nelle giornate estive spesso bevevo frequentemente l’acqua di quel pozzo direttamente con il mestolo dopo aver calato e poi sollevato il secchio dal pozzo.
La presenza diffusa di sistemi di recupero dell’acqua piovana avrebbe un effetto “ammortizzatore” nel caso di precipitazioni brevi ed intense (le cosiddette bombe d’acqua termine entrato nel lessico corrente ma che personalmente non mi piace troppo).
I contaminanti di un’acqua piovana possono essere i più diversi dal dilavamento di inquinanti atmosferici (per esempio le “piogge acide”, fino al fogliame, escrementi di uccelli ed altri contaminanti microbiologici.
Il sistema di trattamento di queste acque dipenderà anche dall’uso che ne verrà fatto. Su un consumo medio giornaliero di 250 litri di acqua solo il 2% circa viene destinato all’uso potabile propriamente detto, cioè per bere, cucinare, lavare le verdure. Il 49 per cento è destinato ad usi igienici (bagno, doccia e lavaggio pentole e stoviglie. Per questo tipo di usi è comunque necessaria l’eliminazione dei solidi sospesi e della contaminazione microbiologica.
Per il restante 49% dell’acqua che si destina per esempio allo scarico del wc, all’innaffiatura e al lavaggio delle auto può essere sufficiente un semplice trattamento di decantazione e di filtrazione.

recupero_acque

I sistemi di recupero sono di solito costituiti da un serbatoio interrato che raccoglie le acque provenienti dalle gronde. Al di sotto della superfice del liquido si posiziona mediante galleggiante il tubo di aspirazione. La pressione per portare l’acqua alle diverse utenze è ovviamente fornita da una pompa idraulica , e a monte di questa si monta un filtro per l’eliminazione dei solidi sospesi. L’impianto si completa con uno scarico di troppo pieno con recapito in fognatura e da una connessione con la rete di acqua potabile, per sopperire ad eventuali periodi di siccità prolungata e per effettuare eventuali pulizie periodiche. Per usi igienici quali bagno o doccia si include nel sistema uno stadio di trattamento per abbattere la carica batterica. Se si opta per la clorazione o la sterilizzazione con ozono è necessario uno serbatoio di accumulo a valle. Metodi più moderni come lampade uv e microfiltrazione si possono installare direttamente sulla mandata della pompa stessa.
Se, come ancora spesso accade, l’acidità dell’acqua piovana è eccessiva (pH tra 5,5 e 6) e necessaria l’installazione di un filtro di correzione dell’acidità con riempimento di materiale granulare a base di carbonato di calcio. Un sistema di questo tipo con portate di 2000-3000 lt/h a costi che si aggirano intorno ai 4000 euro. Se si vuole poi destinare l’acqua piovana ad uso potabile andrà previsto il passaggio su carbone attivo e l’eventuale aggiunta delle sostanze minerali che di solito non sono presenti nelle acque piovane. Tutto l’impianto idrico dovrà poi essere sottoposto a trattamenti periodici di clorazione.
L’acqua può avere molteplici usi e quindi trattamenti differenziati. Da anni si parla di acqua e della necessità di preservarla e non sprecarla. L’acqua va conosciuta e sarà necessario nel futuro evitare di destinare acqua adatta all’uso potabile per lo scarico dei wc. Ogni fonte di approvvigionamento andrà gestita correttamente. Anche l’acqua piovana.