Preistoria del legame a idrogeno

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Sebbene secondo Linus Pauling T.S. Moore e T.F. Winmill siano stati i primi a invocare il legame a idrogeno per spiegare la minore basicità dell’idrossido di trimetilammonio rispetto a quella dell’idrossido di tetrametilammonio nel 1912 [1], non v’è dubbio che la descrizione del legame a idrogeno nel suo ambiente più noto, l’acqua, apparve nel 1920 a opera di Wendell M. Latimer e Worth H. Rodebush [2]. Entrambi, a quel tempo, facevano parte del gruppo di giovani chimico-fisici raccoltisi attorno a Gilbert N. Lewis a Berkeley. Di Latimer abbiamo parlato diffusamente in un precedente post[1], Rodebush (1887-1959) si trasferì come professore associato all’università dell’Illinois nel 1921. Latimer, in una sua breve autobiografia, scrisse:

“In my early paper (1920) with W. H. Rodebush, I first clearly stated the principle of hydrogen bonding, which is now so generally accepted. In this paper Rodebush wrote the first half on the general concept of polarization, and I wrote the last half which dealt with the structural interpretation. We naturally had to get G. N. Lewis’ permission to publish the paper since we used his new theory of valence, and it was only with considerable argument that I was able to keep the hydrogen-bond theory in the paper.[3]

Il lavoro di Latimer e Rodebush, il primo articolo di Latimer, è suddiviso in tre parti oltre all’introduzione: Ionization of Polar Compounds, Ionization of Compounds not Higly Polar, Associated Liquids. Latimer afferma che la parte scritta da lui concerne l’interpretazione strutturale. Questa interpretazione non riguarda solo l’ipotesi del legame a idrogeno ma anche in larga misura il confronto fra l’acidità di diversi composti e la loro struttura in base alla teoria di Lewis.

Ad esempio:

La forza di un ossiacido può essere considerata in termini di forze che tendono a distorcere l’ottetto dell’ossigeno. Lewis, nel suo lavoro “The Atom and the Molecule” ha discusso l’effetto della sostituzione di un atomo di cloro nell’acido acetico. Le idee che ha espresso possono essere considerevolmente estese in connessione con gli acidi ossigenati inorganici. Così per l’acido solforico:

preistoria1

l’attrazione del kernel [nucleo] dello zolfo per gli elettroni messi in comune con l’ossigeno e la repulsione fra i kernel dello zolfo e dell’ossigeno tende a distorcere l’ottetto dell’ossigeno dalla sistemazione cubica. Ovviamente questa attrazione degli elettroni verso lo zolfo insieme alla repulsione del kernel dell’ossigeno indebolirà la forza con cui l’idrogeno trattiene una coppia di elettroni in comune con l’ossigeno. Tanto più alta è la carica positiva sul kernel centrale, tanto maggiore sarà la distorsione. Quindi, per ogni riga orizzontale del sistema periodico, gli ossiacidi di alta valenza, esempio l’acido silicico (H4SiO4), l’ortofosforico, l’acido solforico e l’acido perclorico, diventeranno più forti con l’aumentare del numero atomico. [2, p. 1427]

Notare come la “sistemazione cubica” degli elettroni attorno al kernel (nucleo) sia ancora utilizzata, tuttavia la considerazione delle forze attrattive e repulsive e la chiara definizione di elettronegatività riportata nell’introduzione [2, p. 1419], conducono a risultati corretti, in accordo con i dati sperimentali.

Ancora più interessante è l’esempio dell’acido nitrico.

La struttura dell’acido nitrico può essere una di queste due:

preistoria2

Sotto la spinta di un atomo fortemente elettronegativo come l’ossigeno, l’ottetto dell’azoto può non essere stabile formando un sestetto [struttura a sinistra]. L’analisi a raggi X delle strutture del gruppo nitrato nel nitrato di sodio sembrano confermare questa ipotesi. La stessa cosa è senza dubbio vera per gli acidi borico e carbonico.

La struttura dell’acido nitroso può quindi essere scritta come:preistoria4

Qui abbiamo un altro esempio di una coppia libera di elettroni sull’atomo centrale. Ciò spiega il fatto che l’acido nitroso è più debole dell’acido nitrico. [2, p. 1429]

Tornando all’oggetto di questo post, Latimer espone la sua teoria del legame a idrogeno nell’ultima parte dell’articolo, “Associated liquids”. Dopo aver criticato l’ipotesi che l’aggregazione delle molecole nei liquidi è sostanzialmente correlata alla costante dielettrica e al potere ionizzante del liquido come solvente, scrive:

Confrontiamo ancora i composti ammoniaca, acqua e acido cloridrico. L’ammoniaca addiziona facilmente un idrogeno, ma ha scarsa tendenza a cederne uno. D’altro canto l’acido cloridrico mostra proprio la tendenza opposta. L’acqua occupa una posizione intermedia e mostra tendenze sia a cedere sia a acquistare idrogeno, che sono quasi bilanciate. Quindi, in termini della teoria di Lewis, una coppia non condivisa di elettroni su una molecola di acqua potrebbe essere in grado di esercitare una forza sufficiente da attrarre un atomo di idrogeno legato all’ossigeno di un’altra molecola d’acqua, aggregando così le due molecole. Strutturalmente si può rappresentare cosi:preistoria5

Una tale combinazione non deve necessariamente essere limitata alla formazione di molecole [aggregati] doppie o triple. Infatti il liquido può essere costituito da grandi aggregati di molecole, continuamente rompendosi e riformandosi sotto l’influenza dell’ agitazione termica.

Questa spiegazione implica che il nucleo dell’idrogeno trattenuto fra due ottetti costituisca un “legame debole”. [2, p. 1431]

A questo punto nel lavoro di Latimer e Rodebush compare la seguente nota a piede di pagina:

Mr. Huggins [studente di dottorato] di questo laboratorio in qualche lavoro non ancora pubblicato, ha usato l’idea di un nucleo di idrogeno trattenuto fra due atomi come teoria riguardante certi composti organici.

In realtà pare proprio che questa ipotesi di Mr. Huggins[2] non venga molto considerata dagli autori infatti più avanti si legge:

Non si presume che ogni associazione sia di questo tipo. Nel’acido acetico, per esempio, l’associazione avviene certamente con la formazione di polimeri costituiti di 2 molecole. Questo tipo di associazione però produce proprietà radicalmente diverse da quelle di un liquido come l’acqua.[2, p. 1431]

Tuttavia, il tentativo di interpretare la formazione dell’idrossido di ammonio attraverso un legame a idrogeno con l’ossigeno dell’ossidrile:preistoria6

implica, in termini della teoria di Lewis questo legame dovrebbe essere abbastanza forte[3].

Per quanto riguarda l’acido fluoridrico viene detto:

E’ del tutto possibile nel caso dei composti dell’idrogeno con elementi più elettronegativi, per esempio il fluoruro di idrogeno, che l’attrazione simultanea di un ottetto altamente potente di elettroni, e la repulsione del forte nucleo positivo per l’idrogeno, possa provocare un movimento elastico dell’atomo di idrogeno in singola molecola.

L’associazione delle molecole è, tuttavia, molto probabilmente il fattore che determina l’estremamente elevata costante dielettrica.[2, p. 1432].

Questa è l’interpretazione di Latimer del legame a idrogeno in base alla teoria della valenza di Lewis, la storia più recente di questo legame e la sua importanza nella Chimica della Vita dovrebbe essere nota a tutti i chimici. Ecco la definizione IUPAC:

A particular type of multicenter (three center – four electron) X–H …Y in which the central hydrogen atom covalently linked to an electronegative atom X (C, N, O, S..) forms an additional weaker bond with atom Y (N, O, S..) in the direction of its lone electron pair orbital. The energy of hydrogen bonds, which is usually in the range of 3–15 kcal/mol (12–65 kJ/mol), results from the electrostatic interaction and also from the orbital interaction of the antibonding σ*(XH)MO of the molecule acting as the hydrogen donor and the non-bonding lone electron pair MOnY of the hydrogen acceptor molecule.[4]

 

[1] T.S. Moore, T.F. Winmill, The State of Amines in Aqueous Solution, J. Chem. Soc., 1912, 101, 1635-1676.

[2] W.M. Latimer, W.H. Rodebush, Polarity and Ionization from the Standpoint of the Lewis Theory of Valence, Journal of the American Chemical Society, 1920, 42, 1419-1433.

 [3] J.H. Hildebrand, Wendell Mitchell Latimer 1893-1955. A Biographical Memory, Biographical Memoirs, National Academy of Sciences, Whashington, D.C., 1958, p. 224

[4] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014.02.24, p. 697

 

[1] https://ilblogdellasci.wordpress.com/2016/08/01/stato-di-ossidazione-e-numero-di-ossidazione-sono-sinonimi/

[2] Maurice Loyal Huggins (1897-1981) introdusse l’ipotesi del legame a idrogeno nella sua tesi di dottorato (1919) applicandola al tautomerismo dell’acido acetoacetico. Sfortunatamente la tesi andò perduta. Dopo il Ph.D a Berkeley continuò a fare ricerca sul ruolo del legame a idrogeno nella stabilizzazione della struttura secondaria delle proteine. Insieme a Flory ha elaborato un’importante teoria sui polimeri. Ha lavorato all’Arcadia Institute of Research a Woodsde, CA (USA).

[3]  E’ attualmente impossibile isolare la specie NH4OH perché essa sarebbe una frazione insignificante della quantità totale di NH3 eccetto che in soluzioni estremamente diluite.

Curarsi col cibo. Cosa è la nutraceutica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Negli anni 80 l’Unione Europea denunciò a più riprese l’abuso di farmaci da parte dei consumatori con responsabilità assegnate sia a loro stessi che ai produttori.

La denuncia nacque dalla comparsa di residui farmaceutici nelle acque di moltissimi fiumi europei. In effetti non si trattava di comparsa, ma di concentrazione crescente ad una velocità temporale che se fosse stata mantenuta avrebbe portato nel 2050 i valori di tali presenze a limiti incompatibili con la vita nei fiumi.

Da qui la raccomandazione di mettere in piedi tutte le possibili alternative a tale spropositato utilizzo di sistanze, pure preziose contro malattie e patologie varie.La nutraceutica fu subito rilanciata come uno degli strumenti: curarsi con l’alimentazione è perfetto,si disse. Il discorso non è in effetti così semplice,ma il principio certamente valido.

Il termine “Nutraceutica” nasce , per indicare la disciplina che indaga tutti i componenti o i principi attivi degli alimenti con effetti positivi per la salute, la prevenzione e il trattamento delle malattie. Invece di mangiare e curarsi, ecco come curarsi mangiando. La Nutraceutica ha un compito complesso e fondamentale: sgombrare il campo dalle approssimazioni e trattare l’argomento con la scientificità e il rigore che merita.
Ciò significa raccogliere ed esaminare i test e le indagini sperimentali che vengono condotte in tutto il mondo, individuare quali componenti presenti nei cibi siano responsabili degli effetti benefici eventualmente riscontrati, fornire aggiornamenti costanti sulle più recenti ricerche.
Il ruolo della Nutraceutica diventa quindi decisivo per chi vuole conoscere nel dettaglio cosa succede veramente quando ci alimentiamo, quali principi si attivano e con quali conseguenze reali sulla salute. Nutraceutica deve quindi voler dire riconoscere, attraverso una rinnovata relazione tra biologia, chimica ,agraria, biologia ,biotecnologie e medicina, lo stretto rapporto che esiste tra le nostre abitudini alimentari e la nostra salute.

La maggior parte dei nutraceuticii ha origine vegetale e si trova nella frutta e nella verdura, come fibre, proteine di soia, fitosteroli e polifenoli. Molti nutraceutici possono anche trovarsi in farmacia come integratori alimentari. La gamma di possibilità offerta dal consumo di nutraceutici si è allargata negli ultimi tempi in modo considerevole: mantenimento del benessere , prevenzione delle patologie cardiovascolari e degenerative, rafforzamento del sistema immunitario, regolarizzazione delle funzioni intestinali, aiuto a fini sportivi e cosmetici.
I nutraceutici sono oggi una realtà medico-scientifica in costante espansione, sia per quanto riguarda il numero e l’accuratezza degli studi scientifici che per la diffusione di prodotti specifici (si pensi che negli USA si fatturano oltre 250 miliardi di dollari).

La nutraceutica nella sua prima fase di scienza riconosciuta è stata sosatanzialmente basata sul confronto di composizione fra alcuni farmaci,abusati più che usati, ed alcuni alimenti.Oggi la nutraceutica fha approfondito il suo ruolo potenziale con un carattere funzionale, rispetto alle composizioni viste nel loro complesso e non limitatamente al singolo composto responsabile del conferimento del carattere nutraceutico

L’altro aspetto di valore aggiunto della nutraceutica deriva dagli approfondimenti scientifici che l’assimilazione farmaco/alimento ha indotto e resi possibili.

800px-Semillas_de_Chía

I semi di Salvia hispanica, ricchi di omega-3

 

Le verità della comunità scientifica

In evidenza

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Alberto Bellini**

albertobelliniuniboUn comunicato stampa della Società Italiana di Igiene, sostenuto dall’Istituto Superiore di Sanità, ha riaperto la discussione sugli impianti di incenerimento rifiuti. La Società Italiana di Igiene afferma con forza sette verità scientifiche sulla gestione dei rifiuti:

  • Le discariche inquinano più degli inceneritori.
  • La gestione dei rifiuti non può prescindere da inceneritori di ultima generazione, che hanno un bilancio energetico positivo.
  • Lo studio epidemiologico Moniter evidenzia chiaramente l’assenza di rilevanti rischi sanitari acuti e cronici per chi vive in prossimità degli impianti.
  • Il trasporto dei rifiuti, lontano da dove essi vengono generati, ha costi e impatti ambientali rilevanti.
  • È fondamentale una strategia di lungo periodo, basata anche su educazione ambientale.
  • I rifiuti accumulati per strada sono un segno di degrado, ma non sono documentate emergenze sanitarie particolari nel caso della città di Roma.
  • La teoria dei rifiuti zero è illusionistica ma è un falso mito, non solo perché di fatto inattuabile ma per la dimostrazione che le raccolte differenziate oltre una certa soglia (attorno al 60%) rischiano di non essere efficaci.

moniter

L’Istituto Superiore di Sanità definisce Moniter (studio commissionato dalla Regione Emilia-Romagna per valutare gli impatti ambientali e sanitari degli inceneritori) un “lavoro scientifico che ha documentato l’assenza di rischio sanitario per i cittadini che vivono nelle zone limitrofe”. “Un dato, condiviso e convalidato anche dalla comunità internazionale, europea e extraeuropea, attraverso studi che dimostrano, inoltre, che i termovalorizzatori di nuova generazione producono emissioni la cui qualità dell’aria in uscita è sostanzialmente migliore a quella in entrata“.

Stupisce in queste affermazioni l’assenza di ogni dubbio e di riferimenti bibliografici che le sostengano. In realtà, come sostenuto dall’Associazione dei Medici per l’Ambiente[1] e da Medicina Democratica[2], lo Studio Moniter ha dimostrato con chiarezza un aumentato rischio di aborti spontanei e di nascite pre-termine nelle popolazioni esposte alle emissioni degli inceneritori, e un aumento di incidenza di linfomi Non-Hodking per l’area di Modena. Inoltre, Medicina Democratica aveva espresso riserve[3] sul metodo adottato nello Studio, dubbi e richieste alle quali il Comitato Scientifico di Moniter non ha ancora risposto[4]. Dubbi che riguardano il perimetro di indagine e l’assenza tra gli indicatori dell’esposizione di matrici animali e vegetali, indicatori più sensibili agli effetti di diossine e PCB.

Pur cercando di evitare una battaglia “ideologica” tra due fazioni “estreme”: chi considera gli inceneritori una panacea per la gestione dei rifiuti, e chi li considera fonti di inquinamenti inaccettabili in un contesto urbanizzato; il comunicato stampa di SITI e ISS appare fortemente indirizzato verso la prima fazione e contiene alcune contraddizioni.

Presentare gli inceneritori come soluzioni migliorative rispetto alle discariche, è auto-contraddittorio: gli inceneritori, infatti, richiedono discariche di servizio per trattare ceneri e scarti, pari a circa il 30% in volume dei rifiuti in ingresso. Analogamente, quando si contesta il trasporto dei rifiuti a lunghe distanze dal punto di produzione, si dimentica che le discariche di servizio per le ceneri degli inceneritori (tossiche e altamente pericolose) sono spesso a grande distanza dagli impianti stessi.

Immaginare che la raccolta differenziata dei materiali debba essere limitata al 60% significa annullare rapidamente le riserve di materie prime disponibili. Una direzione in aperto contrasto con le politiche comunitarie che puntano sull’economia circolare per superare le crescenti difficoltà di un’area territoriale senza materie prime. Secondo gli studi della Comunità Europea, un uso più efficiente delle risorse lungo l’intera catena produttiva potrebbe ridurre il fabbisogno di fattori produttivi materiali del 17%-24% entro il 2030, con risparmi per l’industria europea dell’ordine di 630 miliardi di euro l’anno[5]. Bruciare i materiali contenuti nei rifiuti significa dover estrarre nuove materie prime per produrre nuove merci (magari “usa e getta”) con un impatto ambientale che non è limitato al singolo impianto di incenerimento ma che percorre tutta la filiera produttiva, dall’estrazione, alla trasformazione, alla commercializzazione delle merci e si riattiva a ogni accensione.

Affermare che la qualità dell’aria in uscita agli inceneritori è migliore di quella in ingresso, significa attribuire ai sistemi di abbattimento fumi un merito superiore a quello di Prometeo stesso: la distruzione di materia. In realtà, quei sistemi producono scarti tossici (in aria e in acque) e la combustione produce particolato ultra fine i cui effetti sulla salute sono unanimente riconosciuti[6]. D’altra parte, se un inceneritore avesse queste straordinarie proprietà, perché non costruirne uno di fianco a ogni ospedale?

Attendiamo ora le controdeduzioni della Società Italiana di Igiene e dell’Istituto Superiore di Sanità alle analisi di ISDE e Medicina Democratica. La comunità scientifica è attesa a un ruolo attivo e indipendente. Le affermazioni assolute sono lontane dal metodo scientifico, e le opinioni di decisori politici o di esperti di altri settori dovrebbero essere ignorate. Il condizionale è d’obbligo se la comunità scientifica abdica al suo ruolo di terzietà e analisi.

A mio parere, per la gestione dei rifiuti occorre una riforma strutturale, che si può sintetizzare in quattro punti.

  • Riduzione e prevenzione dei rifiuti, promuovendo l’immissione a consumo di materiali riciclabili, attraverso incentivi economici, ad esempio, fissando un contributo ambientale, inversamente proporzionale alla riciclabilità del prodotto.
  • Tariffe proporzionali alla produzione di rifiuti non riciclabili, per declinare il principio comunitario, chi più inquina più paga.
  • Piano pluriennale per la realizzazione di impianti di selezione e recupero dei materiali secchi (carta, plastica, vetro, metalli) e per il trattamento della frazione organica.
  • Piano pluriennale per gli impianti di smaltimento.

L’obiettivo delle prime tre azioni è la riduzione il rifiuto residuo indifferenziato al di sotto della soglia di 100 kg per abitante per anno, nel medio periodo – eg 2025. In questo modo, la quota di materiale da smaltire attraverso discariche e inceneritori sarebbe pari a circa 6 milioni di tonnellate ogni anno (nel 2014 è stata pari a circa 14.5 milioni di tonnellate). Assumendo che 80% del residuo venga trattato con inceneritori, sarà necessaria una capacità complessiva inferiore a 5 milioni di tonnellate. I 42 inceneritori attualmente operativi hanno una capacità complessiva pari a circa 6 milioni di tonnellate. Quindi, il piano di cui al punto (4) dovrà prevedere una riduzione ed equa distribuzione degli impianti, attualmente concentrati in Lombardia (13), Emilia-Romagna (8), Toscana (5). Una disomogeneità destinata a produrre tensioni sociali, e a non favorire un’efficiente gestione dei rifiuti. Emblematici alcuni dati riportati dallo studio di settore sui rifiuti di Cassa Depositi e Prestiti[7]: (1) le esternalità (costi sanitari e ambientali) associate al settore rifiuti sono pari a 157 € per ogni 1.000 € di valore aggiunto generato, mentre sono in media pari a 24 € per il totale delle attività economiche; (2) la percentuale di materia smaltita in discarica è inversamente proporzionale alla quota procapite degli investimenti per impianti. Nel paese le distanze rimangono enormi, si passa, infatti, da 45 € per abitante investiti in Emilia-Romagna nel periodo 2004-2008 a meno di 5 € in Calabria; la quota di rifiuti smaltiti in discarica è pari al 6-7% in Friuli Venezia Giulia e Lombardia, e pari a oltre 80% in Sicilia e Lazio[8].

Economia-circolare

La riduzione degli inceneritori è un’operazione necessaria per promuovere il recupero di materia e l’economia circolare, poiché essi sono impianti molto rigidi che richiedono una quantità fissa di materia. Realizzare un inceneritore significa ipotecare il futuro, ovvero prevedere che per i prossimi 20-30 anni sarà disponibile un’elevata quantità di materia non riciclabile e non separata alla fonte. Un’opzione che contrasta con le dinamiche economiche e industriali che vedono un’elevata sovra capacità impiantistica (in particolare in Nord Europa) e una costante riduzione di materiale indifferenziato. Queste dinamiche dovrebbero mantenersi e anzi esaltarsi per effetto delle politiche sull’uso razionale delle risorse che prevedono il disaccoppiamento tra produzione e consumo di materie prime e per effetto delle politiche ambientali che promuovono la raccolta differenziata di qualità. Politiche che si estenderanno per ragioni economiche e ambientali, ovvero per limitare l’uso di materia prima e risorse naturali, già oggi, in molti casi, vicino ai limiti di sfruttamento. Tra il 1900 e il 2009 il consumo di materiali da costruzione, metalli e minerali, energie fossili e biomassa è passato da meno di 10 a circa 70 miliardi di tonnellate all’anno[9].

 

[1] Comunicato stampa Associazione Medici per l’Ambiente – ISDE Italia, 17 agosto 2016, “replica a comunicato della Società Italiana di Igiene su inceneritori”.

http://www.isde.it/wp-content/uploads/2016/08/2016.08.17-Replica-a-SItI-su-presunta-utilità-ed-innocuità-degli-inceneritori-di-III-generazione-Comunicato-Stampa-ISDE-Italia.pdf

[2] Medicina Democratica, “Il mito di Prometeo offusca la visione della Società Italiana di Igiene”, 17 agosto 2016

Il mito di Prometeo offusca la visione della Società Italiana di Igiene

[3] Medicina Democratica, “Osservazioni sullo studio Moniter”, a cura di Agostino Di Ciaula e Patrizia Gentilini, gennaio 2012.

http://www.medicinademocratica.org/wp/wp-content/uploads/2016/08/osservazioni-Moniter-MD.pdf

[4] Progetto MonITER, “Verbale della seduta del comitato scientifico del 16 marzo 2012”

http://www.medicinademocratica.org/wp/wp-content/uploads/2016/08/CS120316.pdf

[5] Commissione delle Comunità Europea, “Verso un’economia circolare: programma per un’Europa a zero rifiuti”, 2 luglio 2014, COM(2014)398.

[6] WHO Regional Office for Europe, OECD (2015). Economic cost of the health impact of air pollution in Europe: Clean air, health and wealth. Copenhagen: WHO Regional Office for Europe

[7] Cassa Depositi e Prestiti, “Studio di settore: Rifiuti”, febbraio 2014.

[8] ISPRA, “Rapporto Rifiuti Urbani”, 2015.

[9] Senato della Repubblica, Servizio Studi Dossier Europei, “Le proposte sull’economia circolare”, 19 gennaio 2016.

 

**Alberto Bellini è professore associato presso l’Università di Bologna.
I suoi principali interessi di ricerca sono nell’ambito della conversione statica di energia da fonti energetiche rinnovabili, degli azionamenti elettrici digitali e della diagnostica preventiva delle macchine elettriche.
È stato coordinatore del progetto europeo Life+ RELS sulla gestione dei rifiuti.
È autore o co-autore di oltre 100 articoli scientifici, di 3 brevetti industriali e di un testo didattico.

Fluorazione delle acque potabili. Una questione controversa.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Esiste per ogni persona che si occupi di chimica, un filo che ci collega a qualche elemento. Non è semplice capire perché uno invece di un altro. Le suggestioni possono essere diverse e magari derivano da ricordi di lezioni scolastiche. Io ero interessato agli alogeni ed in particolare incuriosito dal fluoro. Forse le prime curiosità nascevano dalla pubblicità. Io posso definirmi della generazione di Carosello, contenitore pubblicitario che aspettavo di vedere ansiosamente, come quasi tutti i bambini. Negli anni 70 erano innumerevoli le pubblicità che dicevano meraviglie di dentifrici con nomi che mi ricordavano gli alogeni (anche se Chlorodont probabilmente faceva riferimento alla clorofilla più che al cloro…).
Il fluoro è un elemento molto noto per la sua capacità di creare composti anche a temperatura ambiente con quasi tutte le sostanze organiche ed inorganiche vista la sua elettronegatività.
Ricordo che rimasi molto impressionato dalle proprietà dell’acido fluoridrico che, mi venne spiegato, veniva usato per incisioni da effettuarsi sul vetro, quali quelle che molti anni fa si trovavano per esempio sulle bottiglie dei reattivi o nelle porte degli uffici.

fluoro

Eppure in molti paesi di area anglosassone quali Stati Uniti, Canada, Australia e Nuova Zelanda l’acqua potabile veniva e viene sottoposta a fluorazione con l’aggiunta di composti quali sodio fluoruro (NaF) o acido fluosilicico (H2SiF6).
L’ipotesi alla base di questo provvedimento era che il fluoro avrebbe effetto di prevenzione sulla carie dentaria.
In Italia ed in buona parte dell’unione europea l’acqua potabile non viene fluorata con l’eccezione di Irlanda e Gran Bretagna. In paesi quali Germania, Belgio, Austria e Francia è di normale uso il sale fluorato.
In Italia i primi studi ed esperimenti sull’efficacia dl fluoro come mezzo profilattico risalgono ai primi anni cinquanta e furono avviati dalla Clinica Odontoiatrica dell’Università di Pavia, diretta da Silvio Palazzi, in collaborazione con Alessandro Seppilli, direttore dell’Istituto di Igiene dell’Università di Perugia; le ricerche delle due Scuole confermarono il potere batteriostatico ed antifermentativo del fluoro applicato direttamente sullo smalto, oltre che quello preventivo e profilattico dei dentifrici fluorurati.
L’Italia in ogni caso non scelse di fluorare le proprie acque potabili per diverse ragioni,la prima fra tutte il fatto che in Italia la concentrazione media di fluoruri nelle acque si stima abbia un valore di concentrazione medio di 1 mg/lt, con scostamenti in zone quali quelle dei Castelli Romani dove è sensibilmente più alta.
Per quanto riguarda la normativa Italiana il limite di concentrazione dei fluoruri nelle acqua potabili è fissato a 1,5 mg/lt dal decreto legislativo 31 del 2001 che è la normativa di riferimento per i controlli di qualità.
In Italia non esistono normative relative alla fluorazione dell’acqua.
Per quanto riguarda il rapporto rischi/benefici di una fluorazione delle acque potabili, il dibattito è tutt’ora più che mai aperto.
La fluorazione delle acque può essere un intervento di sanità pubblica molto benefico nelle zone in cui le acque potabili sono povere di fluoruri. Il beneficio non si limita alla prevenzione della carie, ma protegge anche da infezioni, perdite di denti e patologie orali particolarmente dolorose.
Sono però noti anche danni conseguenti a fluorosi sia a livello dei denti che dell’apparato scheletrico.
Quindi sembrerebbe una decisione più sensata quella di applicare composti a base di fluoro localmente con le paste dentifricie piuttosto che tramite una profilassi diffusa tramite la distribuzione di acqua degli acquedotti municipali.

acquedotto

Questo anche per una ragione pratica: non tutte le persone utilizzano acqua di rubinetto per bere, anche se in Italia negli anni il gradimento è aumentato. Il 71,8%, sceglie l’acqua del rubinetto e quasi una persona su due, dichiara di berla sempre o quasi sempre (44%).

La fluorazione di acque municipali negli Stati Uniti condusse anche a proteste popolari non appena si ebbero maggiori informazioni sulla tossicologia dei fluoruri. Queste informazioni si ricavarono da studi condotti sulle industrie che utilizzavano fluoro o suoi composti per produzioni industriali. Il fluoro nel XX secolo è stato utilizzato dall’industria per la produzione di materiale plastico (teflon), nei refrigeranti industriali come il freon (prima che ne venisse vietata la produzione), e anche nell’industria farmaceutica. Un ben conosciuto medicinale utilizzato per curare stati ansiosi e depressivi ha come principio attivo la fluoxetina.
Dove però si lavoravano minerali contenenti fluoro da utilizzare come materie prime per le successive produzioni si riscontravano tra i lavoratori una serie di malattie lavorative che andavano da disturbi gastrici,neuromuscolari, fino agli sfoghi cutanei.
Un libro fondamentale sulla tossicologia del fluoro e dei fluoruri fu scritto dal medico danese Kaj Eli Roholm e venne tradotto in inglese nel 1937 con questo titolo : Fluorine intoxication – A clinical hygiene study with a review of the literature and some experimental investigation.
Roholm concluse anche, studiando gli operai di uno stabilimento di Copenhagen che trattava la criolite proveniente dalla Groenlandia, che i denti degli operai che contenevano più fluoro erano maggiormente rovinati. Ma manifestazioni di fluorosi dentale che macchiavano con chiazze giallastre i denti, si riscontravano anche nei figli di operaie che avevano ricevuto fluoro attraverso il latte materno.

dental-fluorosis

Per questa ragione, mentre la battaglia tra i favorevoli ed i contrari alla fluorazione delle acque proseguiva, nel 1950 negli USA a Seven’s Point un paese del Wisconsin dove la fluorazione dell’acqua potabile era in corso da cinque mesi si tenne un referendum pro o contro questo trattamento.

I No vinsero per 3705 voti contro 2166.

A fine 1955 risultarono effettuati 231 referendum in tutti gli Stati Uniti con un po’ più della metà (127) contrari al trattamento di fluorazione delle acque.

Attualmente la fluorazione è un argomento ancora controverso nei paesi in cui viene praticata.
Pensare di stabilire una stima esatta del consumo giornaliero di acqua che sia applicabile a tutta una popolazione risulta essere non semplice, se si tiene conto dei differenti stili di vita, e del fatto che il consumo di acqua varia molto da individuo ad individuo.
Diversi studi clinici hanno evidenziato che l’assunzione di fluoro in maniera continuativa attraverso l’acqua potabile potrebbe aumentare il rischio di contrarre osteosarcomi.
Per concludere penso che aggiungere qualcosa nelle acque di acquedotto sia una sorta di forzatura. E tutta la vicenda della fluorazione risente degli anni  ormai lontani in cui è stata proposta ed attuata.
Per la prevenzione dei disturbi dentali è preferibile praticare una corretta igiene orale piuttosto che attuare improbabili campagne di fluorazione di massa.
Anche se il fine dovesse essere quello di fare profilassi e prevenzione per persone economicamente svantaggiate. Lo scopo di chi gestisce una rete idrica è provvedere alla fornitura di acqua sicura e controllata. Non di trasformarla in una sorta di medicinale. Questa la mia personale opinione.
Ma se fate una ricerca in rete su questo argomento troverete pagine con le opinioni più diverse. Da quelle tutto sommato possibiliste sul portale Epicentro dell’ISS, fino a trovare pagine in cui questo argomento viene trattato con uno stile del tutto simile a quello dei sostenitori delle scie chimiche (Fluorizzazione- Controllo mentale delle masse?).
Queste sono le cose che riescono tutt’ora a sorprendermi. La capacità di costruire leggende e pseudoscienza, quasi ci trovassimo di fronte ad un nuovo medioevo.
Noi come chimici  possiamo e dobbiamo continuare con un lavoro continuo paziente e capillare di informazione.
E per quanto riguarda la questione fluoro (ma vale per ogni altro aspetto legato alla chimica che spesso viene tirata in ballo a sproposito) dobbiamo informare.
Per una questione di questo tipo sarebbe importante e auspicabile un confronto anche con altre categorie (medici e biologi per esempio).
Perché la questione resta aperta e meriterebbe un approfondimento.

Chimica ……olimpica.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Quando diciamo che la Chimica è dappertutto potrebbe sembrare di esagerare, ma non è così; in questi giorni, mentre mezzo mondo guarda a Rio e alle Olimpiadi due piccoli eventi sottolineano il ruolo centrale della nostra disciplina (e devo dire della sua interazione con la biologia).

Vediamo di cosa si tratta.

Il primo fatto a cui mi riferisco è la ormai famosa piscina verde. Una delle piscine usate per gli sport acquatici è rimasta ostinatamente verde nonostante tutti i tentativi di riportarla al suo colore “naturale” azzurro chiaro.

Piscine dell’impianto Maria Lenk a Rio de Janeiro

L’altro fatto invece è la composizione delle medaglie olimpiche, che costituiscono poi l’obiettivo almeno formale di tutto l’ambaradan olimpico. Di cosa sono fatte?

olimpiadi3Una delle piscine dell’impianto Maria Lenk, come si è visto dalle immagini, è diventata verde ed è rimasta tale a dispetto di tutti i tentativi di rimediare con notevoli polemiche sia degli atleti che dei giornalisti.

Alla fine la causa “ufficiale” è stata che l’uso intensivo della piscina ha cambiato il pH dell’acqua favorendo la colorazione, addirittura si è parlato del fatto che se gli atleti sono dopati la loro pipì avrebbe avuto effetti nefasti, beh tutte favole metropolitane; molti atleti hanno invece sostenuto che i filtri non funzionavano bene denunciando anche un cattivo funzionamento dell’impianto la cui acqua rimaneva troppo fredda. Probabilmente la causa vera non la sapremo mai al 100%, ma certamente non perchè, come ha sostenuto uno degli speaker ufficiali “la chimica non è una scienza esatta”.

Per rimediare si è proceduto al cambio dell’acqua integrale della piscina che sembra aver risolto la questione.

Ora le piscine, comunemente, diventano verdi a causa di un fenomeno base: la presenza di alghe, che si sviluppano spontaneamente quando il pH e la clorazione non sono ben controllate. Le alghe sono ubiquitarie, chi lavora con i termostati o le vasche termostatiche in laboratorio lo sa benissimo. Personalmente ho avuto le mie esperienze con le alghe perchè ho lavorato ripetutamente con vasconi molto grandi fino ad 1 metro cubo ed è molto difficile evitare lo sviluppo di alghe ed una colorazione verde o peggio la crescita algale massiva a meno di non usare prodotti che uccidano le alghe o ne rallentino lo sviluppo.

Nelle grandi piscine dove la copertura e l’uso umano rendono impossibile l’uso di prodotti tossici occorre sia controllare il pH sia usare un ossidante come il cloro, sotto forma di ipoclorito per controllare alghe e batteri.

Cosa potrebbe essere successo, escludendo la rottura dei filtri e la disattenzione ai normali controlli?

Sembra in effetti che un errore procedurale possa aver causato il problema; secondo una dichiarazione ripresa da alcuni giornali stranieri c’è stata una aggiunta di quasi un ettolitro di acqua ossigenata (anche se non sappiamo a quale concentrazione); l’acqua ossigenata si usa anch’essa per controllare lo sviluppo algale, ma i chimici sanno bene che mescolare due forti ossidanti come acqua ossigenata ed ipoclorito comporta una loro reazione reciproca

NaClO + H2O2 → NaCl + H2O + O2

e questo non è un bene perchè in questo modo invece di usare il loro potere ossidante contro le alghe entrambi vengono neutralizzati.

Probabilmente, quindi, il responsabile del problema è stato l’eccesso di zelo; per evitare problemi si sono usati in modo non competente due ossidanti che si sono neutralizzati fra di loro.

L’altra questione è quella delle medaglie; la risposta la da (forse) il sito Compound Interest, uno dei più documentati di lingua inglese con la seguente tabella:

olimpiadi2Come potete osservare le medaglie d’oro non sono di oro ma di argento e nemmeno particolarmente puro e solo l’1% di oro o poco più le ricopre; le medaglie di argento sono di argento riciclato (che non è male) e infine le medaglie di bronzo sono (sarebbero secondo il sito) effettivamente di …ottone, che come sapete è una lega rame-zinco, conosciuta da parecchio tempo.

Il bronzo è una lega rame-stagno mentre l’ottone è una lega rame zinco. Il bronzo è venuto prima dell’ottone ed ha perfino caratterizzato una intera epoca storica, l’età del bronzo appunto; qualcuno potrebbe chiedersi a questo punto perchè non sia esistita una età dell’ottone; forse perchè la metallurgia del bronzo a partire dai minerali è molto più semplice di quella dell’ottone? Possiamo discuterne.

Ma c’è una incertezza. Se le medaglie sono fatte solo di rame e zinco non possono essere definite di bronzo ma appunto di ottone che è una lega fino al 40% di zinco, anzi può essere considerata una vera e propria soluzione solida di zinco in rame.

Il sito Compound Interest di cui vi ho riportato la tabella sostiene che sono di fatto di ottone, ma continua a chiamarle di bronzo ( non lo commenta nemmeno la composizione, il che mi fa pensare che possa confondere le due leghe**) mentre quest’altro sostiene che sono effettivamente di bronzo.

Secondo Wikipedia la composizione, peraltro non esplicita, contiene sia stagno che zinco, ma in proporzioni non ben definite. Anzi la composizione effettiva delle medaglie, come racconta Wikipedia, è cambiata nel tempo.

Alla fine ho trovato sulla pagina ufficiale la composizione definita così:

97% rame e 3% zinco; si tratta quindi chiaramente di una lega di ottone non di bronzo!! e per di più diversa da quella indicata da Compound Interest.

Per la differenza bronzo-ottone non c’è che il sito del mio amico prof. Diego Colombo che insegna nella mia Università. Comunque ho scritto al sito Compound e potete leggere le risposte in calce**.

Questa situazione comporta che il valore venale delle medaglie sia alquanto ridotto; le medaglie “d’oro” valgono solo 500 dollari mentre se fossero tutte d’oro varrebbero di solo contenuto aureo almeno 20.000 dollari; alla cosa rimedia “il mercato”  perchè le medaglie olimpiche hanno una fiorente compravendita di appassionati che le fa valere ben di più di questi prezzi. Quelle di argento valgono la metà, attorno ai 300 dollari e quelle di “bronzo” (e di fatto di ottone) attorno ai due dollari.

Chimica e Olimpiadi non vanno molto d’accordo perchè usando la Chimica alcuni dei rutilanti segreti delle Olimpiadi si rivelano per quello che sono: mezzucci umani per abbassare i prezzi o semplice incompetenza; e non parliamo del doping (o meglio ne riparleremo in futuro).

** ho scritto al sito e vi allego lo scambio di mails; la mia opinione è che non si siano accorti subito di cosa avevano scritto anche se sostengono di saperlo, ma allora perchè non farlo notare, trattandosi di una cosa così grossolana? bah

On 16 August 2016 at 08:49, claudio della volpe ‪<wordpress@www.compoundchem.com> wrote:

Name: claudio della volpe

 

Email: claudio.dellavolpe@unitn.it

 

Comment: Dear sirs I suppose there is some problem in the composition of Olympic Bronze medals as you defined them; the alloy of copper and zinc is commonly defined brass not bronze; this is not commented on in your recent article on olympic medals; what is the effective composition and what is the name of the alloy?

 

Time: August 16, 2016 at 7:49 am

IP Address: 188.114.103.191

Contact Form URL: http://www.compoundchem.com/about/

Sent by an unverified visitor to your site.

 

Il giorno 16 Aug 2016, alle ore 10:08, Compound Interest ha scritto:

 

Dear Claudio,

 

There is no error in the graphic – the bronze medal isn’t actually made from bronze! The compositions are according to the Brazilian Mint who made the medals, and the bronze medal is indeed made from just copper and zinc.

 

Hope that clears it up.

 

Thanks,

 

Andy

 

Compound Interest

www.compoundchem.com

 

On 16 August 2016 at 10:11, Claudio Della Volpe ‪<claudio.dellavolpe@unitn.it> wrote:

OK but this means that the Bronze medal is in fact made of brass, because bronze is an alloy of copper and tin not zinc, while brass is an alloy of copper and zinc until 40%

that is the point

 

 

Il giorno 16 Aug 2016, alle ore 10:27, Compound Interest ha scritto:

Yes, I am aware of this. However, it’s still called a bronze medal (for the sake of tradition I guess)!

 

Compound Interest

www.compoundchem.com

 

OK if you agree it would be useful for the public at large to indicate this difference in your post there is no comment on this point: the bronze medals are made of brass

a last point; looking at the officlal page:

http://www.brasil2016.gov.br/en/news/olympic-and-paralympic-medals-of-the-rio-2016-games

the exact composition is even different:

97% of copper and 3% of zinc

I suppose an update is necessary on your page

 

La risposta di IUPAC.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Cari colleghi come ricorderete abbiamo raccolto oltre 3000 firme per chiedere ad IUPAC di chiamare con un nome che facesse riferimento a Levi o comunque con un nome che sottolineasse gli aspetti generali e di pubblico interesse della Chimica uno degli ultimi 4 elementi scoperti; l’idea di usare il nome di Levi veniva da un articolo pubblicato su Nature da Philip Ball, uno degli editor di Nature.

La raccolta, in calce ad una petizione a IUPAC è andata avanti sia pur lentamente negli ultimi mesi, e, se devo dire la mia personale impressione, non è stata efficacissima; tutto sommato la sola SCI ha oltre 3000 iscritti e fra SCI e ordini dei chimici (e il CNC) si superano abbondantemente i 10.000 iscritti; altrettanti probabilmente e certamente di più non sono organizzati in alcuna associazione culturale o professionale; inoltre la raccolta era fatta su un testo in quattro lingue e si è valsa di qualche indirizzo estero suggerito da alcuni colleghi.

Si poteva fare di più; ne prendo atto e ne prendiamo atto come redazione, credo, ma non dipende solo dalla volontà, ma anche dal contesto; prova ne sia che altri tentativi, citati nel prosieguo hanno superato le 100.000 firme.

Questa è una prima conclusione; questo blog ha un ruolo, ma può fare di più e può fare di più se altri, oltre i membri della redazione attuale, vi parteciperanno CON CONVINZIONE, con la convizione che la divulgazione e la discussione APERTE, non riservate all’accademia e prive di qualunque “spocchia culturale” e di una grande apertura alle istanze sociali e culturali, sono la base di un confronto efficace fra noi e il resto della società del nostro paese, perchè chimico non sia più una parolaccia.

Ma comunque sia, una volta superato il traguardo delle tremila firme abbiamo deciso di spedire la richiesta della petizione (firmata dalla redazione del blog ed aggiunta qui in calce) a IUPAC, sia al consiglio direttivo che alla divisione di chimica inorganica che si occupa del tema degli elementi e della nomenclatura e questa che segue è la gentile e, tutto sommato, inattesa risposta del suo coordinatore e presidente, Jan Reedijk.

Come vedrete si tratta di una risposta di fatto negativa ma nel medesimo tempo possibilista e aperta a quello che è il cuore della questione: da una parte la questione dell’immagine della Chimica è nell’attenzione della IUPAC (e non poteva essere altrimenti) e insieme i metodi di assegnazione dei nomi devono essere aggiornati e anche su questo c’è convergenza.

Insomma non abbiamo vinto, ma abbiamo contribuito o stiamo contribuendo ad aprire una strada nuova; incrociamo le dita e continuiamo la nostra azione.

Si potrebbe anche mandare la petizione ai gruppi che hanno fatto le scoperte anche se l’idea di usare altri nomi è certamente stata alla loro attenzione non fosse altro che per la discussione presente nella letteratura internazionale; secondo me le questioni di cui stiamo discutendo, il ruolo della Chimica nella società, l’immagine negativa della chimica e l’idea che le scoperte sono di chi le fa e non viceversa di tutta l’umanità non sono un problema solo italiano. Parliamone.

PS. Se IUPAC ritiene di dover aggiornare le proprie regole, lo stesso forse dovrebbero fare anche la SCI (e il CNC).

A voi i commenti.

La risposta di IUPAC

 

Dear dr. Della Volpe and colleagues:

Thanks for your message and attachments, which was emailed to me and many other colleagues of the IUPAC Executive committee and Inorganic Division Committee.

The fact that you had such a long list of addressees had resulted in your message being filtered away by my spam filter. (And perhaps this happened with other recipients as well; fortunately I could fish it out. TIP: when you send a mail to more than 6 or 8 people: use bcc instead of “cc” or “to”).

 

First of all I am pleased to see that such a large group of people wants to make a plea to give a special name of a new chemical element to try to promote chemistry. Earlier this year we had another petition for a name from another group, which was even accompanied by over 150000 signatures!

We agree with you that naming of new elements is one of the rarely occurring events which we can use to generate extra attention for chemistry.

Your recent example on “chemical free” products again illustrates that chemists still have a mission; indeed in the last 4 decades “free of chemicals” has very often appeared in the press and in advertisements, and was repeatedly criticized as a misnomer. I remember from about 40 years ago a cartoon in New Scientist where a restaurant advertised soup “guaranteed without chemicals” as which was followed by many others since then.

 

Regarding your petition and proposal, I am afraid that you and your colleagues were not aware of the current (and older) rules for naming new elements, as updated most recently in the following paper:

W.H. Koppenol, J. Corish, J. Garcia-Martinez, J. Meija and J. Reedijk; How to name new chemical elements (IUPAC Recommendations 2016); Pure Appl. Chem.,  88, (2016),  401-405.

Here it is clearly written that ONLY the discoverers can propose names.

However, your petition and other comments from the community have made clear to me that perhaps in the future IUPAC might want to consider to modify the current rules and procedures for naming new elements. If that would be the case, your petition would clearly have played a role.

 

In summary: I regret we cannot honour your request given the current rules of naming, but your efforts to undertake action to make chemistry as a field more “popular” are highly appreciated.

 

Kindest regards

Jan Reedijk; President  Inorganic Chemistry Division IUPAC

 

Il testo della mail mandata ad IUPAC:

Dear Sirs,

 Please find attached a list of more than 3000 signatures collected on a dedicated web-page (https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements) asking for naming one of the recently new discovered elements as Levium (113 o 115) or Levine (117) or Levion (118). We are proposing this name following a suggestion of Philip Ball (P. Ball, Nature, 2016, 529, 129).

Chemistry is a “central science” because of its connection with all other sciences; it has been defined as “nice and powerful” and it is certainly, with its countless technologies and applications, at the base of our day life. Notwithstanding this, Chemistry is passing through an important reject crisis by the public at large. An example is the widespread use of the term “chemical free” (Nature Chemistry vol. 6 -2014 p. online). There is an increasing intolerance of the public at large toward a science and a technology that appear to violate the “natural order” of things. Probably this is only the somewhat obscure consciousness of the difficulty to push science towards socially important objectives, rather than to further increase the power of multinational companies. At the same time, we need to face new and important challenges deriving from the exaggerated impact of chemistry and other sciences on biosphere, which brought Paul Crutzen, Nobel Prize for Chemistry in 1995, to propose the term “anthropocene” for the current epoch.

Chemistry needs a symbol, a flag, a unifying myth (mythology is an allowed source of element names) to underline the idea that, if we wish to live in peace on Earth, Chemistry has to be a science for people, for all human beings.

At the end of World War II, a chemist who had the venture to live a terrible experience in a concentration camp, looked deeply at the rubble left behind by the war and at the role of some insane relationships between science, technology and the malefic power of man. His name was Primo Levi, an Italian chemist with Hebrew culture, the author of one of the most famous and widely read books in the world: “The Periodic System”, which is also used as a schoolbook in many countries. “The Periodic System” is an incredibly audacious piece of literature trying to merge the best scientific and humanistic traditions: the rejection of war, the development of science and the desire to live together in peace.

Chemistry is for all, for each child, woman or man of this planet, whatsoever his/her religion, skin colour or language, rich or poor, migrant or not. Chemistry is for all. This is the greatest myth: one humankind only. Levium, Levine or Levion, but let it be this name (or a similar one) indicating Chemistry as a common flag for humankind.

(in alphabetical order) Vincenzo Balzani, Luigi Campanella, Rinaldo Cervellati ,Claudio Della Volpe, Mauro Icardi, Annarosa Luzzatto, Giorgio Nebbia, Margherita Venturi

E.mails: vincenzo.balzani@unibo.it, luigi.campanella@uniroma1.itrinaldo.cervellati@unibo.itclaudio.dellavolpe@unitn.it,  siricaro@tiscali.it ,annarosa.luzzatto@gmail.comnebbia@quipo.it,   margherita.venturi@unibo.it

Attached text of the petition in .pdf and list of 3029 signatures in .csv

Stiamo campando a credito.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

La campagna globale #pledgefortheplanet chiede a tutti noi di agire per il cambiamento climatico. Entro l’8 agosto l’umanità avrà esaurito le risorse che la natura le mette a disposizione per tutto l’anno: è quanto afferma il Global Footprint Network, GFNun’organizzazione di ricerca internazionale che sta cambiando il modo in cui il mondo gestisce le sue risorse naturali e reagisce ai cambiamenti climatici.Quanto volte abbiamo letto di un giorno dell’anno a partire dal quale guadagniamo per moi stessi,essendo quanto ottenuto prima assorbito da tasse ed imposte.Il discorso in questo caso si inverte visto dalla natura.Il giorno del sovrasfruttamento della Terra (Earth Overshoot Day) evidenzia la data in cui la domanda annuale di risorse naturali da parte dell’umanità supera le risorse che la Terra può rigenerare in un anno.

bioc1960bioc1984bioc2012Questo è possibile perché emettiamo più anidride carbonica nell’atmosfera di quanto gli oceani e le foreste siano in grado di assorbire, deprediamo le zone di pesca e le foreste più velocemente di quanto possano riprodursi e ricostituirsi,cementiamo il verde ben oltre quanto può riprendersi,immettiamo sostanze estranee a concentrazioni per le quali i processi naturali non sono in grado di rimediare.Il nostro blog vuole ricordare questa giornata nella convinzione che i cittadini,e quindi tutti noi, prendendo coscienza e conoscenza di come stanno le cose,possano contribuire a migliorarle attraverso comportamenti più responsabili ed indicazioni conseguenti al potere politico, responsabile delle scelte di politica ambientale, alimentare,energetica

numeri

Toponomastica chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Si fa un gran parlare di chimica e della sua importanza, ma di fatto le parole della chimica sono poi “riservate” usate poco nel linguaggio quotidiano e quando lo sono spesso il loro significato è ambiguo, diverso, debole.

Tuttavia ci sono dei “resti” della chimica nella toponomastica italiana, cioè nei nomi di paesi, città, borghi, luoghi, vie, piazze. E di questo vorrei parlarvi brevemente oggi.

Cominciamo con i nomi dei comuni italiani, che sono circa 8000 e che potete trovare facilmente in rete.

In alcuni casi troviamo esplicito riferimento a qualche elemento chimico fra i più comuni; per esempio

Calcio è un comune della provincia di Bergamo nella valle dell’Oglio, fondato in epoca romana (III sec. a.C ). Secondo wikipedia “Anche il significato etimologico del nome risalirebbe a quel periodo: calx infatti indicherebbe proprio il materiale presente in natura con il nome di calcio (i cui composti assumono il nome di calce), molto comune in quel tempo specialmente sulle rive del fiume Oglio, dove si verificarono i primi insediamenti umani stabili.” Probabilmente ci si riferisce a depositi di calcare non di calcio, ma tant’è.

calcio

Su questa stessa base possiamo associare al calcio altri nomi di comuni:

Calcinato, Calco, Calceranica al Lago, Montecchio Precalcino, Calci, Calcinaia, Calcata, Calciano.

Tuttavia solo alcuni di essi sono effettivamente associabili al calcio; il comune di Calci (vicino Pisa) per esempio si trova in territorio siliceo e quindi si stenterebbe ad attribuire al calcio come elemento il nome, ma piuttosto sembrerebbe che il locus Calcis sia la primitiva attribuzione onomastica della vallata, di etimo latino (calceum, per “piede” o “tallone” del monte). Viceversa per Calcinaia anch’essa nella medesima provincia sembra assodato che il nome venga dalla presenza almeno in epoca medioevale di forni per la produzione di calce.

Carbonia è una città modernissima in cui il legame toponomastico e rovesciato; il nome fu scelto negli anni 30 del secolo scorso dal regime fascista per un nuovo comune che ospitasse le maestranze che avrebbero lavorato nella industria estrattiva sarda del carbone.

carbonia

Aurano, Valle Aurina, Auronzo e Montauro sembrano invece avere tutti riferimento a miniere di metallo prezioso presenti nel loro territorio in epoca storica.

Così come S. Marco Argentano, Argentera, Argentario e Argenta sembrerebbero venire dalla presenza di miniere o lavorazioni di argento.

Viceversa Cupromontana e Cupro Marina non hanno a che fare col rame ma con la dea Cupra.

Col ferro potremmo andare a nozze; ma attenzione Monferrato deriva in effetti da monte del farro e quindi lo escludiamo; non chiara quella di Ferrara, che potrebbe anch’essa venire dal farro o avere altra origine.

Più accettabili sembrerebbero le varie Ferrere, Ferriere o Ferrera Erbognone o Ferrera di Varese.

Non ci rimane che rimanere sul sicuro Portoferraio, nell’isola d’Elba sembra senza dubbio connesso con la siderurgia. Viceversa Grottaferrata sembra venire dalla presenza di una grotta dotata di una grata di ferro.

Piombino inganna parecchio, in quanto sembrerebbe chiaro che abbia a che fare con l’attività siderurgica ed estrattiva, ma invece piombino deriva da altro:

https://it.wikipedia.org/wiki/Piombino

Sembra ormai accettato che il nome Piombino derivi da Populino, cioè piccola Populonia. Sembra che durante il medioevo Populonia fu spesso attaccata e depredata. L’ultimo saccheggio subito dall’abitato è registrato nell’anno 809 ad opera degli orobiti, pirati di origine slava che vivevano sui monti del Peloponneso[9]. Fu allora che i pochi abitanti fuggiaschi si spostarono presso il porto Falesia mettendo le basi a quella che sarebbe divenuta Piombino.

Delusi dai nomi dei comuni lo saremo ancor più da quelli di vie e piazze; a me risulta solo la gloriosa Piazza Azoto, di Piano d’Orta di cui abbiamo parlato in un post.

Voi ne conoscete altre? segnalatemele; altrimenti non ci sono che le vie e piazze intitolate a scienziati, chimici italiani; non sono poi molte. Certo a Milano c’è Via Giulio Natta e a Novara Largo Guido Donegani, ma Donegani è stato un imprenditore più che un chimico anche se c’è un centro di ricerca famoso a suo nome, ma anche qui non mi sovvengono nonostante qualche sforzo altri luoghi noti. No aspettate c’è corso Amedeo Avogadro di Quaregna a Vercelli e via Stanislao Cannizzaro a Roma e i nomi certo di tante scuole di ogni ordine e grado.

Chi mi aiuta a ricostruire questo quadro della toponomastica chimica, casomai segnalando nei commenti o scrivendo brevi note?

Grazie

Breve elenco di vie e piazze, con il contributo di Giorgio Nebbia; alcuni nomi sono presenti in più comuni:

nome della via o piazza, comune, provincia, CAP

Vincenzo Caglioti (1902-1998)   Soriano Calabro (VV), 89831

Stanislao Cannizzaro (1826-1910)     Catania 95123

                                                           Linguaglossa 95015

                                                              Pisa 56121

                                                                Roma 00156

Giacomo Ciamician (1857-1922)                Bologna 40127

                                                                    Roma 00156

Riccardo Ciusa (1877-1965) (professore di chimica farmaceutica,

ex-assistente di Ciamician)

                                                                   Bari 70132

Roberto Lepetit (1865-1928)                        Lainate 20020

                                                                     Milano 20124

                                                                      Roma 00156

Fra i chimici stranieri:

Justus Liebig                       Reggio Emilia 42124

Dimitri Mendeleev (solo due cittadine)          Pesche (Isernia) 86090

                                                                Savignano sul Rubicone (FC) 47039

Luigi Pasteur (più fortunato)                        Bari 70124

                                                                    Bologna 40132

                                                                     Lecce 73100

                                                                       Milano 20127

                                                                      Reggio Emilia 42122

                                                                     Roma 00144

                                                                     Verona 37135

                                                                       Trieste 34139

e ancora menozzi

 

Chimica e ferrovie.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

E’ sicuro che i legami fra chimica e ferrovia ci sono e sono tanti; basti pensare alla storia delle ferrovie e al ruolo del carbone come sorgente di energia delle locomotive; ma oggi vi parlerò di tutt’altro, un legame più nascosto e per certi versi inaspettato.

Le ferrovie sono un sistema di trasporto inventato in Inghilterra ed usato con trazione a cavalli per il trasporto del carbone nelle miniere; tuttavia di solito si intende con ferrovia il trasporto di merci e persone su strada ferrata come inventato da Richard Trevithick nel 1804, la prima linea fu costruita nel 1825; e risale al 1829 la famosa gara di Rainhill in Inghilterra per individuare la futura locomotiva adatta a percorrere la linea Liverpool – Manchester vinta da George Stephenson che costruì la Rocket nel 1829, capace di raggiungere i 48 km/h e i 28 km/h con un convoglio di 17 tonnellate.

Tutto ciò era basato sull’uso di binari e di ruote di acciaio; e quindi siamo sicuri che la chimica c’entra eccome, ma ancora una volta non vorrei parlarvi di questo, ma di un elemento molto più modesto e per certi aspetto nascosto: come sono posate le rotaie?

ferrovia21

La tipica immagine della ferrovia è questa: due binari che vanno all’infinito, poggiati su traversine di umile legno; ancora oggi le traversine di legno hanno un ruolo determinante nella costruzione delle ferrovie, anche se il cemento e perfino la plastica ne stanno incrinando il dominio pressocchè assoluto fino a pochi anni fa.

Senonchè il legno non è molto duraturo; anche la quercia o il castagno o il faggio non sono in grado di resistere a lungo in quelle condizioni di sollecitazione non tanto meccanica ma chimica, all’interfaccia fra aria e terra, esposte all’acqua e ai batteri; il legno sottoterra, in ambiente anossico è duraturo; le navi del passato ci arrivano spesso in questo modo, nascoste sotto il suolo, ma poi in presenza di aria e degli altri componenti della biosfera la loro vita si accorcia; ci sono esempi eccezionali di durabilità come il legno delle palafitte; nella mia regione, il Trentino le palafitte del lago di Ledro hanno lasciato pali ancora conservati dopo millenni. Tuttavia la situazione delle traversine è critica.

Per questo motivo le traversine di legno sono di solito trattate con agenti conservanti, che sono sostanze naturali o di sintesi o estratte da altre sostanze che prolungano la vita del legno di 20-40 volte.

Nel caso delle traversine ferroviarie c’è una lunga e complessa storia che è stata raccontata in vari testi (Journal of Transportation Technologies, 2013, 3, 149-161   – oppure Date nails and railroad tie preservation di Jeff Oaks, Preside del Dipartimento di Matematica dell’Università di Indianapolis, http://pages.uindy.edu/~oaks/Resources.htm – Thebook) che inizia praticamente appena dopo l’invenzione delle ferrovie; nel 1838 esistevano già il trattamento Burnett con il cloruro di zinco, Margary, solfato di rame, Kyan, cloruro di mercurio e Bethell, olio di creosoto o olio minerale. Nel corso del tempo ne sono stati inventati ed esplorati molti altri, ma nonostante oggi si tenda a montare traversine di cemento precompresso in vari paesi oppure traversine di gomma ed acciaio, alcune delle quali recentemente insignite del titolo di invenzione dell’anno, di fatto il trattamento al creosoto è stato dominante per molti decenni e la maggior parte delle traversine di legno che vedete o avete visto sono state trattate con questo materiale nelle sue varie versioni.

L’odore del creosoto minerale estratto dal carbone è l’odore delle stazioni, quello che avete imparato, fin da bambini, ad associare alle stazioni italiane e che sentite ancora oggi quando siete sui binari ad aspettare un treno nella maggior parte dei casi.

Ma cosa è il creosoto?

Si tratta di un termine comune e non preciso che di fatto indica almeno due diversi tipi di miscele complesse ottenute per distillazione o dalla legna o da catrami minerali.

  • Il derivato minerale contiene fenoli, derivati del fenolo (ferrovia22), cresoli ferrovia23(fenoli caratterizzati dalla presenza di un sostituente metilico) e IPA, idrocarburi policiclici aromatici, che sono generalmente planari a meno di impedimenti sterici, e sono costituiti da un gruppo di atomi di carbonio ibridati sp2, legati tra loro in anelli condensati ovvero che hanno in comune almeno due atomi di carbonio adiacenti. Gli IPA sono molto pericolosi in quanto possono intercalarsi nel DNA e modificare la genetica cellulare.
  • ferrovia24

    Corannulene, un IPA.

Si tratta di un liquido, poco solubile in acqua ma solubile in solventi organici. Usato principalmente come preservante del legno.

  • Il più comune derivato dal legname è un miscuglio di fenoli ed eteri fenolici che si ottiene dalla distillazione tra 200-225 °C del legno di faggio. È un liquido incolore, poco solubile in acqua e solubile in solventi organici. Contiene il 50-60% di guaiacoloferrovia25 o 2-metossifenolo e creosolo ferrovia26o 2-metossi-4-metilfenolo .

Ancora oggi usato in medicina per il suo potere antisettico, anticatarrale e antipiretico, viene tuttora utilizzato anche in endodonzia come disinfettante nelle otturazioni provvisorie .

Gli IPA non sono generalmente presenti in questa seconda miscela e il creosolo e il guaiacolo, pur essendo acutamente tossici a certe concentrazioni, non sono al momento ritenuti cancerogeni; al contrario a certe concentrazioni più basse e in determinati distretti organici sono stati e sono ancora usati come farmaci, il che tutto sommato avviene anche per altre sostanze; in questo senso non sono diversi da un antibiotico o perfino da un antitumorale: è la dose che fa il veleno.

Su questa base occorre dunque fare una attenta distinzione fra i due tipi di distillati; a riguardo si può vedere questo documento sia pur non recentissimo del U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES

Viceversa gli IPA che si ritrovano e anche in modo relativamente abbondante nel creosoto derivato dalla distillazione del carbon fossile sono in molti casi cancerogeni dichiarati; questa consapevolezza ha condotto a varie decisioni che si sono succedute nel tempo; per esempio il legno trattato con creosoto a causa dell’abbondante rilascio di creosoto nel terreno è stato considerato al momento della sua dismissione un rifiuto tossico e un materiale non riciclabile se non in determinati casi e a certe condizioni (uso industriale essenzialmente); inoltre si è cercato di ridurne l’uso; si veda per esempio il documento UE del 2011

In uno studio recente tuttavia anche i limiti di concentrazione degli IPA ivi fissati (50ppm di benzo[a]pirene, 0.00005%)ferrovia27 si è dimostrato che sono troppo alti.

In definitiva le traversine trattate con creosoto sono cancerogene, sono rifiuti complessi da gestire, sarebbe il caso di non usarne più, ma di fatto al momento non abbiamo in molti casi valide alternative; quali potrebbero essere i potenziali sostituti?

Gli studi di LCA, come quello indicato sopra su JTT potrebbero soffrire di conflitti di interesse. Rimane che l’acciaio, il cemento precompresso e più recentemente traversine di materie plastiche (con il limite degli 80km/h del treno) sono già disponibili; un inventore italiano sta poi sviluppando una traversina con l’anima di acciaio e rivestita dalla gomma di pneumatico usata; sembrerebbe con in più l’opzione di un dispositivo piezoelettrico per recuperare energia quando il treno ci passa sopra; questo ultimo effetto mi ricorda un pò l’idea dei dispositivi frena traffico per “recuperare energia”; quella energia viene di fatto da una azione di frenamento sul convoglio, velocità o meglio quantità di moto che ha senso recuperare se il convoglio (o l’auto) frena, si ferma, ma non se fa la sua strada; vedremo cosa succederà. Certo è che anche nel campo ferroviario la chimica è stata ed è utile ma a condizione di non esagerare e di considerare con attenzione costi e benefici; e chi meglio di noi potrebbe commentare questo argomento?

A voi la parola.

http://ec.europa.eu/health/scientific_committees/environmental_risks/opinions/sctee/sct_out29_en.htm

Fantascienza?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

(Due avventure narrative di Primo Levi nella lezione di Francesco Cassata)

Recensione, Fantascienza? – Science Fiction? Francesco Cassata ed. Giulio Einaudi p.288 euro 22 2016

978880623038GRA

Il libro “Fantascienza?” di Francesco Cassata docente di storia della scienza presso l’università di Genova è tratto dalla settima lezione Primo Levi. Come le altre sei precedenti queste lezioni si tengono sotto l’egida del Centro Internazionale di studi Primo Levi e approfondiscono temi e interessi che riguardano lo scrittore torinese.

Le lezioni vengono poi pubblicate dall’editrice Einaudi in volumi bilingue (Italiano ed inglese). Le precedenti lezioni hanno toccato ed approfondito temi dell’opera di Levi che sono ben noti ai suoi lettori, agli studiosi e ai critici. Per esempio la prima lezione “Sfacciata fortuna” non può non far pensare al periodo che Levi trascorse nel Laboratorio del lager, dopo avere sostenuto l’esame di chimica di fronte al dottor Pannowitz. Levi viene aggregato al commando chimico e si sottrae così ai lavori più pesanti. Lavora in un ambiente riscaldato che lo preserva dai rigori dell’inverno in Auschwitz. Paradossalmente anche l’essersi ammalato negli ultimi giorni prima dell’arrivo delle truppe russe in marcia verso Berlino, lo salva dalla tremenda marcia di evacuazione del lager, a cui i tedeschi costringono i prigionieri sopravvissuti. Levi lo racconterà nel capitolo “Storia di dieci giorni” che conclude “Se questo è un uomo”.

“Raccontare per la storia” la terza lezione di un ciclo iniziato nel 2010, rimanda immediatamente alla poesia “Alzarsi” (in polacco Wstawac) contenuta nel volume di poesie “Ad ora incerta”. In questa poesia si esprime l’esigenza insopprimibile di sopravvivere non solo per ritornare, ma anche per assolvere al dovere morale di raccontare e testimoniare l’esperienza della prigionia e della deportazione:

Sognavamo nelle notti feroci
Sogni densi e violenti
Sognati con anima e corpo:
Tornare; mangiare; raccontare.
Finché suonava breve sommesso
Il comando dell’alba:
«Wstawac’».

La settima lezione si è tenuta presso la sede del centro studi a Torino il 27 ottobre dello scorso anno, e si occupa di approfondire una fase totalmente diversa dello scrittore torinese, anche se come poi si vedrà, i legami ed i riferimenti con l’esperienza della deportazione non mancano neanche tra le pieghe dei racconti di genere fantascientifico di Levi. Ma le conclusioni di questa lezione e del libro che ne è stato tratto suggeriscono una lettura diversa.

Il titolo “Fantascienza?” di questo volume delle lezioni Primo Levi riprende la fascetta editoriale che corredava la prima edizione di “Storie naturali pubblicato nel 1966 con lo pseudonimo di Damiano Malabaila. Il nome racconterà poi Levi viene scelto casualmente: è il nome che compare sull’insegna di un esercente davanti a cui passa giornalmente per recarsi al lavoro.

storienaturali66

Non è forse noto a tutti, ma Levi inizia a scrivere racconti di questo genere già nel 1946 quando lavora alla Duco di Avigliana, ed è impegnato nella risoluzione di problemi “chimico polizieschi” quali l’impolmonimento di vernici antiruggine, o nella stesura di una relazione tecnica relativa al fenomeno della puntinatura di alcuni smalti.

Il racconto “I mnemagoghi” che aprirà il volume “Storie naturali” viene scritto proprio in quel periodo, e verrà pubblicato sul quotidiano “L’Italia socialista” nel 1948.

La formazione del chimico qui si riconosce immediatamente. Il racconto parla di due medici: il giovane Dottor Morandi che inviato in un piccolo paese di montagna a sostituire l’anziano Dottor Montesanto, viene coinvolto da quest’ultimo nell’esperienza sensoriale di annusare delle boccette in cui sono contenute particolari essenze odorose. Montesanto spiega la cosa in questo modo:

“ Alla questione delle sensazioni olfattive, e dei loro rapporti con la struttura molecolare, ho dedicato anche in seguito molto del mio tempo. Si tratta, a mio parere, di un campo assai fecondo, ed aperto anche a ricercatori dotati di mezzi modesti.

Il Dottor Montesanto ha sintetizzato e raccolto in boccette questi mnemagoghi (suscitatori di memorie).

Il racconto, il primo di “Storie naturali” ci ricorda quello che Levi sosteneva a proposito del senso dell’olfatto (“Guai se un chimico non avesse naso”) ma ci parla anche di sensazioni odorose legate a ricordi particolari. Sensazioni che però non hanno un impatto emotivo univoco. L’odore che per una persona può essere gradevole e legato a momenti lieti, ad altri può provocare disgusto o indifferenza. L’oggettività di un odore in provetta si disperde nelle memorie soggettive.

Il libro di Francesco Cassata spiega con tantissimi rimandi collegamenti ed esempi la genesi dei quindici racconti contenuti nelle “Storie naturali”, e dei successivi venti pubblicati nel 1971 in “Vizio di forma”.

Il primo libro di genere fantascientifico di Levi viene visto dall’autore come uno sforzo di ritorno alla realtà e a una forma di evasione dalla sua veste ufficiale sia di testimone dell’olocausto, che professionale come direttore tecnico di una fabbrica di vernici. Levi non vuole limitarsi a questo. Ma nello stesso tempo Auschwitz non rappresenta soltanto la terribile esperienza del suo passato ma anche un punto di osservazione, una sorta di prisma etico e cognitivo per riflettere sulla distorsione della razionalità, e per analizzare i tanti “vizi di forma” del presente e del futuro.

Francesco Cassata in questo libro ci guida nell’analisi dei racconti. In alcuni di essi quali “Angelica farfalla” e “Versamina” possiamo trovare legami con i terribili esperimenti che i medici nazisti conducevano nei Lager sui prigionieri. Ma allo stesso tempo sono presenti temi squisitamente scientifici che riguardano nel primo racconto il ciclo vitale incompleto dell’anfibio Axolotl che si riproduce allo stato larvale senza completare il suo ciclo evolutivo, e nel secondo il rovesciamento dei comportamenti cioè la trasformazione attraverso appunto la molecola che nel racconto è chiamata versamina (una molecola immaginata dallo scrittore torinese che la immagina derivata dall’acido benzoico) capace di trasformare le sensazioni di dolore fisico in piacere.

Nei racconti di storie naturali è sempre presente il meccanismo (ben conosciuto dai chimici) dell’errore.

In qualche caso anche cercato come in “Alcune applicazioni del mimete” dove l’incauto e pasticcione Gilberto usa questa macchina (un duplicatore tridimensionale) per ottenere una copia di sua moglie.

Nel saggio di Cassata troviamo anche i riferimenti alle basi scientifiche di ogni racconto. Il duplicatore tridimensionale è immediato che possa far pensare alla tecnica delle stampanti 3 D (escludendo è ovvio la duplicazione di esseri viventi).

Il secondo libro di racconti fantascientifici di Levi (l’autore però tendeva a definirli dei divertimenti delle stranezze o delle favole) esce nel 1971. Avrebbe dovuto secondo l’autore intitolarsi in maniera diversa (“Ottima è l’acqua” come il racconto che chiude la raccolta), ma dopo qualche riunione di redazione alla casa editrice Einaudi si scelse come titolo “Vizio di forma” con l’intenzione di connettere questo secondo libro di racconti al primo, quasi come un seguito.

vizio di forma

Ma i due libri sono solo apparentemente uguali. In realtà dal punto di vista letterario e stilistico differiscono. I racconti contenuti in “Storie naturali” lasciano trasparire il senso dell’ironia e del grottesco, mentre “Vizio di forma” ha un modo di scrittura più pessimista.

“Storie naturali” risente molto di più di una fiducia, di un ottimismo legato all’Italia del grande sviluppo economico successivo al dopoguerra. I racconti sono stati scritti in un periodo di tempo di una ventina di anni a partire dal 1946 e sono più eterogenei.

Quelli di “Vizio di forma” invece in un periodo di tempo più breve, dal 1967 al 1970, quando si inizia a percepire che l’età dell’oro è finita e che i problemi globali planetari si stanno affacciando alla ribalta.

Lo stesso Levi lo ricorda nel 1979 nella prefazione al libro di Luciano Caglioti “I due volti della chimica”.

Non era giunto il momento di fare i conti planetari, e di mettere un freno, se non ai consumi, almeno agli sprechi, ai bisogni artificialmente provocati, ed all’inquinamento dell’aria, dell’acqua e del suolo?

“Vizio di forma” viene scritto negli anni in cui l’ambientalismo scientifico si va affermando tra la fine degli anni Sessanta ed il decennio successivo. In questo libro la riflessione sul rapporto tra popolazione, ambiente e risorse economiche è il filo conduttore di ben otto racconti, dei venti che compongono il libro.

Tornando al libro di Francesco Cassata dedicato a questi due libri diversi di Levi è interessantissimo il paragrafo “Equilibri omeostatici ed ecologia” in cui si parla dell’opposizione fondamentale su scala planetaria di due forze contrapposte: l’entropia e l’omeostasi. Due concetti noti soprattutto a scienziati e tecnici. Levi ne scrive in un breve saggio del 1983 uscito nel Notiziario della Banca Popolare di Sondrio.

Scienziati e tecnici sono coloro che combattono “la vecchia battaglia umana contro la materia”.

Nel saggio di Cassata si suggerisce che queste due visioni si possono confrontare leggendo due racconti. Uno è “Carbonio” che chiude “Il sistema periodico” nel quale Levi racconta il meccanismo della sintesi clorofilliana e quello del ciclo biogeochimico del carbonio.

Il secondo racconto è invece “Ottima è l’acqua” che chiude viceversa proprio “Vizio di forma, nel quale il racconto della modificazione impercettibile ma continua della viscosità dell’acqua finisce per impedire agli uomini persino di lacrimare, e rappresenta il trionfo del disordine e del caos.

Non è casuale il confronto perché la stesura di “Carbonio” è databile tra il 1968 e il 1970, lo stesso periodo della scrittura dei racconti di “Vizio di forma”.

Nella parte finale del saggio Cassata da conto di come la critica giudicò i due libri stabilendo un nesso di continuità con l’esperienza del Lager, in maniera da interpretare come fallimentare questa esperienza letteraria dello scrittore.

Ma la conclusione è che vedere in questi due libri di racconti di Levi solo la trasfigurazione allegorica di Auschwitz è riduttivo. E personalmente sono in pieno accordo con questa affermazione.

In chiusura del saggio sono da questo punto di vista significative le parole pronunciate da Norberto Bobbio nel 1988 in occasione di uno dei primi convegni successivi alla scomparsa di Levi. In quella occasione rimproverò Ruggero Pierantoni, ricercatore di cibertenica e biofisica del CNR che fece un’intervento dedicato a “Il sistema periodico” con queste parole: “Lei non ha capito ciò che ci unisce tutti qua dentro: non si può parlare di Primo Levi dimenticando che è stato ad Auschwitz”.

Forse può sembrare un’intollerabile presunzione ma le parole di Bobbio non mi convincono.

Nessuno potrà mai dimenticare l’esperienza umana di Levi ad Auschwitz, come nessuno potrà non riconoscere il valore letterario di “Se questo è un uomo”, libro che colpisce alla prima lettura per lo stile. Dove non una sola parola è fuori posto, dove la descrizione di una delle pagine più atroci della storia del novecento viene fatta con una sensazione di pacatezza e di senso di giustizia che escono dalle pagine del libro andando incontro al cuore e alla ragione di chi le legge.

Ma trovo riduttivo e ingiusto non conoscere “l’altro” Levi. Autore di moltissimi saggi di grande valore divulgativo e scientifico.

Autore di due libri di racconti fantascientifici (ma abbiamo visto che il termine è riduttivo) che sono anche anticipatori di realtà poi narrate successivamente. Il Torec di “Trattamento di quiescenza” che permette di vivere esperienze sensoriali tramite un casco è l’antesignano della realtà virtuale narrata anche in film come “Strange days”, uscito nel 1995

Nella “Bella addormentata nel frigo” si parla di ibernazione ed il pensiero va agli astronauti ibernati sull’astronave Discovery di “2001- Odissea nello spazio”.

Io ho sempre trovato interessanti questi due libri, senza mai considerarli delle opere minori.

Così come ho trovato stimolante ed interessante il libro di Francesco Cassata che nel concludere si augura che la lezione (e conseguentemente il libro) servano come stimolo ad una ricerca critica e ad uno studio più approfondito di queste due opere di Levi.

Invito che mi sento di rivolgere non solo ai critici letterari ma possibilmente ad un pubblico più ampio, anche a chi legge le pagine del nostro blog.

Perché Primo Levi ha ancora tanto da dirci, non solo come testimone autorevole e di grande dignità e autorevolezza di testimone dell’olocausto. Ma come scrittore, saggista e divulgatore scientifico.

E devo dire che Cassata ci fornisce con questo libro stimoli e chiavi di lettura importanti.

Così come suggerisco la lettura di questi due libri di Levi, che a mio parere completano ed integrano l’opera dello scrittore.

 

La chimica della pietra focaia

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

 a cura di Claudio Della Volpe

Come ho scritto altrove la scoperta e l’uso del fuoco sono più antichi di Homo sapiens sapiens, più antichi della nostra civiltà e risalgono ad Homo erectus. La tecnologia della produzione e gestione del fuoco ha avuto più tempo di qualsiasi altra se si fa eccezione di quella dell’uso della pietra (che ha quasi tre milioni di anni) per svilupparsi e perfezionarsi.

Eppure alla base dell’accensione del fuoco ci sono fenomeni complessi e poco conosciuti.

Accendere il fuoco non è affatto semplice come può sembrare a chi come noi usa metodi frutto di un milione di anni di esperienza; qualcosa trovate qua.

Tuttavia non volevo parlare dei metodi per attrito, come quello dell’archetto (che al tempo degli egizi si era addirittuta evoluto in una tecnologia per forare la pietra), ma di quelli a percussione e quindi della pietra focaia. La cosa nasce da una domanda che qualche giorno fa ho avuto da un vecchio amico di Napoli (ciao Biagio!) e alla quale cerco di rispondere qua.

Probabilmente la tecnica che usava la percussione di due pietre di cui una costituita di pirite e una di selce o di quarzo era conosciuta da tempi preistorici; l’uso di pietra e ferro invece non può essere data prima dell’età del ferro, quindi prima di 3-4000 anni fa al massimo.

Una prova dell’esistenza di metodi preistorici che escludono il ferro è nei ritrovamenti effettuati sul corpo di Ötzi, l’uomo del Similaun, il quale deteneva nella sua bisaccia un set di strumenti per accendere il fuoco fatto di selce, pirite e un fungo. Stiamo parlando di oltre 5000 anni fa.

Plinio il Vecchio nella sua Naturalis Historia (Libro VII, 198) racconta di un certo Pyrodes di Cilicia che, stando a quello che dice, sarebbe invece l’inventore dell’acciarino:
[…] fabricam ferrariam invenerunt Cyclopes, figlinas Coroebus Atheniensis, in iis orbem Anarcharsis Scythes, ut alii, Hyperbius Corinthius. fabricam materiariam Daedalus et in ea serram, asciam, perpendiculum, terebram, glutinum, ichthyocollam; normam autem et libellam et tornum et clavem Theodorus Samius, mensuras et pondera Phidon Argivus aut Palamedes, ut maluit Gellius; ignem e silice Pyrodes Cilicis filius, eundem adservare ferula Prometheus; […]

D’altronde è sorprendente che già al tempo dei Romani esistessero gli zolfanelli, ossia oggetti di legno ricoperti di zolfo per trasportare il fuoco facilmente da un posto all’altro o per innescare un fuoco da un altro (si veda Marziale negli epigrammi dove cita ripetutamente gli zolfanelli (1)) tuttavia gli zolfanelli si meritano un post a se, ne riparleremo.

Ma, prima di approfondire l’esatto processo, quale è il meccanismo generale che consente di accendere il fuoco per percussione? La percussione, l’urto violento di materiali duri come alcuni tipi di rocce, dalla frattura fragile, concoide, come la selce o di una roccia e un metallo come il ferro, specie se indurito dalla presenza di una certa quantità di carbonio, quindi in effetti di quello che chiameremmo non ferro dolce ma acciaio o ghisa, consente di produrre scintille e le scintille, che sono piccole particelle incandescenti, possono innescare il fuoco se entrano in contatto con un materiale combustibile molto secco, come il legno, le fibre di alcune piante come la canapa oppure il residuo secco di alcuni funghi come il Fomes Fomentarius ridotti in polvere.

focaia1

Fomes Fomentarius

.La produzione di scintille rappresenta il meccanismo chiave del processo.

Con il termine scintilla si intendono cose alquanto diverse. Scintille sono i raggi luminosi rettilinei che si vedono da immagini molto intense, scintille sono le scariche elettriche (ioni o elettroni) fra punti a potenziale sufficientemente diverso, scintille sono quelle prodotte da fumi di combustione o da processi di saldatura e costituite da minuscoli corpuscoli incandescenti o che stanno bruciando in quel momento e che si staccano dai corpi principali e vengono immesse nel flusso principale di tipo convettivo che muove dal corpo più caldo; queste scintille sono già di origine chimica, ma le vere e proprie scintille, di cui anche quelle che interessano a noi fanno parte, vengono generate dalla percussione o dallo sfregamento di due corpi sufficientemente duri e fragili; il più duro, se la pressione esercitata è bastevole produce nell’altro delle piccole schegge, microscopiche che costituiscono il cuore della scintilla; la rottura delle minuscole schegge che saltano via è il processo chiave, liberando nuova superficie reattiva nel metallo e producendo così una reazione chimica come sorgente di calore e luce.

focaia2

Questa descrizione della scintilla è basata su molte osservazioni empiriche, prima delle quali quella al microscopio di Robert Hooke, uno dei maggiori scienziati inglesi (1635-1703) che è proprio la copertina di un suo libro di osservazioni microscopiche pubblicato nel 1780 e che potete scaricare da GoogleBooks integralmente.

focaia3Il ferro impuro di carbonio usato negli esperimenti di Hooke è sostanzialmente acciaio, sia pur di bassa qualità , sufficientemente più duro del ferro dolce ma meno duro della pietra focaia cosiddetta, ossia una selce, che è una forma sedimentaria di silice, ossido di silicio, quarzo, in una parola, sia pure non cristallino.

La selce nella qualità detta piromaca, generatrice di fuoco, è dura ma fragile.

Nella scala della durezza, che vede come massimo il diamante, ha un valore

superiore a 6-7 laddove il ferro dolce è 4 e l’acciaio 4.5.

Contemporaneamente, per comprendere cosa avviene nella percussione fra una pietra dura come la selce e l’acciaio, sia pur ottenuto con metodi non moderni occorre pensare a quel che avviene quando un metallo è esposto all’aria; l’atmosfera è composta di ossigeno per un quinto circa e costituisce un ambiente fortemente ossidante; alla temperatura media attuale se la concentrazione di ossigeno aumentasse al 25-30 per cento il rischio incendio sarebbe drammatico; nella igiene del lavoro valori di ossigeno sopra il 30-35% sono assolutamente da evitare perchè ogni minimo innesco può scatenare un incendio violento.

La combustione è una ossidazione, ma una ossidazione, una reazione in genere fortemente esotermica, avviene non solo con gli atomi come carbonio o azoto che formano piccole molecole stabili e gassose, ma anche con moltissimi metalli che tendono a cedere i loro elettroni più esterni all’ossigeno formando così ioni positivi e negativi legati in un reticolo cristallino.

focaia4Il ferro si arruginisce molto facilmente cambiando struttura e colore e formando uno strato superficiale alterato che rallenta, ma non impedisce, l’ulteriore ossidazione; se tuttavia lo strato è compatto, come avviene nell’alluminio per esempio, l’ossido impedisce la penetrazione dell’ossigeno e blocca la reazione, un fenomeno che prende il nome di passivazione.

Quello che chiamiamo acciaio, ossia una lega Fe-C con una percentuale intermedia di C compresa fra una frazione piccola e il 2% è conosciuto in vario modo almeno da 2000 anni e la sua durezza, maggiore di quella del ferro “dolce” è particolarmente adatta alla costruzione di un dispositivo per produrre scintille.

Come spiegato prima quando un metallo reagisce a contatto con l’ossigeno presente nell’aria, la reazione chimica in questione avviene coinvolgendo solo le entità che costituiscono la parte più esterna del pezzo solido.

Ciò è dovuto al fatto che sulla superficie esterna del pezzo si crea un film esterno di materiale reagito, mentre nell’interno del solido il materiale rimane non reagito, in quanto la presenza del film esterno rallenta o impedisce la diffusione dell’ossigeno verso l’interno del materiale.

L’urto o lo sfregamento sulla parte più esterna del materiale (costituita dal film passivante) la rimuove, per cui l’interno ha modo di reagire con l’ossigeno dell’aria.

La nostra esperienza diretta ci dice che lo sfregamento e l’urto producono calore, trasformano energia meccanica in calore, una equivalenza intuitiva ma la cui dimostrazione esatta e quantitativa ha necessitato uno sviluppo secolare.

Nelle condizioni di urto della superficie ferrosa con una punta o una lama di selce questa ultima più dura la scheggia (mentre deformerebbe il ferro dolce) producendo piccole particelle e cedendo energia meccanica in forma istantanea, innalzando quindi la temperatura di centinaia di gradi. Questo surriscaldamento del materiale facilita la reazione. Essendo tale reazione fortemente esotermica, si ha un effetto di retroazione positiva per cui la reazione di ossidazione procede a velocità crescente, una vera e propria “esplosione” microscopica, per cui alcune minuscole schegge metalliche diventano incandescenti a causa dell’elevato aumento di temperatura locale e vengono proiettate ad elevata velocità.

Il ferro si ossida in questo caso secondo la reazione

2 Fe + 3/2 O2 –> Fe2O3

 con una significativa entalpia di -829KJ/mole.

Le scintille di questa tipologia sono caratterizzate da percorsi luminosi rettilinei o parabolici più o meno brevi (compatibilmente con l’effetto della forza di gravità agente sulle particelle).

Osservando i percorsi luminosi di tali scintille, si nota che talvolta ad un certo punto i percorsi delle scintille si suddividono in più linee rette, come se “esplodessero” dopo avere percorso il primo tratto, in maniera analoga a quanto succede per i giochi d’artificio; la causa di tali “ramificazioni” dei percorsi luminosi è la presenza di carbonio nelle particelle: esso reagisce e si trasforma in gas ed espandendosi esercita un’elevata pressione all’interno delle particelle, che ad un certo punto esplodono suddividendosi in più frammenti.

focaia5Magnifica l’analisi del lessico: per esempio nel territorio veronese la selce è chiamata “folenda”. Il nome potrebbe derivare da fògola, fogolènda, cioè dal latino focus; dunque “pietra-folenda” è la pietra che deve dare fuoco. La Lessinia e la montagna veronese sono stati luoghi importanti per la produzione delle pietre focaie, sia acciarino domestico che da fucile. Centinaia di persone lavoravano a tempo pieno in queste mansioni di “artigianato-industriale” con folandieri e bati-assalini (assalini-acciarino).

focaia6Illustrazione di un acciarino a pietra focaia (selce) di un antico fucile. Il meccanismo è in posizione di sparo
1. Cane
2. Pietra focaia
3. Martellina
4. Grilletto
5. Scodellino
6. Copriscodellino
7. Canna

Il focile è un termine addirittura dantesco nell’Inferno XIV 38

la rena s’accendea, com’esca / sotto focile, a doppiar lo dolore,

dove si descrive la pena dei violenti contro natura: il fucile, cita anche Boccaccio, è ” uno strumento d’acciaio a dovere delle pietre, le quali noi chiamiamo focaie, fare, percotendole, uscir faville di fuoco “.

Nel congegno di sparo la pietra focaia, posta tra le ganasce del cane, andando a battere sulla faccia della martellina che era d’acciaio, ne asportava minuscole particelle di metallo incandescente; queste, cadendo nella scodellina, accendevano la polvere che dava fuoco alla carica.

Dopo 20 o 30 colpi la pietra focaia doveva essere sostituita o nuovamente appuntita mediante un apposito martelletto. Tale sistema fu usato per i fucili da guerra fin oltre il periodo napoleonico, fino all’invenzione della capsula fulminante.

L’acciarino presentava forme svariate; il formato deve essere ridotto per far scivolare l’oggetto in una tasca. Bisogna anche che sia facile da maneggiare : e perciò la forma è di preferenza ovale, ripiegata ai due estremi, oppure a forma di “D”, costituendo un’impugnatura. Per migliorare la presa verso il XV secolo si praticano nella lama due buchi per l’indice e il medio. Talvolta la lama presenta una semplice forma oblunga, un’estremità della quale è ripiegata. L’oggetto assume presto tutte le variazioni decorative:

focaia7fini cesellature di motivi geometrici o floreali, figure umane e animali, motivi finestrati o punteggiati. L’accendino veniva fabbricato usando come materiale delle lime consumate, che venivano fuse, recuperando così il metallo. Probabilmente il fabbricante di serrature era probabilmente l’artigiano che si occupava di fabbricare l’accendino. (http://www.artericerca.com/Articoli Online/L’accendino fra ricerca, tecnica e arte Articoli Online.htm)

Ma cosa succedeva PRIMA della scoperta della tecnologia del ferro e del’acciaio? Come si usava, se si usava, la percussione? La risposta come abbiamo accennato prima è positiva, l’uomo di Similaun era perfettamente in grado di accendere il fuoco per percussione ed usava a questo scopo un meccanismo analogo : due pietre dure in modo analogo, selce e pirite e un innesco di fungo secco.

Ma come è possibile la reazione in questo caso?

focaia8E’ pertanto possibile ottenere, da questa reazione, che è tipica della produzione di acido solforico non solo anidride solforosa ma anche sufficiente energia per innescare scintille, sebbene inferiore a quella presente nel caso dell’ossido di ferro. A questo scopo la coppia selce-pirite è stata usata probabilmente per migliaia di anni. Si veda qui

http://montrealgazette.com/opinion/columnists/the-right-chemistry-the-real-flintstones

La reazione per l’acido solforico per avvenire ha bisogno di una temperatura di 700-800 °C, ed una volta innescata si automantiene data l’alta quantità di calore sviluppata. In effetti questa proprietà è la medesima richiesta per fare buone scintille.

 focaia9

Flint è il termine inglese per selce.

Una descrizione accurata dei metodi presenti presso popolazioni nordamericane, ma probabilmente di validità alquanto generale è contenuta in una coppia di articoli di tradizione nordamericana

http://www.primitiveways.com/marcasite and flint.html

ottimo per le istruzioni pratiche che da, c’è anche un filmato: è un metodo di fatto a sfregamento, ma usa selce e marcassite

https://ia802708.us.archive.org/7/items/firemakingappara00houguoft/firemakingappara00houguoft_bw.pdf

scritto nel 1890 molto ricco di illustrazioni su tutti i metodi per produrre fuoco usati dagli indiani d’America e dalle popolazioni Inuit

 focaia10

In questi articoli si sostiene che la varietà minerale marcasite (un tipo di pirite) era specificamente usata per questo scopo.

Anche la marcasite ha formula FeS2, ma i suoi cristalli sono ortorombici. Forma anche noduli e concrezioni e questa era la forma più usata per fare il fuoco E’ più fragile della pirite, più reattiva. Questo fa si che la parte superficiale sia anche più alterata e che per usarla occorresse scavarla un po’ producendo un incavo di materiale “fresco”; infine occorreva conservarla a secco, in un contenitore che ne preservassse l’integrità.

Cosa ne è stata della coppia selce-acciaio, che aveva sostituito la coppia selce-pirite? E’ stata a sua volta sostituita per fare scintille più moderne.

Infatti nel 1900 il conte austriaco Welsbach inventò una pietra focaia artificiale: un composto di una lega di ferro e magnesio con cerio, successivamente chiamata pietrina.  Attenzione con un rovesciamento “dialettico” qui la pietrina fa la parte che è stata prima della pirite e poi del ferro o dell’acciaio. La pietrina in lega di ferro, cerio e magnesio (meno dura dell’acciaio) in coppia con dell’acciaio sostituì la selce-pirite, che fu messa a riposo; chi di voi non ha visto un accendisigari a pietrina o un accendigas a pietrina? In questo caso la lega di ferro-cerio o cerio-magnesio deve contenere un eccesso del componente più molle (il cerio in entrambi i casi) e costituisce una vera e propia lega piroforica come si dice, nella quale la parte molle si stacca ed incendia allo sfregamento; la nuova reazione è Ce + O2–> CeO

In sostanza nella pietrina il cerio ha sostituito il solfuro di ferro preistorico o il ferro-carbonio di età storica con una terra rara; ma quanti lo sanno? (si veda Il Villavecchia per i dettagli)

focaia11Io sono abbastanza vecchio da ricordare l’accendino a pietrina e da averlo usato anche se all’epoca non avevo idea di quanta chimica ci fosse dietro e credo non fosse affatto comune saperlo.

Un’ultima nota: considerate che l’ultimo e più comune tipo di accendi gas non è a pietrina ma è piezoelettrico e si tratta di un meccanismo del tutto diverso. Il metodo a percussione è andato in soffitta.

Altri riferimenti:

http://www.veja.it/2009/12/03/la-pietra-focaia-e-l%E2%80%99accensione-del-fuoco/

http://www.lescienze.it/news/2011/09/15/news/il_ritorno_di_o_tzi-550747/

(1) Marziale 1,41 e anche 10,3.

1,41 • A UN BUFFONE INSIPIDO

O Cecilio,
a te sembra di esser spiritoso.
Credimi, non lo sei.
«Che sarei dunque?»
Un becero, qual è
un trasteverino venditore
che baratta i gialli zolfanelli
con oggetti di vetro già incrinati
o che vende a degli sfaccendati
ceci stracotti,

Stato di ossidazione e numero di ossidazione sono sinonimi?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

W.B. Jensen afferma che la maggior parte degli storici fa risalire il moderno concetto di riducente e ossidante al chimico americano Harry Shipley Fry (1878-1949), che nel 1914 scrisse: If the substance (ion, atom, or compound) loses negative electrons, it acts as a reducing agent. If it combines with negative electrons, it acts as an oxidizing agent. [1][1].

Wendell Latimer

the-electronic-conception-of-valence-and-the-constitution-of-benzene-1921-harry-shipley-fry-0548689792_200x200-PU3ee005f3_1Occorre però aspettare la ponderosa opera di W.M. Latimer[2] sui potenziali di ossidazione per una definizione puntuale di stato di ossidazione e numero di ossidazione.cache.024644.Wendell_Latimer

Scrive Latimer:

Come esempio…userò lo ione solfato. [Il] metodo assume che ogni ossigeno abbia una carica di -2 il che dà quindi una carica di +6 allo zolfo. Queste assunzioni non solo semplificano la classificazione dei composti ma sono anche utili nell’interpretazione delle reazioni di ossido-riduzione. Così la carica +6 sullo zolfo può essere correlata ai sei elettroni coinvolti nell’ossidazione dello zolfo a ione solfato:

S + 4H2O = 8H+ + SO4 + 6e

Si possono scrivere semi-reazioni simili per l’ossidazione (o riduzione) di qualsiasi elemento libero a uno qualsiasi dei suoi composti, e il numero di elettroni coinvolti nella reazione può essere usato per definire il numero di ossidazione o stato di ossidazione dell’elemento. Riassumendo…possiamo dire: la valenza dello zolfo è 4, il numero polare è sconosciuto, ma il numero polare formale è 2[3] e lo stato di ossidazione è +6.[4] [2, p. vi-vii]

Non vi è quindi alcun dubbio che per Latimer numero e stato di ossidazione sono sinonimi. Il metodo di Latimer per calcolare il numero (stato) di ossidazione degli elementi in un composto si basa sulla teoria della valenza e sulle strutture di Lewis: se si ha a disposizione la struttura Lewis di una molecola i numeri (stati) di ossidazione si assegnano calcolando la differenza tra il numero di elettroni di valenza che un atomo neutro di tale elemento avrebbe e il numero di elettroni che “appartengono” a esso nella struttura di Lewis. Ai fini del calcolo, si assume che gli elettroni in un legame tra atomi di elementi diversi appartengano all’atomo più elettronegativo, gli elettroni in un legame tra gli atomi dello stesso elemento siano divisi equamente, e gli elettroni delle coppie spaiate appartengano solo all’atomo che le possiede. Sicché, considerando la struttura di Lewis dell’acido acetico:

aceticoIl numero di ossidazione del C metilico sarà:

4(n° elettroni di valenza del C neutro) – 6(3 coppie elettroniche di legame attribuite al C) – 1(elettrone del legame C-C) = -3

Analogamente per il C carbossilico: 4 – 0 – 1 = +3, per gli atomi di ossigeno: 6 – 8 (2 coppie legame attribuitegli + 2 doppietti non condivisi) = -2 e infine ciascun atomo di idrogeno avrà numero di ossidazione +1 perché ognuno ha ceduto il solo elettrone che aveva. In pratica l’assunzione è che la molecola sia completamente ionizzata.

Latimer inoltre usa le semi-reazioni per bilanciare le ossidoriduzioni, va notato che le semi-reazioni di Latimer sono considerate nel verso dell’ossidazione, ad es.:

Zn = Zn2+ + 2e

Cu = Cu2+ + 2e

Alla prima è attribuito un potenziale standard E° = 0.762 V, alla seconda E° = -0.345 V [2, p. 3]. Questa convenzione, detta “americana”, fu usata fino agli ultimi anni ’60 in contrapposizione a quella detta “europea”, che sceglieva invece il verso della riduzione. Si ingenerava quindi una certa confusione soprattutto negli studenti quando confrontavano testi o articoli al di qua o al di là dell’oceano. Fu poi adottato internazionalmente il verso della riduzione eliminando l’ambiguità.

Vediamo ora cosa dice l’ultima versione del “Gold Book” della IUPAC [3]. Anzitutto si nota che viene mantenuta una distinzione fra stato e numero di ossidazione, infatti a p. 1049 si trova:

oxidation stateA measure of the degree of oxidation of an atom in a substance. It is defined as the charge an atom might be imagined to have when electrons are counted according to an agreed-upon set of rules: (1) the oxidation state of a free element (uncombined element) is zero; (2) for a simple (monatomic) ion, the oxidation state is equal to the net charge on the ion; (3) hydrogen has an oxidation state of 1 and oxygen has an oxidation state of -2 when they are present in most compounds. (Exceptions to this are that hydrogen has an oxidation state of -1 in hydrides of active metals, e.g. LiH, and oxygen has an oxidation state of -1 in peroxides, e.g. H2O2; (4) the algebraic sum of oxidation states of all atoms in a neutral molecule must be zero, while in ions the algebraic sum of the oxidation states of the constituent atoms must be equal to the charge on the ion. For example, the oxidation states of sulfur in H2S, S8 (elementary sulfur), SO2, SO3, and H2SO4 are, respectively: -2, 0, +4, +6 and +6. The higher the oxidation state of a given atom, the greater is its degree of oxidation; the lower the oxidation state, the greater is its degree of reduction.

Si può anzitutto osservare che la “definizione” misura del grado di ossidazione di un atomo in una sostanza è seguita da un’ulteriore definizione che esplicita: Esso è definito come la carica che si immaginerebbe un atomo avesse quando gli elettroni vengono contati in base a un insieme concordato di regole… che sono sostanzialmente quelle riportate in tutti i testi elementari di chimica.

oxidation number

Of a central atom in a coordination entity, the charge it would bear if all the ligands were removed along with the electron pairs that were shared with the central atom. It is represented by a Roman numeral. Note: The term Stock number is no longer recommended.

Dunque si dovrebbe parlare di numero di ossidazione solo per l’atomo centrale nei composti di coordinazione? E cos’è il termine numero di Stock che non è più raccomandato?

Il numero di Stock fa parte di un più vasto sistema di nomenclatura dei composti inorganici, proposto dal chimico tedesco Alfred Stock[5] nel 1919.

Alfred_Stock

Alfred_Stock

Secondo la nomenclatura di Stock, la valenza (numero di ossidazione) di un certo elemento è posta o come apice (in numeri romani) a destra del simbolo dell’elemento in una formula chimica, per esempio FeIII2(SO4)3, o in parentesi tonde dopo il nome dell’elemento nei nomi dei composti, ad esempio ferro(III)solfato. Questo perché uno ione solfato ha carica −2, cosicché a ogni atomo di ferro spetta carica +3. Alla magnetite, Fe3O4, spetta il nome di ferro(II,III) ossido, a indicare due atomi di ferro non equivalenti (FeO●Fe2O3). La nomenclatura di Stock fu largamente impiegata in Germania tanto che nel 1924 una Commissione tedesca la raccomandò con alcune varianti, ad es l’impiego dei numeri romani, che nell’iniziale proposta di Stock dovevano essere arabi. L’intenzione di Stock era probabilmente di eliminare suffissi e prefissi.

In ogni caso sembra che il Gold Book 2014 della IUPAC riservi il termine numero di ossidazione solo per l’atomo centrale nei composti di coordinazione che andrebbe indicato con un numero romano. Va osservato che comunque la notazione di Stock è ancora ampiamente usata e non solo per i composti di coordinazione.

Un altro metodo per determinare gli stati di ossidazione è quello che usa il concetto di elettronegatività introdotto da Linus Pauling[6] nel 1932, proposto a tale scopo nel 1947 (L. Pauling, General Chemistry, Freeman, S. Francisco CA).

Linus_Pauling_1962

Linus Pauling

In breve:

Lo stato di ossidazione di un atomo in un composto è dato dall’ipotetica carica del corrispondente ione atomico che si otterrebbe dalla rottura eterolitica dei suoi legami con gli altri atomi in modo tale da attribuire tutti gli elettroni di questi legami all’atomo con maggiore elettronegatività. I legami tra atomi uguali si rompono omoliticamente.

Questo metodo permette di assegnare lo stato di ossidazione di tutti gli atomi in una molecola senza ricorrere a eccezioni (in LiH, all’idrogeno si assegnerebbe -1 perché è più elettronegativo (2.20) di Li (0.98), agli O in H2O2 si assegnerebbe -1 perché il legame O−O è fra due atomi uguali) e si assegnerebbero facilmente i numeri di ossidazione anche nel caso di Cl2O, FCl, SCN ad esempio, cosa non tanto agevole con le regole IUPAC. H.P. Look [4] chiama la definizione di Pauling “espansa” o “allargata”. Sia Look, sia W.B. Jensen [5] sostengono la superiorità del “metodo di Pauling” rispetto all’insieme di regole proposte dalla IUPAC, criticando altresì l’ambiguità di mantenere distinti i due termini “stato” e “numero” di ossidazione. In particolare Jensen sottolinea che il punto non è fare una distinzione fra definizione “allargata” o “ristretta”, quanto piuttosto fra un approccio “composizionale” e uno “topologico” allo stato di ossidazione, perché sia le “regole memorizzabili” sia la “regola della rimozione dei legandi” sono in ultima analisi riferibili all’approccio composizionale, mentre l’approccio di Pauling richiede piuttosto la conoscenza della topologia delle specie elettronicamente legate come rappresentata dai diagrammi di Lewis [5]. L’autore riporta l’esempio emblematico dell’anione manganese tetracarbonile [Mn(CO)4]3- in cui al Mn possono essere assegnati due numeri di ossidazione diversi con i due approcci.

Una esauriente risposta a queste osservazioni critiche è contenuta in un lungo articolo di P. Karen et al. apparsa su Pure Appl. Chem. [6].

oxidationstateIn conclusione, se non vi è alcuna differenza semantica fra i due termini e cioè il numero di ossidazione si riferisce allo specifico valore numerico assegnato all’entità “stato di ossidazione”, si possono usare le regole IUPAC o le tabelle delle elettronegatività per calcolare tale valore numerico nella maggior parte dei casi, riservando ad alcuni composti organometallici, ai clusters e a prodotti di reazione tipo NaTl (fasi di Zintl) un approccio che tenga conto del contorno elettronico.

[1] H. S. Fry, “Positive and Negative Hydrogen, The Electronic Formula of Benzene, and the Nascent State,” J. Am. Chem. Soc. 1914, 36, 261-272. Definition on page 272. Citazione da W.B. Jensen, The Origin of the Oxidation State Concept, J. Chem. Educ., 2007, 84, 1418-1419.

[2] W.M. Latimer, Oxidation States of the Elements and their Potentials in Aqueous Solutions, Prentice-Hall. Inc., New York, 1938, 1 vol. di pp. xiv+327

[3] International Union of Pure and Applied Chemistry, Compendium of Chemical Terminology

Gold Book, Version 2.3.3, 2014-02-24

[4] H.-P. Loock, Expanded Definition of the Oxidation State, J. Chem. Educ. 2011, 88, 282–283.

[5] W.B. Jensen, Oxidation States versus Oxidation Numbers, J. Chem. Educ. 2011, 88, 1599-1560.

[6] P. Karen, P. McArdle, J. Takats, Toward a comprehensive definition of oxidation state (IUPAC Technical Report), Pure Appl. Chem. 2014, 86, 1017–1081.

[1] Lo stesso Jensen, tuttavia, dichiara di aver trovato un’analoga definizione in un precedente libro di G. Buchner: In a wider sense one can now understand the oxidation of metals as any loss of electrons whereby the positive charge increases. Reduction is then the uptake of electrons and/or loss of positive charge.(Angewandte Ionenlehre, Lehmann: München, 1912, p.70)

[2] Wendell Mitchell Latimer (1893-1955) chimico americano, oltre ai suoi approfonditi studi di elettrochimica, è stato uno dei primi a descrivere il legame a idrogeno nell’acqua (W.M. Latimer, W.H. Rodebush, Polarity and ionization from the standpoint of the Lewis theory of valence, J. Am. Chem. Soc., 1920, 42, 1419–1433)

[3] Il numero polare formale, o meglio carica formale si calcola ipotizzando che tutti i legami siano covalenti sicché un solo elettrone viene assegnato a ogni atomo legato. Ad esempio, nello ione ammonio (NH4+) la carica formale dell’azoto è +1, ottenuta assegnando solo quattro elettroni di valenza (uno per legame) all’azoto. Allo stesso modo, l’azoto nell’ammoniaca (NH3) ha stato di ossidazione -3 ma carica formale zero. Per protonazione dell’ammoniaca si forma lo ione ammonio, la carica formale dell’azoto cambia, ma il suo stato di ossidazione resta -3.

[4] Interessante notare l’uso del segno = per separare reagenti e prodotti, mantenuto per tutto il libro. Interessante anche, al termine della prefazione il ringraziamento a William C. Bray (lo scopritore della prima reazione oscillante): non vi è alcun uomo che abbia una così completa comprensione del meccanismo delle reazioni inorganiche come il Professor William C. Bray. [1, p.vii]. Entrambi furono allievi di Gilbert N. Lewis, insieme scrissero un eccellente manuale di laboratorio per gli studenti di chimica.

[5] Alfred Stock (1876-1946), chimico inorganico tedesco, è stato pioniere nelle ricerche sugli idruri del boro e del silicio, sul mercurio e la sua velenosità e in chimica di coordinazione. È stato il primo a usare il termine ligand, legando.

[6] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

 

Quando la SCI dovrebbe prendere posizione pubblica e in che modo?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Un recente episodio mi spinge a riflettere sul ruolo della SCI nella società e nella cultura italiana e a considerare il seguente quesito: la SCI (e in generale le organizzazioni dei Chimici, per esempio gli ordini professionali e il CNC) dovrebbe prendere posizione su alcuni almeno dei grandi temi che quotidianamente si pongono all’attenzione (a volte, ma non sempre, connessi direttamente con la Chimica)? E cosa potrebbero fare?

Qualcosa del genere, con qualche mal di pancia, è avvenuto nel caso del clima e mi sembra molto positivo. Ma vediamo a cosa mi riferisco.

Mi riferisco qui a un episodio avvenuto negli scorsi giorni; la condanna di alcuni dirigenti della società Syndial da parte della magistratura per un episodio di grave inquinamento verificatosi in Sardegna.

foto_526459_550x340

Lo stabilimento della Syndial di Porto Torres (foto Unione Sarda)

In questo caso la chimica è chiamata in ballo dal ruolo e dalle attività della società implicata, la Syndial, che è una società ENI che si occupa di riqualificazione ambientale; alcuni dei cui dirigenti sono stati condannati in un processo per inquinamento ambientale.

Il processo, denominato “Darsena dei veleni” era nato in seguito a un sovralluogo effettuato dai vigili del fuoco nella darsena servizi del porto industriale di Porto Torres, sopralluogo culminato con il sequestro cautelare di una parte della darsena.

L’inchiesta era poi stata avviata dalla procura della repubblica di Sassari che aveva individuato  nei vertici di Syndial e Polimeri Europa i presunti responsabili dell’inquinamento della darsena servizi (proprio a  ridosso dell’ex petrolchimico), che per anni era stata “alimentata” dalla falda acquifera inquinata caratterizzata dalla presenza di sostanze  cancerogene, con  livelli migliaia di volte superiori ai limiti consentiti dalla legge.

http://www.ansa.it/sardegna/notizie/2016/07/22/darsena-veleni-p.torres-tre-condanne_54db97af-03d6-47a2-8d8a-c228bc923906.html

Succintamente e attingendo ai testi dei giornali:

il pool difensivo di Eni – composto dai legali Carlo Federico Grosso, Mario Maspero, Fulvio Simoni, Grazia Volo, Luigi Stella, Piero Arru – (ha presentato) le controdeduzioni proprio relativamente alla costituzione delle parti civili. Dopo mesi di accertamenti e audizioni di testimoni erano stati iscritti nel registro degli indagati il rappresentante legale di Syndial Spa Alberto Chiarini, il responsabile gestione siti da bonificare Francesco Papate, il responsabile Taf Management (Taf è l’impianto per il trattamento delle acque di falda) Oscar Cappellazzo, i responsabili dell’area operativa Taf Gian Antonio Saggese e di salute, ambiente, sicurezza del Taf Francesco Leone, il rappresentante legale di Polimeri Europa Daniele Ferrari, il direttore di stabilimento Paolo Zuccarini e il responsabile della sezione salute, sicurezza, ambiente, Daniele Rancati. A tutti veniva contestato di “non aver adottato le opportune cautele” e di aver quindi “cagionato un disastro ambientale per lo sversamento in mare di sostanze inquinanti”.

Il punto è che per l’accusa, gli interventi di risanamento ambientale messi in atto dalla Syndial non avrebbero funzionato.In altri termini, dalla barriera idraulica costituita da pozzi di emungimento collegati a sistemi di trattamento delle acque e dispositivi per misurare il gradiente di diffusione dell’inquinamento, continuano a fuoriuscire inquinanti. Tesi, questa, respinta dalla difesa, che ha commissionato una perizia ad esperti americani. Per i quali la barriera bloccherebbe il deflusso delle sostanze inquinanti verso la darsena. Sempre per gli esperti della difesa, responsabile dell’inquinamento in quell’area, sarebbe una condotta fognaria della rete comunale.

In passato, è stato proprio il Ministero dell’Ambiente a denunciare l’inefficacia del sistema. Ma da allora nessuna nuova procedure di contenimento è stata messa in atto. Per avere un’idea dei livelli d’inquinamento della falda, basta riportare i dati notificati dalla stessa Syndial: “Arsenico 50 volte il limite, mercurio 10 volte il limite, benzene 139.000 volte il limite, etilbenzene 100 volte il limite, toluene 4.900 volte il limite, cloruro di vinile monomero 542.000 volte il limite, dicloroetano 28.000.000 di volte il limite, dicloroetilene 9.980 volte il limite, tricloroetilene

(http://www.sardiniapost.it/cronaca/darsena-dei-veleni-porto-torres-imputati-8-manager-eni-sit-degli-ambientalisti/)

Il rito abbreviato che ha caratterizzato il processo e che ha consentito il dibattito a porte chiuse (e questo atteggiamento sarebbe da spiegare da parte dell’ENI) si è chiuso con la condanna di tre degli 8 manager implicati (Saggese, Papate e Cappellazzo) accusati di disastro ambientale colposo e deturpamento delle bellezze naturali per avere riversato in mare rifiuti industriale altamente inquinanti. Sono tutti e tre di Syndial, e dovranno pagare oltre 500.000 euro di danni.

Infatti andranno 200 mila euro al ministero dell’Ambiente, 100 mila euro alla Regione Sardegna, 100 mila euro al Comune di Porto Torres, 50 mila euro a testa a Giovanni e Alessandro Polese (titolari di un cantiere nautico della zona). Altri 10 mila euro a testa come risarcimento dei danni morali sono stati riconosciuti alle associazioni Anpana, Lega per l’abolizione della caccia onlus, Comitato cittadino Tuteliamo il Golfo dell’Asinara e al Comitato d’azione protezione e sostenibilità ambientale per il nord ovest Sardegna.

Questi sono gli episodi che poi costituiscono la base per la immagine negativa della chimica; gli episodi in cui la Chimica viene avvicinata all’inquinamento al danneggiamento della Natura e che costituiscono il presupposto per l’uso così negativo della nostra parola chiave.

Anche se nello Statuto della nostra associazione non è esplicitamente indicata la difesa dell’immagine della Chimica, questo scopo può e deve essere, sia pure implicitamente, considerato un obbiettivo strategico; nel comma 1 dell’art. 2 si dice infatti “di divulgare la conoscenza della Chimica e l’importanza delle sue applicazioni nel quadro del benessere e del progresso della Nazione”.

statuto1Dovrebbe essere sufficiente a porsi il problema e l’obiettivo di usare come strumento l’azione legale e considerarsi parte lesa in questi episodi e di iscriversi nella lista delle associazioni che ricevono danno morale da episodi di questo tipo; su questa base la SCI potrebbe chiedere in questi casi di costituirsi parte civile nei processi di questa portata e contenuto.

Fra l’altro queste sono le condizioni per recuperare la nostra immagine positiva nei confronti dell’opinione pubblica; far vedere che ci poniamo attivamente contro i comportamenti dell’industria e dei suoi attori quando questi sono contrari all’etica e al vivere civile e alla legge stessa: chimica si ma l’uomo e la Natura vengono prima.

E’ un quesito che rivolgo al CC della SCI e a tutti i soci; apriamo un dibattito su questi temi. E aggiungo: Cosa succederebbe se in episodi del genere fossero coinvolti iscritti SCI o degli ordini? Ci sarebbe un effetto? O tutto passerebbe o passa di fatto in cavalleria? Ci sono stati soci o iscritti agli ordini contro i quali a causa di episodi del genere il filtro delle organizzazioni nazionali di categoria o culturali come la nostra abbia funzionato; non ne sono a conoscenza; chi ne sa di più?

A voi la parola.

 

Depurazione delle acque: processi innovativi.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il trattamento delle acque di rifiuto è un argomento abbastanza particolare. Ovviamente ben conosciuto dagli addetti del settore (operatori e ricercatori) e meno dal pubblico generico.
Ma come da sempre sostengo anche gli addetti credo debbano sentire l’impegno (perché tale è) di restare continuamente aggiornati sulle novità che si sviluppano da processi di ricerca, e che possono essere poi sperimentati e successivamente utilizzati nei processi di trattamento.
L’università Carlo Cattaneo di Castellanza (Va) organizza ormai da qualche anno incontri di questo tipo, aperti al pubblico, agli operatori ed agli studenti.
Nell’ultimo che si è svolto la scorsa primavera ho potuto conoscere due processi di trattamento riguardanti uno la linea di trattamento delle acque, ed uno la linea fanghi che mi hanno molto interessato.

Processo anammox

Si tratta di un processo di ossidazione dell’azoto ammoniacale effettuato da batteri che in condizioni anossiche (carenza di ossigeno disciolto) ossidano l’azoto ammoniacale usando il nitrito come accettore di elettroni.
La scoperta di questo tipo di batteri avvenne nel 1988 in un depuratore in Olanda.

anammox

Questo tipo di batteri vive spontaneamente in ambienti quali i fondali oceanici e contribuisce per circa il 70% al ciclo dell’azoto negli oceani.
La reazione, condotta in assenza di ossigeno, dei nitriti con lo ione ammonio

NO2+ NH4+(aq) –> N2(g) + 2 H2O

si differenzia da quella classica di denitrificazione (l’azoto nella forma di nitrati viene convertito per via biologica ad azoto gassoso: NO3 –> N2(g)).
Per il processo anammox la fonte è carbonio inorganico e le condizioni sono anaerobiche, mentre per la denitrificazione il carbonio è organico e le condizioni anossiche.
Questo tipo di processo dal punto di vista dell’applicazione impiantistica si può fare avvenire in due stadi separati o in un unico stadio.
Nel primo caso nel primo stadio di trattamento si conduce una normale reazione di nitritazione parziale nella quale si trasforma circa la metà dell’ammonio presente a nitrito.

NH4+ + 3/2 O2 –> NO2 + 2H+ + H2O

Nel secondo stadio avviene il processo anammox.
Se il processo viene fatto avvenire in un solo stadio dove i batteri nitrificanti e gli anammox convivono per esempio in un biofilm si ottiene il doppio vantaggio di avere costi di investimento inferiori e facilitare il controllo di processo.
Questo tipo di trattamento si presta molto bene al trattamento di reflui con alte concentrazioni di azoto (200mg/lt).
Tipicamente quindi reflui quali il percolato di discarica, oppure i digestati liquidi del trattamento fanghi e i reflui derivanti da processi agroindustriali, cioè quelli che da sempre danno più problemi con un trattamento di tipo convenzionale a fanghi attivi.
Questo tipo di processo ben si adatta a costruire sistemi modulari e compatti dal momento che questi batteri formano biofilm adesi e stabili, ma possono anche aggregarsi in forme adatte ai sistemi di biomassa sospesa molto compatta riducendo i problemi di bulking e sfaldamento del fiocco di fango, piuttosto comuni negli impianti tradizionali.
Le criticità del processo sono legate al range di temperatura ottimale (25-38°C) e al rapporto COD/N che è preferibile sia inferiore a 2. Nel caso contrario è preferibile effettuare un pretrattamento aerobico.
La tecnologia è già applicata in un centinaio di impianti (108 a tutto il 2015) e con fornitori commerciali già presenti sul mercato .
In Italia l’applicazione risulta ancora limitata, e spiace dirlo per le solite carenze che riguardano in molti casi il ritardo negli adeguamenti strutturali degli impianti e negli investimenti, una frammentazione ancora troppo elevata delle gestioni, e quindi in ultima analisi un problema culturale.

Disidratazione elettro-assistita.

La seconda tecnica che ha suscitato la mia curiosità (dote che ritengo utile e fondamentale) è questa. Il trattamento dei fanghi è di fatto quello che da sempre impegna molto chi lavora nel settore della depurazione. I problemi del corretto trattamento dei fanghi di risulta sono diversi, e variano dai costi di smaltimento fino a quelli di avere trattamenti di facile uso ed esecuzione per il personale addetto.
La disidratazione elettroassistita consiste nell’applicazione di un campo elettrico per sfruttare il fenomeno della elettroosmosi. Utilizzando corrente elettrica continua si può effettuare la migrazione dell’acqua contenuta nel fango da disidratare (la cosiddetta acqua del fango). In particolare si migliora il drenaggio dell’acqua interstiziale e capillare. Con questa tecnica si possono ottenere tenori di secco del fango che possono arrivare al 40-45% da valori del 18-30% ottenuti con la sola disidratazione meccanica con pressa a nastro o centrifuga.

becker

Il limite di questa tecnica rispetto a quelle tradizionali è la portata inferiore di fango trattabile a cui si può ovviare con l’installazione di più macchine operanti in parallelo.

nastro

L’altro problema a cui si sta lavorando è quello dell’accumulo del fango più secco all’anodo della elettropressa con conseguenti problemi di corrosione e di perdita di conducibilità nel fango. Per questa ragione si sta lavorando alla messa a punto di anodi rotanti. Il vantaggio consiste nel migliorare la fluidità del fango e la sua conduttività migliorando il drenaggio dell’acqua separata.
L’impianto di depurazione di domani sarà profondamente diverso da quello che abbiamo visto fino ad oggi. Saranno fondamentali per il suo miglior funzionamento le tecnologie oggi emergenti. E da esso si potranno recuperare sia energia che materia. Non solo biogas come già oggi avviene, ma anche biopolimeri e soprattutto fosforo.

Ancora sulla simbologia chimica

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel precedente post sull’argomento (https://ilblogdellasci.wordpress.com/2016/07/20/lorigine-della-nomenclatura-e-della-simbologia-chimica-moderna/), ho citato questa frase tratta dal libro di Solove’v [1]: “Nella trattatistica chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831”. Secondo lo storico della chimica statunitense William B. Jensen[1][2], a quei tempi i diagrammi chimici erano ancora i soli a essere impiegati nei trattati, un esempio è fornito dalla seguente figura tratta dal libro di A. Lee[2] Chemical Diagrams, Accompanied by a Concise Description of Each Decomposition, Cox, London, 1933, p.12:

nomenclatura11Questo diagramma rappresenta la reazione fra carbonato di calcio [lime] e acido cloridrico [muriatic acid] per dare cloruro di calcio e acido carbonico [anidride carbonica + acqua]. I numeri rappresentano gli equivalenti delle sostanze in base ai pesi atomici di Dalton “aggiornati”. Probabilmente Dumas in base alla simbologia di Berzelius avrebbe scritto l’equazione di reazione “in linea” circa così:

(CaO+CO2) + 2(HCl) = (CaCl2) + (H2O+CO2).

Jensen sostiene che l’apparizione delle “equazioni chimiche in linea” accompagnate dall’uso del simbolo = per separare i reagenti dai prodotti risale alla fine degli anni ’40 del 1800 e cita il famoso libro di testo introduttivo Manual of Elementary Chemistry, Theoretical and Practical, Blanchard and Lea, Philadelphia, 1a Ed. 1847, di G. A. Fownes[3]. Nella prima edizione del 1847 e certamente fino alla 7a edizione del 1860, la doppia notazione, diagramma ed equazione in linea, viene mantenuta, ma essa scompare a favore della seconda nella 12a edizione intitolata Fownes’ Manual of Chemistry Theoretical and Practical, revisionata e corretta da Henry Watts, J. & A. Churchill, London, 1877.

Tuttavia Stanislao Cannizzaro userà esclusivamente equazioni in linea con reagenti e prodotti separati dal simbolo = nel suo famosissimo Sunto di un Corso di Filosofia Chimica del 1858.

L’uso della singola freccia al posto di = arriva certamente più tardi se è vero che ancora nel 1821 gli autori del Journal of the American Chemical Society usavano = per separare reagenti e prodotti. Ad esempio [3]:

nomenclatura12L’origine del simbolo doppia freccia per indicare una reazione all’equilibrio chimico è invece più facile da ritrovare. Nel 1884 vengono pubblicati gli Etudes de Dynamique Chimique di Jacobus Henricus van’t Hoff, in cui l’autore afferma:

La trasformazione limitata, di cui dobbiamo la conoscenza a Berthollet, è caratterizzata dal fatto che essa si arresta prima di arrivare a completezza. Nello stato finale si trova dunque inalterata una parte dei corpi primitivi in presenza dei corpi nuovi formatisi; così nell’azione dell’acido cloridrico sull’azotato [nitrato] di sodio si ha una trasformazione che conduce ad acido nitrico e sale marino, ma questa trasformazione non porta mai alla scomparsa totale dei corpi primitivi impiegati.

Le osservazioni di questo tipo sono diventate via via più numerose e trasformazioni limitate si trovano ora in tutte le parti della chimica. Ora M. Pfaundler ha collegato questi due fenomeni in un solo concetto considerando il limite osservato come la risultante di due trasformazioni contrarie, conducendo l’una, nell’esempio citato alla formazione di sale marino e acido nitrico, l’altra all’acido cloridrico e all’azotato di sodio. Questa considerazione, che l’esperienza ha verificato, giustifica l’espressione di equilibrio chimico, di cui ci si serve per caratterizzare lo stato finale della reazione limitata. Io proporrei di tradurre questa espressione con il seguente simbolo:

HCl + NO3Na ⇄ NO3H + ClNa

Sostituisco dunque nell’equazione chimica, in questo caso il segno = che, in realtà non mostra solo l’uguaglianza ma mostra anche il verso della trasformazione, con il simbolo . Esso esprime chiaramente che un atto chimico si compie simultaneamente nei due versi opposti. [4, p. 4-5]

Per la simbologia delle equazioni chimiche, nel Gold Book della IUPAC, alla voce chemical reaction equation si trova:

Symbolic representation of a chemical reaction where the reactant entities are given on the left hand side and the product entities on the right hand side. The coefficients next to the symbols and formulae of entities are the absolute values of the stoichiometric numbers. Different symbols are used to connect the reactants and products with the following meanings: = for a stoichiometric relation; → for a net forward reaction; ⇄ for a reaction in both directions; ⇌ for equilibrium.” [5]

Nonostante questa raccomandazione, sono tuttavia abbastanza sicuro che nella pratica comune per le reazioni all’equilibrio si usino indifferentemente i due simboli ⇄ e ⇌, mentre per le reazioni che vanno praticamente a completezza l’uso della singola freccia valga anche a indicare la relazione stechiometrica.

[1] J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 157.

[2] W.B. Jensen, The Symbolism of Chemical Equations, J. Chem. Educ., 2005, 82, 1461

[3] W.C. Bray, A Periodic Reaction in Homogeneous Solution and its Relation to Catalysis, J. Am. Chem. Soc., 1921, 43, p. 1262

[4] J.H. Van’t Hoff, Etudes de Dynamique Chimique, Frederik Muller & Co., Amsterdam, 1886. 1 vol di pp. 214

[5] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014.02.24, p. 262

[1] William B. Jensen, chimico statunitense è Professor of Hystory of Chemistry and Chemical Education all’Università di Cincinnati, curatore della Oesper Collections della stessa Università. Ha curato la rubrica bimestrale “Ask the Historian” del Journal of Chemical Education dal 2003 al 2012. Ha fondato ed è stato il primo editor della rivista Bulletin for the History of Chemistry.

[2] Il libro di Alexander Lee, con un titolo lunghissimo, è “inteso a facilitare il progresso dello studente medico”. Si tratta di un voluminoso compendio di chimica inorganica e organica, dedicato in particolare “to the gentlemen who attending the Borough Medical Schools”.

[3] George A. Fownes (1815-1849), chimico inglese noto per i suoi saggi sulla chimica dei vegetali, professor of chemistry in varie istituzioni, famoso per il suo Manual of Chemistry di cui riuscì a curare solo le prime tre edizioni prima di morire di polmonite a soli 34 anni.

Grove contro Daniell: la “guerra” delle batterie.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Oggi tutti noi associamo le batterie ricaricabili all’uso di dispositivi sofisticati per le comunicazioni come i moderni smartphones, i telefoni cellulari intelligenti i computer portatili e anche le auto elettriche; fa parte della nostra tradizione industriale un esteso uso delle batterie ricaricabili per esempio per avviare i motori a combustione interna; batterie non ricaricabili sono in uso per le più svariate applicazioni e su un range di dimensioni veramente ampio, dai piccoli giocattoli all’avvio delle batterie di missili.

In effetti sono oltre due secoli che questo tipo di dispositivi nelle loro varie forme fa parte della nostra vita tanto che molti elementi della loro storia sono perfino andati nel dimenticatoio.

Ma in effetti sarebbe utile riflettere sulla storia delle batterie proprio perchè fanno parte integrante della nostra vita quotidiana.

Uno degli episodi più antichi e contemporaneamente più moderni di questa lunga tradizione è stata la “guerra” per il controllo del mercato del telegrafo che duecento anni fa costituiva l’ultimo grido nel campo delle comunicazioni.

Le due batterie primarie che si contesero il campo furono la batteria di Grove e quella di Daniell.

Il telegrafo è un sistema di comunicazione basato sulla trasmissione di impulsi di corrente continua lungo un filo metallico; data la scarsa potenza in gioco il segnale non può viaggiare per lunghi percorsi ed ha bisogno quindi di frequenti ripetizioni lungo la linea; stazioni alimentate in un primo momento e per lunghi anni da batterie primarie alimentavano questa ripetizione del segnale; solo dopo il 1869 entrarono in gioco le dinamo; una singola batteria di quelle a disposizione all’epoca poteva coprire una distanza variabile fra i 10 e i 20 chilometri.

Il telegrafo elettrico fu il discendente del telegrafo ottico inventato da Chappe appena dopo la rivoluzione francese nel 1793. Esso fu messo a punto per la prima volta in forma commerciale e dopo numerosi tentativi in tutto il mondo, di cui alcuni italiani, da Samuel Morse nel 1837 e la prima linea fu tra Washington e Baltimora sulla costa Est degli USA nel 1844. In Italia il telegrafo di Matteucci, nostra gloria nazionale, fu messo a punto solo a partire dal 1847.

Morse dovette giocoforza inventare anche uno speciale alfabeto che era di fatto binario, costituito di impulsi brevi e lunghi, solo due simboli base, la combinazione dei quali consentiva però di riprodurre messaggi di qualsivoglia lunghezza.

daniell1Un tasto elettrico che chiudeva temporanemente il circuito consentiva all’operatore di regolare la durata del segnale a mano ed un bravo operatore poteva trasmettere anche cento caratteri al minuto. Dato che la maggior parte delle lettere era costituita da tre o quattro caratteri questo equivaleva a scrivere decine di lettere al minuto, quindi alcune parole al minuto.

L’alfabeto Morse fu reso famoso in seguito dai messaggi inviati tramite le onde elettromagnetiche dalle navi fra cui rimane famoso l’SOS, il segnale di soccorso, che ha contribuito a salvare migliaia di vite.

Mio padre era radiotelegrafista del genio militare e mi insegnò ad usare il tasto Morse, che ancora conservo, anche se oggi non riuscirei a trasmettere messaggi, ci vuole molta pratica per scrivere e leggere il Morse.

daniell2

Il primo messaggio Morse trasmesso per telegrafo.

Il meccanismo esatto era il seguente:

daniell3La chiusura del circuito tramite il pulsante Morse invia un segnale all’elettrocalamita che, eventualmente opportunamente amplificato, genera una risposta o meccanica come indicato nella figura o acustica come avverrà in seguito, con l’uso di cuffie. I circuiti nel tempo subirono una enorme evoluzione anche per rivelare deboli segnali su grandi distanze come quelle dei cavi sottomarini transatlantici, posati a partire dal 1866.

Le batterie erano insomma il cuore del sistema; qui sotto la struttura della batteria Grove. daniell6

Un contenitore di vetro di forma cilindrica contiene una soluzione di ZnSO4 a contatto con una lamina cilindrica di Zn; all’interno un separatore poroso che la separa da una soluzione concentrata di acido nitrico in cui è immerso una barretta centrale di Platino; lo Zinco funge da polo negativo e il Platino da polo positivo; la reazione che vi si realizza è la seguente:

Zn + H2SO4 + 2 HNO3 = ZnSO4 + 2 H2O + 2 NO2(g)

Fra il 1840 e il 1860 questa sorgente elettrica fu quella dominante con una differenza di potenziale di circa 1.9V.

Sir William Robert Grove, (1811 –1896) fu uno scienziato di origine gallese che si occupò di chimica e fisica, inventò un dispositivo simile alla lampada di Edison, la cella di Grove di cui parliamo qui e la cella a combustibile, nel 1842.

Quali sono i problemi della cella di Grove? Uno è l’uso del platino che è costoso, un altro è la produzione di biossido di azoto che un gas tossico e il terzo è che durante la vita del dispositivo la tensione tende a diminuire riducendo le prestazioni.

Ci fu un tentativo di ridure alcuni problemi con la sostituzione del platino con la grafite; scriveva nel 1860, Dionysius Lardner in ‘The Telegraph Popularised’ …

Zinc being one of the most oxydable metals, and being also sufficiently cheap and abundant is generally used by preference for voltaic combinations. Silver, gold, and platinum are severally less susceptible of oxydation, and of chemical action generally, than copper, and would therefore answer voltaic purposes better, but are excluded by their greater cost, and by the fact that copper is found sufficient for all practical purposes.

“It is not, however, absolutely necessary that the inoxydable element of the combination should be a metal at all. It is only necessary that it be a good conductor of electricity. In certain voltaic combinations, charcoal properly solidified has therefore been substituted for copper, the solution being such as would produce a strong chemical action on copper.”

It was found that carbon used in place of platinum in the Grove cell
still produced the extra power which made the Grove so popular
… this combination was called a Bunsen cell.

daniell7

Un banco di celle di Grove per alimentare il telegrafo; il tavolo di legno di sostegno era cerato per ridurre gli effetti dell’acido nitrico.

Ma anche la cella Bunsen non risolveva il problema dell’evoluzione di gas tossici e della riduzione del potenziale utile.

Bunsen_cell

Si differenzia per l’utilizzo di un catodo a carbone al posto del costoso catodo di platino della pila di Grove;grazie a tale modifica, che ne abbatteva i costi, la pila di Bunsen poteva essere prodotta su larga scala. Come la pila di Grove, la pila di Bunsen utilizza un anodo in zinco immerso in una soluzione di acido solforico (H2SO4); il catodo in carbone è invece immerso in una soluzione di acido nitrico (HNO3) o acido cromico (H2CrO4). Le due semicelle sono separate da un setto poroso.

Questa situazione portò all’introduzione di tecnologie alternative; la tecnologia alternativa fu la batteria Daniell.

Anche John Frederic Daniell fu uno scienziato inglese (1790-1845) che si occupò di chimica e fisica in un periodo in cui la separazione fra queste due discipline era molto meno netta di adesso. Inventò un igrometro, un pirometro ed un barometro che portano il suo nome e si occupò anche di meteorologia. Ma la invenzione per cui lo ricordiamo adesso è certamente la più conosciuta: la pila Daniell, descritta qui sotto.daniell8 daniell9

Essa consisteva di una tazza di rame riempita con una soluzione di solfato di rame nella quale era immerso un contenitore di ceramica porosa riempito di solfato di zinco ed un elettrodo di zinco. Daniell cercava di risolvere il problema delle bolle di idrogeno che si sviluppavano nella pila di Volta dal lato del rame e la sua soluzione consistette nell’usare un diverso elettrolita, il solfato di rame, invece della soluzione acidula proposta da Volta la quale comportava la riduzione al catodo dell’idrogeno con sviluppo di bolle appunto.

Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s) . . ( voltaggio a circuito aperto 1.1018 V )

La cella Daniell è anche la base storica della definizione di Volt, che è l’unità della forza elettromotrice ; la prima definizione, quella proposta nel 1881 era fatta in modo che il potenziale generato dalla cella Daniell fosse esattamente 1V a 25°C, mentre con la definizione attuale il potenziale standard è di 1.1 V.

daniell10

Nella cella Daniell la barriera porosa è usata per prevenire il libero mescolamento delle due soluzioni; senza di essa anche in assenza di corrente gli ioni di rame diffonderebbero velocemente dal lato dello zinco e si ridurrebbero distruggendo di fatto la batteria.

Tuttavia la barriera porosa non può comunque impedire il flusso di ioni rame nella semicella dello zinco. Ne segue che la cella Daniell non può essere ricaricata elettricamente perchè trasformando l’anodo di Zinco nel catodo, gli ioni rame che hanno diffuso si ridurrebbero al posto di quelli di zinco a causa del loro potenziale più favorevole (+0.34 invece di -0.76V).

Col tempo il rame può occludere la barriera porosa e ridurre la vita della batteria, ma ciononostante la cella Daniell consentiva una resa migliore ed una vita utile più lunga della cella voltaica perché mentre l’idrogeno che si sviluppava nella cella voltaica isolava l’elettrodo, il rame che si deposita è comunque un ottimo conduttore.

Rispetto alla cella Grove la cella Daniell presenta una differenza di potenziale circa dimezzata ma non genera gas tossici, non usa materiali altrettanto corrosivi e il suo potenziale rimane sostanzialmente più costante nel tempo Solo la batteria Leclanchè potè poi sostituire la cella Daniell con risultati migliori ma ciò avvenne solo nella tarda metà del XIX secolo e la supremazia della Leclanchè durò poi negli usi pratici fino alla fine della seconda guerra mondiale

Ma l’idea che rese veramente concorrenziale la batteria Daniell divenne realtà nel 1858 e fu opera di un altro inventore di origine francese, di nome A. Callaud, che la perfezionò poi ancora nel 1862. Questa invenzione denominata “pila a gravità” faceva anche a meno del setto poroso riducendo il prezzo e semplificando l’uso e la struttura della battteria.

daniell11 daniell12Essa consisteva di un contenitore di vetro in cui un catodo di rame si trovava sul fondo mentre l’anodo di zinco era sospeso al confine fra le due zone. A causa della maggiore densità la soluzione di solfato di rame rimaneva sul fondo anche se la sua concentrazione diminuiva durante l’uso. Uno strato di solfato di zinco si formava alla estremità dell’anodo e la differenza era sottolineata dalla differenza di colore, essendo azzurra la soluzione di rame e trasparente quella di zinco.

Per ridurre i problemi di mescolamento la cella doveva continuare a produrre corrente e nel contempo evitare che una forte richiesta di corrente distruggesse l’integrità dello strato limite.daniell13 daniell14

Nonostante questi problemi, il costo basso e la facilità di impiego ne diffusero l’uso e ne spinsero l’adozione nello sviluppo di dispositivi a più celle che alimentavano tratte di telegrafo più lunghe, anche perché non c’erano gas tossici e comunque la parte chimica della batteria era isolata dall’aria tramite uno strato di olio che “impermeabilizzava” la sommità della batteria stessa (avendo densità ancora inferiore al solfato di zinco l’olio galleggiava). In una versione ancora più avanzata descritta nell’ultima immegine una sorta di imbuto consentiva l’aggiunta di solfato di rame in forma solida trasformando di fatto la batteria Daniell-Callaud in una sorta di reattore elettrochimico ibrido, a metà strada fra una batteria primaria ed una cella a combustibile.

E’ da notare che anche un inventore italiano Giuseppe Candido di Lecce partecipò alla corsa alla migliore batteria ma non riuscì a vincere perchè di fatto la scelta era stata già fatta (http://www.emerotecadigitalesalentina.it/sites/default/files/emeroteca_all/ID03_contributi-leccesi-sviluppo-pila-elettrica.pdf); la sua idea era basata su una geometria diversa e sull’uso di un setto separatore non poroso come descritto nell’immagine qui sotto:

daniell15

Riferimenti.

Power Struggles Scientific Authority and the Creation of Practical Electricity Before Edison

Michael Brian Schiffer The MIT press 2008

http://members.kos.net/sdgagnon/te4.html

https://en.wikipedia.org/wiki/History_of_the_battery#Invention_of_the_battery

L’origine della nomenclatura e della simbologia chimica moderna

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nella seconda metà del XVIII secolo la terminologia chimica era ancora intrisa del linguaggio e del simbolismo alchemico sicché a una data sostanza erano in generale associati più termini e altrettanti simboli derivati dagli alchimisti. Ad esempio per la magnesia (carbonato di magnesio) erano in uso ben nove diversi nomi.

All’inizio del 1787 Antoine Laurent Lavoisier (1743-1794) decise di affrontare il problema del linguaggio chimico, nomenclatura e simbologia con un progetto di ampio respiro che coinvolse i seguenti chimici che avevano aderito alla “teoria dell’ossigeno” rigettando quella del flogisto: Guyton de Morveau (1837-1816), Claude Louis Berthollet (1748-1822), Antoine François Furcroy (1755-1809) e, per il nuovo sistema di caratteri chimici, Jean Henri Hassenfratz (1755-1827) e Pierre Auguste Adet (1766-1848). Il progetto si concretizzò con la memoria Mèthode de nomenclature chimique, illustrata all’Académie des Sciences fra aprile e giugno 1787, poi pubblicata in volume nello stesso anno [1][1].

nomenclatura1

L’opera si basava su due regole: la prima, la più importante, stabiliva che il nome avesse un significato conforme alla funzione chimica dell’oggetto da definire; la seconda adottava l’etimologia greca come privilegiata per la formazione dei futuri nomi delle sostanze [2, p.58].

In sintesi, nel volume vengono provvisoriamente elencati come elementi circa 55 sostanze che non potevano essere decomposte in altre più semplici con qualsiasi mezzo chimico noto all’epoca. Gli elementi inclusi sono: luce; calorico (“materia del calore”); ossigeno, idrogeno e azoto; carbonio; zolfo; fosforo; gli ancora sconosciuti “radicali” dell’acido muriatico (acido cloridrico), acido borico e acido fluorico (acido fluoridrico); 17 metalli; 5 terre (essenzialmente ossidi di metalli ancora sconosciuti come magnesia, barite, e strontia); tre alcali (potassa, soda e ammoniaca); e i “radicali” di 19 acidi organici. Gli acidi, considerati nel nuovo sistema come composti di vari elementi a diverso “grado di ossigenazione”, sono stati chiamati con il nome dell’elemento coinvolto insieme al grado di ossigenazione di tale elemento, per esempio acidi solforico e solforoso, acidi fosforico e fosforoso, acido nitrico e acido nitroso, il suffisso -ico indicando acidi con una maggiore percentuale di ossigeno rispetto a quelli con il finale -oso. Allo stesso modo, ai sali degli acidi –ico veniva dato il suffisso -ato, come in solfato di rame, mentre i sali degli acidi –oso venivano designati con il suffisso –ito, come in solfito di rame. L’effetto di questa nuova nomenclatura può essere valutato confrontando il nuovo nome “solfato di rame” con il vecchio termine “vetriolo di Venere”.

La nuova nomenclatura permise, combinando opportunamente i nomi a due a due e a tre a tre, di ottenere più di 320.000 nomi. A questi corrispondevano sostanze che in larga misura non erano ancora state isolate sperimentalmente ma che Lavoisier prevedeva di ottenere quando le tecniche analitiche si fossero raffinate. Il passaggio alla nuova nomenclatura non fu immediato anche a causa della difficoltà di traduzione in alcune lingue europee. Tuttavia, poiché la nuova terminologia chimica era un linguaggio universalmente comprensibile e di facile insegnamento, il successo ottenuto dalla nomenclatura di Lavoisier non ha precedenti nella Storia della Scienza [2, p.64] e, nonostante la revisione IUPAC, continua a essere di uso comune in campo chimico.

I simboli proposti nella Méthode non ebbero però uguale successo, i caratteri consistono in figure geometriche (linee, cerchietti, quadrati, triangoli con o senza lettera all’interno).

John Dalton (1766-1844), il fondatore della teoria atomica, nella sua fondamentale opera: A New System of Chemical Philosophy (1808), propose un sistema di simboli per gli atomi degli elementi e per le loro combinazioni (atomi composti [molecole]). I simboli di Dalton sono cerchietti per gli atomi degli elementi (con un segno convenzionale o una lettera all’interno) e cerchietti a contatto fra loro per rappresentare le particelle delle sostanze composte, come mostrato in figura. [3]

nomenclatura2Non è scopo di questo post discutere le basi della teoria atomica di Dalton e il suo sistema di pesi atomici, vale però la pena sottolineare che le ipotesi di Dalton, che considerava gli atomi come sfere infinitesime dotate di massa, si basavano sulla meccanica newtoniana, una delle più grandi costruzioni nella storia del pensiero umano e che si supponeva potesse spiegare tutto l’universo, dal macro al micro. Si possono quindi considerare le figure daltoniane come rappresentazioni strutturali delle particelle delle sostanze in base alla meccanica di Newton.

A quanto pare il sistema di simboli di Dalton non ebbe largo impiego.

Il successivo sviluppo che condurrà alla simbologia attuale è dovuto al chimico svedese Jöns Jacob Berzelius (1779-1848). Grande chimico, abile sperimentatore e notevole teorico, spaziò dalla chimica inorganica (identificò e scoprì nuovi elementi, inclusi silicio, selenio, cerio e torio, sviluppò tecniche analitiche, ecc.) alla chimica organica (suoi sono i termini allotropo, isomero, polimero, catalisi), enunciò la teoria elettrochimica dualistica per interpretare l’affinità chimica.

Convinto che una notazione chimica dovesse esprimere in modo preciso di quali elementi e in che numero un composto è formato, nel 1814 pubblicò la III parte di un lungo articolo[2] intitolata:

On the Chemical Signs, and the Method of employing them to express Chemical Proportions [4]. Scrive Berzelius:

I simboli chimici dovrebbero essere lettere per la loro maggiore facilità di scrittura [rispetto a segni e figure geometriche] così da non complicare la stampa dei libri……

Prenderò quindi … la lettera iniziale del nome latino di ciascuna sostanza elementare, ma poiché molti hanno la stessa lettera iniziale, li distinguerò nel modo seguente: 1. Nella classe che chiamo metalloidi, impiegherò la sola lettera iniziale, anche se questa lettera è in comune al metalloide e ad alcuni metalli. 2. Nella classe dei metalli, distinguerò quelli che hanno la stessa iniziale con un altro metallo o metalloide scrivendo le prime due lettere del nome. 3. Se le prime due lettere sono in comune fra due metalli, in questo caso, aggiungerò alla lettera iniziale la prima consonante che essi non hanno in comune, per esempio: S = sulphur, Si = silicium, St = stibium (antimony), Sn = stannum (tin), C = carbonicum, Co = cobaltum (cobalt), Cu = cuprum (copper), O =oxygen, Os = osmium, etc.[4, p. 51-52].

Per i composti Berzelius si basa sui “volumi”, quindi: “poiché l’oxidum cuprosum si forma da un volume di rame e uno di ossigeno dovrà scriversi Cu + O, mentre l’oxidum cupricum si scriverà Cu + 2O. Allo stesso modo per l’acido solforico [anidride solforica] si scriverà S + 3O, per l’acido carbonico [anidride carbonica] C + 2O, per l’acqua 2H + O ecc.” [4, p.52].

Per composti come il solfato di rame, Berzelius suggerisce di omettere il segno + fra i “simboli” dei due componenti [ossido di rame e anidride solforica] indicando con un numero posto sopra al simbolo i “volumi” di ossigeno coinvolti, sicché CuO + SO3 sarà il solfato di rame[3].

Nascono così le formule chimiche.

“Ci si può difficilmente rendere conto dell’enorme importanza che questo linguaggio, che noi usiamo come cosa in se stessa ovvia, ebbe a quei tempi per il progresso della scienza chimica…solo a fatica riusciamo a riportarci al modo di pensare chimico del periodo anteriore all’introduzione delle formule, solo sullo sfondo del quale possiamo apprezzare il significato e l’importanza della nuova lingua”. [5]

Tuttavia i chimici dell’epoca trovarono, nell’immediato, i simboli e le formule di Berzelius poco chiari, atti a trarre in inganno e addirittura inutili. Fra i detrattori proprio John Dalton che nel 1837 sostenne che i simboli letterali di Berzelius “gli sembravano iscrizioni in antico ebraico” [5].

Jean Baptiste Andrè Dumas (1800-1824), chimico francese, pare sia stato il primo, nel 1826, a rappresentare reazioni chimiche con equazioni chimiche, utilizzando il simbolismo di Berzelius [6].nomenclatura3

Scorrendo il suo lavoro si evince che egli ritiene valida, insieme con Ampère, l’ipotesi di Avogadro e, a questi due grandi fisici teorici (insieme ai chimici Gay-Lussac, Berzelius, Mitscherlich e Dulong & Petit) vanno i ringraziamenti di Dumas [6, p. 391][4]. Dumas fu anche il primo (o quantomeno uno dei primi) a usare il segno = per separare reagenti e prodotti e a usare i coefficienti per bilanciare le equazioni chimiche [6, pp. 366, 372, 373].

Nei trattati di chimica le formule e le equazioni cominciarono a comparire fra il 1827 e il 1831, l’uso dei pedici per indicare il numero degli atomi della stessa specie fu proposto da J. Liebig nel 1834 [5, p. 156-157]. La “rivoluzione” nella simbolistica chimica si andava completando.

[1] MM. De Morveau, Lavoisier, Bertholet & De Fourcroy, Métode de Nomenclature Chimique, Couchet, Paris, 1787, 1 vol di pp. 313 e 5 tavole.

[2] M. Beretta, Lavoisier – La rivoluzione chimica, I grandi della Scienza, anno I, n.3, maggio 1998, Le Scienze, Milano, 1998.

[3] J. Dalton, A New System of Chemical Philosophy (3 vols. Manchester, 1808, 1810, 1827), Vol I, Part I, p. 211-212

[4] J.J. Berzelius, On the Chemical Signs, and the Method of employing them to express Chemical Proportions, Annals of Philosophy, 1814, Vol III, 51-62, 93-106, 244-256, 353-364

[5] E. Ströker, citato da J.I. Solove’v, Storia del Pensiero Chimico, EST, Mondadori, Milano, 1976, p. 156.

[6] J.B. Dumas, Mèmoire sur quelque Points de la Théorie Atomistique, Annales de Chimie et de Physique, 1826, 33, 327-391.

[1] Il volume è suddiviso in articoli e note, ciascuno relativo a uno degli autori.

[2] L’intero articolo si intitola: Essay on the Cause of Chemical Proportion, and on some Circumstances relating to them: together with a short and easy Method of expressing them. Parte I: On the Relation between the Berthollet’s Theory of Affinities and the Laws of Chemical Proportions, Annals of Philosophy, 1813, Vol II, 443-444. Parte II: On the Cause of Chemical Proportions, ibid, 444-454.

[3] Successivamente Berzelius userà anche altri simboli, ad esempio O per indicare 2 atomi di ossigeno, oppure un numero di pallini pari al numero di atomi sopra al simbolo dell’elemento.

[4] Come noto l’ipotesi di Avogadro fu recepita universalmente valida solo nel 1860 grazie all’opera di Stanislao Cannizzaro.

Il recupero di terre rare: una necessità crescente.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Le terre rare sebbene poco conosciute al grande pubblico sono probabilmente in questo momento i più importanti minerali al mondo. Uno studio dell’Ente americano NCPA (National Center for Policy Analysis) sottolineava le possibili ricadute e conseguenze del monopolio cinese sulla produzione dei metalli del gruppo delle terre rare. La conclusione era che “la dipendenza dalla Cina per l’approvvigionamento di queste indispensabili materie prime pone l’economia americana in pericolo”.
Secondo la definizione IUPAC le terre rare (in inglese “rare earth elements” o “rare earth metals”) sono il gruppo di 17 elementi che comprendono lo scandio, l’ittrio e i lantanidi.

terre rare

Per capire i termini della questione proviamo a focalizzare l’attenzione sul neodimio. Questo metallo è largamente impiegato per la produzione di magneti permanenti che sono utilizzati in quasi tutti i moderni veicoli e nelle attrezzature di alta tecnologia (computer, telefoni cellulari e laser). La carenza di questo elemento non è un problema solo americano: Giappone e Corea del Sud e la stessa Europa hanno preoccupazioni simili. L’industria automobilistica che sta orientandosi verso la produzione di veicoli con maggior efficienza energetica che si basano sull’uso di componenti ultraleggeri e motori ibridi ha la necessità sempre crescente di utilizzare le terre rare.
In un altro rapporto l’Oeko Institut tedesco mostrava che nel 2012 le imprese europee hanno costruito due milioni di motori elettrici per usi industriali, dotati di magneti permanenti costituiti al 30% di terre rare.
L’elemento comune a tutte queste applicazioni è la presenza di magneti al neodimio-ferro-boro.

HydroPMG3-500x500.jpg

Il rapporto prevedendo una crescita nella domanda di questi elementi suggeriva il bisogno urgente di creare un “approccio circolare” al ciclo di vita dei magneti a base di terre rare.
Questi tipi di apparecchiature (motori elettrici e magneti permanenti) non vengono riciclati e spesso finiscono scaricati nei rifiuti domestici.
Un progetto di riciclo di motori elettrici e successivamente una sua applicazione industriale si può ottenere con tecnologie mature per la separazione: si possono triturare i motori elettrici tramite un mulino a martelli, effettuare una separazione magnetica per dividere materiale ferroso e non ferroso, e successivamente utilizzare altre separazioni fisiche per separare gli inerti leggeri dal restante materiale.
Dal punto di vista dei trattamenti chimici il recupero del neodimio e di altre terre rare dai rifiuti elettrici ed elettronici (Raee) tramite processi di tipo metallurgico prevede il recupero attraverso lisciviazione con acidi inorganici (nitrico, cloridrico, solforico).
La successiva separazione da condurre con molta attenzione perché le terre rare hanno proprietà molto simili tra loro, si può ottenere con processi di estrazione solido- liquido (cristallizzazioni o precipitazioni frazionate) o liquido-liquido mediante solventi. Quest’ultima è la più utilizzata e viene effettuata in continuo e in controcorrente con recupero dei solventi.
Con questo tipo di riciclaggio si potrebbe ottenere materiale contenente circa il 30% di terre rare allo stato puro.
Al momento non esistono imprese specializzate nel recupero di soli magneti a base di terre rare. Un impianto di questo tipo potrebbe lavorare in condizioni di efficienza economica se si approvvigionasse di almeno 100 ton di materiale/ anno.
Il paradosso è che le imprese costruttrici di magneti permanenti spediscono i residui di produzione nella Cina stessa, che però negli anni ha ridotto l’esportazione di terre rare a causa degli aumentati consumi interni.
Se nel 2005 le esportazioni cinesi di terre rare ammontavano a 65.000 tonnellate, nel 2010 questo valore si era ridotto a circa 30.000.
Recuperare terre rare con impianti adatti avrebbe il duplice scopo di ottenere risparmi economici e anche di avere minor impatto ambientale. Basti pensare che le stesse tecniche basate sull’attacco acido hanno impatti ambientali significativamente molto diversi se effettuati su materiale recuperato, piuttosto che su miniere dove la necessità di ottenere rese più elevate di materiale puro da separare dalle rocce inerti può provocare vaste contaminazioni del territorio e la produzione di ingenti volumi di materiale di risulta, senza considerare gli elevati livelli di radioattività ai quali sono esposti i lavoratori e che persistono a lungo nell’ambiente, dovuti alla frequente presenza di torio ed uranio nelle miniere di terre rare.
Un caso emblematico è quello dei villaggi vicini a Baotou, nella Mongolia interna, dove si trova la più grande miniera cinese di terre rare, i cui abitanti sarebbero stati trasferiti altrove per la pesante contaminazione di acqua e raccolti: si valuta che i reflui della lavorazione, acidi e radioattivi, ammonterebbero annualmente a circa dieci milioni di tonnellate.

mongolia cinese.jpg

La miniera di Baiyunebo, nella Mongolia Cinese, uno dei luoghi più inquinati al mondo.

Link
http://www.trisaia.enea.it/it/attivita-di-ricerca/tecnologie-ambientali/tecnologie-e-impianti-per-il-trattamento-rifiuti-e-reflui/tecnologie-ambientali/terre-rare

http://www.corriere.it/ambiente/15_giugno_24/terre-rare-metalli-strategici-miniera-scarti-elettronici-raee-7ed7abca-1a78-11e5-9695-9d78fe24c748.shtml

http://www.enea.it/it/pubblicazioni/EAI/anno-2013/n-5-settembre-ottobre-2013/tecnologie-innovative-per-il-recupero-riciclo-di-materie-prime-da-raee-il-progetto-eco-innovazione-sicilia

Letture consigliate
http://www.editoririuniti.it/libri/la-terra-svuotata.php#

Ecofarmacovigilanza.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, già Presidente SCI

La recente ripetuta denuncia dell’Unione Europea circa il pericolo che si sta concretizzando per l’ambiente e per l’uomo a causa della crescente diffusione di inquinanti di nuova generazione,per i quali i sistemi di rimozione ed i relativi impianti di trattamento non garantiscono adeguati risultati,trovano particolare riscontro con riferimento ai residui di farmaci,ormai presenti nelle acque superficiali a concentrazioni dell’ordine dei ppb.Tali valori di concentrazione sono ancora relativamente lontani dalle soglie di rischio derivanti dalla tossicità di molti di tali principi farmaceutici,ma sono anche di uno – ed in qualche caso due – ordini di grandezza maggiori rispetto ai valori che si potevano rilevare fino a 20-30 anni fa.Ciò dimostra l’esigenza di intervenire per evitare che tale trend si mantenga costante con il risultato di raggiungere in pochi anni valori prossimi ai limiti consentiti per non mettere a rischio la salute dei cittadini.Tale situazione è da imputare all’uso improprio ed esagerato che spesso viene fatto dei farmaci ed ai residui di lavorazione dei processi produttivi nel settore. Lo studio del possibile inquinamento delle acque, causato dall’immissione di farmaci e dei loro metaboliti nell’ambiente, affrontato per la prima volta nel 1977, ha subito un’accelerazione , come dimostrano i lavori reperibili in letteratura, con i loro numerosi riferimenti bibliografici.

epvMolteplici sono le cause di un tale interesse:

  • L’aumento del numero e della quantità di prodotti farmaceutici e del loro consumo mondiale, soprattutto nei Paesi industrializzati;
  • Gli ingenti quantitativi di prodotti scartati giornalmente dalle industrie farmaceutiche, perché scaduti o per effetto di controlli di qualità sempre più rigorosi;
  • La sintesi di farmaci sempre più resistenti ai comuni meccanismi di biotrasformazione, per protrarre la loro esistenza inalterata negli organismi trattati, si è tradotta in un aumento del numero di molecole più stabili ai comuni processi di degradazione chimica e biologica col conseguente incremento nell’accumulo, persistenza e diffusione di tali prodotti nell’ambiente ed in particolare nelle acque reflue alle quali pervengono;
  • Il crescente acquisto di medicinali senza ricette mediche o perfino via internet come se si trattasse di un qualsiasi alimento, con usi conseguentemente scorretti;
  • La consapevolezza che, pur nel rilevamento di concentrazioni di sostanze d’origine farmacologica in concentrazioni inferiori a quelle stabilite dalle normative vigenti, non ci sia ancora alcun’informazione attendibile sugli effetti che esse possono provocare a lungo termine sugli uomini.
  • I trattamenti terapeutici di cura e prevenzione negli allevamenti di bestiame e nelle colture ittiche:
  • L’eliminazione impropria di farmaci scaduti da parte dei consumatori;
  • La rilevante percentuale di espulsione dei principi attivi e dei loro metaboliti dopo cure mediche e veterinarie.

Fra tutte queste motivazioni, merita una particolare attenzione quest’ultimo punto, trattandosi di un’importante via di possibile inquinamento acquatico.

Infatti, quando le sostanze farmaceutiche sono somministrate agli esseri umani ed animali, possono essere escrete senza essere metabolizzate nell’organismo bersaglio, o possono essere assimilate e quindi dissolte, dando origine a derivati (metaboliti).

In entrambi i casi i derivati di tali processi (principi attivi farmaceutici e loro metaboliti) vengono scaricati se provenienti:

  • Da esseri umani nel sistema di scolo, dai quali raggiungono gli impianti di trattamento municipali, dove possono essere rimossi.In caso contrario, se ancora persistenti, possono raggiungere l’ambiente acquatico dando inizio al processo di inquinamento.
  • Da esseri animali nel terreno.In questo caso, le sostanze più resistenti all’azione degradativa dei microrganismi presenti nel sottosuolo, possono permeare attraverso di esso raggiungendo le falde acquifere o raggiungere le acque superficiali per dilavamento del terreno.

Questi composti possono raggiungere poi le acque destinate al consumo umano.

Per comprendere l’entità di un tale problema basta considerare i risultati di una ricerca condotta in Germania sin dal 1997 , dalla quale risultavano rilevati 20 differenti principi attivi assieme a quattro loro metaboliti sia nelle acque di scarico che in quelle superficiali, con picchi di 6,3 mg l-1 di Carbamazepina nelle prime e di 3,1 mg l-1 di Bezafibrato nelle seconde.

360px-Carbamazepine.svg

Carbamazepina

Bezafibrate.svg

Bezafibrato

A tale situazione in ogni caso,si deve porre rimedio.I depuratori nella maggior parte dei casi sono costruiti con riferimento a classi di composti da rimuovere che rientrano in quelle tradizionali degli inquinanti,alle quali certamente non appartengono i residui di farmaci,data la relativa novità del fenomeno.

L’intervento correttivo non può che passare da un lato per un aggiornamento tecnico dei depuratori stessi e per una loro sempre più puntuale ed accurata manutenzione e dall’altro per sistemi integrativi pubblici e privati di rimozione di tali principi.

In tale prospettiva sembra necessario porre l’attenzione su implementazioni dei depuratori realizzate con impianti a valle dei depuratori stessi e quindi in grado di integrarne l’azione e su strategie di intervento porta a porta con sistemi depurativi da attivare a valle del rilascio dei reflui delle singole industrie per rimuovere da essi i principi farmaceutici ed i farmaci eventualmente presenti.La proposta è quindi quella di dotare ogni azienda di un sistema di monitoraggio dei principi o loro prodotti di trasformazione presenti nei reflui e di un sistema di rimozione basato su processi quanto più possibilmente economici,semplici e rapidi.

La bibliografia scientifica esalta, rispetto a questo tipo di problematica, i cosiddetti AOP (metodi di ossidazione avanzata),differenziati a seconda dell’ossidante utilizzato o dell’eventuale miscela di essi.Tale approccio soffre di tutti i difetti dei processi basati su reazioni chimiche “sporche” (gestione e controllo delle reazioni,ulteriori reflui prodotti,reattivi)

Alternativamente si possono adottare metodi fisici e biologici.

I primi prevedono l’utilizzo della luce solare per realizzare,in condizione di catalisi eterogenea da parte di biossido di titanio in forma anatasio,la fotodegradazione dei farmaci eventualmente presenti.Ii processo può essere rinforzato assistendo la luce solare con un’opportuna sorgente di radiazione ultravioletta.

I secondi si affidano invece a microorganismi o a singoli enzimi (ossidasi,idrolasi,cicloossigenasi) liberi, immobilizzati o operanti direttamente in suoli di sacrificio.

In entrambi i casi si dispone della tecnologia necessarie.

 

Termodinamica ed economia.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

 Nel 1999 Wayne Saslow dell’Università del Texas ha pubblicato un interessante articolo su American Journal of Physics: An economic analogy to thermodynamics (in Am. J. Phys. 67 ,12, December 1999).

termofis1E’ un articolo che mi è venuto in mente leggendo un recente libro di Francesco Sylos Labini (il figlio di Paolo, l’economista) che fa l’astrofisico a Roma. Il libro di Francesco è dedicato ad una critica feroce della scarsa o nulla scientificità della economia neoclassica contemporanea, che non è stata in grado di prevedere nessuna delle grandi crisi che hanno “funestato” il cammino dell’economia negli scorsi decenni ma che ciononostante domina il panorama culturale del mondo economico e dell’università e pretende di sconvolgere le nostre vite quotidiane. E’ una lettura molto interessante.

Tutto sommato il libro di Sylos Labini prende sul serio una indicazione più volte reiterata da gruppi misti di economisti e scienziati della Natura; si veda per esempio un articolo di Charles Hall, Reiner Kümmel e altri, pubblicato su BioScience nel 2001 (BioScience, 51(8), 663)

termofis2E questo è anche un po’ lo spirito di questo post.

Ma torniamo all’articolo di Saslow; nella prima parte dell’articolo si ricordano alcune delle proprietà fondamentali delle funzioni termodinamiche che fanno parte ormai della presentazione standard della disciplina almeno a livello universitario. Un tale approccio, definito “postulazionale”, si basa su un certo numero di postulati matematici le cui conseguenze vengono poi comparate con i risultati sperimentali; i sistemi considerati sono “semplici”, escludono una serie di cose come le superfici, le cariche elettriche; e poi sono sistemi il cui stato viene definito in una condizione di “equilibrio”, ossia una condizione in cui il comportamento del sistema, che pure è costituito di un numero enorme di particelle elementari può essere considerato come dominato da un piccolo numero di parametri macroscopici che non variano nel tempo. Si postula che esista una funzione (denominata entropia) che ha il valore massimo all’equilibrio.

C’è una definizione, a cui non veniva dato gran peso quando ero studente, ma che assume invece un ruolo chiave in questo approccio: quello di grandezze estensive ed intensive. Le proprietà estensive sono additive sui sottosistemi che si considerano; le funzioni termodinamiche possono essere definite nel modo più semplice considerando in un primo momento solo variabili di tipo estensivo, una volta si sarebbe detto che crescono con le dimensioni del sistema, che è poi la definizione anche di IUPAC; per esempio la funzione energia interna U=U(S,V,N), dove S è l’entropia, V il volume e N il numero di moli.

La proprietà di estensività in effetti si può definire in modo formale; la funzione U è omogenea del primo ordine nelle sue variabili estensive ed è dunque estensiva anch’essa; il che vuol dire che se si moltiplicano per un numero a positivo le variabili S,V ed N che sono estensive, la funzione U risulta moltiplicata per a anch’essa: U(aS,aV,aN)= aU(S,V,N): il fattore a è elevato alla prima potenza (primo ordine) e la conclusione è che U è estensiva anch’essa.

Una grandezza intensiva, in questo quadro può essere definita invece come una grandezza che non cresce con le dimensioni del sistema, ossia che se moltiplico per a le grandezze estensive di cui è funzione non cresce; per esempio se definisco una funzione T=T(S,V,N) (che è una delle derivate parziali prime di U) e moltiplico per a le sue variabili, T non cresce a0T(S,V,N)=T(aS,aV,aN); la grandezza T è omogenea di ordine zero, nel senso che è si moltiplicata per a, ma a è elevata a 0, ossia è uguale a 1; se moltiplico per a le dimensioni del sistema la temperatura, la pressione o il potenziale chimico non ne sono influenzati.

C’è dunque perfetta corrispondenza fra la definizione di grandezza estensiva ed intensiva e proprietà di omogeneità di ordine 1 o zero.

Un’ altra proprietà importante delle funzioni termodinamiche è che siano anche continue e derivabili; ne segue che la funzione U è dotata di un differenziale dU= (∂U/∂S)V,NdS + (∂U/∂V)S,NdV + (∂U/∂N)S,VdN, dove le derivate parziali così definite sono grandezze intensive e corrispondono rispettivamente a T, -P e m.

L’espressione conseguente dU= TdS -PdV + mdN è il corrispondente del primo principio della termodinamica, ma è di fatto solo il differenziale totale della funzione U.termofis3

Questo approccio formale alla termodinamica classica (solo sommariamente riassunto qui) è quello proposto oltre 50 anni fa da H. Callen in un libro che ha fatto scuola e che da allora è stato poi preso ad esempio molte volte. L’approccio ha molte altre stupefacenti conclusioni tutte dipendenti dal semplice punto iniziale che vi ho riassunto, alcune delle quali riprenderemo più avanti.

Come applicare questo punto di vista alla economia e quali sono le corrispondenze?

Anzitutto c’è da rimarcare che come nel caso della termodinamica l’equilibrio in qualche modo ha una definizione circolare; ossia un sistema è all’equilibrio se segue le regole della termodinamica; così sarebbe vero per l’economia, salvo osservare che mentre in termodinamica la teoria ha una forza enorme (Einstein diceva che la termodinamica classica è la sola teoria fisica di contenuto universale che nell’ambito di applicabilità dei suoi concetti di base non verrà mai superata.), in economia le cose stanno diversamente visti gli innumerevoli fallimenti; ma procediamo.

Su questo argomento Saslow si salva in corner, nel senso che essendo un fisico scrive una cosa ovvia in partenza per tutti, (eccetto che per gli economisti neoclassici contemporanei, tipo Giavazzi e Alesina per capirci): Like thermodynamics, the present theory has predictive power only to the extent that it can relate different sets of measurements.

Sfortunatamente gli economisti neoclassici si rifiutano di confrontarsi con i dati sperimentali e non riescono a prevedere nemmeno una crisi.

In effetti la questione se esista un equilibrio generale del sistema economico e che caratteristiche abbia è uno dei problemi basilari dell’economia che rimane a tutt’oggi almeno in parte irrisolto nell’ambito stesso degli economisti neoclassici o comunque risolto sotto ipotesi che però non reggono il confronto con la realtà; in sostanza anche a prescindere dal confronto con i dati la teoria non è coerente! A questo proposito si legga per esempio B. Ingrao e G. Israel, La mano invisibile ed Laterza 2006 che conclude: “A noi sembra che si possa concludere che l’analisi matematica della teoria dell’equilibrio economico generale, nel contesto delle ipotesi classiche……ha condotto a un chiaro risultato: e cioè che esista una inconsistenza fra gli assunti dellla teoria e le conseguenze che si ricavano dal sistema delle ipotesi che ne costituiscono la struttura”.

termofis4

Ma dato che questo post non vuole essere un trattato ma solo suggerire delle letture vi mostro subito quali corrispondenze suggerisca Saslow:

termofis5Le analogie non riportate qui esplicitamente sono quelle con temperatura assoluta e entropia; la temperatura assoluta viene considerata corrispondente con il livello dello sviluppo economico, mentre all’entropia non viene assegnata alcuna analogia esplicita. Essa viene assegnata al prodotto fra equivalente entropico e temperatura, TS, che viene considerato corrispondente al cosiddetto surplus; il surplus è il risultato finale delle operazioni economiche, quel risultato in termini di plusprodotto o più volgarmente profitto che viene considerato alla base del processo, il suo scopo ultimo; una economia primitiva, arretrata viene considerata incapace di generare un plusprodotto, un profitto, quindi più T è bassa più S è bassa, in altri termini una sorta di terzo principio della termodinamica in termini economici: lim T–>0 S=0

Una delle conseguenze della omogeneità del primo ordine in termodinamica è legata al cosiddetto teorema di Eulero; si può cioè dimostrare che una funzione del tipo del U(S,V,N)=TS-PV+mN; questa equivalenza si conclude con la dimostrazione di quella che viene chiamata in termodinamica equazione di Gibbs-Duhem, ossia l’esistenza di una relazione fra tutte le variazioni delle grandezze intensive: SdT-VdP+Ndμ=0.

In modo equivalente Saslow ragiona nella corrispondenza economica.

Cominciamo col dire che la ricchezza W è la somma della ricchezza monetaria e fisica, W=λM+pN, dove M è la quantità di denaro e λ il suo valore unitario, mentre N è la quantità di beni fisici e p il loro prezzo; ovviamente M ed N sono grandezze estensive mentre l e p sono grandezze intensive (o specifiche). W si conserva negli scambi esattamente come avviene per l’energia; tuttavia Saslow propone una corrispondenza fra energia libera di Helmholtz e ricchezza riservando la corrispondenza con l’energia alla somma fra ricchezza e plusprodotto da essa generato, definito come utilità: U=TS+W=TS+λM+pN; in altri termini la funzione U=U(S,M,N) diventa l’equivalente in termini estensivi dell’energia termodinamica (trascurate per il momento il diverso segno).

L’equivalente della Gibbs-Duhem per questo sistema è

SdT+Mdλ+Ndp=0

Fra l’altro una equazione del genere implica che una diminuzione del valore del danaro o di un bene è accompagnato da un aumento della temperatura economica (ossia di quello che abbiamo chiamato livello dello sviluppo economico).

Un altro esempio di correlazione interessante è quello fra le relazioni di Maxwell e quelle di Slutsky, che sono relazioni fra derivate seconde.

Le relazioni di Maxwell in termodinamica nell’approccio di Callen, vengono fuori dalla condizione per cui se il differenziale primo della funzione termodinamica è esatto allora le derivate in croce sono eguali, esse non dipendono dall’ordine di derivazione e l’integrale sul differenziale della funzione non dipende dal cammino, la funzione termodinamica è una funzione di stato:termofis6

e la medesima proprietà vale per la funzione economicatermofis7

Potrei continuare ancora ma invito i lettori a leggere direttamente l’articolo di Saslow.

Piuttosto impiegherei ancora qualche rigo per sottolineare un limite di questo tipo di correlazioni; la questione è in che modo si possano esse concretamente applicare alle situazioni economiche.

Hall e Kümmell ricordano nel loro articolo uno dei limiti basilari dell’economia, ossia l’economia non ha mai superato la fase del moto perpetuo, non ha mai accettato il primo principio della termodinamica.termofis8

L’economia neoclassica ha una rappresentazione del mondo del tipo di quella mostrata nella parte a della figura dove i fattori della produzione (legati dalla funzione di produzione di Cobb, anch’essa omogenea di primo ordine) non contengono se non capitale e lavoro, trascurando gli apporti energetici e di risorse naturali; una rappresentazione dunque che ricorda da vicino quella di una macchina a ciclo perpetuo, che trae energia dal nulla.

Viceversa la realtà può essere vista come la figura b nella quale gli apporti fisici della biosfera e del sistema naturale non sono trascurabili affatto, ma dominanti; anzi sarebbe bene che questo schema in forma allargata e completa entrasse profondamente nella testa degli studenti di economia:

termofis9Ma allora la relazione fra economia e termodinamica dovrebbe cambiare poichè non la termodinamica classica ma quella di non equilibrio, la termodinamica dei sistemi aperti dovrebbe essere usata per fare delle analogie.

Per esempio giusto per dire; nella termodinamica irreversibile vicino all’equilibrio esistono una numerosa serie di fenomeni lineari interagenti coperti dalle relazioni di Onsager, una scoperta per cui Onsager ricevette il premio Nobel e Prigogine ne ricevette un secondo.

In questo caso le forze spingenti dei fenomeni sono i gradienti delle forze intensive che vengono correlati linearmente ai flussi come avviene nella legge di Ohm (corrente vs. differenza di potenziale elettrico) , nella legge di Fick (flusso di materia vs. gradiente di potenziale chimico) , nella legge di Fourier (flusso del calore vs gradiente di temperatura)  o ancora nei fenomeni elettrocinetici o termoelettrici, dove i gradienti di un tipo controllano, oltre a quelli a loro naturalmente congeniali, flussi di qualità diversa o in cui gradienti di un certo tipo ne generano altri di diversa qualità con una interazione fra cause ed effetti effettivamente dialettica e che hanno un numero enorme di applicazioni (elettroforesi per esempio ossia flussi di materia generati da gradienti di potenziale elettrico oppure gli effetti Seebeck e Peltier con l’interazione complessa fra gradienti di temperatura e potenziale elettrico e i loro rispettivi flussi associati).

E pensate allora a come nella moderna economia globale i gradienti, cioè le differenze, di prezzo del lavoro (il prezzo è una grandezza intensiva) dominano i flussi di lavoratori da un continente all’altro (noi le chiamiamo migrazioni) oppure lo spostamento di capitali da un continente all’altro, in senso opposto (noi la chiamiamo deindustrializzazione in Italia e sviluppo economico in Cina o nel vicino Est Europa); e come tali flussi generino nuovi gradienti. Forse effettivamente la termodinamica ha qualcosa da insegnare all’economia. Voi che ne dite?

Un chimico, un matematico e il calore. 2a Parte

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

(la prima parte di questo post è pubblicata qui)

Nel secondo dei quattro articoli che compongono la Mémoire sur la chaleur di Lavoisier e Laplace [1], i due autori riportano i dettagli e i risultati dei loro esperimenti sul calore specifico dei corpi e sul calore scambiato in alcune trasformazioni chimiche. Dichiarano anzitutto di riferire i calori specifici a quello dell’acqua posto = 1.

La descrizione degli esperimenti è molto dettagliata, così come quella del calorimetro[1] nel primo articolo, in modo che chiunque possa mettersi nelle stesse condizioni ottenendo praticamente gli stessi risultati. Riportiamo ad esempio per il ferro:

… abbiamo messo 5 libbre 15 once 4 grandi 33 grani di ferro granulato in un vaso di ferro, il cui peso era 1 libbra 4 once 4 grandi 60 grani e il coperchio pure in ferro, pesante 7 once 1 grande 15 grani; così il peso totale di ferro fu 7 libbre 11 once 2 grandi 36 grani o 7,7070319 libbre; abbiamo riscaldato questa massa in un bagno di acqua bollente, fino 78 gradi; la abbiamo poi posta in una delle nostre macchine; dopo undici ore, tutta la massa si è raffreddata a zero gradi, e dal recipiente intermedio della macchina, ben sgocciolato, si sono ottenuti 17 once 5 grandi, 4 grani o 1,109795 libbre di ghiaccio fondente, questa quantità di ghiaccio, divisa per il prodotto della massa di ferro, espressa in parti di libbra, e il numero di gradi a cui la temperatura è stata portata sopra lo zero, vale a dire il prodotto 7,7070319 x 78, dà la quantità di ghiaccio che una libbra può fondere per raffreddamento di un grado; allora moltiplicando quest’ultima quantità per 60 si ha quella che una libbra di ferro può fondere fino a zero gradi se riscaldata a 60 gradi, si trova così il valore 0.109985 libbre nella nostra esperienza; ma una libbra di acqua, raffreddandosi a 60 gradi può sciogliere una libbra di ghiaccio; il calore specifico del ferro sta dunque a quello dell’acqua come 0.109985:1; cosicché, se prendiamo uguale a 1 il calore specifico dell’acqua, quello del ferro sarà 0,109985; un secondo esperimento ci ha dato, a meno di circa un novantesimo, quasi lo stesso risultato. ([1], p. 375)[2]

Per determinare il calore specifico dei liquidi una quantità pesata di essi veniva posta in un matraccio di vetro anche esso pesato, riscaldato e immediatamente posto nel calorimetro. Nell’elaborazione dei dati Lavoisier e Laplace tenevano ovviamente conto del calore rilasciato dal vetro del quale avevano preventivamente misurato il calore specifico. Nella Mémoire si trova un esempio relativo all’acido nitrico ([1], p. 375).

calore21

In una tabella precedente la descrizione degli esperimenti, i due Autori riportano i valori ottenuti per i calori specifici di alcuni materiali e miscele.

Sono qui riportati per esempio i calori specifici del ferro battuto 0.109985, del vetro cristallo senza piombo 0.1929 e del mercurio 0.029.

I due scienziati passano poi a riportare e descrivere gli esperimenti fatti per determinare il calore sviluppato da miscele e combinazioni chimiche. Per le prime il calore viene dato in termini della quantità di ghiaccio fondente ottenuta da una libbra di miscela dopo che questa si è raffreddata fino a zero gradi. Per le seconde si riporta l’esempio della reazione fra nitrato di potassio e carbone:

Abbiamo fatto detonare in una delle nostre macchine un’oncia e 4 grandi di nitrato con 4 grandi di carbone, e abbiamo ottenuto 1 libbra e 2 once di ghiaccio fondente; ciò fornisce, per 1 oncia di nitrato, 12 once di ghiaccio fondente.([1], p. 378)

Allo stesso modo determinano il calore sviluppato dalla detonazione di un’oncia di nitrato di potassio con fiori di zolfo, trovando che in quest’ultima si sviluppa una quantità di calore maggiore di più di una libbra rispetto alla prima. Mentre la combustione di un’oncia di fosforo e quella di un’oncia di carbone sviluppano quantità di calore che differisce di due once e 48 grani.

Interessanti sono i due ultimi esperimenti descritti nel secondo articolo, riguardanti il calore prodotto da un porcellino d’india nell’arco di un certo numero di ore:

…in una delle nostre macchine abbiamo messo un porcellino d’india la cui temperatura corporea era di circa 32 gradi, di conseguenza, leggermente diversa da quella del corpo umano. L’animale non ha sofferto durante l’esperimento, lo avevamo posto in un piccolo cesto pieno di cotone, alla

temperatura di zero gradi; l’animale è rimasto 5 ore e 36 minuti nella macchina; durante questo intervallo, gli abbiamo cambiato quattro o cinque volte l’aria mediante un soffietto; rimosso l’animale, la macchina ha fornito circa 7 once di ghiaccio fondente.

In un secondo esperimento…. lo stesso porcellino d’india è rimasto per 10 ore e 36 minuti nella macchina e l’aria è stata rinnovata per tre sole volte; la macchina ha fornito 14 once e 5 grandi di ghiaccio fuso; l’animale non sembra aver sofferto in questi esperimenti[3]. ([1], pp.379-380)

Il terzo articolo, intitolato: Esame delle esperienze precedenti, e riflessioni sulla teoria del calore, inizia con alcune considerazioni su cosa sarebbe necessario conoscere per formulare una teoria completa sul calore:

… si dovrebbe avere un termometro diviso in proporzione alla quantità di calore contenuto nel fluido che lo compone e che potesse misurare tutti i possibili gradi di temperatura.

Bisognerebbe poi conoscere la legge esistente fra le quantità di calore delle sostanze e i gradi del termometro per costruire una scala fra le due quantità… Se il corpo è lo stesso fluido contenuto nel termometro, questa scala sarà rettilinea, ma è possibile che i gradi di calore non crescano proporzionalmente alla temperatura in corpi diversi, e quindi la curva può non essere la stessa per ciascuno di essi.

Sarebbe inoltre necessario conoscere la quantità assoluta di calore contenuta in un corpo ad una data temperatura.

Infine, si dovrebbe sapere la quantità di calore libero che si forma o si perde nelle combinazioni e decomposizioni. ([1], p. 380-381)

E proseguono:

Con questi dati sarebbe possibile risolvere tutti i problemi relativi al calore;…ma questi dati non si possono ottenere se non con un numero quasi infinito di esperimenti molto delicati e fatti a gradi molto diversi di temperatura.

Gli esperimenti dell’articolo precedente non danno i rapporti fra quantità assolute del calore dei corpi, essi non fanno conoscere altro che non sia il rapporto fra quantità di calore necessarie per elevare di uno stesso numero di gradi la temperatura. Occorrerebbe supporre che queste quantità siano proporzionali alle loro differenze; ma questa ipotesi è alquanto azzardata, e non può essere ammessa se non dopo numerose esperienze. Un modo semplice di verificarla sarebbe quello di osservare se le quantità di ghiaccio sciolto dal corpo raffreddandosi di 300 o 400 gradi, sono nello stesso rapporto di quando il raffreddamento è soltanto di 60 o 80 gradi; è un oggetto che intendiamo esaminare in un’altra memoria.[4] ([1], p. 381)

Il resto dell’articolo è una ricerca dell’interpretazione dei risultati degli esperimenti esposti in precedenza in base a una delle due teorie sul calore: quella del calorico (fluido di cui i corpi sono più o meno permeati secondo la loro temperatura) o a quella dinamica (forza viva che risulta dal movimento delle molecole di un corpo).

Conclude la Mémoire il quarto articolo, intitolato “Sulla combustione e la respirazione”. Viene ripreso un precedente lavoro di Lavoisier sulla combustione intitolato Mémoire sur la combustion en général (1779), in cui aveva criticato la teoria del flogisto. In base a risultati sperimentali Lavoisier e Laplace giungono ad affermare che la respirazione è una forma di combustione e che a determinare le combustioni è il consumo di una parte dell’aria (o, per usare la loro terminologia, l’air pur [l’ossigeno]). Negli esperimenti descritti il calore prodotto dalla combustione di diverse sostanze viene confrontato con le variazioni di calore dell’aria pura usata negli esperimenti stessi.

calore22

In ogni caso, come riportato nella prima parte del post, Lavoiser e Laplace non decideranno fra le due teorie sul calore.

Tuttavia molti sostengono che Laplace propendesse decisamente per la teoria dinamica, questa ipotesi è considerata “gratuita” nella nota (3) alla traduzione inglese della Mémoire [2]. Drago e Venezia citano una lunga e dettagliata analisi storica di Guerlac [3] in cui l’autore sosterrebbe che il primo e il terzo articolo sarebbero stati fortemente influenzati dal pensiero di Laplace, il secondo e il quarto da quello di Lavoisier. Attraverso un’analisi logico-linguistica di parti della Mémoire, Drago e Venezia giungono addirittura alla conclusione che la prima e la terza parte sono state scritte da Laplace, la seconda e la quarta da Lavoisier [4]. La propensione di Lavoisier per la teoria del fluido sarebbe anche evidente dal fatto che il grande chimico lo abbia elencato come elemento nel Traité élémentaire de chimie del 1789. Qualunque possano essere state le divergenze fra i due scienziati e chi di loro abbia scritto cosa, essi comunque raggiunsero un’ottima sintesi e il loro lavoro rimarrà un classico nella Storia della Scienza.

Molti anni sono dovuti passare prima che si arrivasse a riconoscere la validità della teoria dinamica, all’equivalente meccanico del calore e al I° Principio della Termodinamica (di cui la Legge di Lavoisier-Laplace è una conseguenza), ma questa è un’altra storia.

calore23

[1] M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408.

[2] Memoir on Heat, Guerlac H. translation, Neale Watson Academic Publications, New York, 1982, in Obesity Research, 1994, 2, 189-202.

[3] H. Guerlac, Chemistry as a branch of Physics. Laplace’s collaboration with Lavoisier, Historical Studies Phys. Sciences, 1976, 7, 193-276.

[4] A. Drago, A. Venezia, Lavoisier and Laplace’s “Mémoire” (1784) and two hypothesis on the nature of heat, www.researchgate.net/publication/265983781_Lavoisier_and_Laplace%27s_Memoire_1784_and_two_hypothesis_on_the_nature_of_heat

[1] Nella Mémoire gli Autori si riferiscono al calorimetro come “la nostra macchina”. La parola calorimetro è stata comunque usata per la prima volta da Lavoisier nel suo Traité élémentaire de chimie, Paris, 1789, p. vi e 387.

[2] La libbra francese (489.5 g) era divisa in 16 once (1 oz = 30.6 g) di 8 grandi (1 grande = 3.825 g), ogni grande valeva 72 grani (1 grano = 0.0531 g). Le bilance usate da Lavoiser raggiungevano la sensibilità di 1/400 di grano corrispondente a circa 0.13 mg, la sensibilità di una odierna normale bilancia analitica. Va anche sottolineato che il sistema metrico decimale fu adottato in Francia con la legge 7 aprile 1795, Lavoisier fu fra i sostenitori di questa riforma.

[3] È interessante la preoccupazione dei due scienziati per l’incolumità dell’animaletto nel corso di questi esperimenti e il sollievo espresso per non averlo fatto soffrire.

[4] Ma non ci sarà un’ulteriore memoria, la collaborazione fra Lavoisier e Laplace si interrompe nel 1774.

Trattamento e recupero di acque piovane.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

La disponibilità di acque adatte per il consumo umano (cioè per usi sia potabili che domestici) sta diventando un problema sempre più grave, non solo nei paesi a clima arido, ma anche in Europa.
Uno studio del Joint Research Center della Commissione Europea prevede che nei paesi del sud Europa gli effetti del cambiamento climatico in atto potranno provocare una riduzione fino al 40% della portata dei fiumi. Nel frattempo la crescente richiesta di acqua da parte dei settori produttivi e dalla popolazione urbana potrebbe portare a situazioni di criticità che potrebbero sfociare in misure di razionamento e in eventuali aumenti dei canoni di fornitura.

california

La soluzione per affrontare questo preoccupante scenario potrebbe arrivare dallo sfruttamento delle acque piovane. Occorre precisare però che le acque recuperabili ed utilizzabili sono solo quelle che cadono sui tetti o su appositi bacini, escludendo quelle che cadono su aree pavimentate, strade e piazzali che possono avere carichi inquinanti decisamente elevati.
In effetti le prime acque meteoriche di dilavamento non diluiscono affatto le acque reflue, essendo esse stesse cariche di inquinanti dilavati dalle superfici di deflusso.
A Taiwan una recente legislazione obbliga ad installare sistemi di raccolta per le acque piovane in tutti gli edifici pubblici di nuova costruzione. Per i palazzi privati l’obbligo non sussiste ma è un requisito indispensabile per ottenere la “green building certification” che costituisce un notevole valore aggiunto per il mercato immobiliare.
Nella provincia cinese di Gansu sono stati installati tre milioni di “Shuijiao” (cantine d’acqua) cioè serbatoi interrati per garantire la fornitura di acqua potabile ad altrettante famiglie rurali.
Prima di parlare delle tecniche di trattamento dell’acqua piovana mi piace ricordare i miei anni di infanzia. Oggi sembrerebbe impossibile ma la casa dei miei nonni materni dipendeva per l’acqua da un pozzo esterno, situazione comune in molte cascine del Monferrato nella prima metà dello scorso secolo. Le piogge contribuivano non poco al riempimento e ravvenamento del livello di quel pozzo. Io ero incaricato di agganciare il secchio al gancio e di calarlo nel pozzo facendo scorrere la corda sulla carrucola quando restavo con i nonni durante l’estate. Qualche anno dopo mio padre e mio zio (suo fratello) dotarono mia nonna rimasta vedova di una pompa idraulica per evitarle questo compito che con l’avanzare dell’età risultava per lei sempre più faticoso.

pozzo

Anche se l’acqua piovana non è sempre potabile “tal quale” (soprattutto per la presenza di contaminazioni microbiologiche) i sistemi di filtrazione sono ben conosciuti sia nelle versioni tradizionali (filtrazione su sabbia, disinfezione con ipoclorito o raggi UV) , che nelle versioni più moderne basate su moduli di ultrafiltrazione e carbone attivo. Nel caso del pozzo di mia nonna veniva utilizzato un filtro a carbone di legna che ha sempre funzionato egregiamente. Ne sono la testimonianza diretta, visto che nelle giornate estive spesso bevevo frequentemente l’acqua di quel pozzo direttamente con il mestolo dopo aver calato e poi sollevato il secchio dal pozzo.
La presenza diffusa di sistemi di recupero dell’acqua piovana avrebbe un effetto “ammortizzatore” nel caso di precipitazioni brevi ed intense (le cosiddette bombe d’acqua termine entrato nel lessico corrente ma che personalmente non mi piace troppo).
I contaminanti di un’acqua piovana possono essere i più diversi dal dilavamento di inquinanti atmosferici (per esempio le “piogge acide”, fino al fogliame, escrementi di uccelli ed altri contaminanti microbiologici.
Il sistema di trattamento di queste acque dipenderà anche dall’uso che ne verrà fatto. Su un consumo medio giornaliero di 250 litri di acqua solo il 2% circa viene destinato all’uso potabile propriamente detto, cioè per bere, cucinare, lavare le verdure. Il 49 per cento è destinato ad usi igienici (bagno, doccia e lavaggio pentole e stoviglie. Per questo tipo di usi è comunque necessaria l’eliminazione dei solidi sospesi e della contaminazione microbiologica.
Per il restante 49% dell’acqua che si destina per esempio allo scarico del wc, all’innaffiatura e al lavaggio delle auto può essere sufficiente un semplice trattamento di decantazione e di filtrazione.

recupero_acque

I sistemi di recupero sono di solito costituiti da un serbatoio interrato che raccoglie le acque provenienti dalle gronde. Al di sotto della superfice del liquido si posiziona mediante galleggiante il tubo di aspirazione. La pressione per portare l’acqua alle diverse utenze è ovviamente fornita da una pompa idraulica , e a monte di questa si monta un filtro per l’eliminazione dei solidi sospesi. L’impianto si completa con uno scarico di troppo pieno con recapito in fognatura e da una connessione con la rete di acqua potabile, per sopperire ad eventuali periodi di siccità prolungata e per effettuare eventuali pulizie periodiche. Per usi igienici quali bagno o doccia si include nel sistema uno stadio di trattamento per abbattere la carica batterica. Se si opta per la clorazione o la sterilizzazione con ozono è necessario uno serbatoio di accumulo a valle. Metodi più moderni come lampade uv e microfiltrazione si possono installare direttamente sulla mandata della pompa stessa.
Se, come ancora spesso accade, l’acidità dell’acqua piovana è eccessiva (pH tra 5,5 e 6) e necessaria l’installazione di un filtro di correzione dell’acidità con riempimento di materiale granulare a base di carbonato di calcio. Un sistema di questo tipo con portate di 2000-3000 lt/h a costi che si aggirano intorno ai 4000 euro. Se si vuole poi destinare l’acqua piovana ad uso potabile andrà previsto il passaggio su carbone attivo e l’eventuale aggiunta delle sostanze minerali che di solito non sono presenti nelle acque piovane. Tutto l’impianto idrico dovrà poi essere sottoposto a trattamenti periodici di clorazione.
L’acqua può avere molteplici usi e quindi trattamenti differenziati. Da anni si parla di acqua e della necessità di preservarla e non sprecarla. L’acqua va conosciuta e sarà necessario nel futuro evitare di destinare acqua adatta all’uso potabile per lo scarico dei wc. Ogni fonte di approvvigionamento andrà gestita correttamente. Anche l’acqua piovana.

L’elettrodo a idrogeno: un’”araba fenice”?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Nel post sul concetto di pH (https://ilblogdellasci.wordpress.com/2016/06/29/il-concetto-di-ph/) si è accennato all’elettrodo a idrogeno, utilizzato da Søren Sørensen per misurare la concentrazione degli ioni idrogeno (per semplicità H+) nelle sue ricerche sulle reazioni di proteine ed enzimi. Come noto a tutti, l’elettrodo standard a idrogeno (SHE) è preso per convenzione come zero della scala dei potenziali redox, ed è descritto e schematizzato in tutti i testi come costituito da un filo o laminetta di platino platinato, immerso in una soluzione acida, sul quale viene fatto passare un flusso di idrogeno gas. La sua importanza risiede appunto nel fatto che, in condizioni standard (pH2 = 1 atm, aH+ = 1), e a T = 298 K, il suo potenziale è posto per convenzione = 0 V. Viene poi liquidato come elettrodo scomodo coinvolgente un gas pericoloso, la pressione difficilmente controllabile ecc., sicché oggi si usano altri elettrodi di riferimento il cui potenziale rispetto allo SHE è esattamente noto. Confesso di aver sempre avuto molta curiosità per l’elettrodo a idrogeno, forse perché non ne ho mai visto uno, neppure in un museo o quantomeno in foto. Quando ero studente all’Istituto Tecnico immaginavo di costruirne uno facendo gorgogliare idrogeno (da un apparecchio di Kipp) su un filo di Pt.

In una ricerca successiva al post sul pH ho trovato la descrizione dettagliata della misura della concentrazione di H+ a mezzo di un elettrodo a idrogeno nel lavoro di Sørensen [1]:

La pila di cui è stata misurata la forza elettromotrice, è costituita da un elettrodo al calomelano immerso in una soluzione normale di cloruro di potassio e un elettrodo a idrogeno (placca in platino platinato) immerso nella soluzione da esaminare che serve anche da liquido elettrolitico. Il potenziale di diffusione tra le due soluzioni è stato eliminato con le modalità indicate da N. Bjerrum[1], vale a dire, interponendo fra le due soluzioni elettrolitiche sia una soluzione 3,5 normale di cloruro di potassio, sia una 1,75 normale dello stesso sale, dopodiché si è fatta un’estrapolazione fra i due potenziali misurati.[1, p.20]

Il dispositivo sperimentale usato è identico a quello riportato da Bjerrum nella sua citata memoria… In generale ho seguito esattamente le indicazioni di questo studioso, al quale presento qui ancora una volta i miei sinceri ringraziamenti per averci permesso di approfittare, durante il corso delle misure, della sua lunga esperienza in questo campo. Sia l’elettrodo di platino platinato sia quello al calomelano sono stati preparati esattamente nel modo suggerito da Ostwald-Luther. Le misure sono state effettuate con il metodo a compensazione di Poggendorf[2]… Come elemento di riferimento mi sono servito di una pila Weston[3] la cui forza elettromotrice risulta 1,0191 volt a 18°. [1, p.21]

L’idrogeno utilizzato è stato preparato per elettrolisi di una soluzione al 10% di idrossido di potassio, con elettrodi di ferro. Dopo aver lavato l’idrogeno, dapprima due volte con una soluzione alcalina di pirogallolo, poi con acqua pura, lo si fa passare per un cilindro di vetro riempito di cotone puro poi lo si fa gorgogliare sul platino dopo averlo lavato con una piccola porzione della soluzione da esaminare.[1, p.22]

 

William B. Jensen[4] [2] ha trovato il seguente manifesto pubblicitario del 1922:idrogeno1

 Secondo Jensen questo manifesto (Oesper Collections, University of Cincinnati) propone un’apparecchiatura identica a quella utilizzata da Sørensen.

Effettivamente l’ingrandimento dell’immagine sulla sinistra [3]:

idrogeno2rappresenta abbastanza bene la pila descritta da Sørensen con la coppia elettrodo a idrogeno – elettrodo a calomelano. Quindi, almeno per me, l’elettrodo a idrogeno non è più un’”araba fenice”. Resta la curiosità di sapere chi è stato il primo a costruire e utilizzare un elettrodo a idrogeno.

[1] S.P.L. Sørensen, Etudes enzymatiques II. Sur la mesure et l’importance de la concentration des ions hydrogène dans les reactions enzymatiques. Compt. Rend. Trav. Carlsberg Lab., 1909, 8, 1—168.

[2] W.B. Jensen, Origins: Why pH?, http://www.che.uc.edu/jensen/W.%20B.%20Jensen/Commentaries/

[3] http://www.derangedphysiology.com/main/core-topics-intensive-care/arterial-blood-gas-interpretation/Chapter%201.0.6/sorensen-definition-ph-hydrogen-ion-concentration

[1] Niels Janniksen Bjerrum (1879-1958), chimico danese, noto per le sue ricerche sui composti di coordinazione, fu professore di chimica al Royal Agricultural College di Copenhagen dal 1914 al 1949.

[2] Johann Christian Poggendorff (1796-1877), fisico tedesco, svolse importanti ricerche sull’elettricità e il magnetismo, fondò e fu editor degli Annalen der Physik und Chemie dal 1824 al 1876. Oltre al galvanometro a specchio, ideò il potenziometro a opposizione per la misura dei potenziali elettrici a corrente (pressoché) nulla.

[3] La pila Weston, costruita per primo dal chimico inglese Edward Weston (1850-1936) nel 1893, è una pila a umido Cadmio/Mercurio, usata dal 1911 al 1990 come standard internazionale di forza elettromotrice per la sua capacità di erogare per lungo tempo una f.e.m costante e con basso coefficiente di temperatura.

[4] William B. Jensen, chimico statunitense (1984-) è Professor of Hystory of Chemistry and Chemical Education all’Università di Cincinnati, curatore della Oesper Collections della stessa Università. Autore di più di 150 fra pubblicazioni e reviews di chimica inorganica, storia della chimica e didattica della chimica, e di diversi libri, tiene bimestralmente la rubrica “Ask the Historian” del Journal of Chemical Education. Ha fondato ed è stato il primo editor della rivista Bulletin for the History of Chemistry.

Perchè Levio

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio della Volpe

L’8 giugno 2016 la IUPAC ha iniziato ufficialmente il periodo di 5 mesi di discussione pubblica sui nomi dei nuovi 4 elementi con i numeri atomici 113, 115, 117 e 118; le proposte sono le 4 seguenti:

Z=113, Nihonio – Z=115, Moscovio – Z=117, Tennessino – Z=118, Oganessio.

rispettivamente in onore o per ricordare le zone dove si è lavorato per la scoperta del nuovo elemento o la persona che vi si è dedicata principalmente.

Rimandiamo al testo della IUPAC per i dettagli delle scelte. Il periodo terminerà l’8 novembre.

L’elenco di oltre 3000 firme che accludiamo chiede una cosa diversa, chiede di nominare almeno uno dei 4 elementi come Levio (Levium (113 o 115) o Levine (117) o Levion (118) in accordo con le regole proposte per le terminazioni) in ricordo dello scrittore italiano Primo Levi, autore de “Il Sistema periodico”.

Il motivo o l’ispirazione fondamentale di questa proposta sta nell’articolo publicato su Nature da Philip Ball nel gennaio 2016, ma i motivi si possono facilmente spiegare ed estendere.

sistema periodico

La ricerca dei nuovi elementi è una operazione che ha un grande impatto mediatico e culturale ed i loro nomi, una volta scelti, sono destinati a rimanere per sempre nella cultura umana; i metodi di scelta di questi nomi privilegiano in qualche modo la gloria personale o nazionale o continentale di chi effettua la scoperta, ma lasciano uno spiraglio sia pur piccolo verso qualcosa di diverso e di questo siamo grati alla IUPAC. I metodi seguiti sono stati recentemente elencati qui.

Nella storia tali metodi sono stati via via precisati; Guyton de Morveau nel 1782 chiedeva “un metodo di denominazione costante, che aiuti l’intelligenza e supporti la memoria”; la Commissione dei Pesi atomici ricordava nel 1957 che i nomi erano stati scelti in accordo “con vari criteri arbitrari che si rifacevano all’origine, alle proprietà fisiche e chimiche o più recentemente a commemorare il nome di scienziati eminenti”; la pubblicazione del 2016 precisa:

(a) un concetto o carattere mitologico (incluso un oggetto astronomico)

(b) un minerale o sostanza simile

(c) un posto o regione geografica

(d) una proprietà dell’elemento

(e) uno scienziato

lasciando quindi il caso (a) come il più generale ed adatto al nostro intendimento. Un nome “mitologico”, che si rifaccia ad un mito. Quale mito possiamo scegliere?

La Chimica è oggi considerata una scienza “centrale” per il suo ruolo di collegamento fra le altre scienze fisiche e biologiche. Essa è stata definita via via “bella e potente” ed è certamente alla base della nostra vita quotidiana con le sue innumerevoli tecnologie ed aplicazioni.

chemicalfree

Ciononostante essa vive una crisi importante una crisi di rigetto che è espressa dall’abusato termine “chemical free”, sul quale anche i giornali scientifici hanno spesso ironizzato. Va crescendo una insofferenza nel grande pubblico nei confronti di una tecnologia e di un’approccio che appaiono violare sempre più invasivamente l’”ordine naturale” delle cose, in realtà la oscura presa di coscienza che è difficile orientare in senso sociale e collettivo l’uso e le applicazioni della scienza, le cui applicazioni e per converso le cui scoperte appaiono dovute a cause esterne, che gratificano non tutti ma solo alcuni, che sottolineano la potenza di chi le fa non i risultati poi disponibili (almeno potenzialmente) per tutti.

Contemporanemente si aprono nuove importanti sfide che sono figlie proprio del successo enorme che la chimica ha avuto nella vita umana; è stato Paul Crutzen, premio Nobel per la Chimica nel 1995, ad adottare il termine Antropocene per segnare l’impatto che l’umanità sta avendo sulla biosfera, proprio grazie al successo della tecnologia chimica. Tale impatto, che si sta manifestando in tutti i campi, dal clima alle risorse minerali, rappresenta la nuova sfida per l’umanità e per la chimica.

La Chimica ha bisogno di un simbolo, di una bandiera, di un mito unitario per raccogliere questa sfida e questa bandiera non può essere quella di criteri che esaltano una persona o un paese o una regione, ma solo quella che rafforza un’idea: la Chimica è per tutti. La Scienza è, deve essere, per tutti se vogliamo continuare a vivere in pace su questo pianeta.

Quando alla fine della seconda guerra mondiale ci si è guardati indietro, alle macerie lasciate alle spalle, alcuni hanno avuto la capacità di pensare e guardare più profondamente alle cose; uno di questi uomini che da perseguitato aveva maturato coscienza di quel che era successo è stato un italiano, Primo Levi, chimico e scrittore, di cultura ebraica, che ha scritto uno dei libri più famosi e letti del mondo adottato nelle scuole di vari paesi, “Il sistema periodico”.

primolevi2

Si tratta di un audace tentativo di raccontare la vita e le contraddizioni umane tramite la chimica e che proprio per questo fonde la migliore tradizione scientifica ed umanistica, raccoglie lo spirito migliore, il succo dell’esperienza umana: rifiuto della guerra, amore per la scienza, anelito ad una umanità che vada al di là delle divisioni di ogni tipo.

Se la chimica deve essere capace di raccogliere le sfide del nuovo millennio questo è il momento di farlo, lasciando per un attimo da parte le rivendicazioni personali o geografiche e guardando all’attività di ricerca come al lavoro più bello e unificante e nuovo che l’umanità abbia inventato, alla scoperta del “chemical space” come alla più grande avventura umana: che è per tutti, per ogni uomo, donna o bambino di questo pianeta, qualunque sia la sua religione o il colore della sua pelle o la sua lingua, ricco o povero, migrante o fuggitivo. Chemistry is for all! Quale mito è più grande di quello dell’unità dell’umanità? Levium, Levine o Levon, ma sia un nome (questo o un altro) che valga per questa scelta simbolica, la chimica come una bandiera per tutti gli uomini.

Interferenti endocrini: possibili interventi tecnologici per la rimozione

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Gli interferenti endocrini sono sostanze organiche generalmente ma non necessariamente di sintesi, che quando vengono introdotte nel nostro organismo possono comportarsi come ormoni endocrini, oppure possono bloccare una attività ormonale endocrina.

Da molti anni sono entrate nel novero degli inquinanti emergenti. Tra le sostanze di cui è riconosciuta l’azione di interferente endocrino possiamo trovare dietilstilberolo (DES), le diossine, i policlorobifenili, il DDT, e almeno due composti conosciuti anche al pubblico generico quali l’atrazina e l’arsenico.

atrazina

atrazina

E’ notizia recente il rilevamento di un metabolita dell’atrazina nella zona di Pordenone.

http://messaggeroveneto.gelocal.it/pordenone/cronaca/2016/06/29/news/acqua-allarme-atrazina-superati-i-limiti-di-legge-1.13741280

Il DL 31 del 2 Febbraio 2001 e le sue successive modifiche all’art 4 prevede che “Le acque destinate al consumo umano non debbono contenere altre sostanze in quantità o concentrazioni tali da rappresentare un potenziale pericolo per la salute umana”

Il problema della diffusione di questi inquinanti si può verificare per il non perfetto grado di depurazione delle acque reflue se successivamente queste vengono riutilizzate per pratiche irrigue.

Una concentrazione di atrazina di soli 0,1 ppb (valore trenta volte più basso di quello consentito da EPA nelle acque destinate al consumo umano) ha mostrato influenze negative nelle caratteristiche sessuali degli anfibi, che rappresentano dei veri e propri marcatori biologici visto che hanno decisamente sensibilità a queste situazioni di inquinamento ambientale diffuso.

interferenti2

Tra gli altri interferenti endocrini possiamo citare gli alchilfenoli. Nel 2001 vennero eseguiti campionamenti dall’istituto Mario Negri di Milano, ed in particolare da Simona Tavazzani che effettuò la messa a punto di metodi in GC-MS . I campioni di acque superficiali vennero prelevati sul fiume Lanza a monte e a valle del piccolo depuratore consortile di Cantello (è uno degli impianti che è gestito dalla società per la quale lavoro e che conosco molto bene visto che mi occupo delle analisi e della gestione impiantistica.)

Il fiume Lanza è anche sede di un parco sovra comunale ed è una zona ricca di fauna e molto bella dal punto di vista paesaggistico.

Tra i prelievi a monte dell’impianto e quelli a valle non si riscontrarono variazioni significative. Le concentrazioni risultarono però molto basse sia sui campioni di acque superficiali, che su quelli biologici (bile e fegato di pesce) cioè con concentrazioni dell’ordine dei ng/l e ng/g rispettivamente.

interferenti3

Questi composti però transitavano sostanzialmente inalterati attraverso il normale processo di depurazione a fanghi attivi. Tengo a precisare che questo impianto funziona molto bene sui normali inquinanti tanto che lo definisco da sempre l’impianto con il fango biologico didattico, cioè quello molto bilanciato e con forte compattezza del fiocco. Quello che mostro al microscopio agli studenti.

interferenti4

(Fotografia fango Cantello 400 x c.f)

Gli interventi tecnologici per risolvere ed abbattere correttamente composti di questo genere sono possibili. Nei paesi aridi ma dotati di sufficiente capacità tecnologica, ma anche ovviamente in Italia.

Nelle acque reflue destinate a riutilizzo o riuso si possono utilizzare trattamenti combinati nei quali si fa uso di membrane di microfiltrazione ed ultrafiltrazione e passaggio di affinamento su strati di PAC (Policloruro di alluminio.) In seguito si possono effettuare trattamenti di coagulazione e di scambio ionico.

Stadi di trattamento che utilizzano queste sequenze le tracce di interferenti endocrini quali prodotti farmaceutici e prodotti agrochimici.

Trattamenti che usino osmosi inversa e nano filtrazione sono più avanzati (ma anche più costosi).

Se si opera con trattamenti tradizionali come la coagulazione con cloruro ferrico la rimozione di questi composti è bassa (circa il 10%). Il carbone attivo ottiene rendimenti di rimozione di circa il 90%.

Le tecniche di depurazione su membrana (per esempio MBR membrane bio reactror) sono efficienti e possono conseguire rimozioni dell’ordine del 75-90%. Il problema è una riduzione del rendimento nel tempo che necessitano di frequenti operazioni di manutenzione e lavaggio delle membrane.

Occorre prestare attenzione anche al rilascio di questi composti nel tempo da parte di resine scambiatrici e membrane che hanno tendenza ad adsorbire sostanze polari quali gli interferenti endocrini di natura organica.

Esistono le tecnologie appropriate e le soluzioni. Occorre modificare molti dei processi di depurazione e di potabilizzazione classici. Occorre prima di ogni altra cosa la consapevolezza del problema degli interferenti endocrini (ma più in generale della diffusione degli inquinanti emergenti).

Come sempre suggerisco sinergie tra varie discipline (chimica in primis, ma anche ingegneria ambientale e biologia). Investimenti mirati su reti e strutture. E come sempre informazione corretta e continua e comprensibile.

Non solo per i cittadini ma anche per gli addetti ai lavori.

 

Il concetto di pH

In evidenza

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Piacca, ovvero pH, un fonema indicante acidità, noto al grande pubblico non soltanto per via della pubblicità di detergenti e cosmetici (“che rispettano il pH della pelle”, “saponi a pH neutro”, ecc.) ma anche per i referti delle analisi di sangue e urina, in ambito “gastronomico” (pH degli oli commestibili, dei vini, ecc.), e per molte altre questioni. Inoltre di pH si parla nei corsi di chimica elementare in tutte le scuole secondarie superiori e in molti casi anche in quelle del secondo ciclo dell’obbligo.

Chi introdusse il concetto di pH e la relativa scala di misura dell’acidità (e della basicità) in chimica? Fu il chimico danese Søren Peter Lauritz Sørensen nel 1909 mentre studiava l’effetto della concentrazione di acidi e basi sulla velocità dei processi enzimatici. Poiché egli usava soluzioni diluite di acidi e basi aveva a che fare con valori molto piccoli di concentrazione di H+ (o di OH), diciamo ad es. minori di 10−1. Propose quindi di usare per esprimere queste concentrazioni l’esponente, cambiato di segno, della potenza di 10, e lo chiamò esponente dello ione idrogeno, con simbolo PH. [1a][1]. Il lavoro fu pubblicato contemporaneamente in tre lingue, tedesco, francese e danese. Scrive Sørensen: Con l’esponente ione idrogeno (PH) di una soluzione si intende il reciproco del logaritmo decimale del valore della normalità della soluzione basata sugli ioni idrogeno. [1b]

Vediamo in breve la vita professionale di Sørensen:

 SPL_Sorensen

Nacque a Havrebjerg il 9 gennaio 1868 e dopo aver terminato la scuola superiore fu ammesso all’Università di Copenhagen, a 18 anni. L’intenzione era quella di studiare medicina, ma influenzato da S.M. Jorgensen[2], scelse infine chimica. Ancora studente ricevette due medaglie d’oro, la prima per un articolo sul concetto di radicale chimico, la seconda per una ricerca sui composti dello stronzio. Mentre studiava per il dottorato si occupò di geologia della Danimarca e lavorò come assistente chimico all’Istituto Politecnico Danese. Conseguì il dottorato nel 1899 discutendo una tesi sugli ossidi del cobalto, sicché i suoi interessi iniziali furono essenzialmente rivolti alla chimica inorganica e analitica. Ma nel 1901 Sørensen fu chiamato a succedere a Johann Kjeldhal[3] come direttore del Dipartimento di Chimica del Laboratorio Carlsberg di Copenhagen, dove rimase per il resto della sua vita. Kjeldhal aveva lavorato su problemi di interesse biochimico e Sørensen proseguì su questa linea di ricerca. I suoi studi riguardarono in particolare la sintesi di amminoacidi, la messa a punto di metodi analitici, gli effetti di acidi e basi sulla cinetica di reazioni enzimatiche e ricerche sulle proteine. Nei due primi temi Sørensen si impegnò nella sintesi degli amminoacidi ornitina, prolina, e arginina. Egli dimostrò, fra l’altro, che il metodo di Kjeldahl per la determinazione dell’azoto amminico aveva una valenza più generale di quella ipotizzata dal suo scopritore. Nel 1907 mise a punto una metodica analitica per titolare un amminoacido con idrossido di potassio in presenza di formaldeide, noto come SFT (Sørensen Formol Titration). Successivamente, il lavoro sugli effetti di soluzioni tampone diverse (borati, citrati, fosfati e glicina) sul comportamento di proteine e enzimi lo condusse a utilizzare il metodo elettrochimico potenziometrico per studiare l’andamento della concentrazione degli ioni idrogeno, utilizzando un elettrodo di misura all’idrogeno e un elettrodo al calomelano come riferimento [1a, p. 150]. Fu in questo lavoro, concretizzatosi nel lungo articolo del 1909, che Sørensen definì il pH e la relativa scala di acidità utilizzata oggi in tutti gli ambiti scientifici [2][4]. Sørensen propose anche una scala basata sui colori assunti da un’opportuna miscela di indicatori ai vari pH. Insieme alla moglie studiò le lipoproteine, i complessi del monossido di carbonio con l’emoglobina e fu il primo a ottenere l’albumina di uovo in forma cristallina. Ebbe numerosissimi allievi e molti visitatori stranieri nel suo gruppo di ricerca. Fu anche attivo in campo tecnologico con contributi nell’industria danese dei liquori, dei lieviti e degli esplosivi. Morì a Copenhagen il 12 febbraio 1939.

JohanKjeldahl_in_1883

Johann Kjeldhal

Va quindi sottolineato che la scala del pH è stato solo uno dei tanti successi di Søren Sørensen in una carriera dedicata all’applicazione dei classici metodi fisico-chimici al nuovo settore della biochimica. In particolare le sue ricerche su enzimi e proteine, per le quali l’invenzione della scala del pH è stata solo un miglioramento metodologico, furono fondamentali, fornendo le basi per i successivi studi su questi composti azotati. Si può infine concordare con E.J. Cohn che: “Con Sørensen la chimica fisica delle proteine passò dallo stadio dell’osservazione e della descrizione qualitativa dei fenomeni a quello della loro caratterizzazione quantitativa in termini di leggi e di costanti” [3].

[1] S.P.L. Sørensen, a) Enzymstudien. II: Mitteilung. Über die Messung und die Bedeutung der Wasserstoffionenkoncentration bei enzymatischen Prozessen”. Biochemische Zeitschrift, 190921, 131–304; b) Enzyme Studies II. The Measurement and Meaning of Hydrogen Ion Concentration in Enzymatic Processes, in: http://www.chemteam.info/Chem-History/Sorenson-article.html

[2] F. Sgambato, S. Prozzo, E. Sgambato, R. Sgambato, L. Milano, Il centenario del pH (1909-2009). Ma in medicina, è proprio indispensabile utilizzare i logaritmi negativi per misurare gli idrogenioni? Parte I, Italian Journal of Medicine 2011, 5, 147—155.

[3] E.J. Cohen, Søren Peter Lauritz Sørensen (1868-1939), J. Am. Chem. Soc., 1939, 61, 2573-74.

[1] Successivamente il simbolo divenne PH e infine l’attuale pH. Sull’esatto significato della lettera p ci sono ancora pareri discordanti, quello più accettato è potenziale. Nel 1924 fu riconosciuto che al posto della concentrazione di H+ si doveva usare l’attività.

[2] S.M. Jorgensen (1837-1914), chimico danese, è considerato uno dei fondatori della chimica dei composti di coordinazione. Noto per il suo dibattito con Alfred Werner, anche se le sue teorie si dimostrarono errate, ebbero comunque una certa influenza su quella di Werner. Diede fondamentali contributi alla chimica del platino e del rodio.

[3] Johan Gustav Christoffer Kjeldahl (1849 – 1900), chimico danese si occupò in particolare delle proteine contenute nei malti per la fabbricazione della birra. Noto per il metodo di determinazione quantitativa accurata dell’azoto con un apparecchio di sua invenzione chiamato ancora oggi apparecchio di Kjeldahl. La descrizione dell’apparecchio è stata riportata in un post su questo blog: https://ilblogdellasci.wordpress.com/2012/12/07/chi-gli-ha-dato-il-nome-kjeldahl/

[4] In questo lavoro gli autori (dell’UO Medicina Interna, Ospedale Fatebenefratelli, Benevento), ricordano il centenario del pH (cosa che non mi risulta noi chimici italiani abbiamo fatto) analizzando in dettaglio la versione francese dell’articolo di Sørensen, ma fanno una stravagante proposta, eliminare –log[H+] (pH) dalla medicina e dalla chimica per medici, sostituendola con i nEq (nanoequiv.) di H+, poiché vi sarebbe linearità fra questi e il pH nell’intervallo di acidità compatibile con la vita. I futuri medici capirebbero di più in termini di equivalenti che attraverso il logaritmo… ???

Un chimico, un matematico e il calore. 1.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

La sensazione del caldo e del freddo, del calore insomma, ha suscitato interesse e timore fin da quando l’essere umano ha preso coscienza di se e dell’ambiente che lo circonda. Molto sinteticamente si può dire che le due interpretazioni sulla natura del calore, quella dinamica (secondo cui il calore è dovuto al movimento delle parti dei corpi) e quella particellare (secondo la quale il calore è una sostanza diversa dalle altre) sono entrambe presenti nella filosofia naturale del mondo occidentale. Empedocle (495 a.c. – 430 a.c. circa) poneva il fuoco tra i quattro “elementi” dai quali si sarebbero formati i corpi materiali; Eraclito (535 a.c. – 475 a.c. circa), invece, sosteneva che il fuoco fosse un principio dinamico, e sarebbe quindi alla base di tutto. Aristotele (384 a.c. – 322 a.c. circa) aggiunse il fuoco come “quinta essenza” ai quattro elementi empedoclei cercando in questo modo di interpretare alcuni fenomeni termici, come il trasferimento del calore da un corpo caldo a uno freddo. Gli atomisti, con Democrito (460 a.c. – 370 a.c. circa) ragionavano in termini di atomi “caldi” e “freddi”, come ci riporta Lucrezio nel De Rerum Natura.

Le interpretazioni dei filosofi greci furono sottoposte al vaglio dei grandi scienziati e filosofi del XVII secolo che tuttavia, seppure con notevoli precisazioni, rimasero sostanzialmente ancorati alle concezioni precedenti. Galileo (1564-1642), per esempio, condivideva più la concezione democritea, infatti riteneva che del calore fossero responsabili corpuscoli infimi (“minimi ignei”) in continua agitazione, ritenendo che il freddo derivasse dalla privazione di tali corpuscoli. Anche Francesco Bacone (1561-1626), basandosi sul calore sviluppato per attrito, giunse alla conclusione che il calore è un moto di espansione. Cartesio (1596-1650) e Newton (1643-1727), invece, pur con certe differenze, sostennero che il calore dei corpi era dovuto all’agitazione o alla vibrazione delle particelle costituenti i corpi.

E i chimici? Com’è noto nel XVII e soprattutto nel XVIII secolo la chimica fu dominata dalla (o meglio dalle) teorie del flogisto, un principio non isolabile che interverrebbe nella formazione (perdita di flogisto) e scomposizione (acquisto di flogisto) degli ossidi metallici (calci). La classica teoria del flogisto, dovuta a G.E. Stahl[1] che la enunciò nel 1716, fu poi adattata per interpretare l’aumento di peso nella formazione degli ossidi giungendo a ipotizzare un peso negativo (!) per il flogisto. Queste teorie ebbero comunque un notevole influsso sull’interpretazione del calore, il flogisto poteva infatti essere considerato come il vero “principio” del fuoco.

Sebbene già attorno al 1730 le teorie del flogisto fossero state messe in discussione da alcuni chimici, fra cui l’olandese H. B. Boerehaave (1668-1738) e il russo M. Lomonosov (1711-1765), queste furono praticamente archiviate solo nel 1774 in seguito all’esperimento detto “dei dodici giorni” effettuato da Antoine Laurent Lavoisier. Tale esperimento portò alla scoperta che la formazione degli ossidi è dovuta a un gas contenuto nell’aria, che Lavoisier chiamò oxigène.lavoisier2

 laplace

Negli anni successivi, oltre a continuare le ricerche che condussero alla definitiva enunciazione della legge di conservazione della massa, Lavoisier eseguì, insieme al matematico e fisico matematico Pierre Simon de Laplace[2] una serie di esperimenti su fenomeni coinvolgenti il calore, raccolti in una memoria presentata all’Académie des Sciences il 18 giugno 1873 col titolo “Mémoire sur la chaleur” [1]*.prima pagina memoire

Questo è un raro esempio di collaborazione fra un chimico e un matematico. La memoria, suddivisa in quattro articoli, non costituisce solo il primo trattato di Calorimetria, ma è anche un manuale pratico e interpretativo di fenomeni termochimici. Nell’introduzione i due Autori spiegano i motivi che li hanno spinti a pubblicare i risultati delle loro ricerche:

Questa memoria è il risultato di esperimenti sul calore che abbiamo fatto durante lo scorso inverno, insolitamente mite, cosa che non ci ha permesso di fare di più. Ci eravamo dapprima proposti di attendere un inverno più freddo prima di pubblicare qualsiasi cosa su questo argomento, avremmo così potuto ripetere con tutta la cura possibile gli esperimenti, e farne di più, ma ci siamo impegnati a rendere pubblico questo lavoro anche se molto imperfetto, dalla considerazione che il metodo che abbiamo usato possa essere di qualche utilità per la teoria del calore e, per la sua precisione e generalità possa essere adottato da altri fisici…[1, p. 355]

Passano poi a descrivere l’organizzazione della memoria in quattro articoli:

… nel primo, presenteremo un nuovo metodo di misurare il calore; presenteremo nel secondo i

risultati delle principali esperienze che abbiamo fatto; nel terzo esamineremo le conseguenze che si possono trarre da queste esperienze, infine, nel quarto, discuteremo la combustione e la respirazione. [1, p. 355]

All’inizio del primo articolo gli Autori lamentano la mancanza di dati quantitativi negli studi fatti in precedenza sui fenomeni termici, anche se riconoscono la scelta di una scala per la misura della temperatura basata sui due punti fissi: la fusione del ghiaccio e l’ebollizione dell’acqua alla pressione atmosferica, come pure la ricerca di un fluido le cui variazioni di volume sono praticamente proporzionali alle variazioni di calore.

Ma… la conoscenza delle leggi che segue il calore, quando si diffonde in corpo, è lontana da quello stato di precisione tale da poter sottoporre ad analisi i problemi relativi… agli effetti del calore in un sistema di corpi irregolarmente riscaldati, particolarmente quando la miscela si decompone e forma nuove combinazioni. [1, p. 356]

Dopo aver ricordato le due ipotesi sulla natura del calore, Lavoisier e Laplace affermano che per poter proseguire il lavoro occorre stabilire esattamente cosa si intende per calore libero, calore latente, capacità termica e calore specifico di un corpo e forniscono le definizioni per queste grandezze, definizioni che ci sono oggi famigliari[3].

Prendono in esame alcuni fenomeni di equilibrio termico e di trasferimento di calore e cercano di interpretarli in base a una o all’altra teoria per concludere che:

Non decideremo quindi fra le due ipotesi precedenti; vari fenomeni appaiono favorevoli alla prima, ad esempio, il calore prodotto dall’attrito di due solidi; ma ci sono altri che possono essere spiegati più semplicemente dalla seconda… come non possiamo decidere fra queste due ipotesi sulla natura del calore, dobbiamo però accettare un principio comune a entrambe.

Se, in una combinazione o in un cambiamento di stato, vi è una diminuzione del calore libero, questo calore riapparirà quando le sostanze ritornano al loro stato precedente, e, viceversa, se in una combinazione o in un cambiamento stato, vi è un aumento di calore libero, questo calore scomparirà nel ritorno delle sostanze al loro stato originale[4].

Questo principio è ora confermato dall’esperienza, la detonazione del nitre [nitrato di sodio] ce ne fornirà in seguito una prova determinante. [1, pp. 358-359]

A questo punto gli autori descrivono il termometro a mercurio che useranno negli esperimenti e la scala termometrica (la Réaumur, simbolo r). Propongono una regola generale per la misura del calore specifico di un corpo per mescolamento scegliendo arbitrariamente una sostanza di riferimento, per esempio l’acqua:

Indicando con m la massa del corpo più caldo alla temperatura a, con calore specifico q, con m’ la massa del corpo meno caldo alla temperatura a’ con calore specifico q’, se b è la temperatura di equilibrio della miscela, ammettendo che il calore ceduto dal corpo più caldo sia stato tutto acquistato dal corpo meno caldo, dovrà essere:

m q . (a – b) = m’q’ . (b – a’)

da cui si ottiene:

q/ q’ = m’. (b – a’) / m . (a – b)

che è il rapporto fra i calori specifici dei due corpi.[1, pp. 362-363]

Gli autori riportano l’esempio del mescolamento di acqua e mercurio a temperature diverse giungendo alla conclusione che il calore specifico del mercurio è circa 33 volte più piccolo di quello dell’acqua (29.9 in base ai dati attuali).

Discutono in dettaglio i limiti e le fonti di errore del metodo del mescolamento, poi attraverso lunghe considerazioni su un modello ipotetico di strumento di misura del calore e dopo aver elaborato le equazioni per il trattamento dei dati, giungono alla descrizione meticolosissima del calorimetro a ghiaccio di loro invenzione.

calorimetroQui ne daremo una breve descrizione. Con riferimento alla figura originale, il calorimetro progettato e fatto costruire da Lavoisier e Laplace è formato da tre recipienti concentrici: nel più interno si colloca il corpo in esame; in quello intermedio il ghiaccio; in quello più esterno si colloca dell’altro ghiaccio che ha la funzione di isolante, evitando che il calore dell’ambiente esterno fonda il ghiaccio del recipiente intermedio. Anche il coperchio è cavo e riempito di ghiaccio. In base alla quantità d’acqua che fuoriesce dal recipiente intermedio mediante un apposito condotto si può misurare il calore fornito dal corpo nel contenitore più interno, o calcolarne il calore specifico. Per misurare il calore sviluppato in una reazione chimica si introducono i reagenti in un matraccio di vetro posto nel più interno dei recipienti del calorimetro sopra un supporto isolante. Nel matraccio vi è anche la possibilità di provocare una scintilla elettrica per innescare la reazione[5].

I due Autori forniscono anche indicazioni precise per misurare il calore assorbito in una trasformazione fisico-chimica, come la dissoluzione di certi sali[6] [1, p. 366].

Il primo articolo della memoria termina con un riassunto delle precauzioni usate per garantire l’attendibilità dei risultati, la temperatura del laboratorio non deve superare i 3-4°r il che riporta a quanto dichiarato nell’introduzione, gli autori avrebbero voluto ripetere gli esperimenti in un inverno gelido…

(continua)

Riferimenti.

[1]. M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408. *Le parti della Mémoire tradotte in italiano sono opera dell’autore del post

Note.

[1] Georg Ernst Stahl (1659/60-1734), medico e chimico tedesco, grande personaggio sia in medicina che in chimica. Fra le sue opere, i trattati sullo zolfo e sui sali, gli Experimenta, observationes… chymicae et physicae. La sua teoria del flogisto, seppure errata, è considerata dagli storici come il primo tentativo di razionalizzare la chimica in un’unica teoria.

[2] Pierre Simon de Laplace (1749-1827), matematico e fisico francese ha dato contributi fondamentali allo sviluppo dell’analisi matematica, della statistica, della meccanica, dell’astronomia e della cosmologia. Famoso il suo Exposition du système du monde.

[3] Lavoisier e Laplace sono ben consapevoli che il calore specifico dipende dalla temperatura ritengono tuttavia che nell’intervallo 0°r – 80°r i calori specifici possano essere ritenuti approssimativamente costanti. Per le applicazioni pratiche questa approssimazione è utilizzata anche oggi.

[4] Gli autori anticipano qui quella che oggi chiamiamo 1a Legge della Termochimica o Legge di Lavoisier-Laplace.

[5] Si tratta di un calorimetro isobaro, sicché, come diremmo oggi, misura la variazione di entalpia, ΔH della trasformazione.

[6] Come noto oggi chiamiamo esotermiche le trasformazioni che avvengono con sviluppo di calore, endotermiche quelle che avvengono invece con assorbimento.

Astrochimica chirale.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

McGuire e colleghi hanno individuato per la prima volta, nella nube B2 del Sagittario, nella direzione del centro galattico, lo spettro di una molecola chirale o otticamente attiva: l’ossido di propilene.astro1

Difficile oggi dai centri delle nostre citta ultrailluminate riuscire a vedere la Via lattea e ancor più individuare la Nube del Sagittario. Da ragazzino riuscivo a vederla dalla periferia di Napoli, a Capodimonte, nei pressi dell’Osservatorio; oggi qui dal Trentino dovrei andare in montagna per vederla.

astro2

Comunque, bando ai ricordi. La molecola di ossido di propilene è questa:

astro3Come vedete è una molecola la cui immagine speculare non è coincidente con la molecola stessa; come sanno tutti i chimici questa struttura ha come effetto che le due molecole pur possedendo proprietà fisiche identiche non sono identiche affatto, anzi! Diversa è la loro interazione con la luce polarizzata, ma soprattutto con altre molecole chirali, una sottile differenza che è uno degli aspetti decisivi della vita come la conosciamo sulla Terra.

Si tratta della prima molecola chirale ad essere stata trovata nello spazio interstellare (e con questa tecnica spettroscopica); altre molecole erano state individuate in comete o in meteoriti, ma ancora nessuna in una nube interstellare, come questa, che è una vera fucina di nuove stelle a 400 anni luce dal centro galattico e a 25.000 anni luce da noi.

Come hanno fatto? Hanno modellato lo spettro di una molecola di ossido di propilene nell’ambiente della nube, concludendo che c’erano solo tre transizioni ben rivelabili che fanno parte della cosiddetta Q-branch, ossia quella parte di spettro infrarosso contenente transizioni vibrazionali con il medesimo numero quantico rotazionale. (ΔJ = 0).

Di queste tre ne hanno potuto osservare due a 2.342 e 2.141cm nei dati del progetto PRIMOS e la terza con il radiotelescopio Parkes (12.1, 12.8, and 14.0 GHz ).

In conclusione hanno confermato l’esistenza della molecola e sperano in futuro di poter incrementare la risoluzione e l’analisi dello spettro per poter individuare segni di “e.e.” ossia di eccesso enantiomerico, ovverossia di eccesso di uno dei due enantiomeri; eccesso enantiomerico che esiste nella vita sulla Terra e anche in molti dei campioni di meteoriti o di comete; la causa probabile dell’ipotetico eccesso, che finora è stato trovato nelle molecole di meteoriti e comete, potrebbe essere la presenza di radiazione circolarmente polarizzata (presente nella Nube del Sagittario); tale eccesso potrebbe confermare la causa prima della condizione che ha portato poi ad uno dei misteri ancora insoluti dell’origine della vita: l’eccesso di una sola specie enantiomerica nei composti organici coinvolti, come è il caso degli amminoacidi L nella vita terrestre: NOI!

Se un piccolo eccesso esiste la modellazione di processi lontani dall’equilibrio conferma che tale eccesso (anche in piccola fluttuazione) può essere amplifcata e diventare dominante. A questo proposito cito sempre il bellissimo lavoro sperimentale di Kondepudi (Science. 1990 Nov 16;250(4983):975-6.

Chiral symmetry breaking in sodium chlorate crystallization. Kondepudi DK, Kaufman RJ, Singh N.), un esperimento che si potrebbe ripetere con pazienza in un laboratorio scolastico; lo conoscevate?

Emergence and Amplification of Chirality via Achiral–Chiral Polymorphic Transformation in Sodium Chlorate Solution Growth,  Niinomi, H. Miura, Y. Kimura, M. Uwaha, H. Katsuno, S. Harada, T. Ujihara, and K. Tsukamoto Cryst. Growth Des. 14 (2014)

astro4

Termino con un invito.

Se fra i lettori ci sono altri astrofili come me che di tanto in tanto mettono il loro C8 o il loro Takahashi o il loro binocolo col muso all’insù verso il cielo notturno perchè non si fanno vivi sul blog? Meglio ancora se astrochimici. C’è tanta chimica nell’astronomia, anche da casa; guardate qua:

astro5Nebulosa di Orione, le quattro stelle centrali si chiamano “il trapezio”; dal centro di Trento; 24 gennaio 2016; Canon 550D 3200 ASA 15sec C8 primo fuoco. Non è bella ma è la mia prima foto di Orione!

E la spettroscopia casalinga! Fatta con pochi soldi ed un filtro che è un reticolo a 100 linee/mm

Arturo  astro6
Procione  astro7
Regolo  astro8
Giove  astro9

15 aprile 2015 – Condizioni: cielo sgombro di nubi; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

Spica  astro10

19 aprile 2015 – Condizioni: cielo nuvoloso; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

sole  astro11

Giorni precedenti Sole con prisma senza telescopio

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Glutine non è una parolaccia.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Glutine è parolaccia ? sembrerebbe a giudicare dal numero crescente di prodotti alimentari, ma anche cosmetici, che si affrettano a dichiarare che non contengono glutine, anzi, come si dice secondo la moda anglofila imperante, “gluten free”.

Non c’è dubbio che una parte della popolazione italiana, si stima circa due percento, è “allergica” al glutine essendo afflitta da celiachia, una malattia che provoca disturbi anche gravi in chi mangia glutine.

Poiché il glutine è l’insieme delle proteine del frumento, sembra che si stia diffondendo anche una moda di ostracismo dello stesso frumento nella dieta italiana. Come chimico, non esprimo alcun giudizio di natura biologica o medica sulle “allergie” alimentari: mi limito a parlare degli aspetti chimici del glutine, un complesso di proteine presenti nel frumento in ragione del 8-12 percento del peso della farina (quella che si ottiene dal frumento tenero) o della semola (lo sfarinato che si ottiene dal frumento duro). Il resto degli sfarinati di frumento è costituito da amido e da limitate quantità di grassi e sali minerali.

Il glutine ha fatto la sua comparsa in una pubblicazione scientifica del chimico bolognese Bartolomeo Beccari (1682-1766), di cui quest’anno cadono 250 anni dalla morte. Straordinario personaggio del mondo scientifico del suo tempo; il padre farmacista aveva assicurato al figlio una buona istruzione che permise al giovane Bartolomeo di laurearsi in filosofia e medicina nel 1704.

Jacopo_Bartolomeo_BeccariBeccari si dedicò a esperimenti scientifici che descriveva in “tesi” all’Accademia delle Scienze e per i quali gli fu assegnata una cattedra dapprima di fisica sperimentale e poi di chimica nell’Università di Bologna. In quei tempi chimica, fisica e medicina e la stessa filosofia consentivano di affrontare la conoscenza della natura e della vita in una maniera davvero interdisciplinare che, purtroppo, si è andata perdendo col passare dei secoli. Beccari si dedicò allo studio dell’infiammabilità dei gas che fuoriuscivano da alcuni crepacci delle colline bolognesi; osservò che alcuni animali e alcuni minerali (per esempio il solfato di bario rinvenuto nelle colline bolognesi e chiamato “Pietra di Bologna”) presentano una luminosità che sarebbe stata interpretata come fosforescenza, fonte di luce, dal nome greco della luce, φῶς. Si occupò di ecologia, come diremmo oggi, studiando l’origine dei miasmi che si formano nelle paludi e il loro effetto sulla salute. Il granduca di Toscana lo incaricò di studiare se tali cattivi odori avrebbero potuto essere attenuati tagliando la macchia intorno a Viareggio, allora terreno paludoso, e se i miasmi di tali paludi avrebbero potuto arrivare a danneggiare gli abitanti di Lucca, a una ventina di chilometri dalla costa, e Beccari lo escluse.

Nelle ricerche sulla fisiologia dell’alimentazione Beccari si dedicò alla analisi del frumento e del latte e descrisse, in un saggio del 1728 intitolato “De frumento”, la separazione dalla farina di frumento di due differenti frazioni.

Versando la farina in acqua Beccari osservò che una parte galleggiava mentre una parte si depositava sul fondo del recipiente. Ripetendo l’esperimento più volte isolò la parte più leggera, che oggi sappiamo essere l’amido, e la descrisse come dotata di caratteri “vegetali”, mentre l’altra, che oggi conosciamo come glutine, aveva caratteri “animali”. Scaldando le due frazioni, Beccari osservò che dall’amido si liberavano gas “acidi”, mentre dal glutine di formavano vapori “alcalini”, e oggi sappiamo che ciò è dovuto ai composti azotati che si formano durante la scomposizione delle proteine del glutine. A titolo di curiosità l’analisi del contenuto di glutine nelle farine si fa ancora oggi impastando la farina con acqua e poi manipolando l’impasto sotto un sottile getto di acqua fino a quando tutto l’amido è stato asportato e resta un residuo elastico e appiccicaticcio, di colore giallo, una procedura che veniva mostrata nelle esercitazioni di merceologia ai miei studenti universitari e che è una variante del metodo di Beccari.

Il glutine è costituito da due principali proteine, la gliadina, costituita dall’unione di circa 100-200 amminoacidi (principale responsabile della celiachia), e la glutenina, costituita dalla combinazione di circa 2.000-20.000 amminoacidi. Proprio il carattere gommoso ed elastico del glutine consente di ottenere, con gli sfarinati di frumento, l’impasto per il pane e per la preparazione delle paste alimentari. Il frumento è l’unico cereale dotato di queste caratteristiche e se non altro bisogna dirgli grazie. Va peraltro detto che, dal punto di vista nutritivo, le proteine del glutine sono povere di lisina, uno degli amminoacidi essenziali (i componenti delle proteine che devono essere apportati con la dieta), e quindi una alimentazione a base di pane e pasta deve essere integrata con altri alimenti contenenti proteine con una migliore composizione di amminoacidi, come quelli di origine animale o delle leguminose.

glutine2

blog.giallozafferano.it

glutine

Pochi numeri stanno ad indicare l’importanza anche economica del frumento. L’Italia produce ogni anno circa tre milioni di tonnellate di pane e prodotti da forno utilizzando circa 8 milioni di tonnellate di frumento tenero, metà di produzione nazionale e metà di importazione. Inoltre produce circa 3,5 milioni di tonnellate all’anno di paste alimentari, per la metà destinate all’esportazione, usando circa 7 milioni di tonnellate di frumento duro, anche questo per circa metà di produzione nazionale e per circa metà di importazione.

A livello mondiale, i 750 milioni di tonnellate di produzione annua di frumento sono ancora insufficienti per sfamare tanta parte della popolazione terrestre.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ritrovamenti

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il senso dello scrivere su un blog che si occupa di chimica, è quello di divulgare la disciplina cercando di farla apprezzare a chi non la conosce, oppure toccare temi che riscuotano interesse per chi invece lavora nel settore sia come insegnante o docente, oppure direttamente in laboratorio o nell’industria.
Alcuni libri di divulgazione chimica sono dei long sellers. Uno fra tanti è per esempio “I bottoni di Napoleone” dove con rigore scientifico e capacità di scrittura viene raccontata la storia di diciassette molecole che hanno cambiato le nostre abitudini, la nostra vita quotidiana e addirittura la storia.

i-bottoni-di-napoleone-come-17-molecole-hanno-L-8_Lasq

Tra le abitudini che ho c’è quella di girare per librerie e bancarelle di libri alla ricerca di qualche libro magari fuori catalogo, oppure interessante per il lavoro che svolgo.
Spesso questa ricerca è infruttuosa, altre volte invece si trovano delle piccole chicche.
Negli anni ho salvato dal macero due volumi, una ristampa anastatica del 1948 del trattato di chimica analitica del Prof Villavecchia. Interessante perché mostra una chimica analitica ormai scomparsa, fatta di tanta manualità ormai sostituita dalla strumentazione moderna. Ma leggendo quei volumi negli anni ho scoperto che alcune tecniche possono essere utilissime ancora oggi, come ho già avuto modo di raccontare.
https://ilblogdellasci.wordpress.com/2016/05/16/ritorno-alla-titolazione/
Oggi molto spesso le librerie chiudono con allarmante frequenza, e trovare libri che interessano assume quasi il significato di un salvataggio. La sensazione di preservare la cultura che oggi sembra quasi dimenticata a favore di argomenti più frivoli come per esempio il gossip.
Soltanto pochi giorni fa la mia attenzione è stata immediatamente attratta da un libro che volevo da tempo e che ho trovato a metà prezzo in una libreria di Varese.
Il libro è “La chimica di tutti i giorni” di Gunter Vollmer e Manfred Franz.

$_12

E’ un libro ormai fuori catalogo quindi averlo trovato è stata una piacevolissima sorpresa. A parte le condizioni ottime del volume (praticamente come nuovo) è importante per me averlo perché è un utile prontuario per conoscere i prodotti che usiamo ogni giorno, ma soprattutto perché la mia curiosità per la chimica nacque proprio da questo. Capire cosa c’era in prodotti comuni come il dentifricio o nei profumi.
Erano le curiosità di quando frequentavo la scuola elementare, e non sempre trovavo chi le potesse soddisfare.
Conoscere è il primo passo da fare per apprezzare. So che questo libro ritrovato mi sarà utilissimo per le molte domande che spesso mi vengono rivolte. Per esempio un collega che voleva sapere cosa contenesse la schiuma da barba che usa per radersi. Immancabile il tema acqua che viene trattato anche in relazioni ai filtri per uso domestico e al loro utilizzo e funzionamento.
Mi fa tornare in mente un episodio ormai lontano nel tempo risalente a circa trent’anni fa.
Una piccola azienda produttrice di lacca per capelli e prodotti per la cura del corpo mi contattò per un colloquio di lavoro. Oggi sembra quasi una cosa impossibile vista la perdurante crisi economica. Ma allora succedeva abbastanza frequentemente. Mi presentai al colloquio con molte speranze pensando mi venisse proposto un lavoro in laboratorio oppure in un reparto produttivo. In realtà scoprii che avrei dovuto fare l’agente di commercio presso i negozi di parrucchiere o le estetiste. A loro il chimico serviva perché utilizzare qualche formula chimica nella presentazione del prodotto, oppure fare digressioni sulla struttura proteinica dei capelli sarebbe stata la chiave di volta per vincere le resistenze dei possibili clienti che si riteneva non avessero alcuna nozione anche basilare di chimica.
Ma non mi sentivo portato per fare il venditore, e  da questo punto di vista mi sembrava di dover fare l’imbonitore, quasi fossi il professor Dulcamara dell’Elisir d’amore di Donizetti. La cosa finì con un nulla di fatto.
Adesso ho a disposizione il mio libro salvato. E anche se molte curiosità sono ormai soddisfatte lo sto leggendo con molto piacere e perché no, anche con un pizzico di nostalgia pensando ai miei primi tentativi di ingresso nel mondo del lavoro.
E mi viene anche in mente che come diceva Primo Levi “Siamo chimici, cioè cacciatori”.
Anche di libri.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ecocompatibilità ed ecosostenibilità:il contributo dei metodi chimici innovativi per i Beni Culturali

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex presidente SCI

 

Da ricerche economiche intraprese nel settore dei Beni Culturali risulta che quest’ultimi in Italia producono all’incirca 40 miliardi di Euro l’anno, pari a 2.6% del PIL, mentre in Inghilterra rendono 73 miliardi di Euro. Se si confronta questo dato con il numero di siti dichiarati patrimonio mondiale si apprende che l’Italia occupa il primo posto in classifica con 35 siti, pari a 11.2% del patrimonio mondiale totale contro 18 siti del Regno Unito, pari al 5.8%. Le cause di questa apparente contraddizione vanno ricercate nel degrado e nell’impoverimento economico dei siti culturali per chiusure, perdite o riduzioni, nella mancanza di un’attività programmatica, nella localizzazione preferenziale in città che soffrono dell’inquinamento urbano e anche del ritardato trasferimento di innovazione tecnologica.

Nella discussione ed attuazione di strategie che mirino ad un miglioramento della situazione attuale, il termine “sostenibilità” è ormai frequente. Esso può essere inteso sotto l’aspetto ambientale, igienico-sanitario, economico. Per il settore del restauro e della conservazione quest’ultimo si riferisce all’ottimizzazione dei cicli di manutenzione rispetto al rapporto costi/benefici, dove nei costi sono compresi sia quelli operativi sia quelli legati al degrado del bene e nei benefici le ricadute in termini di visitatori ad un patrimonio in salute e sempre disponibile al pubblico. Per quanto riguarda, invece, la sostenibilità sotto l’aspetto igienico-sanitario è da tenere presente che i restauratori sono figure professionali molto esposte sia a malattie professionali sia a problemi di sicurezza in ambiente di lavoro a causa dei metodi e dei materiali impiegati. L’esteso uso di solventi chimici nel settore (durante la pulitura, ma anche contenuti nei prodotti adoperati per il consolidamento, il fissaggio e la protezione finale) comporta, infatti, rischi per l’operatore che dipendono, tra l’altro, da quanto i composti sono accumulabili e volatili, in quanto l’ingresso nell’organismo avviene attraverso il contatto (più facilmente evitabile) e l’inalazione e il loro accumulo combinato (inevitabile anche se si controlla il livello delle singole esposizioni) può far raggiungere livelli di concentrazione con conseguenze nocive per la salute. La sindrome della Sensibilità Chimica Multipla, di cui sempre più si parla, deriva proprio da una sensibilità a queste involontarie e casuali combinazioni. Mentre ufficialmente questa categoria conta qualche migliaia di lavoratori, in realtà i restauratori operanti in Italia sono di più, molti dilettanti e volontari.

C’è, poi, l’aspetto ambientale: i prodotti utilizzati, con il loro carico di pericolo, sono smaltiti, spesso impropriamente, nell’ambiente circostante con conseguenze molto negative.

pergamena_erosa_rid

Considerando quanto esposto sopra, risulta chiaro che un investimento nell’innovazione del settore può avere delle ricadute importanti per gli aspetti igienici ed economici. L’innovazione può essere di processo, come nel biorestauro, un campo ampio che include la sostituzione di prodotti di sintesi nocivi o tossici con microorganismi antagonisti per il controllo di specie nocive per il materiale dei beni; come nella bioricostruzione, dove il consolidamento di materiale degradato è affidato a specie biologiche capaci di sintesi in situ, come nell’uso di enzimi per l’asportazione selettiva e controllata di materiale estraneo o alterato.

L’innovazione di prodotto riguarda, invece, i prodotti per il restauro, la manutenzione, la proposta di nuovi solventi, tensioattivi, polimeri riparatori e prodotti di vario genere, tutti più duraturi, più economici e, soprattutto, più sicuri e sostenibili di quelli oggi in uso. Infine, c’è un aspetto di innovazione tecnologica che comprende la definizione di nuovi indicatori dello stato di conservazione delle matrici di differente materiale (lapidee, lignee, cartacee), come è avvenuto con l’uso della tecnica NMR di superficie. Il concetto di restauro sostenibile è quindi legato a diversi filoni di ricerca; quelli più affini al settore della chimica mirano generalmente alla proposta di prodotti più sicuri e stabili e meno volatili, aggressivi e bioaccumulabili; auspicabile è una produzione che impieghi solo fonti rinnovabili e processi di sintesi puliti (prodotti secondari di reazione biocompatibili e atossici).

I prodotti per il restauro e la conservazion, per le diverse caratteristiche chimiche e la specificità di alcune operazioni, sono di norma destinati ad una specifica classe di materiali. Tra queste, la classe dei materiali cellulosici e specificatamente quelli cartacei vede da qualche tempo un interesse crescente di ricerca in quanto la carta prodotta dalla seconda metà dell’ottocento in poi mostra problemi conservativi per fattori intrinseci dovuti all’acidità così importanti da mettere a repentaglio un immenso patrimonio librario.

In generale la carta è considerata un materiale di natura eterogenea e talvolta complessa costituita da una matrice fibrosa, non esclusivamente di cellulosa, additivata di collante e anche di altre sostanze quali minerali o sbiancanti ottici. Dal punto di vista chimico il degrado dei materiali cartacei può essere riassunto sinteticamente con reazioni di idrolisi (rottura del legame beta-glicosidico della cellulosa catalizzata in ambiente acido) e di ossidazione, interconnesse tra loro (i terminali ossidrilici vengono trasformati per ossidazione in carbossili) che portano generalmente ad un ingiallimento e ad una diminuzione della resistenza meccanica con conseguenze negative estetiche, culturali (lettura spesso compromessa) e di manualità (fragilità della carta anche al tatto). Attualmente il restauro della carta si avvale di trattamenti per la deacidificazione e per il consolidamento. Quest’ultimo avviene o per laminazione (il foglio da trattare viene incluso tra due fogli consolidanti) o per applicazione di un mezzo consolidante in forma liquida. Tra quest’ultimi è molto diffuso l’uso di soluzioni acquose di esteri di cellulosa, soprattutto di metil-cellulosa, un composto non tossico e molto diffuso nel settore, ma la cui sintesi richiede l’uso di clorometano, un composto cancerogeno. Attualmente la ricerca vede l’impegno di diversi studiosi per identificare sia prodotti sintetici alternativi, efficienti e chimicamente stabili, sia prodotti naturali che offrono opportunità interessanti.

carta1

Un diverso problema nel restauro della carta sono, invece, le macchie. Esse costituiscono in prima istanza un problema esclusivamente estetico che può impedire la lettura del testo (manoscritti, documenti, libri) o la percezione estetica dell’oggetto (dipinti su supporto cartaceo). Tuttavia, talvolta, come nel caso di macchie di ruggine che possono originarsi per l’ossidazione di impurezze nella carta o di attacchi presenti sui fogli, il problema non rimane puramente estetico, in quanto il ferro agisce da catalizzatore nei processi ossidativi della cellulosa. La rimozione o l’attenuazione della macchia è, quindi, consigliata. Metodi di pulitura tradizionali per la rimozione di macchie di ruggine utilizzano reattivi chimici adatti a sequestrare il ferro dalla carta e generalmente si basano su reagenti riducenti, spesso abbinati a complessanti, capaci di ridurre il ferro (III) a ferro (II). Data la crescente attenzione verso la sostenibilità, primariamente da un punto di vista sanitario ed ambientale, i metodi di pulitura alternativi sono attualmente oggetto di diversi lavori di ricerca. Uno anche da noi esplorato è basato sull’elettroforesi, utilizzata in maniera non convenzionale. Comunemente, l’elettroforesi viene usata in ambito chimico e biomedico per la separazione di macromolecole. Quando particelle o molecole cariche, immerse e sospese in un fluido (il cui pH influenza lo stato di carica elettrica), sono sottoposte all’azione di un campo elettrico, l’attrazione elettrostatica verso gli elettrodi provoca il movimento delle particelle/molecole cariche verso gli elettrodi. E’ quindi ragionevole supporre che in condizioni sperimentali adatte si possano spostare le particelle/molecole estranee (macchia) dal materiale di supporto (oggetto) quando tale materiale è immerso in un fluido ed è sottoposto all’azione di un campo elettrico. Esiste poca e contrastante letteratura in questo senso: alcuni testi descrivono reperti sottomarini (ad esempio lignei o in pelle) trattati secondo questo principio per migliorare l’estrazione dei sali, ma anche per attenuare macchie di ruggine [3]; tuttavia, la letteratura menzionata non comprende pubblicazioni scientifiche internazionali. La carta è stata tra i primi e più diffusi supporti utilizzati per applicazioni analitico-chimiche dell’elettroforesi e l’esplorazione dell’applicazione dei principi elettroforetici alla sua pulitura è quindi molto interessante e promettente in alternativa ai tradizionali trattamenti chimici.

 

Riferimenti

[1] L.Campanella, C.Costanza, A.De Lera (2009) “Riparazione di carta invecchiata artificialmente e foto degradata”, comunicazione orale a: AlAr, Convegno nazionale sistemi biologici e beni culturali, 6-7 Ottobre, 2009, Palermo, Italia.

[2] Zhou Zhi-gang, Liu Zhi-li, Liu Xue-xian, “Study on the isolation, Purification and Antioxidation Properties of Polysaccharides from Spirula maxima”, Journal of Integrative Plant Biology, 1997, 39(1), 77-81.

[3] D. Pennec S., Lacoudre N., Montlucon J., “The conservation of Titanic artefacts”, Bulletin of the Australian Institute for Maritime Archeology, 1989, 13(2), 23-26.

[4] T.Hayashi, K.Hayashi, “Calcium Spirulan, an inhibitor of enveloped virus replication, from a blue-green alga, Spirulina platensis”, Journal of Natural Products, 1996, 59, 83-87.

[5] Q.Jiao, Q.Liu “Simple Spectrophotometric method for the estimation of algal polysaccharide concentrations”, Journal of Agricultural and Food Chemistry, 1999, 47, 996-998.

[6] E. Scarpellini, R. Caminiti, L. Campanella, S.H.Plattner, S.Nunziante Cesaro “Innovation in Paper Preservation: Green Chemical Treatments – First Results”, comunicazione di congress su poster a: CMA4CH 2014, 14-17.12.2014, Roma, Italia.

[7] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “ Materiali e metodi innovativi per il restauro sostenibile” in: Atti dei V Convegno Internazionale “Diagnosis for the conservation and valorization of cultural heritage”, 11-12.12.2014, Napoli, Italia, Aracne Editore, ISBN 978-88-548-7855-6, pp.1-10.

[8] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “Effects of innovative green chemical treatments on paper – can they help in preservation?” in: Proceedings of the Green Conservation of Cultural Heritage Congress, 27-28.10.2015, Roma, Italia, International Journal of Conservation Science (in press).

[9] D.G.Suryawanshi, S.K.Bisaria “Removing Metallic Stains from Paper Objects Using Chelating Agents EDTA”, Restaurator, 2008, 26(4), 276-285.

  

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

 

Dai quadrati magici alla topologia molecolare. Parte 3. Wiener.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto i quadrati magici e nella seconda abbiamo riassunto la storia dei rapporti fra algebra e chimica nel XIX secolo

Ma questa storia si è poi profondamente intrecciata e modificata con quella della meccanica quantistica in cui le matrici hanno un ruolo determinante. Non è possibile oggi parlare di chimica senza parlare di matrici, nel senso che il calcolo della chimica teorica è basato su questi oggetti algebrici; tuttavia l’automatismo e la complessità che sono seguiti all’invenzione del computer da tavolo hanno fatto si che molti dei concetti base si perdessero nel linguaggio tecnico, mentre invece è importante, importantissimo mettere l’algebra della chimica nella giusta prospettiva.

Questo processo si è potuto sviluppare solo dopo che la parte più rivoluzionaria della buriana concettuale della MQ è passata. E porta un nome, quello di Harry Wiener (1924-1998).

grafi32Nato a Vienna da una famiglia di cultura ebraica, Wiener fu costretto a fuggire dopo le leggi razziali e l’annessione riparando prima in Austria e poi in Portogallo. Come per altri uomini di cultura ebraica l’approdo finale furono gli USA, nel 1941; si laureò in chimica nel 1945 al Brooklyn College.

Durante il periodo della sua laurea cominciò ad occuparsi di un problema: come correlare i punti di ebollizione degli idrocarburi alla loro struttura molecolare.

La soluzione venne in modo inatteso e lo portò alla concezione del numero di Wiener, di cui parleremo in questo post.

Una mattina decise di studiare qualcosa alla Biblioteca pubblica di New York e, con l’intenzione di iniziare presto si recò in biblioteca alle 8. Ma con notevole disappunto scoprì che la bibioteca apriva alle 10 quel giorno. Piuttosto che tornare a casa si fermò fuori la biblioteca e per passsare il tempo si mise a pensare al problema che aveva in mente.

Con sempre maggiore coinvolgimento Wiener iniziò ad esplorare I possibili modi per poter rappresentare le diverse specie di moolecole di idrocarburo. Dopo un pò di prove Wiener scoprì un modo particolarmente promettente di fare questo. Sommando il numero totale di legami chimici esistenti fra tutte le coppie di atomi della molecola Wiener ottenne un numero che è ora comunemente indicato come numero di Wiener. Capì velocemente che il suo numero poteva effettivamente risolvere il problema perchè riusciva a riflettere in modo affidabile la tendenza dei punti di ebollizione del tipo di alcani considerati. Fu così che in un mattina del 1944 in una strada fuori la Biblioteca Pubblica di New York il numero di Wiener vide la luce.

Dennis H. Rouvray , Harry in the Limelight: The Life and Times of Harry Wiener

(in Topology in Chemistry: Discrete Mathematics of Molecules, D. H. Rouvray and R. B. King, Editors Horwood, 2002)

Cosa aveva scoperto Harry Wiener quella mattina del 1944 seduto fuori la biblioteca pubblica di New York?

Aveva inventato due indici che portano il suo nome: il numero di polarità p e il numero della distanza che è rimasto nella storia proprio come indice di Wiener, due quantità che si possono calcolare considerando le molecole di idrocarburo come grafi privi degli atomi di idrogeno.

Il primo dei parametri che egli chiamò nel 1947 numero di polarità, p, è definito come “the number of pairs of carbon atoms which are separated by three carbon-carbon bonds”, il numero di coppie di atomi separati da tre legami carbonio-carbonio”.

Il secondo dei parametri di Wiener era introdotto come il numero o parametro della distanza o del cammino e definito come: “the sum of the distances between any two carbon atoms in the molecule, in terms of the carbon-carbon bonds” ossia la somma delle distanze fra tutte le coppie di atomi della molecola in termini di legami carbonio-carbonio.

Trascurare gli atomi di idrogeno è una conseguenza del considerare l’essenziale della struttura molecolare e quindi l’area superficiale, la forma e la distribuzione della carica, cose nelle quali il ruolo degli atomi di idrogeno può essere ad un primo livello trascurato.

Prima di Wiener esisteva di fatto un solo approccio e anche parecchio datato per cercare di prevedere le proprietà molecolari in serie omologhe, quello inventato da Kopp attorno al 1840 e che prende il nome di principio di additività,

il quale asserisce che qualunque proprietà di una sostanza chimica può essere determinata semplicemente sommando i contributi a quella proprietà da ciascuno degli atomi componenti nella molecola della sostanza.

(Kopp, H. (1842a). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen I. Ann. Chem.41, 79.

Kopp, H. (1842b). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen 11. Ann. Chem. 41, 169.)

Facciamo qualche esempio:

grafi33

l’n-butano per esempio ha p=1 in quanto solo la coppia di atomi 1 e 4 dista tre legami.

Inoltre questa molecola possiede 3 coppie a distanza 1 (3×1=3), due coppie a distanza due (2×2=4) e 1 a tre legami (1×3=3); la somma delle distanze è quindi 10 che è l’indice di Wiener, w.

Nel caso della molecola di isobutano

grafi34

abbiamo p=0, ma w=9 essendo la somma di 3 coppie a 1 e 3 coppie a 2 legami.

Infine considerate una molecola più grande, 3-metilpentano

grafi35

p=4 e w=31 e calcolateli da soli per fare esercizio.

A cosa serve questa idea?

Serve essenzialmente a prevedere le proprietà di una molecola di cui si conosca solo la struttura molecolare; nel caso dei punti di ebollizione degli idrocarburi Wiener fu capace nel 1947 di prevederli con una precisione dell’ordine di 0.5°C a partire da una tripletta di parametri che scendevano a due se si teneva conto della differenza fra le molecole lineari e quelle ramificate; questo per idrocarburi fino a 12 atomi di carbonio, un successo notevole!

Le due equazioni sono:

tB = aw +bp + c dove le 3 costanti dipendono dal gruppo di isomeri considerato e

Δt = (98/n2) Δw+5.5Δp

dove n è il numero di atomi di carbonio.

In pochi anni si sarebbero sviluppati centinaia di parametri estremamente sofisticati e sensibili e soprattutto si sarebbe completamente automatizzato il metodo per il loro calcolo, che consente di prevedere parecchi aspetti di molecole non ancora sintetizzate in modo relativamente semplice; questo consente di esplorare il chemical space, uno spazio che contiene miliardi e miliardi di possibili molecole.

In effetti subito dopo il periodo successivo alla scoperta dell’indice di Wiener, alle sue pubblicazioni, che erano probabilmente un pò in anticipo sui tempi, che non ebbero particolare risonanza, Wiener decise di dedicarsi alla medicina e si laureò in medicina nel 1949; diventò un pediatra privato ma la sua professione non era particolarmente remunerativa; fu poi chiamato nell’esercito e partecipò alla guerra di Corea; questo segnò la sua vita, nel senso che spostò i suoi interessi definitivamente verso la medicina. Si dedicò allo studio del ruolo dei componenti olfattivi nel comportamento delle persone (i feromoni) e negli anni successivi allo sviluppo di una teoria sull’origine della schizofrenia, supportando l’idea che ci fossero componenti genetiche e ambientali nello sviluppo di quella malattia.

Dal 1958 fu assunto alla Pfizer, dove divenne responsabile del settore ricerca e sviluppo occupandosi poi per i successivi 37 anni, fino alla morte in pratica di molti dei temi importanti della medicina dell’epoca.

grafi36A partire dai cinque articoli di Wiener e nell’arco di qualche decennio si è sviluppato un intero settore di previsioni basate sugli indici connessi alla struttura il QSAR, Quantitative Structure-Activity Relationships, che forse avete sentito nominare e che ha un numero enorme di applicazioni per esempio nel settore farmaceutico; ne parleremo nel prossimo post.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Il biorisanamento dei suoli (bioremediation)

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

L’uso di microorganismi come ausilio per il ripristino di situazioni di inquinamento ambientale è una tecnica ormai acquisita nel campo del trattamento delle acque reflue, ma si applica anche in quello del recupero dei suoli contaminati.
I suoli formano una sistema ecologico complesso, nel quale solidi, liquidi, gas, organismi viventi interagiscono tra loro, con l’atmosfera e l’acqua. I suoli hanno tempi di formazioni misurabili in migliaia di anni, ma una scorretta gestione può ridurne la fertilità, causare un inquinamento diffuso e ridurre la biodiversità.
Gli esseri viventi presenti nel suolo sono fondamentali anche per il corretto funzionamento dei cicli biogeochimici.

suolo

Le tecniche di biorisanamento utilizzano le piante ed i microrganismi ad esse associati per rimuovere, trasformare o bioaccumulare sostanze tossiche, compresi idrocarburi , solventi clorurati, pesticidi, percolati di discarica.
Se questi contaminanti sono presenti in quantità elevate è necessario un pretrattamento. Altra condizione necessaria è che i contaminanti da rimuovere siano fisicamente e chimicamente accessibili (biodisponibili).
La frazione biodisponibile è spesso considerata un valore statico, mentre in realtà può variare nel tempo a seconda delle specie chimiche ed al variare di alcuni fattori ambientali, ad esempio il valore di pH.
Il biorisanamento è quindi la tecnica che utilizza batteri, funghi, alghe e piante per eliminare o stabilizzare inquinanti in siti degradati.
L’utilizzo di microrganismi può essere effettuato per la decontaminazione da composti organici, per la valutazione della tossicità quando sono utilizzati anche come biosensori, e la trasformazione o la decomposizione di contaminanti con velocità di reazione elevate.
La detossificazione può avvenire con meccanismi di reazione redox, per precipitazione chimica o volatilizzazione. I microrganismi sono in grado di produrre enzimi ossidativi in grado di mineralizzare composti policiclici aromatici e fenoli.

Nomenc1

La capacità di biodegradare gli idrocarburi per esempio è dovuta alla produzione da parte dei microrganismi di sostanze cha agiscono come surfattanti ionici. Tali sostanze sono riversate all’esterno della cellula, in modo da creare delle emulsioni acqua idrocarburi permeabili rispetto alla parete cellulare. Quando una quantità sufficiente di ossigeno è presente nel suolo i microrganismi aerobi ossidano gli idrocarburi producendo CO2 e H2O. Qui si nota già una differenza rispetto a quanto avviene nel trattamento delle acque, dove gli idrocarburi ricoprendo con una patina superficiale la superficie della vasca di ossidazione impedirebbero gli scambi gassosi e quindi il metabolismo batterico.
Anche nel caso del trattamento del suolo però sono ovviamente necessarie condizioni chimico fisiche adeguate al metabolismo batterico come temperatura, pH, potenziale redox e coefficiente di permeabilità del suolo.
In generale sono più facilmente biodegradabili gli idrocarburi con un numero di atomi di carbonio < 20, mentre si considerano difficilmente biodegradabili o recalcitranti quelli con numero di atomi di carbonio > 20.
Nel caso di bioremediation batterica i microrganismi non costituiscono una soluzione permanente : alla fine è necessaria una rimozione della biomassa contaminata che deve essere smaltita in modo appropriato.
Il secondo filone di questo tipo di tecniche è quello della fitorisanamento (phytoremediation), cioè l’utilizzo di piante particolarmente adatte a crescere su terreni contamiinati. La tecnologia prene origine dal concetto che una pianta si può considerare una pompa ad energia solare (Gabbrielli 1998) capace di estrarre e concentrare particolari sostanze dall’ambiente. I contaminanti possono essere stabilizzati, decomposti direttamente nel suolo, oppure assorbiti dalle radici e traslocati ed immagazzinati negli organi aerei delle piante. Se i contaminanti sono poco al di sopra dei limiti di legge è una tecnica molto appropriata. In caso contrario si devono prevedere più cicli colturali, o in alternativa la messa in sicurezza del sito.
Rispetto alle tecniche di biorisanamento che fanno uso di batteri e prevedono un successivo smaltimento in discarica dei terreni contaminati la riduzione dei volumi smaltiti può essere inferiore di un fattore 10.
I fattori che influenzano il processo di fitorisanamento sono in alcuni casi simili a quelli per il birisanamento (pH del terreno, % di sostanza organica e umidità del suolo.) Altri invece sono specifici (tipo di sistema radicale, tipi di enzimi prodotti dalla pianta).
I tipi di decontaminazione che le piante possono svolgere sono:
Fitoflitrazione: assorbimento di sostanze da parte delle radici o di piante acquatiche che crescono in acque sufficientemente areate. I meccanismi di questa tecnica sono diversi a seconda dei contaminanti. Tra questi troviamo la precipitazione e la deposizione sulla parete cellulare.
Fitostabilizzazione: riduce la biodisponibilità delle sostanze inquinanti attraverso meccanismi quali la modificazione del pH , del contenuto di umidità del suolo, e ancora con la precipitazione di alcuni contaminanti.
Fitovolatilizzazione: il meccanismo si basa sull’estrazione delle sostanze inquinanti dal suolo che le piante riescono a metilare rendendole volatili e disperdendole in atmosfera attraverso l’apparato fogliare.
Fitodegradazione: uso delle piante e dei microrganismi ad esse associati in simbiosi per degradare i contaminanti organici. Le piante possono creare le condizioni ideali per la crescita di funghi e batteri tramite la creazione di zone aerobiche e la produzione di essudati. Questa associazione permette di creare le condizioni ideali per la degradazione biologica degli inquinanti.
Fitoestrazione: consiste nell’uso di di piante iperaccumulatrici in associazione con ammendanti appropriati per trasportare e concentrare principalmente di tipo metallico (nichel, zinco,rame,cromo) nelle parti aeree che sono poi raccolte con metodi agricoli tradizionali. Queste piante possiedono un apparato radicale piuttosto esteso e concentrano grandi quantità di metalli nelle parti aeree. I meccanismi si basano sulla produzione di molecole chelanti tipo le fitochelatine, acidificazione e solubilizzazione.
Fitopompaggio: questa tecnica è affine a quella della fitodepurazione. In questo caso le piante sono utilizzate come pompe in grado di sottrarre i contaminanti dalle acque aspirandone grandi volumi. Una pianta come il salice è in grado coinvolgere nell’evapotraspirazione fino a 200 litri di acqua al gorno,e questo può essere efficace per esempio nel risanamento degli acquiferi.

piante spazzine

Le tecniche di bioremediation con l’utilizzo di batteri o piante sono complementari. I batteri sono generalmente più efficaci nella degradazione di inquinanti organici, ma meno nel trattamento di metalli in particolar modo se presenti nel suolo. Le tecnologie di bonifica che prevedono l’escavazione e la sepoltura sono decisamente molto costose e meno praticabili o addirittura inutilizzabili quando il problema è acuto, oppure è diffuso o su una vasta area. I metalli accumulati nelle piante riducono i costi e i volumi destinati allo smaltimento.
E di questi giorni la notizia di una phytoremediation che si sta attivando nei terreni adiacenti all’Ilva di Taranto. Come sempre il titolo è a sensazione, ma la tecnica sta funzionando.
http://www.lastampa.it/2016/06/03/italia/cronache/sar-la-cannabis-a-salvare-taranto-dal-disastro-ambientale-dellilva-IaaHoarIYdv68RBV6SCOsI/pagina.html
Si utilizza la cannabis sativa, nella quale la quantità di THC (Tetraidrocannabinolo ) e a pari allo 0,2% come previsto dalla legge. A maggior ragione sarebbero da evitare titoli sensazionalistici e fuorvianti, ma tant’è nell’informazione scientifica dei quotidiani o nella banalità dei titolisti.
La riflessione andrebbe fatta sulla ormai ubiqua diffusione di inquinanti ambientali (in negativo), e sulle piccole “fabbriche chimiche” che sono microrganismi e piante (in positivo).

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Mozziconi

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Nel febbraio 2016 è entrata in vigore la tanto attesa legge 221 del 2015, che, oltre a numerose indicazioni di azioni relative alla difesa e al miglioramento dell’ambiente, contiene un articolo 40 che stabilisce “E’ vietato l’abbandono di mozziconi dei prodotti da fumo sul suolo, nelle acque e negli scarichi”. Lo stato si è finalmente accorto della pericolosità dei mozziconi di sigarette, rifiuti subdoli, diffusissimi e invadenti.

Cigarette_on_asphalt

Nel mondo si fumano circa seimila miliardi di sigarette all’anno; la felicità dei fumatori viene apparentemente (non lo so di persona perché non ho mai fumato) dal fatto che il tabacco delle sigarette, bruciando lentamente, fa arrivare in bocca e nei polmoni, con una corrente di aria aspirata dall’esterno, varie sostanze chimiche, fra cui la nicotina e molte altre. Dopo qualche tempo, dopo che sono bruciati circa i due terzi o i tre quarti della sigaretta, resta un mozzicone che viene buttato via. In seguito ai continui avvertimenti, da parte dei medici, che il fumo delle sigarette fa entrare nel corpo umano sostanze tossiche e cancerogene, le società produttrici di sigarette hanno cercato di attenuare i relativi danni ponendo, nel fondo delle sigarette, dove vengono posate le labbra, un “filtro” che, come promette il nome, dovrebbe filtrare, trattenere, una parte delle sostanze nocive.

Celluloseacetuar

Quando una sigaretta è stata adeguatamente “consumata”, il filtro, con ancora attaccato un po’ di tabacco, viene buttato via; sembra niente, ma la massa di questi mozziconi è grandissima. Ogni sigaretta pesa un grammo, il mozzicone pesa da 0,2 a 0,4 grammi e il peso di tutti i mozziconi di tutte le sigarette fumate nel mondo ogni anno ammonta a oltre un milione di tonnellate. I mozziconi dei circa 80 milioni di chilogrammi di sigarette fumate in Italia ogni anno hanno un peso di oltre 20 mila tonnellate, poche rispetto ai quasi 35 milioni di tonnellate dei rifiuti solidi urbani, ma moltissime se si pensa al potenziale inquinante di tali mozziconi, dispersi dovunque.

I mozziconi sono costituiti in gran parte dal filtro, un insieme di fibre di acetato di cellulosa disposte in modo da offrire un ostacolo alle sostanze trascinate dal fumo delle sigarette verso la bocca e i polmoni dei fumatori. Se si osserva il filtro di un mozzicone, si vede che ha assunto un colore bruno, dovuto alle sostanze trattenute, principalmente nicotina e un insieme di composti che rientrano nel nome generico di “catrame”: metalli tossici fra cui cadmio, piombo, arsenico e anche il polonio radioattivo che erano originariamente presenti nelle foglie del tabacco, residui di pesticidi usati nella coltivazione tabacco e i pericolosissimi idrocarburi aromatici policiclici, alcuni altamente cancerogeni.

fumo inquinaLa natura e la concentrazione delle sostanze presenti nei mozziconi dipendono dalla tecnologia di fabbricazione delle sigarette che le industrie modificano continuamente per renderle più gradite ai consumatori; la natura di molti additivi e ingredienti è tenuta gelosamente segreta, il che non facilita la conoscenza e la limitazione dell’effetto inquinante dei mozziconi abbandonati. Il disturbo ambientale dei mozziconi delle sigarette viene anche dall’acetato di cellulosa del filtro, una sostanza che nelle acque si decompone soltanto dopo alcuni anni, tanto che alcune società cercano di proporre sigarette con filtri “biodegradabili”, il che farebbe sparire rapidamente alla vista i mozziconi, ma lascerebbe inalterate in circolazione le sostanze tossiche che il filtro contiene.

Proviamo a seguire il cammino di un mozzicone di sigaretta. I mozziconi delle sigarette fumate in casa o nei locali chiusi, in genere finiscono nella spazzatura, ma quelli delle sigarette fumate all’aperto o in automobile finiscono direttamente nelle strade e quindi nell’ambiente. I fumatori più attenti, si fa per dire, all’ecologia hanno cura di schiacciare con il piede il mozzicone buttato per terra, per spegnerlo del tutto ma anche credendo di diminuirne il disturbo ambientale; avviene invece esattamente il contrario: il mozzicone spiaccicato spande tutto intorno per terra le fibre del filtro con il loro carico di sostanze tossiche e il residuo di tabacco che è ancora attaccato al filtro. Alla prima pioggia queste sostanze vengono trascinate nel suolo o per terra e da qui allo scarico delle fogne e da qui in qualche fiume o lago o nel mare. Le fibre del filtro galleggiano e vengono rigettate sulle coste dal moto del mare; a molti lettori sarà capitato di fare il bagno nel mare e di dover spostare fastidiosi mozziconi galleggianti.330px-Cyprinus_carpio_smoking

Nel contatto con l’acqua le sostanze che il filtro contiene si disperdono o si disciolgono e possono venire a contatto con gli organismi acquatici. Si sta sviluppando tutta una biologia e tossicologia delle interazioni fra i componenti dei mozziconi di sigarette e la vita acquatica, specialmente di alghe e altri microrganismi. Rilevanti effetti tossici sono dovuti alla stessa nicotina e non meraviglia perché la nicotina è stata usata come un antiparassitario proprio per la sua tossicità verso molti organismi viventi. La nuova legge raccomanda la diffusione di posacenere, ma anche così i veleni dei mozziconi non scompaiono: i loro effetti tossici continuano anche se finiscono nelle discariche o negli impianti di trattamento dei rifiuti. C’è bisogno di molta ricerca chimica sui mozziconi di sigarette, ma soprattutto c’è bisogno che le persone fumino di meno: ne trarrà vantaggio il loro corpo e il corpo comune di tutti noi, l’ambiente, le acque, il mare.

Juvenile_red_billed_gull_smoking

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

“L’Universo è fatto di storie non di atomi”.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Zitto e calcola!” frase attribuita a R. Feynman.

L’atomo sembrerebbe non avere più segreti per noi chimici; tuttavia è certo che comprenderne le proprietà non è banale e soprattutto illustrarle a chi non è chimico appare complesso e spesso tortuoso; in certi casi sembra quasi una “storia” ma nel senso deteriore, una invenzione del tutto incredibile, una velina ministeriale, quasi.

La natura elettrica della materia è un aspetto relativamente facile da accettare, dato che le proprietà elettriche sono facili da sperimentare, anche con carta e penna; chi non ha mai giocato almeno da bambino con una penna strusciata forte sul maglione e capace così di attrarre un pezzetto di carta?

Esperimenti di questo tipo, vecchi di millenni (ηλεκτρον-elektron è il nome greco dell’ambra) hanno aiutato a costruire il modello dell’elettricità positiva e negativa o meglio vitrea e resinosa per usare i nomi proposti qualche secolo fa da Charles François de Cisternay du Fay, sovraintendente dei giardini del Re di Francia (Volume 38 of the Philosophical Transactions of the Royal Society in 1734) segno che nella materia coesistono parti che si attraggono; per cui accettare la natura dell’atomo come composita, fatta di particelle di segno opposto è semplice.

muone1Più complesso capire “come” stanno insieme; da questo punto di vista tutti hanno sentito parlare dell’esperimento con cui Rutheford falsificò il modello a goccia di Thomson; l’esperimento fu condotto da Geiger e Marsden nel 1909 sotto la direzione più o meno informale di Rutheford (si favoleggia che abbiano interagito esclusivamente in corridoio) che interpretò poi i risultati in un lavoro del 1911 che invalidava definitivamente il modello a panettone (plum pudding model)

muone2The Scattering of α and β Particles by Matter and the Structure of the Atom”

Philosophical Magazine, Series 6, vol. 21, 1911, pp. 669–688.

Trovò che all’incirca una particella su 8000 veniva deflessa ad un angolo di oltre 90°.

« Fu l’evento più incredibile mai successomi in vita mia. Era quasi incredibile quanto lo sarebbe stato sparare un proiettile da 15 pollici a un foglio di carta velina e vederlo tornare indietro e colpirti. Pensandoci, ho capito che questa diffusione all’indietro doveva essere il risultato di una sola collisione e quando feci il calcolo vidi che era impossibile ottenere qualcosa di quell’ordine di grandezza a meno di considerare un sistema nel quale la maggior parte della massa dell’atomo fosse concentrata in un nucleo molto piccolo. Fu allora che ebbi l’idea di un atomo con un piccolissimo centro massiccio e carico. »”

citato da David C. Cassidy, Gerald James Holton, Gerald Holton, Floyd James Rutherford, (2002) Understanding Physics Harvard Project Physics Published by Birkhäuser, p. 632

L’idea del sistema solare non venne a Rutheford, ma appena pochi anni dopo a Bohr nel tentativo di spiegare le proprietà dell’atomo.

Di fatto il numero trovato da Rutheford, Geiger e Marsden chiariva che l’atomo di oro le cui dimensioni si stimavano in 1.5×10-10 m (150picometri) era occupato al centro da una zona molto densa e di carica positiva con un raggio che è immediato calcolare in al massimo 9×10-13 m (0.9 picometri o 900 femtometri); ma facendo qualche conto più esatto sulla frazione di particelle deviate e sull’angolo e sulle forze di Coulomb agenti su di esse ed applicando la conservazione dell’energia, Rutheford ridusse il raggio ulteriormente a circa 30 volte di meno, 3×10-14m (30 femtometri).

Negli anni successivi si svolse un dramma collettivo che mandò in soffitta la meccanica classica e tirò fuori dal cappello del mago il coniglio quantistico, un animale così strano che perfino chi partecipò fin dall’inizio alla sua estrazione si rifutava di crederci.

I conigli saltano, il coniglio quantistico fa ben di più.

La conclusione fu la cosiddetta interpretazione di Copenaghen a sua volta spesso riassunta nella frase attribuita a Feynman che reciterebbe:” Zitto e calcola!”.

muone3http://scitation.aip.org/content/aip/magazine/physicstoday/article/57/5/10.1063/1.1768652   Physics Today Could feynman have said this? N. David Mermin

Physics Today 57(5), 10 (2004); doi: 10.1063/1.1768652

La interpretazione di Copenaghen è una delle possibili interpretazioni ed è basata nel modo seguente(da Wikipedia)

Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. In meccanica quantistica i risultati delle misurazioni di variabili coniugate (ossia quelle che si trovano nelle relazioni di indeterminazione di Heisenberg) sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l’esperimento stesso influenza il risultato.

Sono prive di senso domande come: «Dov’era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L’atto della misurazione causa il «collasso della funzione d’onda», nel senso che quest’ultima è costretta dal processo di misurazione ad assumere uno dei valori permessi, secondo una probabilità verificabile solo attraverso più misurazioni.

Quindi il gatto di Schroedinger è “vivo e morto” e non “vivo o morto”, fino a che non apriamo la scatola.

Questo tipo di approccio mi ha sempre lasciato molto freddo e personalmente mi ritengo un supporter del punto di vista di Bohm.

Il senso della questione la abbiamo già discusso in un post precedente , ma lo riassumo qui.

La matematica della MQ, dimostrata oltre ogni ragionevole dubbio da Bell, un irlandese geniale e testata sperimentalmente anch’essa oltre ogni dubbio attuale corrisponde a dire: ci sono tre concetti del senso comune che non potete accettare TUTTI INSIEME, dovete rinunciare ad uno di essi:

  • il principio di realtà: le cose ci sono anche se non le guardo
  • la località, ossia se una cosa avviene qui e adesso non può essere influenzata da ciò che sta avvenendo in questo medesimo istante molto lontano, più lontano di dove un segnale luminoso può giungere in tempo utile
  • il comportamento prevedibile della Natura; non è capriccioso e imprevedibile, ma in realtà lo è, se non in media; tutto può succedere anche se solo in minima percentuale di casi.

Sto semplificando all’eccesso, se avete dubbi leggetevi il post cui ho fatto riferimento prima.

L’interpretazione di Copenaghen rinuncia al principio di realtà; è quello che si definirebbe una interpretazione neopositivista, ossia i fenomeni della MQ che è la scienza di base della materia corrispondono a risultati di esperimenti, non necessariamente a oggetti “materiali” con proprietà intrinseche; in altre parole la Scienza non ci dice come sono fatte le cose del mondo, MA come è fatta la nostra conoscenza delle cose del mondo. Al di fuori dell’esperimento e dei suoi risultati non c’è altro: zitto e calcola!

L’approccio di Bohm è diverso; consiste nel rinunciare alla località, l’atomo è infinito; l’idea parte dall’esperimento di Davisson e Germer, quello della interferenza degli elettroni in una doppia fenditura, che Bohm e de Broglie interpretarono come fenomeno quantistico per il quale ogni tipo di particella è associata a un’onda che ne guida il moto (da cui il termine onda pilota) e che è responsabile del fenomeno di interferenza osservato. Matematicamente tale onda pilota è descritta dalla classica funzione d’onda della meccanica quantistica, corretta da un fattore che rende conto dell’influenza sul moto della particella. L’onda pilota, nel governare il moto della particella, evolve in accordo con l’equazione di Schrödinger. Diversamente dall’interpretazione a molti mondi, l’interpretazione di Bohm non implica che l’universo si separi quando viene effettuata una misura, e diversamente dall’interpretazione di Copenaghen è sia oggettiva che deterministica. Essa afferma che l’universo evolve uniformemente nel tempo, senza collasso delle funzioni d’onda.

muone4Quando usate un programmino come Atom in a box, vi viene mostrata la funzione d’onda in falsi colori con tanto di fase dell’onda ed evoluzione nel tempo; tuttavia è da chiarire che nella visione ortodossa di Bohr una rappresentazione del genere è del tutto fuori luogo. Infatti voi non avete alcuna certezza di cosa avvenga nel vostro sistema se non quando fate una misura su di esso; dunque l’idea implicita in quel programma e in molti altri, che è di fatto l’idea di realtà indipendente, l’ipotesi del realismo, che il vostro sistema esista senza la misura e che evolva in quel modo descritto istante per istante e che se voi faceste una misura in quel momento avreste quel risultato è del tutto ipotetica e probabilistica.

Di fatto il vostro atomo descritto con ricchezza di dettagli esiste solo quando ci fate una misura sopra e la sua descrizione è valida solo nel momento in cui la fate; in quel momento la funzione d’onda collasserà in uno degli stati possibili; dopo aver fatto parecchie misure potrete verificare che la distribuzione di probabilità ottenuta è quella attesa; di più nessuno PUO’ sapere; badate, NESSUNO vuol dire nemmeno il padreterno (per chi ci crede).

Torniamo al punto di partenza; come sono messe le cariche nell’atomo? Di solito si dice che quelle positive sono nel nucleo, tenute insieme in qualche modo, dall’effetto dei neutroni per esempio (falso: in effetti sia i neutroni che i protoni sono soggetti alla cosiddetta forza forte che a breve distanza sovrasta quelle elettriche, ma certo diluire le repulsioni fra protoni è utile) e quelle negative “orbitano” attorno muovendosi non su orbite precise ma nel modo descritto dagli orbitali, che sono delle funzioni matematiche il cui quadrato ci consente di calcolare la densità di probabilità. (Orbitano il piffero! Provate a tenere ferma un’onda! Si, si può fare ma è complicato.)

Ma appunto questo non può essere provato: quelle funzioni possono solo aiutarci a prevedere su base statistica il risultato di specifiche “misure”, interazioni che danno su base statistica un risultato compatibile con la funzione stessa, al momento della misura.

Ma cosa facciano le cariche mentre noi non facciamo misure non possiamo saperlo; anzi non abbiamo nemmeno il diritto di chiederlo: zitti e calcolate!

C’è un verso molto “ficcante” di una quasi sconosciuta poetessa americana, Muriel Rukeyser (1913-1980)

muon10Muriel, è stata una attivista politica, ma anche convinta che non bisogna separare scienza e umanesimo; per questo motivo ha scritto varie autobiografie di scienziati e matematici americani; fra gli altri pensate di J.W. Gibbs, il fondatore della termodinamica. (M. Rukeyser, Willard Gibbs: American Genius, (Woodbridge, CT: Ox Bow Press, 1988 [1942]). ISBN 0-918024-57-9 ) Gli aveva anche dedicato un poema nel 1930 (“Gibbs”, incluso in A Turning Wind, 1939). Ebbene in un poema del 1968 (The speed of darkness)) Muriel ha scritto:

“The Universe is made of stories, not of atoms.”

 volendo sottolineare con questa frase la sua lotta politica contro le armi nucleari e il loro uso, contro la guerra. Ma una riflessione simile potrei farla anche io pensando al perchè ho spinto e sgomitato per fare questo blog: raccontare storie per raccontare gli atomi.

In un certo senso quando noi presentiamo gli atomi, facciamo questo; raccontiamo storie; immaginate quale validità possa avere portare questi astrusi concetti della MQ parlando di orbitali a studenti anche del primo anno di università? Figuriamoci prima! Gli atomi che raccontiamo sono storie, perchè non supportati da una base di matematica sufficientemente ampia e robusta; meglio invece partire dai fatti, dagli esperimenti che giustificano gli atomi e le loro proprietà, gli atomi non come storie, ma come modello che deve nascere dal lavoro sperimentale, dalle ipotesi degli studenti. Se no gli atomi diventano storie nel senso deteriore, raccontini, favole, che però sfigurano rispetto alle vere grandi favole, che so come quelle di Torquato Tasso, ma con l’aggravante che Tasso scriveva meglio di quanto noi si possa mai sperare di raccontare gli atomi.

Ci sono però dei fenomeni molto, molto interessanti che aiutano a gettare luce sulle cose; uno di questi fenomeni che vorrei raccontarvi oggi è l’atomo muonico.

Di cosa si tratta?

L’atomo di idrogeno è l’atomo più semplice, un solo protone attorno a cui “orbita” un solo elettrone; le sue dimensioni sono le più piccole possibili fra tutti gli atomi; nel 1964 Slater pubblicò una serie di valori dei raggi atomici illustrati qui sotto ed ottenuti con i raggi X ; si tratta di raggi atomici misurati allo stato solido.

Il raggio dell’idrogeno solido è circa 25 picometri. In effetti quello stimato modernamente per la molecola di H2 gassosa è di 31 picometri. Questo raggio è circa la metà di quello calcolato per un atomo “libero” da legami nel vuoto. Infatti il cosiddetto raggio di Bohr, calcolato in modo semiclassico ma coincidente con quello che segna il massimo di densità della funzione 1s è dimuone5

ossia 0.53 angstroms

muone6

J.C. Slater J. Chem. Phys. 41, 3199 (1964)

Queste differenze sono comprensibili in quanto sia nella molecola di idrogeno che nel cristallo di idrogeno solido le forze agenti sono tali da costringere lo spazio occupato dalle due particelle che sono attratte da quelle circostanti. E’ un po’ quel che succede quando si confrontano i valori di volume molare di un liquido e del suo covolume (ossia il volume da sottrarre a quello gassoso totale per far tornare valida l’equazione di stato del gas ideale). Se andate a cercare i dati l’acqua liquida a t ambiente ha un volume molare di circa 18 cm3, ma il covolume dell’acqua è di ben 30 cm3. In altre parole i volumi di atomi e molecole non sono fissi, la molecola di acqua gassosa si espande quando le altre molecole non la stringono da vicino! L’idea che si possano trattare come sfere rigide tenute da molle sarà comoda per i conti ma non corrisponde alla realtà; gli atomi e le molecole sono “soffici”, come si conviene a oggetti ondulatori e compressibili, spugnosi.

Torniamo al caso dell’atomo muonico; chi ha letto il nostro post sulla fisica delle particelle elementari ricorderà che nel modello standard gli elettroni fanno parte di un gruppo di 6 particelle denominate leptoni, di cui fanno parte anche altre particelle: i muoni.

muone7Un muone è oltre 200 volte (207 per la precisione) più pesante dell’elettrone, ma è dotato di proprietà analoghe: stessa carica elettrica e stessa capacità di interagire con i fotoni.

Per questo motivo è possibile sostituire un elettrone con un muone; l’unico problema è che il muone è instabile e può degradarsi spontaneamente in altro; tuttavia la sostituzione regge per il tempo necessario a farci qualche “misura” e quindi la MQ considera tale sostituzione una interessante possibilità.

Si ottiene un atomo che contiene un muone al posto di un elettrone e si può fare questo con l’idrogeno ma anche con l’elio o con altri atomi. Le conseguenze sono interessanti e per molti versi inaspettate. Per esempio l’elio muonico si comporta come un idrogeno elettronico, il muone non collabora bene; perchè?

Il raggio di Bohr è una sorta di costante che si ritrova anche nella MQ rigorosa e che può servire a fare la cosiddetta adimensionalizzazione; ossia dividete tutte le distanze per questo valore, una sorta di unità di misura e le soluzioni diventano più semplici ed eleganti. Ma guardate con attenzione:

muone5

adesso a denominatore avete una massa me 207 volte maggiore e quindi il raggio di Bohr dell’idrogeno muonico è 207 volte inferiore: 25/207=0.12 picometri, ossia 120 femtometri, che è poco maggiore della stima di Rutheford per il nucleo di oro (30 femtometri); adesso l’atomo di idrogeno muonico è veramente piccolo, 207 volte più piccolo dell’idrogeno normale, ma ne conserva le proprietà, almeno in parte, se ne può fare spettroscopia, per esempio.

In effetti il nucleo dell’idrogeno è un protone isolato, il cui raggio è stimato attorno a 0.9 femtometri, ossia circa un 1% del raggio di Bohr per l’idrogeno muonico. E qui succede una cosa inaspettata, che succedeva già nell’atomo normale ma era troppo piccola per curarsene.

La funzione d’onda è definita anche “dentro” il volume del nucleo, non solo fuori di esso, le due funzioni d’onda di protone e elettrone o muone coprono medesime zone di spazio fisico; in particolare l’elettrone e il muone sono definiti anche “dentro” il volume del protone centrale; ma succede che quando sono uno “dentro” l’altro la forza di attrazione fra i due è minore. E’ una cosa che succede anche con la gravità e che avete studiato al liceo o al primo anno di fisica: in una ipotetica Terra parzialmente cava ma con la stessa massa, la forza di atttrazione diminuirebbe, in quanto un oggetto sarebbe attratto verso il centro di tutto ciò che è “sotto” di esso, ma anche verso l’esterno da tutto ciò che è “sopra” di esso, dalla massa restante; ed è ciò che accade in questo caso.

muone8Con l’elettrone la percentuale di funzione d’onda interna al protone è troppo piccola per farci caso, ma col muone le cose sono diverse e la spettroscopia dell’idrogeno muonico ne risente; anzi si può ricavare un nuovo raggio del protone dalla spettroscopia dell’idrogeno muonico; e questa spettroscopia, laser molto precisa conduce ad una scoperta inaspettata: il protone è più piccolo di quanto misurato finora e di un bel pò, il 4% (0.84 rispetto a 0.88 femtometri): si tratta del proton radius puzzle, una questione mica da ridere perchè mette in questione a partire dalla chimica muonica nientemeno che sua eccellenza il modello standard. O è sbagliata la spettroscopia dell’idrogeno, conosciuta da oltre un secolo, oppure è sbagliato il modello standard, o quanto meno incompleto, una robetta mica da ridere. Anche il protone è una spugnetta?

Voi che ne dite?

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Il muro di Trombe.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Se leggete un trattato sull’energia solare, nell’indice, alla lettera “T” trovate il nome di Trombe associato al celebre ”muro” che da lui ha preso il nome. Si tratta di una ingegnosa forma di riscaldamento solare “passivo”, differente dai sistemi che richiedono dei pannelli esterni. Trombe propose di inserire, nella parete rivolta a sud degli edifici, una grande finestra di vetro dietro la quale è posto un “muro” con una faccia nera esposta al Sole. La radiazione solare, passando attraverso la lastra di vetro, scalda la parete nera del muro e resta “intrappolata” dentro la parete sotto forma di calore; la parete calda a sua volta scalda facilmente l’aria interna delle stanze. Negli anni cinquanta del secolo scorso il “muro di Trombe” diventò famoso in tutto il mondo e ancora oggi gli edifici con riscaldamento solare “passivo”, sempre più diffusi, utilizzano lo stesso principio, magari dimenticando chi ne è stato l’inventore mezzo secolo fa.

Se andate a vedere meglio, il Felix Trombe del “muro di Trombe” era … un chimico.

felixtrombe

Félix Trombe 1906-1985

Sembra che ci sia una attrazione fatale dei chimici per l’energia solare. Se andate a vedere meglio, il Felix Trombe del “muro di Trombe” era … un chimico. Sembra che ci sia una attrazione fatale dei chimici per l’energia solare. Erano chimici Giacomo Ciamician, il noto pioniere dello studio degli effetti fotochimici dell’energia solare; Farrington Daniels, https://en.wikipedia.org/wiki/Farrington_Daniels, a cui si devono studi pionieristici sull’energia solare nell’Università di Madison, nel Wisconsin; Maria Telkes, di cui si è parlato in questo blog https://ilblogdellasci.wordpress.com/2015/06/10/anche-la-regina-del-sole-era-una-chimica/; è un chimico il nostro collega Vincenzo Balzani, altra autorità internazionale della fotochimica solare https://it.wikipedia.org/wiki/Vincenzo_Balzani; nel mio piccolo sono un chimico anch’io e come tale mi sono occupato, tanti anni fa, della costruzione di distillatori solari per ottenere acqua dolce dal mare coi l’energia solare.

Nel mio piccolo sono un chimico anch’io e come tale mi sono occupato, tanti anni fa, della costruzione di distillatori solari per ottenere acqua dolce dal mare con l’energia solare.

2015-06-07 Telkes figura 1

Università di Bologna, 1953, un distillatore solare sul tetto costruito da Giorgio Nebbia.

Felix Trombe (1906-1985) si era laureato in chimica industriale con una tesi sui metalli rari lantanidi e, dopo la laurea, per molti anni condusse ricerche di speleologia studiando e analizzando la circolazione delle acque in molte grotte fino allora inesplorate; i risultati sono raccolti in un noto “Trattato di speleologia”. Dopo il 1945 Trombe tornò ad occuparsi di metalli e, per migliorare le conoscenze sul comportamento dei metalli ad alta temperatura, costruì nel 1949 un “forno solare” della potenza di 50 kW a Mont Louis, sui Pirenei orientali, nel Sud della Francia; la cittadina in alta montagna era stata scelta perché offriva per molti mesi un cielo limpido. La radiazione solare era concentrata con un grande specchio parabolico, azionato da un meccanismo che poteva “seguire” il Sole nel suo “moto apparente” nel cielo. Nel “fuoco” dello specchio si raggiungevano temperature altissime con le quali era possibile osservare le modificazioni e le proprietà dei metalli e dei materiali senza i disturbi e le contaminazioni che si hanno nei forni tradizionali: una temperatura altissima e “pulita”.

800px-Four-solaire-odeillo-02

Forno solare di Odeillo

I successi del primo forno solare indussero le autorità francesi a finanziare la costruzione, sempre sui Pirenei, a Odeillo, di un secondo forno della potenza di 1000 kW che attrasse — erano ormai gli anni della prima crisi energetica del secolo scorso — anche l’attenzione dell’ente elettrico francese il quale abbinò al forno solare una centrale termoelettrica, chiamata Themis, che funzionò del 1982 al 1986. Funzionò male perché, anche nelle condizioni migliori, il flusso di calore proveniente dal Sole è irregolare e discontinuo, nei vari mesi dell’anno e nelle varie ore del giorno, mentre una centrale termoelettrica ha bisogno di un flusso continuo di vapore a temperatura elevata e costante. D’altra parte il calore di origine solare ad alta temperatura, non può essere “immagazzinato” in maniera soddisfacente.

I forni solari sono invece di grande utilità per la preparazione di leghe e metalli ad altissima temperatura, per reazioni chimiche speciali, da condurre al di fuori del contatto dell’aria, come del resto Trombe aveva ben intuito all’inizio delle sue ricerche; in questa direzione continuò a lavorare il laboratorio di Odeillo, anche dopo la chiusura della centrale Themis. Tanto più che nelle prove sui materiali ad altissime temperature c’è ancora moltissimo da scoprire con ricadute importanti nel campo meccanico, aeronautico ed elettronico.

Col suo lavoro con i forni solari Trombe era diventato una celebrità nel campo dell’energia solare di cui intuì la grande importanza sia nei paesi industrializzati sia in quelli emergenti. Col Sole si poteva diminuire il consumo di combustibili per il riscaldamento invernale col “muro” prima ricordato; Trombe condusse molte altre ricerche sull’energia solare; progettò distillatori solari di acqua marina per fornire acqua dolce ai paesi aridi, essiccatoi solari per le derrate alimentati deperibili, frigoriferi solari. Trombe morì nel 1985, in un periodo in cui sui mercati stavano scorrendo di nuovo fiumi di petrolio a basso prezzo — e inquinante — e l’energia solare era in declino. Non fece quindi in tempo a vedere la ripresa dell’interesse per l’energia solare sollecitata dalle nuove crisi energetiche e dai movimenti ambientalisti. Dopo il 1990 a Odeillo, accanto al grande forno solare, è stato creato un centro di informazione del pubblico, “Héliodyssée” per diffondere, specialmente fra gli studenti, le conoscenze sulle energie rinnovabili e sul Sole.

************************************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Tricochimica, chi era costei?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

Come un recente DVD prodotto da Federchimica ha tentato di dimostrare la chimica è presente in tutte le attività del nostro quotidiano per cui vivere senza chimica sarebbe impossibile. In quel DVD però il personaggio chiave indossava un pigiama che non scompariva nell’ipotesi di vivere senza chimica e non è ovviamente vero in quanto anche la materia di cui è costituito il pigiama è un prodotto della chimica. Ma c’erano altri aspetti che dimenticavano il ruolo della chimica.

Capello_umanoVorrei qui parlare della tricochimica, quel particolare settore della chimica che studia i capelli in tutti i loro aspetti: composizione e struttura, alterazioni, trattamenti. I capelli hanno un’importante funzione fisiologica ma anche un ruolo sociale e sono uno dei più potenti mezzi espressivi delle personalità. Il fusto dei capelli che emerge dal follicolo pilifero da dove nascono è costituito da tre strati la cuticola, la corteccia, il midollo. La corteccia è la parte prevalente e dona al capello le proprietà meccaniche. Il midollo è la parte più interna più ricca di melanina e dona al capello il colore.

 cheratina2

Le molecole principali dei capelli sono la cheratina, i pigmenti ed alcuni oligoelementi. La cheratina, una proteina insolubile assai poco reattiva, è diffusa negli animali superiori, dove esiste in 2 forme alfa e β presenti in specie differenti di animali (ad es.alfa nei mammiferi, β nei rettili). I pigmenti determinano il colore dei capelli. Gli oligoelementi rappresentano una componente essenziale dei sistemi proteico enzimatici, i principali sono Fe, Mg, Zn, Cu, Pb. Dentro ogni capello sono presenti migliaia di macro fibrille; ognuna delle quali è composta da migliaia di micro fibrille, ognuna delle quali è a sua volta costituita da protofibrille a loro volta costituite da 3 eliche di cheratina avvolte su se stessa. Le caratteristiche della cheratina dipendono dalla formazione di legami disolfuro mediante ossidazione dei gruppi tiolici SH di due residui di cisteina su alfa eliche adiacenti. La reazione inversa di riduzione è alla base delle permanenti dei capelli che vengono normalmente resi ondulati da lisci proprio grazie alla maggiore plasticità della cheratina a seguito della suddetta riduzione. La messa in piega li fissa poi basandosi sul processo inverso di ossidazione con acqua ossigenata che ristabilisce i ponti disolforici.

La chimica è poi alla base dell’igiene dei capelli. Gli shampoo sono costituiti da diversi tipi di tensioattivi usati in alternativa o combinati. Si tratta di molecole anfifiliche contenenti una catena idrocarburica liposolubile e capace di sciogliere i grassi ed una testa polare idrosolubile che permette di solubilizzarsi nell’acqua trascinando lo sporco legato alla catena idrofobica. Dalla presenza di parti polari e non polari si generano micelle che vengono eliminate producendo l’effetto di pulitura. A volte gli shampoo sono anche curativi: ad esempio per eliminare la forfora si utilizzano additivi a base di catrame di carbon fossile o ammidi o sali di zinco.

Altri due aspetti interessanti della chimica dei capelli riguardano i cosmetici e la salute. I composti chimici presenti nelle tinture producono spesso effetti secondari indesiderati, quali allergie, eritemi del viso, desquamazioni, pruriti.

Tra le molecole responsabili la parafenilendiammina e il resorcinolo.…….

180px-P-phenylenediamineResorcinol.svgSono emerse anche ipotesi di cancerogenicità delle tinture per capelli che in precedenza erano state contrastate sulla base di test su animali che avevano sostenuto l’innocuità di tale sostanze. E’ del 2001 invece una pubblicazione apparsa sull’International Journal of Cancer che ha riaperto la discussione sulla base di un’indagine su alcuni pazienti affetti da cancro alla vescica ed utilizzatori di tinture per capelli. Nel 2004 la Food and Drug Administration statunitense ha lanciato un allarme in questo senso sulla base anche di un altro articolo comparso sull’American Journal of Epidemiology. Da tali azioni sono derivati una richiesta del Comitato Scientifico per la sicurezza dei consumatori per ulteriori indagini al fine di definire limiti di esposizione e per un aumento degli investimenti nella ricerca cosmetica per studiare nuove formulazioni meno aggressive e più compatibili.

Per quanto riguarda la salute, i capelli sono considerati degli ottimi indicatori tanto che dalla loro analisi si ricavano informazioni preziose sull’assunzione di droghe sulla persistenza in ambienti inquinati. Ad esempio dato che la quasi totalità del piombo presente nell’organismo deriva da fonti esogene ed i capelli rappresentano la sede principale di accumulo, la sua misurazione a livello del fusto viene utilizzata come indicatore dell’intossicazione dell’individuo e come bioindicatore dell’ambiente. Peraltro quest’ultimo aspetto è stato anche affrontato per altri metalli pesanti quali Cu e Hg, considerati pericolosi per l’uomo.

************************************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Friedrich Wölher e gli albori della chimica organica di sintesi

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Quando facevo il professore di chimica fisica al secondo anno per CTF all’Università di Bologna, le prime due ore del corso le dedicavo a un breve percorso storico della scienza chimica[1] da Lavoisier all’ingresso della meccanica quantistica nella chimica. Affermavo che la nascita della chimica organica come disciplina separata dalla chimica generale e inorganica si poteva far risalire al 1828 con la sintesi di Wölher del composto organico urea a partire da due composti inorganici, anidride carbonica e ammoniaca (CO2 + 2NH3 → CO(NH2)2 + H2O).

wohler giovane

Wohler giovane

In realtà le cose andarono in maniera diversa, anche se la sintesi dell’urea è proprio dovuta a Wölher, prima come sottoprodotto dell’interconversione del cianato d’ammonio per reazione fra cianogeno e ammoniaca liquida, poi per azione dell’acido cianico sull’ammoniaca e anche per reazione fra soluzioni di cianato d’argento e cloruro di ammonio o cianato di piombo e ammoniaca. Tutto ciò è descritto in dettaglio, insieme alla caratterizzazione della sostanza ottenuta nell’articolo del 1828 [1]. C’è poi chi sostiene che il primo composto organico a essere sintetizzato non fu l’urea, bensì l’acido ossalico quattro anni prima sempre da Wölher. L’articolo del 1828 infatti inizia così:

“In una breve comunicazione precedente, pubblicata nel Volume III degli [di questi] Annalen, ho affermato che dall’azione del cianogeno sull’ammoniaca liquida, oltre a numerosi altri prodotti, si ottengono acido ossalico e una sostanza bianca cristallizzabile, che non è certamente cianato di ammonio, ma che si ottiene sempre quando si cerca di preparare il cianato di ammonio combinando acido cianico con ammoniaca…. Il fatto che… queste sostanze sembrano cambiare la loro natura, e dare origine a un corpo diverso, ha attirato di nuovo la mia attenzione su questo argomento, e la ricerca ha dato il risultato inaspettato che dalla combinazione di acido cianico con ammoniaca si forma urea… un fatto notevole in quanto fornisce un esempio di produzione artificiale di una cosiddetta sostanza animale organica, a partire da materiali inorganici.” [1].

Va ricordato che al principio degli anni ’20 del XIX secolo era ancora dominante il vitalismo, teoria secondo la quale le sostanze organiche si distinguevano da quelle inorganiche perché esse potevano formarsi solo nelle piante e negli animali, in virtù di una forza vitale (la vis vitalis) posseduta solo dai viventi. Sicché il numero di composti organici noto all’epoca era limitato, perlopiù ricavati da prodotti vegetali. A J.J. Berzelius[2] si deve la denominazione “chimica organica” al posto di “chimica dei corpi organizzati”, ancora in uso nel primo decennio dell’800, nonostante ciò Berzelius fu fautore e sostenitore dell’ipotesi vitalista.

berzelius

J.J. Berzelius (1779-1848)

Il mito da sfatare è però quello per cui la chimica organica iniziò a svilupparsi (abbandonando il vitalismo) subito dopo il lavoro di Wölher. Anzitutto, nonostante le evidenze riportate da Wölher, il fatto che il cianato d’ammonio abbia la stessa composizione percentuale elementare dell’urea lasciava adito a dubbi come pure l’origine totalmente inorganica delle sostanze reagenti. Riportiamo al proposito una brevissima biografia di Wölher.

Friedrich Wölher (1800-1882) si appassionò alla chimica quando era ancora studente di medicina, in un laboratorio improvvisato e senza una guida intraprese una sperimentazione sui derivati del cianogeno, riuscendo a ottenere, indipendentemente da Davy, lo ioduro di cianogeno e il solfocianato di mercurio. Nel 1823 terminò con successo gli studi di medicina all’Università di Heidelberg. Qui, per il suo interesse alla chimica, fu notato da L. Gmelin[3] che lo raccomandò a Berzelius. Wölher si recò quindi da Berzelius a Stoccolma e lavorò per un anno sotto la guida del Maestro di cui subì il fascino. Tornato in Germania, lavorò per molti anni a Berlino poi a Kassel infine, nel 1836, fu chiamato alla Cattedra di Chimica dell’Università di Göttingen, dove restò fino alla morte. Tuttavia le ricerche di Wölher furono orientate più che alla chimica organica a quella inorganica, ottenne l’alluminio, il boro e il silicio grafitoide. [2, p. 176]

Se la seguente frase attribuita a Wölher e diretta a Berzelius:

“Non posso, per così dire, tenere acqua in bocca e devo dirvi che posso ottenere urea senza bisogno di reni, o comunque, di qualsiasi altra parte animale, sia essa umana o di cane” https://en.wikipedia.org/wiki/W%C3%B6hler_synthesis

trovasse un riscontro bibliografico certo, dovremmo dire che Wölher era ben consapevole dell’importanza della sua scoperta, ritenuta da molti “accidentale”[4].

OLYMPUS DIGITAL CAMERA

OLYMPUS DIGITAL CAMERA

Anche il suo contemporaneo, Justus Liebig[5] non abbandonò subito il vitalismo, la cui decaduta iniziò solo fra il 1843 e il 1845 con i lavori di Hermann Kolbe[6] sulla reazione fra solfuro di carbonio e cloro. In diverse tappe, da questi reagenti Kolbe ottenne acido acetico. In effetti la reazione di Kolbe è il primo esempio di sintesi totale di un composto organico.

Kolbe

A.W.H. Kolbe (1818-1884)

La fase finale della reazione è:

Cl2C=CCl2 + 2H2O + Cl2 → 3HCl + Cl3C-COOH → CH3COOH

Ma il tetracloroetilene si ottiene dal tetracloruro di carbonio, il quale a sua volta si forma per alogenazione del solfuro di carbonio e quest’ultimo si può preparare per combinazione diretta degli elementi [2, p.178]. Questa è una dimostrazione inequivocabile che un composto organico può essere ottenuto dai suoi elementi costitutivi senza l’intermediazione di un organismo vivente. Gli anni successivi al 1845 videro il crollo definitivo del vitalismo e, come tutti sanno, furono sintetizzate moltissime sostanze organiche anche non contenute nei viventi. Nel 1859 A.F. Kekulé[7] poté affermare: “Noi definiamo chimica organica la chimica dei composti del Carbonio” [3].

A tutt’oggi i composti organici noti sono più di 10 milioni e il loro numero continua ad aumentare grazie al lavoro dei chimici organici sintetisti che, lasciatemelo dire, sono rimasti veri chimici, lavorano in laboratorio usando le mani e la vetreria oltre che la testa.

Riferimenti

[1] F. Wölher, “Ueber künstliche Bildung des Harnstoffs”, Annalen der Physik und Chemie, 8, 253–256, (1828); Engl. Trad: On the Artificial Production of Urea, http://www.chemteam.info/Chem-History/Wohler-article.html

[2] M. Giua, Storia della Chimica. Dall’alchimia alle dottrine moderne, Chiantore, Torino, 1946.

[3] citazione da: J.I. Solov’ev, L’Evoluzione del Pensiero Chimico. Dal ‘600 ai giorni nostri. EST, Edizioni Scientifiche e Tecniche Mondadori, Milano, 1976, p.191.

[1] Il grande filosofo Immanuel Kant (1724-1804) riferendosi alla scienza come descrizione della realtà “così come la vedono tutti gli esseri umani”, non inserisce la chimica fra le Scienze della Natura nella prima edizione (1781) di “Critica della Ragion Pura” (per Kant la matematica è la base di tutte le scienze). La inserisce però nella seconda edizione (1787) specificando tuttavia “la chimica di Lavoisier”.

[2] Jöns Jacob Berzelius (1779 – 1848), chimico svedese, considerato uno dei fondatori della chimica moderna, fu autorità pressoché indiscussa in chimica per quasi tutto il XIX secolo.

[3] Leopold Gmelin (1788-1853), professore di chimica e medicina all’Università di Heidelberg, scoprì il ferrocianuro di potassio, introdusse il saggio per la bile nelle urine (test di Gmelin), autore del ponderoso trattato Handbuch der Chemie.

[4] Non sono uno storico ma mi sento di dissentire da questa interpretazione dell’accidentalità. Un’attenta lettura del lavoro di Wölher mostra che egli stava attentamente studiando fin dal 1814 questa strana sostanza cristallina che si formava in tante reazioni con composti contenenti il gruppo CN.

[5] Justus Freiherr von Liebig (1803–1873), chimico tedesco, il cui nome è conosciuto dal grande pubblico per i “dadi da brodo”, è considerato fra i fondatori della chimica organica. Contribuì allo sviluppo della chimica agraria e biologica. Fu amico di Wölher, insieme a Poggendorf scrissero l’Handwörterbuch der reiner und angewandten chemie.Annalen

Nel 1838 affermarono: “La produzione di tutte le sostanze organiche non appartiene solo agli organismi viventi. Deve essere visto come non solo probabile, ma certo, che saremo in grado di produrle nei nostri laboratori… Naturalmente, non si sa ancora come farlo, perché non conosciamo ancora i precursori da cui nascono queste sostanze. Ma sta a noi scoprirlo.”

[6] Adolph Wilhelm Hermann Kolbe (1818 – 1884), chimico tedesco ha dato contributi fondamentali alla nascita della chimica organica moderna. Abile sperimentatore e grande teorico, coniò il termine “sintesi”, molte sintesi portano ancora il suo nome.

[7] Friedrich August Kekulé (Friedrich August Kekule von Stradonitz, 1829-1896), tedesco, è stato uno dei più importanti chimici organici del XIX secolo, noto soprattutto per i contributi teorici, in particolare la struttura esagonale del benzene e derivati.

************************************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

La chimica ha un lato oscuro?

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luciano Celi*

s200_luciano.celiCi si chiede talvolta il motivo per cui certe discipline scientifiche abbiano un’immagine pubblica così negativa. Se si pensa alla Chimica, e soprattutto al suo utilizzo come aggettivo (“questo è chimico”), lo si trova in netto contrasto con ciò che è naturale e “biologico”, quando si parla di cibo e magari di conservanti. Oppure, per trasposizione – sempre in un confronto tra naturale e artificiale – negli oggetti, per indicare un oggetto di scarso valore si dice “è di plastica” (talvolta usando il dispregiativo “plasticaccia”), un materiale meno nobile di quanto lo siano altri (legno, alluminio), ma, lo sappiamo, insostituibile e praticissimo, senza la quale probabilmente l’80-90% degli oggetti che abbiamo intorno a noi semplicemente non esisterebbero.

Eppure la Chimica ci racconta meglio di tante altre discipline com’è fatto il mondo in cui viviamo e quindi è forse utile una distinzione, pur banale, tra la teoria e la pratica, per indicare cos’è che contribuisce così pesantemente alla sua immagine negativa.

Nel nostro Paese senz’altro non è difficile pensare a quel che in molte parti della penisola è accaduto, complice una scarsa – quando non nulla – legislazione a tutela delle persone e dell’ambiente, almeno fino agli anni ’70 del secolo scorso. I nomi sono noti a tutti, ma vale la pena ripercorrere una di queste storie. Storie la cui importanza è stata tale che adesso hanno, in certi fortunati casi, un riverbero culturale, a partire da quel fortunato filone teatrale inaugurato da Marco Paolini con le sue “orazioni civili” (ricordate la storia del Vajont?).

Il caso più eclatante è forse quello dell’Acna di Cengio, con una storia centennale, messa in scena con l’orazione civile curata da Alessandro Hellmann e Andrea Pierdicca (Il fiume rubato, a questo indirizzo il promo: https://www.youtube.com/watch?v=aIUuL4DSs4s), tratto da libro scritto dallo stesso Hellmann (Cent’anni di veleno, http://www.stampalternativa.it/libri/88-7226-894-x/alessandro-hellmann/cent-anni-di-veleno.html). L’inquinamento, connesso al fiume Bormida, fu di tale entità e portata che non sfuggì, seppure en passant, alla penna attenta di Beppe Fenoglio, scrittore resistenziale, ma non solo, che proprio in un bel raccoBeppe_Fenoglio_croppednto non resistenziale, ambientato sull’Alta Langa, Un giorno di fuoco, fa dire al suo protagonista in una battuta: «Hai mai visto il Bormida? Ha l’acqua color sangue raggrumato perché porta via i rifiuti delle fabbriche di Cengio e sulle sue rive non cresce più un filo d’erba. Un’acqua più porca e avvelenata che ti mette freddo». Acqua come sangue raggrumato che è metafora potente di quel sangue, purtroppo reale, che è uscito per anni assieme alle urine degli operai della fabbrica, primo segnale di una morte imminente e ineluttabile.

La presa di coscienza della popolazione, proprio a partire da quella che dentro le fabbriche chimiche ha lavorato in quegli anni, fu forte. Leggi e regolamentazioni sono venute dopo; una vera “consapevolezza del rischio” è arrivata dal basso, con la decimazione di molte sono morte di cancro, o del “male cattivo”, come si diceva una volta.

Così «a partire dal 1968, con le lotte operaie, cominciò anche a crescere […] una contestazione ecologica operaia attraverso lotte in fabbrica per il miglioramento delle condizioni di lavoro […]. Si trattava di battersi contro le nocività dell’ambiente “all’interno” delle fabbriche […]. Varie attività produttive avevano avuto – in qualche caso per decenni – effetti gravi sulla salute dei lavoratori. Si possono citare gli esempi dell’avvelenamento dei lavoratori dell’amianto della miniera di Balangero in Piemonte, o delle operaie dello stabilimento (entrato in funzione nel 1857) di filature e tessitura dell’amianto di Grugliasco, vicino a Torino; dell’intossicazione e degli incidenti alla fabbrica di piombo tetraetile SLOI di Trento, alle fabbriche di coloranti, i danni ai lavoratori del petrolchimico di Marghera e alle fabbriche di cloruro di vinile»[1].

L’elenco, come detto, potrebbe essere lungo, come lunghe spesso sono queste situazioni al limite della follia (si pensi alla sentenza sulla fabbrica di amianto a Casale Monferrato), centrate invariabilmente sul ricatto occupazionale e su lotte che in certi casi, come quello Massa-Carrara in occasione dell’ennesimo (e definitivo – nel senso che decretò la chiusura della fabbrica) scoppio della Farmoplant, sono sfociati in una specie di rivolta popolare, garantendo alla zona apuo-versiliese il più alto tasso di tumori al seno femminili della penisola e una serie di disfunzioni croniche alla tiroide, sempre nelle donne.

Una grande lacuna legislativa fino ad anni relativamente recenti e il profitto a ogni costo, soprattutto sociale, sono di fatto le cause che hanno fatto del nostro paese un luogo deputato ai disastri ambientali, come racconta, almeno in parte, l’agile libro della ricercatrice del Cnr Gabriella Corona, Breve storia dell’ambiente in Italia, appena uscita per i tipi de “Il Mulino”.

c0925e6cover25717

«All’inizio del ‘900 il 20% delle industrie italiane era considerato insalubre e la percezione è sicuramente sottostimata. Lo smaltimento di fumi e fluidi tossici avveniva confidando nell’auto-depurazione dell’aria o nella diluizione dell’acqua, inoltre si riteneva che una barriera fisica come un muro, una ciminiera o un pozzo bastasse per mettere in sicurezza scarti nocivi e tossici», dice la ricercatrice del Cnr, e aggiunge: «La sottovalutazione proseguì al punto che nel 1999 si individuarono 57 siti inquinati di interesse nazionale, soprattutto ex aree industriali come Porto Marghera, Gela, Taranto o Orbetello».

Tutto questo ha contribuito senz’altro alla cattiva immagine della Chimica. Che in realtà è il lato oscuro degli uomini che l’hanno gestita a livello di produzione industriale.

Riferimenti.

[1] Giorgio Nebbia, La contestazione ecologica. Storia, cronache e narrazioni, La scuola di Pitagora editrice, pp. 95-96.

*Luciano Celi (1970) dopo la laurea in Filosofia della Scienza all’Università di Pisa, ha conseguito un primo master in Comunicazione della Scienza alla Sissa di Trieste (a.a. 2002-2004) e un secondo master in Tecnologie Internet al Dipartimento di Ingegneria Informatica all’Università di Pisa (a.a. 2012). Attualmente è in congedo dal CNR, dove lavora nell’ambito della divulgazione scientifica, per il dottorato che sta svolgendo presso il Dicam (Dipartimento di Ingegneria Civile, Ambientale e Meccanica) dell’Università di Trento, con un progetto sull’Energetica. Ha fondato la casa editrice Lu::Ce.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Dai quadrati magici alla topologia molecolare. Parte 2. Cayley e Sylvester.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio della Volpe

Nella prima parte di questo post abbiamo introdotto i quadrati magici, entità a metà strada fra matematica e magia e antesignani di oggetti matematici molto complessi come le matrici e ancor più di altri oggetti apparentemente distanti come i grafi.

Nella storia della scienza è relativamente comune trovare dei concetti che si fanno strada con enorme lentezza, che per secoli giacciono in quello che potremmo definire l’inconscio conoscitivo umano e che poi di botto, in pochi decenni, acquistano un ruolo …..determinante; e mai aggettivo fu più adeguato trattandosi di matrici (e grafi).

Di più il punto di vista che definirei eurocentrico vede l’origine della cultura nel mondo e nelle tradizioni europee e quindi Grecia e mondo mediterraneo; ma la Terra, per quanto minuscola nell’Universo, è sufficientemente grande da aver ospitato altre culture e altri punti di vista; Cina e India in particolare, vantano una tradizione culturale che non ha nulla da invidiare alla “nostra”, a sua volta, non dimentichiamolo mai, specie oggi, in presenza di tensioni antiarabe notevoli, intesa come summa di quella mediterranea e medio-orientale e solo nei secoli recenti nordeuropea.

(E’ strano come mentre la percentuale dell’umanità “nordica”, anglosassone, tedesca, slava, o perfino padana vada riducendosi a meno di un quarto, la sua boria culturale e politica cresca in modo inversamente proporzionale.)

quad215Se riguardate il quadrato Lo-Shu, troverete proprio questa coesistenza apparentemente incomprensibile, ma in effetti come vedremo pregna di significati fra matrici e grafi.

C’è un altro testo cinese che probabilmente è l’antesignano delle matrici, lo Jiuzhang suanshu o 九章算术 Nove capitoli dell’arte matematica (SHEN Kangshen “The Nine Chapters on the Mathematical Art” Oxford 1999. ISBN 0-19-853936-3).

Si tratta di un testo composto nell’intervallo dal X al II secolo aC da molti diversi studiosi e basato sull’enunciazione e soluzione commentata di problemi specifici.

“Ci sono tre tipi di cereali, tre contenitori del primo, 2 del secondo e uno del terzo corrispondono a 39 misure. 2 del primo, 3 del secondo e uno del terzo ne fanno 34. E uno del primo, 2 del secondo e tre del terzo ne fanno 26. Quante misure di cereale sono contenute in ciascun contenitore di ciascun tipo.

Qui l’autore fa qualcosa di molto interessante. Egli scrive i coefficienti di un sistema di tre equazioni lineari in tre incognite sotto forma di una tavola su una lavagnetta per fare i conti.

1   2   3
2   3   2
3   1   1
26 34 39

Noi faremmo una cosa identica ma useremmo le righe invece delle colonne, ma di fatto non c’è differenza.

quad23

Una pagina di “Nove capitoli dell’arte matematica”

L’autore che, non dimentichiamolo, scrive almeno nel 200aC istruisce il lettore sulla procedura: moltiplicare la colonna di mezzo per 3 e sottrarre quella di destra quante volte è possibile; in secondo luogo sottrarre la colonna di destra quante volte si può dalla prima. Il risultato parziale è

0   0   3
4   5   2
8   1   1
39 24 39

Successivamente la colonna di sinistra è moltiplicata per 5 sottraendovi quella di centro quante volte è possibile. Risultato finale:

0   0   3
0   5   2
36   1   1
99 24 39

che corrisponde alla soluzione per il terzo tipo di cereale, noi diremmo z=99/36 o 33/12. Per retrosostituzione si possono ottenere gli altri due valori: il primo, x, è 111/12 e il secondo , y= 51/12. Questo metodo riscoperto da Gauss molti secoli dopo si chiama oggi metodo di eliminazione di Gauss, ma forse sarebbe meglio chiamarlo “cinese” o di Jiuzhang suanshu e consiste nel rendere nulli tutti gli elementi della matrice sotto (scrivendo alla cinese sopra) la diagonale principale o metodo di triangolazione

Si tratta di una delle prime applicazioni conosciute di queste tabelle di numeri che oggi chiamiamo matrici e a cui affidiamo una quantità inverosimile di applicazioni. La chimica non è stata fra le prime a trarne giovamento, ma la storia che vi racconto oggi vi farà vedere come di fatto chi ha studiato questi argomenti ha visto nella chimica una possibile applicazione e lo ha fatto intuitivamente, certo non perchè conosceva la Meccanica Quantistica.

Per noi è oggi normale usare le formule chimiche sotto forma di grafo, ossia di un insieme di linee e punti connessi; ad ogni punto diamo un nome che è l’elemento corrispondente, ma questo tipo di rappresentazione non si è sviluppata subito e non si è sviluppata in modo lineare; nel suo sviluppo hanno avuto un notevole ruolo i matematici che si occupavano di geometria ed algebra e molti, moltissimi chimici e matematici attualmente dimenticati dalla storia della chimica.

quad24

Grafo (non orientato) con 6 nodi e 5 archi

Il concetto di grafo era stato (re)-inventato da Eulero per affrontare il problema dei ponti di Königsberg; era possibile attraversare con un unico cammino i sette ponti senza tornare sui proprii passi? La risposta è no.

quad25Da quando nel 1786 Kant scrisse ne “I principi metafisici della scienza della natura” che “ogni branca delle scienze naturali contiene solo tanta scienza reale quanto il suo contenuto matematico” arrivando quindi alla inevitabile conclusione che “la chimica deve definitivamente rimanere esclusa dalle discipline conosciute come scienze naturali è passata molta acqua sotto i ponti. Ma come la chimica e la matematica hanno fatto pace? Anzi come la matematica è diventata dominante? Beh vedremo che la scelta di usare i grafi come simbolo chimico ha avuto una parte …..determinante.

quad26

Figure da Journal of Molecular Structure (Z’heochem), 185 (1989) 1-14.

quad27

quad28

una pagina del lavoro di Crum Brown 1861 (ma pubblicato solo nel 1879 a causa delle “adverse opinions”) e che propose l’uso delle moderne formule chimiche, i grafi chimici, senza però sospettarne le proprietà matematiche.

Crum Brown 1861

Il secondo lavoro che cito oggi è parte delle opere complete di J.J. Silvester (The collected mathematical papers of J.J. Sylvester F.R.S., D.C.L., LL.D., Sc.D., Honorary Fellow of St John’s College, Cambridge; Sometime Professor at University College, London; at the University of Virginia; at the Royal Military Academy, Woolwich; at the Johns Hopkins University, Baltimore and Savilian Professor in the University of Oxford); il lavoro è comparso su Am. J. of Mathematics nel 1878 e ha titolo:

“On the application of the new atomic theory to the graphical representation of the invariants and covariants of binary quantics”.

L’autore dichiara subito: “Per nuova teoria atomica, intendo l’invezione sublime di Kekulè che sta al vecchio (corsivo dell’autore) nella medesima relazione dell’astronomia di Keplero con quella di Tolomeo o come il Sistema della Natura di Darwin sta a quello di Linneo”

La posizione di Kekulè (il quale era molto interessato all’architettura, almeno inizialmente) era stata espressa nel 1858, quasi 20 anni prima; qui occorrerebbe fare un distinguo su altri scienziati che hanno svolto un ruolo importante ma che sono stati sostanzialmente trascurati dalla storia della chimica; per esempio Butlerov;quad29 sul ruolo concettuale svolto da Butlerov, uno scienziato che era anche un marxista militante, c’è un interessante articolo su JCE del 1971 che varrebbe la pena di riconsiderare (D.F. Larder e F.F. Kluge Alexander Mikhailovich Butlerov’s Theory of Chemical Structure Volume 48, Number 5, May 1971 / 287). La sua presentazione ‘‘Einiges über die chemische Structur der Körper’’ fu pubblicata da Butlerov in Zeitschrift für Chemie und Pharmacie 4,549(1861). In questo articolo Butlerov introdusse per la prima volta il termine ‘‘struttura chimica,’’ sottolineando il punto che ciascun composto ha una ed una sola struttura.

Ma i due matematici di cui vorrei parlarvi oggi sono appunto Cayley e Sylvester, entrambi inglesi entrambi appassionati di chimica, entrambi obbligati dai casi della vita a non occuparsi professionalmente di matematica per molti anni;

quad210

Arthur Cayley,1821-1895 matematico e avvocato per 14 anni, che però pubblicò quasi 1000 articoli di matematica.

Cayley perchè la sua famiglia voleva assolutamente che facesse l’avvocato, cosa che egli fece per molti anni scrivendo nel contempo oltre trecento lavori di matematica e Sylvester perchè essendo ebreo gli fu di fatto impedito (avrebbe dovuto giurare il falso, perchè i laureati di Cambridge dovevano accettare i 39 articoli della Chiesa d’Inghilterra) di completare gli studi a Cambridge; fu comunque chiamato ad insegnare matematica in una università americana, ma dopo poco tempo ritornò in Europa poichè era contrario allo schiavismo; fece il contabile per molti anni e solo a 61 anni riuscì finalmente a diventare professore di matematica all’Università del Maryland, la John Hopkins.

quad211

J.J. Sylvester, 1814-1897 matematico, antischiavista

Cosa hanno fatto Cayley e Sylvester? In generale i loro contributi tecnici all’algebra hanno permesso il successivo sviluppo dell’algebra delle matrici su cui è fondata la chimica moderna; ma essi hanno fatto molto di più.

Come racconta Rouvray nel suo articolo, Cayley fu il primo ad impiegare funzioni matematiche generatrici per la generazione della struttura di isomeri. In un lavoro del 1857 Cayley sviluppa delle funzioni per enumerare i grafi ad albero con una radice, ossia grafi non ciclici in cui uno degli elementi sia indicato in modo specifico: questa è una descrizione perfetta in termini algebrici di un comune radicale alchilico non ciclico di qualunque lunghezza.

quad212

Figura da Journal of Molecular Structure (Z’heochem), 185 (1989) 1-14.

Usando questa medesima funzione egli riuscì nel 1874 ad enumerare i grafi ad albero che corrispondono alle molecole di alcano, riuscendo a prevedere quanti isomeri si possono ottenere di un alcano fino a 13 atomi di carbonio; in effetti sbagliò di qualche unità. Nel 1875 pubblicò un altro lavoro nel quale ripeteva l’analisi per atomi con massima valenza 4, 3 e 2 (gli “alberi del boro” e dell’”ossigeno”).

quad213

Tabella da Journal of Molecular Structure (Z’heochem), 185 (1989) 1-14. fra parentesi quadra il numero corretto.

I kenogrammi come li chiamava Cayley furono gli antesignani delle moderne rappresentazioni delle molecole di idrocarburi complessi.

J.J. Sylvester e Cayley furono amici e certamente si scambiarono opinioni sul problema del rapporto fra chimica e matematica.

Nei due lavori dedicati alla chimica fra i quasi 350 che Sylvester scrisse si evince quali siano le opinioni di Sylvester.

Nel breve articolo del 1878 “Chemistry and algebra”, su Nature, giornale che non aveva allora il ruolo che ha adesso, Sylvester informa i lettori di varie cose interessanti; richiama la teoria di Kekulè, che però è puramente chimica e non ha legami con la matematica, informa del primo numero di un nuovo giornale di matematica, segno del crescente ed esplosivo interesse nello sviluppo di giornali scientifici, di cui Sylvester stesso fu un importante sostenitore ed editore (in particolare American Journal of Pure and Applied Mathematics) ed infine del suo lavoro sul tema, una cui illustrazione vedete qui sotto.

Sylvester sottolinea ripetutamente i molti paralleli e contatti fra chimica e algebra e che questi contatti possano essere cercati e trovati sviluppando un opportuno formalismo matematico.

Egli fa uso per la prima volta del termine grafo chimico (chemicograph) e del termine grafo, cercando di presentare una comune notazione grafica basata sul suo lavoro sulla teoria degli invarianti. La parola grafo nel suo significato moderno, dice Rouvray, è quindi figlia esplicita del tentativo di saldare chimica ed algebra, ma credo che nessun matematico e nessun chimico lo sospetti.

Sylvester basa i suoi ragionamenti sul principio elementare della sostituzione atomica che stabilisce che in ciascuna molecola m atomi n-valenti possono essere sostituiti n atomi m-valenti. Questa idea semplice e non certo esattissima, ma comunque valida sia pure in modo approssimato e in certi ambiti lo portò a considerare che tutte le formule di struttura potessero essere rappresentate in termini di invarianti matematici di binari quantici.

Un quantico binario è una espressione polinomiale algebraica in due variabili, che è omogenea se la somma degli esponenti delle variabili è costante per tutti i termini dell’espressione

Tipicamente un polinomio del tipo:quad216mentre una invariante di tale espressione sarebbe una funzione dei coefficienti da k1 a kq che rimane costante per alcune trasformazioni delle variabili. Le trasformazioni immaginate da Sylvester erano tali che le invarianti rimanessero costanti per le sostituzioni del tipo considerato nel principio elementare prima enunciato; esempi delle trasformazioni sono mostrati nella figura seguente, tratta dal lavoro originale.

quad214E’ ora chiaro che nonostante alcune superficiali rassomiglianze fra le invarianti di Sylvester e i grafi chimici che esse caratterizzano e nonostante la nozione di corrispondenza o perfino di isomorfismo fra i grafi chimici e le invarianti sia esatta non ci sono conseguenze immediatamente utili. Tuttavia tale concetto è stato usato in letteratura recente (si veda D.H. Rouvray, J. Comput. Chem., 8 (1987) 470)

Ma quello che rimane utile delle idee di Sylvester è più importante di questo limite; Sylvester scrive [ J.J. Sylvester, Am. J. Math., 1 (1878) 64]: “Chemical graphs for the present are to be regarded as mere translations into geometrical forms of trains of priorities and sequences having their proper habitat in the sphere of order and existing quite outside the world of space”. E più avanti “c’è un tesoro inespresso di potenziale ricchezza algebrica accumulato nei risultati ottenuti dal lungo e paziente lavoro dei nostri colleghi chimici

E questo è certamente vero; occorreva solo trovare la giusta corrispondenza.

Questi sono stati i pionieri dell’esplorazione del chemical space (da noi discusso di recente), coloro che traverso le infinità della matematica ne hanno intravisto i lontanissimi contorni.

Nel prossimo post analizzeremo i passi che hanno preceduto la moderna mathematical chemistry e il tipo di corrispondenza finalmente trovata da un altro pioniere, Harry Wiener.

Referenze.

Dedicato alla vita di Harry Wiener. Topology in Chemistry:Discrete Mathematics of Molecule, H. Rouvray and R. B. King, Editors Horwood PublishingLimited 2003

https://ia902205.us.archive.org/7/items/lecturenotesfor08frangoog/lecturenotesfor08frangoog.pdf

Journal of Molecular Structure (Z’heochem), 185 (1989) 1-14 D.H. ROUVRAY The pioneering  contribution of Cayley and Sylvester to the mathematical description of chemical structure

J.J. Sylvester Nature, 1878 p284 Chemistry and algebra (scaricato da Sci-Hub usando il doi; è una vergogna che dopo 138 anni questo lavoro sia ancora proprietà di qualcuno!!come si giustifica Nature?)

Cayley Phil. Mag. 13(1857), 172

Cayley Phil. Mag. 47(1874), 444

Cayley, Rept. Brit. Assoc. Adv. Sci. 257 (1875)

Dennis Rouvray’s “The Origins of Chemical Graph Theory” ( Mathematical Chemistry 1(1991), 1-39).

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Primo Levi: “Io che vi parlo”. Recensione.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

“Primo Levi io che vi parlo. Conversazione con Giovanni Tesio” è un libro recentemente uscito per la casa editrice Einaudi nella collana super ET. Il libro riporta le conversazioni che Giovanni Tesio registrò nella casa di Corso Re Umberto 75 a Torino, dove il chimico-scrittore trascorse praticamente tutta la sua vita dopo il rientro dalla deportazione.

Si tratta di due conversazioni registrate il 17 e 26 Gennaio e una il successivo 8 Febbraio del 1987. Sarebbero dovute servire per la scrittura di una biografia autorizzata. Che non si realizzò a causa della morte dello scrittore nell’Aprile dello stesso anno.

La lettura è certamente consigliata. Mostra aspetti dello scrittore torinese che non erano ancora completamente conosciuti o svelati. Allo stesso tempo conferma l’immagine che nei suoi libri  Levi ha dato di sé. Soprattutto degli anni della giovinezza e dell’adolescenza, anni nei quali la timidezza lo rende estremamente  impacciato soprattutto nelle relazioni con le ragazze sue coetanee, compagne di ginnasio o dell’università.

io che vi parlo

Levi parla di questo, svela anche le difficoltà nei rapporti con il padre, di carattere decisamente opposto, un bon vivant come lui stesso lo definisce e lo ricorda.

Racconta di essere sempre stato un’instancabile curioso, curioso di tutto, e di come questa curiosità lo porterà a studiare chimica che gli sembra essere la chiave migliore per le risposte che cerca. La inizia a studiare grazie ai libri che il padre, accanito lettore come lui, gli procura. Conduce esperimenti elementari con i materiali che trova in casa, per esempio la cristallizzazione di sali. Pone domande maliziose alla sua insegnante di scienze al ginnasio, per coglierla in fallo perché conosce già la chimica meglio di lei.

Nel libro si approfondiscono alcuni aspetti di  temi che troviamo in altri suoi libri, in particolare ne “Il sistema periodico” e altri episodi totalmente nuovi.

Primo_Levi

La realizzazione della a sua tesi di laurea con le difficoltà dovute alla sua condizione di ebreo, in un Italia dove erano state promulgate le leggi razziali.  Il tentativo di iniziare l’attività di produzione di soluzioni titolate insieme all’amico Alberto Salmoni  subito dopo aver conseguito la laurea, utilizzando un locale del vecchio mattatoio di Torino messo a disposizione dal padre di Alberto, che nel “Sistema periodico” non viene narrata.

Alberto Salmoni è il personaggio che nel  racconto “Stagno” viene chiamato Emilio, con cui Levi tenterà per poco tempo la strada della libera professione di chimico, prima di venire assunto nella fabbrica di smalti per fili elettrici in cui lavorerà fino al pensionamento.

Nel libro ci sono molte altre cose che Levi racconta, anche relative al suo ruolo di direttore tecnico alla Siva. Ne esce un ritratto completo con aspetti nuovi e poco conosciuti.  Si comprendono meglio anche cose molto intime che Levi fatica a elaborare a più di quarant’anni di distanza, come per esempio la scomparsa di Vanda Maestro, la donna con cui venne catturato durante la breve e sfortunata esperienza di partigiano, e che da Auschwitz non ritornò. E il particolare legame che aveva con lei.

Da notare anche la particolare  attenzione con cui Giovanni Tesio pone le domande, facendo attenzione e non risultando mai troppo invadente, cosa che permette a Levi di parlare con naturalezza.

Il libro si legge quasi d’un fiato. Una lettura a cui non si può rinunciare se si  apprezza  questo scrittore che si definiva un centauro per via della sua dualità. Un chimico ed uno scrittore.

Anzi un chimico-scrittore dove il trattino che separa i due sostantivi ci ricorda i legami tra gli atomi in una molecola nelle rappresentazioni che ci sono note.

Chiudo con una mia piccola opinione molto personale. Forse il più grande scrittore del novecento.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Gilbert Newton Lewis (1875-1946), un premio Nobel mancato? Parte 2*

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

(la prima parte di questo post è pubblicata qui)

a cura di Rinaldo Cervellati*.

in occasione del Centenario dell’articolo “The Atom and the Molecule

Uno dei successi più duraturi di Gilbert N. Lewis, oltre ai concetti di attività e fugacità, è stato quello del legame chimico come condivisione di una coppia di elettroni fra due atomi. Le strutture a punti (“strutture di Lewis”) sono ancora descritte in tutti testi elementari di chimica e le conseguenze del concetto di condivisione sono state di fondamentale importanza nello sviluppo della teoria del legame chimico. Ma andiamo con ordine.

Lewis iniziò a interessarsi di struttura atomica fin dal 1902, come si desume dai suoi appunti di lezione dove usava una rappresentazione “cubica” degli atomi (Fig. 1.)LewisNotes1902

Figura 1

Nel 1916 pubblicò sul Journal of the American Chemical Society il lungo articolo “The atom and the molecule” [1], destinato a diventare una pietra miliare nella storia della teoria del legame.

Lewis propone una rivisitazione della sua teoria dell’atomo cubico che tiene conto della “regola di Abegg” secondo la quale la somma della valenza massima negativa e quella massima positiva è frequentemente otto e comunque mai più di otto[1]. Ai vertici dei cubi non vi sono più semplici cerchietti (come nei disegni del 1902), bensì elettroni. Di particolare interesse sono i primi tre postulati che Lewis pone alla base della sua teoria:

1) In ogni atomo vi è un nocciolo interno (kernel) essenziale che rimane inalterato in tutte le usuali reazioni chimiche e possiede un eccesso di cariche positive in numero corrispondente al numero ordinale del gruppo al quale appartiene nella tavola periodica degli elementi.

2) L’atomo è costituito dal nocciolo e da un guscio (shell) [external atom] contenente elettroni negativi che, nel caso di atomo neutro, sono in numero uguale a bilanciare l’eccesso di cariche positive del nocciolo, ma il numero di elettroni nel guscio può variare fra 0 e 8 durante una trasformazione chimica.

3) L’atomo ha la tendenza a possedere nel guscio un numero pari di elettroni e specialmente a raggiungere otto elettroni normalmente sistemati ai vertici di un quadrato.” ([1], p. 768.)

Nella Fig. 2 sono mostrate le sistemazioni cubiche degli elettroni per i sette elementi del primo periodo della tavola periodica.

lewis22

Figura 2

Scrive Lewis: “Ci dobbiamo aspettare che il successivo elemento nella serie, il neon, abbia un nocciolo (kernel) con otto cariche positive e un guscio (shell) esterno costituito da otto elettroni. In un certo senso, ciò è indubbio. Infatti… un gruppo di otto elettroni nello strato esterno è estremamente stabile” ([1], p. 768).

Riguardo alle varie teorie sulla struttura atomica Lewis sostiene:

“La più interessante e suggestiva è quella proposta da Bohr e basata sulla teoria quantistica di Planck. Plank nel suo oscillatore elementare…e Bohr con il suo elettrone in movimento in un’orbita fissa[2] hanno inventato sistemi…il cui moto non produce effetti sulla carica esterna. Questo…è inconsistente con le attuali leggi dell’elettromagnetismo” ([1], p. 775).

Lewis rifiuta l’ipotesi quantistica in base alla consolidata fisica classica., .

L’articolo di Lewis entra ora nel merito delle strutture molecolari. Dopo aver brevemente trattato i composti quasi esclusivamente ionici, in cui gli ioni positivi possono essere rappresentati da un kernel senza elettroni (es. Na+ e Ca++) e gli ioni negativi da un kernel con otto elettroni (Cl, O) e trattenuti dall’attrazione elettrostatica, tratta gli alogeni presentando le possibili strutture della molecola di iodio in base alla rappresentazione cubica (Fig. 3)lewis23

Figura 3

La struttura A starebbe a rappresentare un composto ionico, la struttura B implica che un elettrone del primo atomo vada a occupare il vertice libero del secondo, ma allo stesso tempo un elettrone del secondo atomo può occupare il vertice libero del primo realizzando così la struttura simmetrica C. Lewis ragiona poi sulla polarità infatti lo iodio liquido ha carattere lievemente polare. Si può dedurre allora che fra la struttura C, perfettamente simmetrica e non polare e la struttura ionica descritta in A vi saranno infinite posizioni che rappresentano vari gradi di polarità. “In una sostanza come lo iodio liquido, non bisogna assumere che tutte le molecole siano nello stesso stato ma piuttosto che alcune siano altamente polari, alcune quasi non polari e le altre rappresentino tutte le gradazioni fra i due stati. Cloro e fluoro sono i meno polari e possono essere considerati quasi esclusivamente formati da [strutture] C.” ([1], p. 776).

Arriviamo ora al punto di maggior interesse. Scrive Lewis:

Al fine di esprimere in simboli il legame chimico suggerirei l’uso di due punti per rappresentare due elettroni che agiscono come legame di connessione fra due atomi. Quindi si può scrivere Cl2 come Cl:Cl. …Differenti spazi possono rappresentare diversi gradi di polarità…[ad es.] con i due punti vicino all’elemento più elettronegativo…H2 è meno polare perfino di Cl2. I tre principali tipi di composti dell’idrogeno possono essere quindi rappresentati da H:H, H:Cl e Na :H. …si può aggiungere a ogni simbolo un numero di punti corrispondenti al numero di elettroni nel guscio più esterno. Così possiamo scrivere:

lewis24([1], p. 777).

Lewis discute poi le strutture a punti per la formazione dello ione ammonio e dei possibili ossidi XO4 con X = Cl e S. Passa poi a considerare il doppio legame prendendo come esempio l’ossigeno e, ricordando che una caratteristica tipica del doppio legame è la sua tendenza a “rompersi”, presenta le seguenti strutture cubiche (Fig. 4):lewis25

Figura 4

che nelle strutture a punti diventano:lewis26

Ciò mostra che l’ossigeno deve esistere in modo apprezzabile nella struttura B nella quale esso può addizionarsi direttamente a altri atomi, esattamente come fa l’etilene nei composti di addizione.” ([1], p. 779).

Per quanto riguarda il triplo legame, Lewis scrive:

Prima di affrontare il triplo legame, per cui la struttura cubica non offre una semplice interpretazione desidero discutere alcune idee… Si è visto che in elementi con peso atomico inferiore al litio la coppia di elettroni forma un gruppo stabile e ci si può chiedere se in generale non si debba considerare come unità fondamentale la coppia piuttosto che il gruppo di otto. Forse la ragione principale nella scelta della struttura cubica è che questa rappresenta la disposizione con la massima simmetria cioè quella in cui gli elettroni sono alla massima distanza in modo da diminuire la repulsione colombiana” ([1], p. 779). E prosegue:

…tuttavia questo è precisamente il tipo di ragionamento a priori che si è deciso di non usare in questo lavoro, quindi quando si considerano fatti chimici noti e la loro miglior interpretazione in termini di struttura atomica, si deve essere preparati a una qualche disposizione diversa del gruppo di otto atomi. La natura di una tale disposizione è mostrata in figura 5.lewis27

Figura 5

Il cubo rappresentante l’atomo di carbonio è unito a quattro altri atomi non disegnati nella figura, legati all’atomo di carbonio ciascuno da una coppia di elettroni. Queste coppie sono rappresentate da cerchietti a tratto pieno. Assumendo ora che ciascuna coppia di elettroni abbia tendenza ad avvicinarsi… fino a occupare le posizioni indicate dai cerchietti tratteggiati, avremo un modello che è mirabilmente adatto a ritrarre tutte le caratteristiche dell’atomo di carbonio. Con la struttura cubica resta impossibile infatti rappresentare non solo il triplo legame ma anche il fenomeno del libero movimento attorno a un legame singolo, che è sempre assunto in stereochimica. D’altro canto, con gli otto elettroni disposti a coppie simmetriche rispetto al nocciolo, fornisce esattamente la rappresentazione tetraedrica che si è mostrata di grande utilità in tutta la chimica organica.

Infatti, due tetraedri, uniti da uno, due o tre vertici di ciascuna rappresentano rispettivamente il singolo, il doppio e il triplo legame. Nel primo caso una coppia di elettroni è in comune con i due atomi, nel secondo caso sono in comune due coppie, nel terzo caso tre coppie” ([1]. p. 779-780.)

A questo proposito il chimico fisico e storico della chimica, Luigi Cerruti, afferma che “…l’accoppiamento degli elettroni giustifica la configurazione tetraedrica…con un elegante passaggio dagli otto elettroni sui vertici di un cubo a quattro coppie di elettroni sugli spigoli. Con questa sola mossa…Lewis recupera l’intera tradizione strutturalistica e stereochimica della chimica organica. È questo il vero pezzo di bravura di tutta l’esposizione cui l’autore è obbligato quando affronta il triplo legame… La consapevolezza epistemologica di Lewis è evidente dal lessico usato “interpretazione”, “modello”, “ritrarre”; egualmente risalta il suo raccordo con la tradizione di pensiero dei chimici.” ([3], pp. 82-83).

Con le strutture a punti è comunque possibile rappresentare anche molecole contenenti tripli legami, Lewis riporta le possibili forme tautomere dell’acetilene, la più comune è H:C:::C:H.

L’articolo di Lewis termina con una parte in cui l’autore cerca di interpretare i colori delle sostanze in base alla struttura elettronica delle loro molecole.

I primi anni ’20 videro una rapida adozione del modello di legame chimico come condivisione di una coppia di elettroni e delle strutture di Lewis in tutti i campi della chimica. In particolare il chimico americano Irving Langmuir, tra il 1919 e il 1921, diffuse ed elaborò il modello; molti usuali termini relativi al legame chimico, come “covalente”, “guscio di valenza” e “ottetto elettronico” sono stati effettivamente introdotti da Langmuir piuttosto che da Lewis[3]. In chimica organica questa diffusione si deve principalmente agli sforzi dei chimici britannici R. Robinson, T. M. Lowry, e C.K. Ingold[4]; mentre in chimica di coordinazione, il modello di legame di Lewis è stato promosso in particolare da M.L. Huggins e da N.V. Sidgwick[5].

Lewis riprese il tema del legame nel 1923 quando ampliò e descrisse in dettaglio il suo modello in una monografia intitolata “Valence and the structure of atoms and molecules” [3]. Indubbiamente questa monografia fu scritta anche per l’irritazione di Lewis nei confronti di Langmuir che era diventato più popolare di lui nella comunità chimica.

Lewis smise di occuparsi di struttura atomica e legame chimico nel 1926, dopo i suoi vani tentativi di conciliare il suo modello con i più recenti sviluppi della meccanica quantistica. Nel 1927 infatti Walter Heitler[6] e Fritz London[7] pubblicarono il loro famoso lavoro sul legame covalente nella molecola di idrogeno come combinazioni lineari di funzioni d’onda orbitaliche monoelettroniche [4], segnando l’ingresso della meccanica quantistica in chimica. Dopo Heitler e London l’interpretazione quantistica del legame chimico e della struttura molecolare fu ripresa da Linus Pauling[8] che la ampliò e perfezionò in molti lavori e ne fece oggetto di due volumi classici: “Introduction to Quantum Chemistry” (1935, insieme a E. Bright Wilson) [5] e “The nature of chemical bond” (1939) [6].

Indubbiamente il concetto di coppia elettronica condivisa di Lewis ha influenzato le prime ricerche di Pauling visto che una copia autografata dell’articolo si trova nella collezione di documenti e scritti lasciati dallo scienziato. http://scarc.library.oregonstate.edu/coll/pauling/bond/index.html

Per tutto quanto sopra, non è dunque peregrina l’idea di Jensen secondo cui se Lewis fosse vissuto più a lungo avrebbe ottenuto il Nobel per la Chimica insieme a Linus Pauling.

corr216.3-lewispub-19160400-01-900w*Le parti tradotte (fra virgolette) sono opera e responsabilità dell’autore.

Bibliografia

[1] G.N. Lewis, The atom and the molecule, J. Am Chem. Soc., 38, 762-785 (1913)

[2] L. Cerruti, Bella e Potente. La chimica del Novecento fra scienza e società, Editori Riuniti, Torino, 2003.

[3] G.N. Lewis, Valence and The Structure of Atoms and Molecules, American Chemical Society, Book Department, The Chemical Catalog Company, Inc., New York, 1923 pp.173 pdf scaricabile: http://krishikosh.egranth.ac.in/bitstream/1/2047747/1/1322.pdf

[4] W. Heitler, F. London; Wechselwirkung neutraler Atome und homöopolare Bindung nach der Quantenmechanik, Zeitschrift für Physik, 44, 455-472 (1927). Engl. transl: Interaction between Neutral Atoms and Homopolar Binging according to Quantum Mechanics, in: H. Nettema, Quantum Chemistry. Classic Scientific Papers, World Scientific Publishing Co., 2000, pp 140-155.

[5] L. Pauling, E.B. Wilson; Introduction to Quantum Chemistry with Applications to Chemistry, McGraw-Hill, New York, 1935. Trad. ital.: Introduzione alla Meccanica Quantistica, Piccin, Padova, 1968.

[6] L. Pauling, The Nature of the Chemical Bond and the Structure of Molecules and Crystals: An Introduction to Modern Structural Chemistry, Oxford University Press, London, 1939. Trad ital.: La natura del legame chimico, Franco Angeli, Milano, 2011 (ripubblicato, tradotto in italiano la prima volta dopo la Liberazione).

 

Note.

[1] Richard Wilhelm Heinrich Abegg (1869-1910), chimico tedesco noto per la sua regola della valenza e contro valenza (oggi le chiameremmo numeri di ossidazione massimo e minimo), scoprì una delle proprietà colligative, l’abbassamento del punto di congelamento.

[2] La trilogia del lavoro di Bohr apparve su Philosophical magazine nel 1913. Nel primo articolo viene introdotta la quantizzazione del momento angolare dell’elettrone rotante attorno al nucleo, viene interpretato lo spettro dell’idrogeno e calcolato il raggio della prima orbita. Il secondo articolo riguarda gli atomi polielettronici, dove le configurazioni elettroniche vengono “aggiustate” in base alle proprietà chimiche degli elementi (N.J. Bjerrum riporta che da studente Bohr era appassionato di chimica). Nel terzo articolo il legame chimico è descritto come dovuto solo agli elettroni esterni che ruoterebbero attorno alla congiungente i due nuclei atomici.

[3] Irving Langmuir (1881-1957) chimico americano, Premio Nobel per la chimica 1932 “per i suoi lavori in chimica delle superfici”, pubblicò nel 1919 l’articolo: “The Arrangement of Electrons in Atoms and Molecules”, J. Am. Chem. Soc., 1919, 41, 868–934 in cui rielaborò, ampliò e applicò il modello e le strutture di Lewis.

[4] Robert Robinson (1886-1975), Premio Nobel 1947 “per le sue indagini sui prodotti vegetali di importanza biologica, particolarmente alcaloidi”; Thomas Martin Lowry (1874-1936), noto per la definizione di acidi e basi detta di Broensted-Lowry; Cristopher Kelk Ingold (1893-1970), pioniere della chimica fisica organica, sue le definizioni di nucleofilo ed elettrofilo e i meccanismi SN1, SN2, E1 ed E2.

[5] Maurice Loyal Huggins (1897-1981) chimico americano, fu il primo a proporre il legame a idrogeno; Nevil Vincent Sidgwick (1873-1952) chimico teorico britannico diede contributi importanti alla teoria della valenza e del legame chimico.

[6] Walter Heinrich Heitler (1904-1981), fisico tedesco, studiò fisica teorica sotto la guida di Sommerfeld e Herzfeld, quest’ultimo fu il supervisore della sua tesi di dottorato nel 1926. Herzfeld teneva anche un insegnamento di chimica fisica, la tesi di dottorato di Heitler fu di carattere chimico avendo come oggetto la teoria delle soluzioni concentrate.

[7] Fritz London (1900-1954), fisico tedesco di origine ebraica, oltre alla teoria del legame ha dato contributi fondamentali allo studio delle forze intermolecolari.

[8] Linus Carl Pauling (1901-1994) americano, chimico, biochimico, educatore, attivista per la pace, Premio Nobel per la chimica 1954 “per le sue ricerche sulla natura del legame chimico e la sua applicazione all’elucidazione della struttura di sostanze complesse”. Oltre che della chimica quantistica è considerato anche fondatore della biologia molecolare. Nel 1962 ottenne anche il Premio Nobel per la pace “per la sua campagna contro i test nucleari”.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

La Comunicazione tra batteri. 1 parte.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Annarosa Luzzatto

Non si può certo dire che i microbi abbiano mai goduto di buona fama: sin dalla loro scoperta, i batteri si sono dimostrati responsabili di gravi patologie e di epidemie catastrofiche, quindi l’umanità si è subito posto come obiettivo primario la loro eliminazione. Su questa strada, un grande successo è stato ottenuto con la scoperta degli antibiotici, ma il loro trionfo è stato di breve durata: il primo ceppo di Staphylococcus penicillino-resistente comparve già nel 1940 (1), seguito presto da molti altri, ed ora l’antibiotico-resistenza è diventato un problema globale.

Nel frattempo si è scoperto che, accanto a pericolosi germi patogeni, esistono anche batteri non patogeni che convivono pacificamente su di noi e dentro di noi, ed in alcuni casi svolgono anche funzioni essenziali al nostro benessere (2). Così, su iniziativa dei Nationa Institutes of Health (NHI) USA, nel 2007 è stato avviato il primo Human Microbiome Project (HMP)  che, in analogia con il Progetto Genoma Umano (Uman Genome Project, UGP), si è proposto di caratterizzare i microrganismi che convivono su di noi ed all’interno del nostro corpo (3). Il primo risultato, eclatante ed abbastanza inaspettato, è stata la scoperta che dentro e sopra di noi convivono più di cento milioni di cellule batteriche, dieci volte più numerose delle cellule che costituiscono il nostro stesso organismo.

A questo punto non era più possibile considerare tutti i batteri indistintamente come nemici, ma c’era bisogno di uno studio più attento, per così dire “personalizzato”, che distinguesse tra i diversi batteri e soprattutto che portasse alla comprensione di quali fattori fossero in grado di trasformare un determinato ceppo batterico, che magari aveva a lungo vissuto all’interno del corpo umano senza dare problemi, in un patogeno virulento e letale.

Già nella seconda metà degli anni ’60 era stato osservato che un il batterio luminescente Vibrio fischeri emetteva luce in vitro solo quando la sua concentrazione superava una certa soglia (4), ma all’epoca la biologia non aveva ancora gli strumenti per comprendere come i singoli batteri potessero comunicarsi a vicenda il grado di affollamento.

Quelli erano però anni rivoluzionari per la biologia, si cominciava a comprendere il meccanismo col quale il codice genetico inscritto nel DNA veniva trasferito nel citoplasma e tradotto in proteine, scoperta per la quale Jacob, Lwoff e Monod ricevettero il Nobel nel 1965 (5).

Così, una volta scoperto il Lac-Operon, è stato possibile ipotizzare un meccanismo analogo per l’attivazione del gene della Luciferasi nel batterio luminescente Vibrio fischeri: la capacità di percepire il grado di affollamento della popolazione batterica venne definito “Quorum Sensing” (QS) (6) ed il mediatore extracellulare individuato (AHL) venne denominato autoinduttore (AI). In seguito si scoprì che il Quorum sensing era presente praticamente in tutti i batteri ed anche in alcuni miceti, e ne venne descritto il meccanismo di azione nei batteri Gram-negativi e gram-positivi (7) schematicamente riportato nel riquadro.

***************************************************************************************************

RIQUADRO: cosa è il Quorum sensing (QS)?

Il Quorum sensing (QS) è la specifica sensibilità dei batteri alla loro densità di popolazione. Questa sensibilità si realizza mediante la secrezione da parte dei batteri di piccole molecole che si diffondono nell’ambiente dette Autoinduttori (AI); queste molecole vengono captate da specifici ligandi presenti nel citoplasma oppure sulla membrana dei batteri stessi e, se presenti in quantità pari o superiore ad un determinato valore soglia, fungono da attivatori e regolatori della trascrizione di geni specifici.

qs2

Fig. 1 (da https://sites.tufts.edu/quorumsensing/quorumsensing101/). Schema del meccanismo del Quorum sensing: i batteri sintetizzano l’autoinduttore che vien riconosciuto ed induce la sintesi di fattori che intervengono in diversi processi, quali la virulenza, la formazione di biofilm, la sporulazione ecc.

qs3

Fig. 2 (da: https://en.wikipedia.org/wiki/Quorum_sensing). Schema di funzionamento del QS nel batterio bioluminescente Aliivibrio fischeri: quando il batterio vive libero nel placton l’autinduttore (AHL, in rosso) è a bassa concentrazione e non induce la bioluminescenza; quando invece il batterio si trova nell’organo luminoso del clamaro gigante la sua concentrazione è elevata, quindi l’autoinduttore AHL raggiunge il DNA, si lega alla sequenza di riconoscimento (LuxBox), attiva la trascrizione dei geni per la luciferasi che produce la bioluminescenza.

qs4

Fig. 3 (da: http://www.advancedhealing.com/tag/quorum-sensing/   Stress, Biofilm and a Predisposition for GI Infections in Type O Blood Individuals, by Marcus Ettinger, May 19, 2010). Analogamente a quanto descritto per la bioluminescenza, il QS può scatenare la virulenza batterica.

qs6

Fig. 4 (Da: Bonnie L. Bassier, “Small Talk: Cell-to-Cell Communication in Bacteria”, Cell, Vol. 109, 421–424, May 17, 2002, Copyright 2002 by Cell Press).

  1. Nei batteri Gram negativi l’autoinduttore-sintetasi (LuxI) induce un AI in genere rappresentato da derivati di omoserina lattone acetilato (AHL). L’AI si lega ad un attivatore (LuxR), ed insieme attivano le sequenze geniche target.
  2. Nei batteri Gram positivi invece l’AI è in genere costituito da un oligopeptide che viene poi riconosciuto da un recettore di membrana che tramite una chinasi (H) attiva una proteina regolatrice (D) che infine attiva le sequenze geniche target.

qs7Fig. 5 (da: http://www.advancedhealing.com/tag/quorum-sensing/ Dr. Ettinger’s Biofilm Protocol for Lyme and Gut Pathogens, by Marcus Ettinger, Sep 25, 2009). Quando I batteri riescono ad aderire ad un substrato, la loro concentrazione aumenta e si attiva la produzione di un biofilm. Nel biofilm la concentrazione batterica aumenta ulteriormente, ciò favorisce la virulenza e rende il gruppo più resistente anche agli antibiotici. Infine alcuni batteri si liberano nell’ambiente circostante e producono nuove colonie batteriche aggressive.

****************************************************************************************************

A questo punto l’interesse verso il Quorum sensing cominciò ad acquistare un interesse pratico: il QS è implicato nei fenomeni di virulenza batterica? E in tal caso, in che modo agisce, ed in che modo è eventualmente possibile inibirne l’effetto?

Si è scoperto che il QS influenza numerose fasi della vita dei batteri, ed in particolare la formazione del biofilm e la virulenza (2); la ricerca di molecole che possano svolgere un ruolo di antagonista agli Autinduttori del QS è apparso quindi come una nuova interessante forma di lotta contro le malattie di origine batterica, sia nell’uomo che negli animali di allevamento, come esemplificato da Defoirdt (8). Questa nuova strategia consentirebbe di affiancare agli antibiotici uno strumento di lotta più selettivo, che potrebbe limitare la virulenza dei patogeni senza interferire coi batteri simbionti. Si avrebbe inoltre una più limitata resistenza alle cure rispetto a quella che si sviluppa contro gli antibiotici, ed anche l’antibiotico-resistenza potrebbe venir limitata.

Inibire il QS potrebbe inoltre inibire o quantomeno limitare la formazione dei biofilm, la struttura che più contribuisce alla moltiplicazione batterica. Nei biofilm i batteri si comportano quasi come organismi pluricellulari, interagendo più efficacemente tra loro, proteggendosi dagli agenti esterni e facilitando la formazione dell’antibiotico-resistenza. I biofilm poi facilitano e stabilizzano l’adesione dei batteri alle superfici, rappresentando un grosso pericolo quando si formano sulla superficie di apparati medicali da inserire nel corpo umano, come indicato in Tab.1 (10).

Tab.1. Biofilm in apparati biomedicali

qs1Dufuour, D, Vincent Leung and Céline M. Lévesque. “Bacterial biofilm: structure, function, and antimicrobial resistance Endodontic Topics, Volume 22, Issue 1, pages 2–16, first published online: 25 SEP 2012. DOI: 10.1111/j.1601-1546.2012.00277x

 

 Possiamo quindi concludere che il rapido progresso delle scienze biologiche negli ultimi decenni ha mutato radicalmente la nostra visione sui viventi in generale e sui rapporti tra noi e tutti gli altri esseri. In particolare per quel che riguarda i microorganismi, ora non li vediamo più come un insieme indistinto di esseri pericolosi da distruggere, ma cominciamo a distinguere le relazioni che i diversi microrganismi instaurano con noi, riconoscendo i potenziali pericolosi patogeni, dai simbionti innocui e da quelli utili.

Non possiamo quindi continuare a ritenere positivo combattere i batteri patogeni con armi di distruzione di massa quali gli antibiotici – dai quali del resto i batteri stessi sanno imparare a difendersi – ma dobbiamo elaborare strategie mirate contro i singoli patogeni, strategie che non danneggino troppo i simbionti.

La strada sarà ovviamente ancora lunga, ma fanno ben sperare per il futuro i rapidissimi progressi compiuti negli ultimi decenni in tutti gli ambiti delle scienze.

Bibliografia

  1. M. Demerec. Production of Staphylococcus Strains Resistant to Various Concentrations of Penicillin. Proc Natl Acad Sci U S A, v.31(1); 1945 Jan
  1. Quorum Sensing vs Quenching: a Battle with No End in Sight. Vipin Chandra Kalia Editor, Springer India 2015.
  1. http://commonfund.nih.gov/hmp/overview . Human Microbiome Project.
  1. https://www.nottingham.ac.uk/quorum/history.htm
  2. The Nobel Prize in Physiology or Medicine 1965. François Jacob, André Lwoff, Jacques Monod http://www.nobelprize.org/nobel_prizes/medicine/laureates/1965/
  3. Eberhard,et al., Structural identification of autoinducer of Photobacterium fischeri luciferase. Biochemistry, 198120 (9), pp 2444–2449
  4. Bonnie L. Bassier, “Small Talk: Cell-to-Cell Communication in Bacteria”, Cell, Vol. 109, 421–424, May 17, 2002, Copyright 2002 by Cell Press
  5. Defoirdt T (2013) Antivirulence therapy for animal production: filling an arsenal with novel weapons for sustainable disease control. PLoS Pathog 9(10):e1003603. doi:1371/journal.ppat.1003603
  6. Yung-Hua Li and Xiaolin Tian. “Quorum Sensing and Bacterial Social Interactions in Biofilms”. Sensors201212(3), 2519-2538; doi:3390/s120302519
  7. Dufuour, D, Vincent Leung and Céline M. Lévesque. “Bacterial biofilm: structure, function, and antimicrobial resistance Endodontic Topics, Volume 22,Issue 1, pages 2–16, first published online: 25 SEP 2012. DOI: 10.1111/j.1601-1546.2012.00277x

______________

 

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Ritorno alla titolazione

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

L’esperienza di ritornare a usare gli strumenti e le nozioni dell’analisi chimica di un tempo è un’esperienza recentissima. Dovuta alle indicazioni ricevute da una funzionaria dell’Arpa durante una visita per il rinnovo dell’autorizzazione allo scarico dell’impianto di depurazione dove lavoro.

Bisogna fare una piccola premessa indispensabile. Negli anni il mio lavoro in Laboratorio si è modificato. Oltre alla gestione del processo di depurazione e alle analisi chimiche necessarie per controllarlo e intervenire sulle regolazioni necessarie, si sono aggiunte attività di carattere completamente diverso. In particolare la gestione e l’archiviazione storica dei referti analitici, il rispetto di normative specifiche, la corretta gestione dei rifiuti provenienti dall’attività del laboratorio stesso. Oltre ad altre attività che spesso vengono effettuate direttamente sul campo, quali verifiche e prelievi, oppure il controllo dei parametri di gestione delle apparecchiature per il trattamento dei fanghi residui.

Per poter gestire al meglio queste attività negli anni alcune analisi di ruotine che venivano effettuate con strumenti tradizionali sono state sostituite con l’introduzione dei kit analitici.

DR3900

Questo ha permesso di poter dedicare più tempo ad altre attività vista la versatilità e la riduzione dei tempi di analisi e di quantità di campione da utilizzare.

Ma l’abitudine ad utilizzare test in cuvetta  e con reagenti dosati oltre ad un maggior costo che può venire ammortizzato se il numero di campioni è significativo, e il risparmio di tempo per eseguire l’analisi, può però provocare una sorta di oblio.

I kit analitici sono ormai diffusissimi. Ma in realtà se osserviamo le metodiche analitiche ufficiali non sono citati.

L’analisi della richiesta chimica di ossigeno, il conosciutissimo COD prevede l’uso delle tecniche secolari, e l’esecuzione di una ossidazione delle sostanze organiche e inorganiche con una soluzione di dicromato di potassio acida per aggiunta di acido solforico e catalizzata da solfato d’argento.

Il ritorno a questa metodica analitica ci è stato suggerito dalla funzionaria Arpa come condizione non restrittiva ma derivante da possibili modifiche delle normative regionali in materia, che nel futuro potrebbero prevedere anche per i controlli routinari l’utilizzo delle sole metodiche ufficiali.

Ci siamo quindi messi al lavoro e per una volta non ho dovuto rimpiangere l’età che avanza. Perché tra tutti i colleghi, essendo uno dei più anziani sia per età anagrafica che per anzianità di servizio,  sono anche uno dei pochi che ha eseguito questa analisi utilizzando le tecniche tradizionali.

Quindi preparando le soluzioni, pesando i sali per preparare i reattivi, verificando il titolo delle soluzioni preparate, e infine tornando all’utilizzo delle pipette per volumetria.

buretta-39970-3102529

Rispolverando le vecchie apparecchiature per l’ebollizione a ricadere, e titolando con le burette.

All’inizio devo confessare che la cosa mi è sembrata strana. Ma poi mi ci sono ritrovato in pieno. Perché le cose imparate molti anni fa sono tornate (forse un poco più faticosamente di una volta) alla memoria. E mi hanno sempre di più convinto che non ci si debba affidare solamente all’elettronica che pure ci ha dato una grande aiuto, o alla sola chimica analitica strumentale. Ma che occorra conservare come un retaggio da non dimenticare le tecniche che arrivano dagli albori del lavoro in laboratorio. E che prevedono tempi meno frenetici e soprattutto che non riducono il lavoro ad una serie di gesti automatici. Ma che danno il tempo di riflettere, di aguzzare la vista, di ritrovare la dote della manualità che tanto abbiamo forse qualche volta faticato a padroneggiare. Ma che una volta che hai acquisito non dimentichi più.

Mi ha anche dato una strana sensazione che non riesco a definire dover fare la chioccia a colleghi più giovani ai quali ho dovuto mostrare come si esegue l’analisi, perché non avevano avuto modo di farla se non poche volte nel loro percorso scolastico.

La riflessione finale è quella che anche nell’insegnamento, come nelle attività di lavoro non è mai troppo prudente dare per finite o obsolete le antiche tecniche di lavoro dei chimici nostri antenati. Perché quello che abbiamo per le nuove necessità cacciato dalla porta, può sempre rientrare dalla finestra. Un’altra piccola soddisfazione per un chimico dai capelli che cominciano ad ingrigire.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Noterelle di economia circolare. 5. L’olio dalle sanse

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

L’olio di oliva è uno dei pochi grassi ricavati da frutti; gli altri sono derivati da semi o da parti di animali. Le olive sono i frutti di piante coltivate nei paesi del Mediterraneo da almeno tremila anni; per ottenere l’olio, le olive sono macinate in modo da ottenere una pasta omogenea che viene poi pressata facendone colare una miscela di olio e acqua contenente circa 15-20 kg di olio per ogni 100 kg di olive: dalla spremitura restano circa 40-50 kg di un pannello umido, la sansa, contenente ancora circa 2-3 chili di olio
Il processo continua con la separazione dell’olio di pressione dall’acqua detta ”di vegetazione”, con cui è miscelato. La sansa in genere veniva buttata via, bruciata o dispersa nel terreno, anche con qualche beneficio perché contiene piccole quantità di sali potassici e l’olio che essa conteneva andata quindi perduto.
L’imprenditore pugliese Vito Cesare Boccardi (1835-1878), durante un viaggio in Germania, nel 1865, venne a conoscenza che alcune fabbriche estraevano il grasso dalle ossa mediante solfuro di carbonio.

330px-VitoCesareBoccardi
Il solfuro di carbonio è un liquido volatile, con odore sgradevole, infiammabile e tossico da respirare, che era stato ottenuto nel 1796 dal chimico tedesco Lampadius scaldando insieme pirite di ferro e carbone; si libera così un vapore facilmente condensabile di solfuro di carbonio che si rivelò subito un buon solvente dei grassi.

225px-Carbon-disulfide-2D-dimensions
I primi brevetti per l’estrazione del grasso dalle ossa sono stati assegnati al chimico francese Edouard Deiss già nel 1855. Poco dopo la ditta tedesca C.O.Heyl di Moabit, alla periferia di Berlino, estraeva con solfuro di carbonio olio dai pannelli di vari semi oleosi. Boccardi pensò di applicare il processo alle sanse di oliva per recuperare l’olio che esse contenevano, da trasformare in sapone, in un suo sansificio a Molfetta. Sorsero in breve tempo vari stabilimenti che operavano con ciclo integrale: estraevano olio dalle olive, poi recuperavano dalle sanse l’olio residuo usando come solvente il solfuro di carbonio che esse stesse producevano.
Nel 1869 con capitali francesi fu creata a Bari la “Società delle olierie (sic) e saponerie meridionali”, diretta dai signori Marius Gazagne e Sarlin; lo stabilimento, sito nella zona dell’attuale Fiera del Levante (per chi di voi è pratico di Bari), produceva solfuro di carbonio e olio di sansa. Un articolo del 1883 afferma (http://fc1.to.cnr.it/fedora/get/openbess:TO023-00478-0011/islandora:viewerSdef/getViewer) che la fabbrica produceva ogni giorno 1200 kg di solfuro di carbonio e 7000 kg di olio di sansa. Va detto che la Puglia della seconda metà dell’Ottocento stava vivendo una stagione di vivace industrializzazione e modernizzazione che attraeva capitali e dirigenti stranieri. Nel 1886 fu creata la prima Scuola Superiore universitaria di Commercio (poi Facoltà di Economia e Commercio) nella quale si svolgeva un corso triennale di chimica con laboratorio e di Merceologia.
La produzione di olio al solfuro intanto si era diffusa rapidamente; a Milazzo nel 1873 con la ditta Zirilli, in Toscana e altrove.
Si ha notizia che imprenditori pugliesi presentarono, nelle prime esposizioni merceologiche, degli apprezzati campioni di olio di sansa al solfuro da loro prodotto. Dapprima l’olio di sansa, di colore verde intenso per la clorofilla che veniva estratta insieme all’olio, era considerato non adatto ad uso alimentare e veniva impiegato per la fabbricazione del sapone, apprezzato perché, per il suo elevato contenuto di acido oleico, permetteva di ottenere dei saponi meno duri di quelli ottenuto con grassi ricchi degli acidi palmitico e stearico. L’”olio al solfuro” era oggetto di esportazione, specialmente negli Stati Uniti; un saponificio di Milwaukee, fondato nel 1864 da un tale Caleb Johnson, nel 1898 diede il nome “palmolive” al sapone, dal caratteristico colore verde, fatto con gli acidi grassi dell’olio di sansa di oliva italiano. La fabbrica fu poi assorbita dal saponificio Colgate e il nome “Palmolive” è ora marchio di fabbrica di questa multinazionale dei detergenti.

360991
Questa attività di antica economia circolare non era priva di inconvenienti: I sansifici che producevano olio al solfuro erano soggetti a esplosioni e incendi, ed erano inclusi fra le industrie a rischio di incidenti rilevanti, da localizzare fuori dalle città. Per questo motivo già agli inizi del Novecento il solfuro di carbonio fu sostituito con benzina o altri idrocarburi meno pericolosi.
Con vari perfezionamenti è stato poi possibile eliminare colore e sapori sgradevoli dall’olio di sansa e farne un olio adatto ad usi alimentari. Con successo perché già nella normativa del commercio dell’olio di oliva negli anni trenta del Novecento era prevista la vendita di olio alimentare di sansa, meno pregiato di quello di pressione e di un prezzo inferiore; l’olio di sansa poteva anche essere miscelato con l’olio di pressione nel qual caso era denominato “Olio di sansa e di oliva”. Il favore ricevuto dall’olio di sansa presso i consumatori meno abbienti spinse gli industriali dell’olio di oliva a chiedere ai vari governi di applicare all’olio di sansa una imposta di fabbricazione che ne facesse avvicinare il prezzo a quello degli oli di pressione, naturalmente con le proteste dei proprietari dei sansifici che erano in genere piccoli stabilimenti diffusi nelle zone di produzione delle olive. Un esempio dei numerosi scontri che, nella storia italiana, hanno visto contrapposti gli interessi degli industriali a quelli degli operatori nel campo dell’agricoltura.
L’olio di sansa è ancora prodotto e commerciato; le sanse esauste, dopo l’estrazione dell’olio trovano impiego come miglioratori del terreno o come, pur controvesi, combustibili, altra prova che l’economia può operare a cicli sempre più chiusi.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Test di tossicità con Daphnia Magna.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo 

a cura di Mauro Icardi e Valentina Furlan*

Per diverso tempo, cioè fino a circa la metà degli anni 80 il controllo dei reflui depurati e restituiti ai corpi idrici si è basato essenzialmente su verifiche di concentrazioni di parametri chimici, fisici e microbiologici e sul rispetto dei limiti tabellari definiti da normative specifiche. Questi controlli tradizionali continuano ovviamente ancora oggi, ed in alcuni casi i parametri limite sono stati rivisti diminuendo anche di molto il valore di concentrazione rispetto alle prime normative emanate, che in Italia si riferiscono alla legge 319/76 (Legge Merli). Legge che ancora oggi nonostante non sia più vigente è ancora ricordata e citata. La prima normativa che ha introdotto obbligatoriamente il test di tossicità acuta utilizzando il crostaceo Daphnia Magna è stata il Decreto legislativo 152/99 (testo unico sulle acque), decreto che ha preceduto l’attuale 152/2006 che è conosciuto come codice ambientale.

dafnia1La filosofia del controllo ambientale si è spostata dalla sola valutazione del rispetto di un valore di parametro fino al valutare lo stato complessivo di un corpo idrico in relazione alle attività umane che su esso impattano e quantificare gli eventuali danni che la stessa attività può provocare.

Per questa ragione si sono dovuti approntare strumenti adeguati che consistono in test eco tossicologici.

Il crostaceo Daphnia fa parte di quegli organismi definiti “indicatori”,cioè la cui risposta all’azione degli inquinanti ha un’elevata significatività.

dafnia2L’evoluzione di questo tipo di test si sta spostando anche verso l’esecuzione di test non solo di tossicità acuta ma anche cronica ovvero eseguiti per un tempo prolungato. Altra evoluzione è quella che tende a valutare la tossicità con saggi multi specie che possono essere condotti con diversi organismi (batteri,alghe,crostacei e pesci).

Dal punto di vista normativo per il controllo degli scarichi l’esecuzione del saggio di tossicità è obbligatoria anche se il risultato positivo della prova non determina l’erogazione di sanzioni ma l’obbligo di approfondimenti delle indagini analitiche.

La Daphnia magna è un piccolo crostaceo cladocero originario del Nord America ampiamente utilizzato nei laboratori per questo tipo di test fin dal 1934 quando venne usato da Einar Naumann professore svedese di botanica e limnologia.

Il saggio con Daphnia risulta essere molto sensibile soprattutto all’inquinamento da metalli pesanti (piombo, cadmio, zinco, rame ecc.). I neonati di meno di 24h vengono immessi nel campione da analizzare e dopo un periodo di tempo prestabilito (24h) si osserva la percentuale di individui sopravvissuti. I risultati possono essere espressi o come percentuale di individui morti/immobilizzati o come valore di EC50 cioè come concentrazione della sostanza tossica che determina la morte/immobilizzazione del 50% degli individui impiegati nel test.

Per quanto riguarda alcune ricadute pratiche di questo test per prima cosa si può fare riferimento alla disinfezione finale delle acque depurate. La sensibilità della Daphnia si manifesta anche nei confronti dell’ipoclorito di sodio , che è l’agente disinfettante normalmente utilizzato per abbattere la carica batterica residua nelle acque che devono essere restituite ai corpi idrici dopo il trattamento completo di depurazione. Il crostaceo è ovviamente anche sensibile alla presenza di sedimenti trascinati o fango che possa sfuggire dai sedimentatori finali . Questi materiali ne provocano l’intasamento dell’apparato bronchiale.

dafnia3In genere la parte maggiore di inquinanti che si concentrano si riscontra nei sedimenti nel caso di inquinamento di corpi fluviali, mentre nei fanghi residui vengono concentrati gli inquinanti rimossi dal trattamento depurativo. Se nell’effettuazione di un test con Daphnia si filtra o centrifuga il campione la tossicità riscontrata diminuisce sensibilmente .

Per questa ragione gli interventi di ristrutturazione e miglioramento funzionale per impianti ormai obsoleti di solito consistono in adeguamenti della sezione di trattamento terziario o in qualche caso nella costruzione ex novo di un sistema di filtrazione finale. Per quanto invece riguarda il trattamento di disinfezione può essere sufficiente sostituire l’ipoclorito di sodio con acido per acetico che mostra meno tossicità al test, oppure se esiste una sezione di filtrazione efficiente optare per la disinfezione con raggi uv.

dafnia5dafnia4

E ormai evidente come il trattamento delle acque, ma più in generale la tutela ambientale abbiano bisogno del contributo di tecnici di provenienza diversa. Questo articolo è stato pensato e scritto da un chimico ed una biologa, che però si trovano giornalmente ad affrontare problemi pratici le cui soluzioni sono state studiate e risolte dall’Ingegneria Ambientale e dalla sua evoluzione.

*Valentina Furlan è una biologa che lavora nella medesima azienda di depurazione di Mauro.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

L’acqua è un bene vitale e prezioso. Per noi e per il piccolo crostaceo che ci aiuta valutare quanto stiamo facendo e quanto dovremo continuare a fare per preservarla. Piccolo crostaceo come il gambero di fiume, da sempre associato alla purezza dell’acqua nei fiumi e che era ancora presente in quelli meno inquinati fino all’inizio dello scorso secolo. Un test di tossicità non è solo un’analisi di routine. Può rappresentare un modo per aumentare la consapevolezza e l’attenzione su un tema importante come la biodiversità e la necessità della sua protezione.

http://www.irsa.cnr.it/ShPage.php?lang=it&pag=metod

ISPRA ex APAT, IRSA-CNR (2003), Sezione 8000 –

Metodi Ecotossicologici. Manuali e Linee

Guida29/2003

In Particolare:

Metodo di valutazione della tossicità acuta con Daphnia magna (Met.

Daphnia magna ( Met. 8020, pag 993 – 1002);

 

Gilbert Newton Lewis (1875-1946), un premio Nobel mancato? Parte 1

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

LewisPortrait

G.N. Lewis (1900 ca)

Gilbert N. Lewis (Weymouth, MA 1875 – Berkeley, CA 1946) è noto a tutti quelli che hanno studiato chimica sopratutto per il concetto di acidi e basi come accettori e donatori di una coppia elettronica rispettivamente. Molto conosciuto anche per le sue rappresentazioni molecolari dette “strutture a punti e linee”. Meno noto è invece il notevole contributo dato alla termodinamica, si devono infatti a lui l’introduzione e lo sviluppo dei concetti di fugacità e attività per adattare le funzioni termodinamiche al caso dei gas e delle soluzioni “reali”. In questo post ci occuperemo in dettaglio dei suoi studi di termodinamica applicata alla chimica, campo di studi che costituì il suo primo interesse di ricerca.

Ma cominciamo dall’inizio. Lewis fu un bambino intellettivamente molto precoce, leggeva correntemente fin dall’età di tre anni; ricevette l’istruzione primaria dai suoi genitori e parenti. Ottenne il B. Sc. (Bachelor of Sciences) all’università di Harvard nel 1893. Dopo un anno di insegnamento alla Phillips Academy di Andover (MA), ritornò a Harvard, dove conseguì il dottorato nel 1899 discutendo una tesi sui potenziali elettrochimici di amalgami di zinco e cadmio[1]. Dopo un anno di insegnamento, per perfezionare gli studi di termodinamica si recò, con una borsa di studio, in Germania, dapprima a Göttingen da Walther Nernst[2] e poi a Lipsia da Wilhelm Ostwald[3]. Va subito detto che il suo rapporto con Nernst fu pessimo, si dice che fra i due nacque “un’inimicizia che durò tutta la vita” e che, come vedremo, determinò probabilmente la mancata assegnazione del Nobel.gil_lewis1910 Tornato a Harvard, fu esercitatore di laboratorio di termodinamica ed elettrochimica per tre anni. Dopo una parentesi come supervisore all’Ufficio Pesi e Misure di Manila, nel 1905 entrò a far parte dello staff del Massachusetts Institute of Technology, dove divenne assistente nel 1907, poi professore associato (1908) e infine full professor nel 1911. Nel 1912 divenne Professore di Chimica Fisica e direttore del College of Chemistry a Berkeley (University of California) dove rimase fino alla sua scomparsa. Il suo interesse per la termodinamica iniziò negli anni di Harvard e i suoi primi lavori del 1900-1901 dimostrano un’inusuale (per quei tempi) conoscenza dei lavori di J. W. Gibbs[4] e di P. Duhem[5]. Le idee di questi due scienziati sui concetti di energia libera e potenziale termodinamico erano espresse con un formalismo matematico certamente noto ai fisici, meno noto e comunque non molto utile per i chimici e per le applicazioni pratiche. In aggiunta, la formulazione della termodinamica era rigorosamente valida per sistemi ideali, privi cioè di interazioni reciproche (gas perfetto) o con interazioni supposte identiche e uniformi (soluzione ideale). Lewis si impegnò nella ricerca di “correzioni” per le deviazioni dal comportamento ideale nei sistemi lontani dall’idealità, introducendo i concetti di “attività” e “fugacità”. Tentò, senza successo, di ottenere un’espressione esatta della funzione entropia che nel 1901 non era ancora ben definita alle basse temperature. Nel periodo di Harvard Lewis scrisse anche un lavoro sulla termodinamica della radiazione di corpo nero, postulando che la luce esercitasse una pressione. Fu però scoraggiato a perseguire questa idea dai suoi colleghi più anziani e più conservatori. Nessuno si accorse che in particolare W. Wien aveva avuto successo sviluppando la stessa idea. Nel suo tentativo di trovare un’espressione generale dell’entropia, misurò i valori di entalpia e di energia libera per parecchie reazioni chimiche sia inorganiche sia organiche. Lewis fu un eccellente didatta, come professore introdusse per primo la termodinamica nei corsi di chimica al College of Chemistry di Berkeley, imitato poi in tutte le università. Si propose di presentare la termodinamica in una forma matematica accessibile ai chimici[6] e immediatamente utilizzabile nella pratica. Questo progetto si concretizzò nel 1923 con la pubblicazione, insieme a Merle Randall, del testo Thermodynamics and the Free Energy of Chemical Substances (McGraw Hill)[7], probabilmente il primo testo in cui la termodinamica chimica (classica) è formalizzata in modo rigoroso ma (relativamente) semplice.GW618H435

Nel 1907 Walther Nernst espose il suo teorema noto anche come terzo principio della termodinamica. Esso afferma che:

“La variazione di entropia che accompagna una trasformazione fisica o chimica di un sistema tende a zero quando la temperatura assoluta tende a zero”.

In forma matematica:

lim (T→0) ΔStrasf = 0

dove ΔStrasf è la variazione di entropia della trasformazione. Osservazioni sperimentali avevano infatti mostrato che la variazione di entalpia ΔH e di energia libera ΔG di una trasformazione diminuivano monotonicamente al diminuire della temperatura, quindi, poiché ΔH = ΔG + T(∂ΔG/∂T)P, al tendere di T a 0 si avrà ΔH = ΔG → 0, ma (∂ΔG/∂T)P = −ΔS, da cui per T→0, anche ΔS →0.

Lewis criticò il teorema di Nernst con toni molto aspri, molte fonti sono concordi nel riportare il seguente commento: “a regrettable episode in the history of chemistry” (un episodio deplorevole nella storia della chimica). Il commento è probabilmente estrapolato da un contesto più ampio, in base al suo teorema infatti, Nernst stimò i valori delle funzioni termodinamiche di molte sostanze a varie temperature e se ne servì per calcolare le costanti di equilibrio di molte reazioni chimiche ma queste stime si accordavano con i dati sperimentali entro un ampio margine di errore. Ad esempio per la reazione di decomposizione dell’acqua a 800 °C il valore calcolato da Nernst fu Keq = 1.32 contro il dato sperimentale di 0.93. Questo accordo fu giudicato scadente da molti, fra cui ovviamente Lewis che, a parere dello storico W.H. Copper, diede comunque credito a Nernst per il teorema deplorando però aspramente l’uso di funzioni termodinamiche stimate con esso [1].

Stime affidabili si ottennero con l’estensione di Planck al teorema di Nernst e la definizione meccanico statistica di cristallo perfetto.

Nel testo di Lewis e Randall del 1923 (nota 7) i due autori scrivono:

Se l’entropia di ogni elemento in qualche stato (perfetto) cristallino viene presa come zero allo zero assoluto della temperatura, ogni sostanza ha una entropia positiva finita; ma allo zero assoluto della temperatura l’entropia può diventare zero e lo diventa nel caso di sostanze cristalline perfette.

Lewis tuttavia in precedenza non aveva perso occasione per evidenziare pubblicamente errori di Nernst.

portrait-lewis-900w

Lewis ricevette la prima candidatura al Premio Nobel nel 1922, faceva però parte del Comitato Wilhelm Palmær, amico di Nernst, che a quanto pare fece di tutto per evitare che il premio gli fosse assegnato. Fu ancora candidato per i suoi contributi alla termodinamica e alla teoria del legame chimico nel 1924 e nel 1925 senza risultato positivo (a quanto risulta nel 1925 Arrhenius diede parere negativo). Nel 1926 fu ancora candidato e ottenne un parere favorevole da un altro chimico svedese, Theodore Svedberg, che suggerì tuttavia che a Lewis fosse attribuito il premio in un prossimo futuro, in attesa di nuovi contributi su termodinamica e legame. Ma nel 1926 Lewis aveva già abbandonato le ricerche in termodinamica e teoria del legame, così il Nobel per la Chimica 1926 fu assegnato proprio a Svedberg “per i suoi lavori sui sistemi dispersi”. Negli anni successivi le candidature di Lewis aumentarono, solo nel 1929 ne ottenne sei, quattro nel 1932. L’ultima la ricevette nel 1940. In totale ottenne 35 candidature. Secondo N. Gussmann è stato proprio il lungo rancore verso Nernst che precluse per sempre il Nobel a Lewis [2].

Oltre alla termodinamica e al legame, Gilbert N. Lewis ha dato contributi importanti in teoria della relatività (si è sempre considerato sia un chimico sia un fisico), ha isolato e caratterizzato per primo l’acqua pesante[8], insieme al suo ultimo allievo, Michael Kasha, stabilì che la fosforescenza di alcuni composti organici è dovuta all’emissione di luce da parte di un elettrone nello stato di tripletto.

Gilbert Newton Lewis è morto nel 1946 in circostanze quantomeno poco chiare [3]. Secondo W. B. Jensen se fosse vissuto più a lungo avrebbe ottenuto il Nobel per la Chimica insieme a Linus Pauling nel 1954 per il suo contributo alla teoria del legame chimico [4]. Jensen non è il solo a fare questa ipotesi, vedremo perché in un prossimo post.

Riferimenti.

[1] W.H. Copper, Great Physicists. The life and times from Galileo to Hawking, Oxford University Press, Oxford, 2001, p. 131

[2] N. Gussmann, How Not to Win the Nobel Prize, www.chemheritage.org/discover/media/periodic-tabloid/archive/2011-10-19-how-not-to-win-the-nobel-prize.aspx

[3]http://www.che.ncku.edu.tw/FacultyWeb/ChenBH/E340100%20Thermodynamics/Supplementary/Gilbert_Lewis%20Nov.%202%202011.pdf

[4] W.B. Jensen, http://www.britannica.com/biography/Gilbert-N-Lewis

Note.

[1] Il supervisore della tesi fu Theodore W. Richards, primo americano a vincere il Nobel per la Chimica nel 1914 in riconoscimento “della sua accurata determinazione del peso atomico di un gran numero di elementi chimici”.

[2] Walther Nernst, fisico tedesco (1864-1941), personaggio importantissimo per la chimica fisica (termodinamica, elettrochimica, fisica dello stato solido), Premio Nobel per la Chimica 1920 in riconoscimento “dei suoi lavori in termochimica”. Curioso il fatto che Nernst ricevette il premio 1920 nel 1921 perché il Comitato del 1920 ritenne che nessuno dei nominati avesse i requisiti in quell’anno (http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1920/index.html.)

[3] Wilhelm Ostwald, chimico russo-tedesco (1853-1931), straordinario personaggio della chimica fisica, Premio Nobel per la Chimica 1909 “per i suoi lavori sulla catalisi e per le sue ricerche sui principi fondamentali che governano gli equilibri chimici e le velocità di reazione”.

[4] Josiah Willard Gibbs, scienziato americano (1839-1903) ha dato contributi fondamentali in matematica, fisica e chimica, fondatore, insieme a Maxwell e Boltzmann, della meccanica statistica. Persona riservata e schiva pubblicò i suoi importanti lavori nelle Transactions of the Connecticut Academy, una rivista minore, fortunatamente letti da Maxwell, Helmholtz e qualche altro fra cui Einstein. Gibbs è noto agli studenti di chimica per la funzione energia libera G, o meglio ΔG, così chiamata in suo onore.

[5] Pierre Duhem, scienziato francese (1861-1916), fisico e filosofo, è noto ai chimici per l’equazione di Gibbs-Duhem, che interpreta le variazioni del potenziale chimico dei componenti in un sistema termodinamico.

[6] Ovviamente i chimici teorici contemporanei sono in grado di apprezzare la formulazione matematica più raffinata, tuttavia gran parte di essi ritiene che la termodinamica classica non riservi più sorprese e sono del parere che andrebbe ridimensionata nei corsi di chimica fisica a vantaggio di argomenti moderni. Ricordo però che il Prof. Paolo Mirone (1926-2012), noto spettroscopista ed eccellente didatta mi disse che anche dopo più di trent’anni di insegnamento della termodinamica, alcuni punti della trattazione gli ponevano interrogativi…

[7] Il testo è stato ripubblicato, revisionato da K.S. Pitzer e L. Brewer, nel 1961 sempre da McGraw Hill Book Co., New York. L’edizione italiana: Termodinamica – con prefazione di A.M. Liguori, Leonardo Edizioni Scientifiche, è del 1970. Gli attuali testi universitari di Chimica Fisica presentano la termodinamica (classica) sostanzialmente nello stesso modo del libro di Lewis & Randall.

[8] La scoperta del deuterio si deve a Harold Urey, allievo di Lewis, Premio Nobel per la Chimica 1934 proprio per quella scoperta. Molti sostengono che avrebbero dovuto assegnare il premio a entrambi, ma ancora una volta non è stato così.

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Dal macro al micro attraverso il simbolico

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Silvana Saiello

E’ noto da tempo che l’apprendimento dei concetti scientifici passa attraverso la conoscenza delle relazioni tra i tre aspetti , macro, sub-micro e simbolico, come è sottolineato da A.H. Johnstone fin dal 1991 e come è ripreso in quasi tutte le overview sul argomento http://www.rsc.org/images/AHJ%20overview%20final_tcm18-52107.pdf

Slide1La mancanza di attenzione alla collocazione di un concetto chimico al interno di ciascuno di questi tre livelli crea troppo spesso confusione nella testa degli studenti.

E’ per questo che ho scelto di condividere questo problema con alcuni insegnanti della Scuola nel corso della progettazione comune di un piccolo pezzetto di percorso formativo che realizzeranno nelle loro classi con il tutoring di alcuni docenti universitari.

La parte finale di questo percorso può essere sintetizzato con la frase:

” Dal macro al sub-micro attraverso il simbolico”

Il punto di partenza sono le leggi fondamentali della Chimica e il concetto operativo di Sostanza elementare

Un racconto a cui gli studenti possono/devono credere è quello che i primi Chimici provavano a trasformare la materia in maniera controllata. Osservavano con attenzione i risultati delle loro trasformazioni sia dal punto di vista delle proprietà delle sostanze che manipolavano sia dal punto di vista delle quantità di sostanza che si trasformavano e le quantità di sostanza che riuscivano ad ottenere.

I Chimici di un tempo lavoravano su sostanze di cui riconoscevano le proprietà e che si trasformavano in sostanze con proprietà completamente diverse.

Accadeva anche di trasformare un’unica sostanza in due sostanze completamente diverse che, a loro volta, potevano essere trasformate di nuovo nella sostanza che le aveva generate.

Una Cosa diventa Due Cose, Due Cose diventano Una Cosa … è questa la vera Magia della Chimica!

E’ ovvio che la curiosità spingeva a verificare fin dove era possibile realizzare questa “Magia”.

E da qui che si riuscì a mettere in evidenza che c’erano sostanze che non si riusciva a trasformare in alcun modo in Due Cose diverse.

Queste sostanze speciali sono le Sostanze Elementari.

Se guardiamo con una certa attenzione i numeri relativi alle trasformazioni di due sostanze elementari in una sostanza composta arriviamo dritti dritti a fare l’ipotesi che gli atomi esistono.

Non racconterò qui il “ragionamento numerico”, ma mostrerò come l’ipotesi che gli atomi esistono applicata alle relazioni numeriche che riassumono le leggi con cui avvengono le trasformazioni di sostanze in altre sostanze (le leggi fondamentali della Chimica) conduce al significato di formula chimica.

Il livello sub-micro collegato al livello macro conduce al livello simbolico.

Slide2E’ necessario, però, condividere una simbologia e un metodo.

  • Indichiamo con m* le masse di sostanze elementare che si trasformano in una sostanza composta.
  • Prendiamo in considerazione un caso specifico: la trasformazioni di Carbonio e Ossigeno in una sostanza A caratterizzata attraverso le sue proprietà macroscopiche
  • Applichiamo alle masse che si trasformano la relazione che esplicita l’ipotesi di esistenza degli atomi,
  • In questo modo trasformiamo le leggi fondamentali della Chimica che “raccontano” un livello macro in relazioni che raccontano un livello sub-micro

… e il gioco è fatto!

Slide3

In estrema sintesi il Rapporto di combinazione delle masse che si trasformano è qualcosa che posso determinare sperimentalmente, in questo esempio specifico il numero 0,750 è il risultato sperimentale (macro).

Se è vero che esistono gli atomi esiste un uguaglianza che lega questo livello macro al livello sub-micro.

Slide4

Guardiamo in dettaglio all’interno della relazione “sub-micro”, troviamo due rapporti, un rapporto tra le masse degli atomi che costituiscono la sostanza composta e un rapporto tra gli atomi di Carbonio e di Ossigeno che si legano per diventare la sostanza composta .

Esistono altre sostanze composte che si ottengono dalla trasformazione del Carbonio e dell’Ossigeno, ma, come è noto, il rapporto di combinazione delle masse delle sostanze elementari che si trasformano in una sostanza composta è diverso da sostanza a sostanza anche se entrambe sono costituite dallo stesso tipo di atomi, quindi il rapporto a/b è una caratteristica della sostanza A.

Nel caso in cui Carbonio e Ossigeno formano un’altra sostanza composta B, questa sarà caratterizzata da un altro rapporto di combinazione delle masse R*B ≠ R*A e poiché il rapporto tra le masse degli atomi di Carbonio e Ossigeno rimarrà lo stesso, quello che cambierà sarà solo il rapporto tra gli atomi di Carbonio e di Ossigeno che si legano ( c/da/b ).

In definitiva mentre il rapporto a/b è caratteristico della sostanza A, il rapporto caratteristico della sostanza B sarà c/d .

Come rappresentiamo in maniera simbolica questa differenza?

Scriviamo le formule delle due sostanze A e B , che rispettivamente saranno CaOb e CcOd rappresentando con C l’atomo di Carbonio e con O l’atomo di Ossigeno.

A questo punto bisognerebbe aprire una discussione su formula minima, formula molecolare, ecc… ma a me basterebbe che ogni giovane che ha frequentato una classe di Chimica fosse in grado di leggere e di comprendere fino in fondo il significato di tutte le parole che formano una frase a prima vista banale ma che, a mio parere, rappresenta bene la sintesi dei tre livelli necessari a costruire il concetto di formula di una sostanza.

Slide1

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Luce contro inquinamento.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex Presidente SCI

L’acqua per fini domestici viene consumata in ragione di ben 200 l o più pro-capite al giorno, nei paesi avanzati, anche sulla base dei costi molto bassi che favoriscono gli altri consumi. Gli smaltimenti in discarica nel mondo sono pari al 74% del totale. L’esportazione di rifiuti pericolosi fra il 1997 e il 2013 si è moltiplicata per un fattore superiore a 10. 1200 specie di vertebrati sono minacciate di estinzione (40% mammiferi, 33% pesci acqua dolce, 20% uccelli). Questi dati rappresentano un quadro allarmante, ma reale, di un pianeta in difficoltà. Passando all’inquinamento la situazione non è migliore.

Dinanzi a tutto ciò, mentre l’uomo la offende, la natura cerca di difendersi con meccanismi diversi: l’adsorbimento nei suoli, la sedimentazione marina e fluviale, le trasformazioni e degradazioni chimiche, fisiche e biologiche, aerobiche o anaerobiche, completamente naturali o parzialmente indotte. In fondo il principale processo naturale, unico endotermico spontaneo,cioè la fotosintesi clorofilliana è un processo di “restauro” naturale.

Le trasformazioni chimiche si basano sulla stabilità delle molecole da degradare, quantitativamente espressa dalla corrispondente variazione di energia libera e dalle costanti di reazione che assumono un valore condizionale in presenza di reazioni secondarie, come quasi sempre avviene in sistemi naturali. La struttura di un composto ne influenza la degradabilità. Le reazioni chimiche di degradazione più comuni sono le ossido riduzioni modulate dalla concentrazione dell’O2 (Aerazione) e dal pH che influenza il potenziale ossidativo dell’ossigeno

                                                 Ered/ox O2/H2O

                                              1/4 O2 + H+ + e- –> 1/2 H2 O

                                               E = Eo + RT/F log (aH+ ∙ PO21/4)

Anche le reazioni acido base possono provocare degradazione: Ad esempio i sistemi acidi degradano molti composti inorganici ed organici

L’indice rH correla il carattere acido base con quello di ossido riduzione e quindi risulta importante ai fini della valutazione delle capacità degradative (rH = 33,8E + 2pH).

Le reazioni di complessazione esercitano un’azione di degrado attraverso le interazioni donatore/accettore A + D → C, A = accet., D = donat., C = complesso secondo la Teoria elettronica di Lewis. Un caso tipico nell’ambiente è rappresentato dalla reazione fra acidi umici(D) + ioni metallo (A) con formazione di complessi che in genere diminuisce la biodisponibilità e la mobilità dei metalli.

Le reazioni di precipitazione (inverso di quelle di dissoluzione, strettamente collegate ai processi di degradazione) sono influenzate da pH, temperatura e forza ionica secondo la legge di Debye Huckel – influenza della forza ionica sulla solubilità e secondo il contenuto termico delle reazioni.

Le trasformazioni fisiche più comuni sono le fotolisi basate sull’interazione Energia/Materia, Degradazione → mineralizzazione: tale sequenza può essere catalizzata ed attivata da luce e da ossidi semiconduttori. Le fotodegradazioni possono essere dirette o indirette (con trasportatore) secondo meccanismi che così possono essere schematizzati:

Diretta: campioni hν attivazione → decomposizione

                               →

Indiretta (attraverso mediatore) campione hν nessuna attivazione

                                                                              →

Mediatore hv attivazione del campione (trasferimento dell’attivazione) → fotode gradazione del campione

Il rendimento fotochimico è dato dal rapporto fra il numero di moli che hanno reagito ed il numero di einstein assorbiti. L’Einstein- da Einstein che per primo spiegò nel 1905 l’effetto fotoelettronico- è una unità di misura per descrivere la fotoenergia contenuta in una grammomolecola di una sostanza durante una reazione fotochimica: è uguale a Nhv dove N è la costante di Avogadro, h è la costante Planck e V la frequenza della radiazione elettrochimica.

 

Ad ogni lunghezza d’onda corrisponde un’energia

Lunghezza d’onda λ (nm) Kcal/mol
Ultravioletto 250 114.0
300 95.3
350 81.7
Violetto 400 71.5
Blu 450 63.6
Verde 500 57.2
Arancione 600 47.7
Rosso 800 35.8

La fotocatalisi – diversa dalla fotolisi – avviene attraverso l’azione di un semiconduttore (mediatore). Il campione risulta degradato secondo un meccanismo che è sostanzialmente affidato all’azione dei radicali liberi prodotti dalla luce. Oltre alla formazione di ioni attraverso la fotoionizzazione, infatti le radiazioni elettromagnetiche nell’atmosfera possono produrre atomi o gruppi di atomi con elettroni spaiati, chiamati radicali liberi:

                                   H3C – CH=O  + hv → H3CCH=O

Il processo di produzione dei radicali liberi da parte della luce si basa sulla promozione di elettroni dalla banda di valenza a quella di conduzione del semiconduttore e le successive reazioni redox degli elettroni e delle buche elettroniche con le molecole di acqua e ossigeno.

I radicali liberi sono coinvolti nei più significativi fenomeni chimici atmosferici e sono di grandissima importanza nell’atmosfera. Essi a causa dei loro elettroni spaiati e della forte tendenza di appaiamento degli elettroni, in molte circostanze sono altamente reattivi. Tuttavia l’atmosfera superiore è così rarefatta, che ad elevate altitudini i radicali possono avere vita media di molti minuti o anche più. I radicali possono prendere parte a reazioni a catena in cui uno dei prodotti di ciascuna reazione è un radicale.

Alcuni dei semiconduttori più impiegati vengono qui riportati con il valore in eV della differenza di energia fra banda di valenza e bande di conduzione e le corrispondenti lunghezze d’onda di attivazione.

eV λ(nm)
ZrO2 5.0 248
ZnO 3.35 370
TiO2 3.0-3.3 376-413
Bi2O3 2.8 443
PbO 2.76 449
CdS 2.4 516
CdO 2.2 583
CuO 1.7 729
PbO2 1.7 729

In natura sono presenti molti di questi ossidi semiconduttori e sono anche disponibili le radiazioni a lunghezza d’onda richiesta. Queste sono infatti contenute insieme ad altre nello spettro solare, buona parte del quale non viene utilizzato. In questo senso alcune ricerche che oggi si svolgono riguardano il drogaggio dei semiconduttori per renderli sensibili alla luce visibile dello spettro solare.

La fotolisi naturale e la fotocatalisi possono essere usate per rimuovere alcuni tipi di rifiuti e in queste applicazioni sono entrambe utili per rompere i legami chimici presenti nei composti refrattari. Una reazione iniziale di fotolisi può condurre alla produzione di intermedi reattivi che partecipano a reazioni a catena che portano alla distruzione di un certo composto. Uno dei più importanti intermedi reattivi è il radicale libero HO. In alcuni casi, alla miscela di reazione, vengono aggiunti sensibilizzatori – in qualche caso persino resi disponibili in natura – che hanno la funzione di assorbire la radiazione e generare specie reattive che distruggono le componenti dei rifiuti più resistenti.

La degradazione abiotica mediante fotolisi è stata applicata a molti residui di farmaci presenti nei rifiuti urbani e negli scarichi fognari, considerati oggi nuove forme di inquinamento la cui concentrazione nelle acque superficiali in 30 anni si è moltiplicata per 50.

Le trasformazioni biologiche si caratterizzano al pari di quelle chimiche per aspetti termodinamici e cinetici. La catalisi è generalmente affidata ad enzimi, in particolare ossido riduttasi e idrolasi. La biodegradabilità degli idrocarburi è variabile ed i microrganismi mostrano una forte preferenza per gli idrocarburi a catena lineare. Il principale motivo per questa preferenza è che la ramificazione della catena inibisce la β-ossidazione. La presenza di un carbonio quaternario inibisce in modo particolare la degradazione degli alcani.

L’epossidazione consiste nell’addizione di un atomo di ossigeno, tra due atomi di carbonio, in un sistema insaturo. Tra i microrganismi che attaccano gli anelli aromatici vi è il fungo Cunninghamella elegans che metabolizza un’ampia gamma di idrocarburi.

Esiste anche in natura la possibilità di effetti combinati fra le varie azioni che abbiamo descritto:

hv + O2           (luce + ossigeno)

hv + enzimi   (luce + enzimi)

Enz. + O2       ( enzimi + ossigeno)

Enz. – O2       (anaerobiosi) (enzimi in assenza di ossigeno)

Il monitoraggio dei processi fotodegradativi può avvenire nel tempo, nel percorso di flusso, nello spazio circostante. Oltre ai metodi chimici tradizionali, si possono impiegare metodi biologici, ad esempio basati sul consumo e la produzione di ossigeno (rispettivamente respirazione e fotosintesi) da parte di organismi inferiori come il lievito Saccharomyces cerevisiae e l’alga verde-azzurra Spirulina subsalsa.

Il tutto tramite l’accoppiamento di questi con un elettrodo amperometrico di Clark (che misura la concentrazione dell’ossigeno) a formare un biosensore per misure in batch o in flusso.

Vengono riportati di seguito i limiti di rivelabilità corrispondente ad alcuni composti con il valore del TOC (carbonio organico totale)

Analita LOD Limit of detection (relative standard deviation RSD % ≤ 10
Flusso 1.5 ml/min 0.3 ml/min
(mol/l) TOC (mg/l) (mol/l) TOC (mg/l)
Acido Citrico 1.5 10-6 0.11 5.0 10-7 0.04
Acido Malico 1.0 10-6 0.05 4.0 10-7 0.02
Glucosio 1.0 10-6 0.07 5.0 10-7 0.04
p-clorofenolo 1.5 10-6 1.08 5.5 10-7 0.39
Idrochinone 2.0 10-6 0.14 8.0 10-7 0.58

 

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Il 25 aprile e la chimica. 2a parte.

In evidenza

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Faccio seguito alla mia promessa di qualche giorno fa e carico qui i due articoli di Michele Giua e Mario Giacomo Levi comparsi durante l’anno 1945 su “La Chimica e l’Industria”[1][2]Articoli Giua e Levi. Sono due articoli scritti da due dei massimi esponenti scientifici della chimica italiana di quel periodo, ma anche da due persone schierate politicamente su posizioni molto diverse.

Michele Giua, esponente della sinistra, da sempre antifascista, punito per questo anche dal punto di vista accademico, partigiano attivamente impegnato nella lotta di liberazione, uno dei pochi che si rifiutò di sottoscrivere la dichiarazione di fedeltà, imprigionato, combattente nelle file di Giustizia e Libertà, poi padre costituente, in parlamento nelle file del PSI.

Mario Giacomo Levi, di religione ebraica, uno dei massimi esperti di combustibili in Italia, fino alle famigerate leggi razziali, allineato alla linea politica del fascismo, occupò un ruolo tecnologico centrale; il suo posto fu poi preso da Giulio Natta, futuro premio Nobel. Esiliato in Svizzera, dopo la guerra tornò in Italia e riprese l’insegnamento universitario.

I loro due articoli sono da leggere interamente, esprimono per molti aspetti due concezioni della scienza e della società; è complicato riassumerli, ci sono dentro tante sfaccettature e probabilmente come già C&I ha raccontato nel 2003 (n. 85 pag. 26 e 27) la Chimica, scienza centrale già allora, “bella e potente”[3] aveva un atteggiamento ambiguo nei confronti del potere; come ha scritto magistralmente Giorgio Nebbia raccontando la storia terribile di Haber, “non fidarsi mai di compiacere il potere” . Parecchie affermazioni dell’ultimo paragrafo dell’articolo di Levi mi hanno colpito per esempio l’affermazione che credo ancora molti oggi sottoscriverebbero:

25aprile21Per certi aspetti mi ricorda l’idea delle “mani invisibili del mercato” che sta dietro alla descrizione anche moderna del grande mercato capitalistico immaginato come il miglior “onesto” gestore delle risorse e dei problemi; penso che anche altri fra noi abbiano qualche dubbio su questo modello interpretativo della società umana moderna. Uno dei problemi che vedo è che anche Giua, pur rifiutando la taumaturgia mercantile sembrerebbe condividere, anche se solo per certi aspetti, una concezione di crescita potenzialmente illimitata.

La divisione sociale resta determinante, ma le risorse naturali non sono infinite, ne abbiamo avuta più di una dimostrazione in questi 70 anni, e il mercato da solo non è un gestore accorto; anzi.

Ma su questo potremo discutere meglio se qualcuno interverrà nei commenti.

Piuttosto vorrei raccontarvi qua una cosa diversa. Nel cercare i numeri di C&I di oltre 70 anni fa nella biblioteca della mia università mi è capitato in mano tutto il fascicolo degli anni 1944-45 e non sono riuscito a non sfogliarlo anche con una certa emozione.

Vorrei raccontarvi attraverso alcune immagini la storia di quegli anni che ho visto in filigrana.

Il numero romano che compare su tutte le pagine non è l’anno dell’era fascista, come si potrebbe pensare, ma solo l’anno trascorso dall’inizio delle pubblicazioni per C&I, il 1919.

Anzitutto mi appaiono due chimiche o se volete due industrie chimiche nettamente diverse fra di loro; da una parte aziende medio-piccole, dedite a compiti umili ma evidentemente importanti nell’industria di allora; l’industria Cucumo che produceva SIRE Macum, che riaffilava elettrochimicamente le lime e le “limole”:

25aprile22Si tratta di una attività che in realtà sopravvive anche ora, col nome più altisonante di affilatura 3D e che, in un mondo in cui l’usa e getta non era così diffuso, aveva certamente un ruolo maggiore. Certo è l’indizio di un modo più corretto di porsi rispetto all’uso delle risorse.

A fianco a queste aziende esistevano poi i giganti dell’epoca; una di esse Siemens, ritornerà nella nostra storia ed è molto indicativo quali fossero le sue visioni del mondo; ogni numero de “La Chimica e l’Industria” la Siemens aveva una o due pagine di pubblicità, fino al numero 3-4 del 1945, che corrispose da una parte all’interruzione momentanea della pubblicità, ma anche alla messa sotto controllo amministrativo della Siemens Italia. La Siemens come azienda fu coinvolta a livello internazionale nelle questioni dell’uso di lavoro schiavistico nei campi di sterminio e ne riparleremo fra un momento.

Queste aziende avevano certamente una visione mondiale e estremamente moderna; guardate queste due immagini pubblicitarie, che hanno un contenuto incredibile se si pensa che sono di oltre 70 anni fa:

25aprile23 25aprile24Avete notato l’inquietante simboletto che rassomiglia terribilmente alla svastica? Molte aziende insospettabili hanno in effetti collaborato in qualche modo col nazismo. La Duma di Mosca ha chiesto di recente a quelle aziende di chiedere scusa.

La Siemens scompare dalla pubblicità dopo questa data; compaiono invece una serie di annunci mortuari che fanno riflettere; alcuni di essi li trovate nell’elenco di Gianfranco Scorrano, altri no.

Vediamone alcuni.

Nel numero 7-8 compare Gianfranco Mattei, morto più di un anno prima durante la lotta partigiana; l’articolo è firmato da G. Parravano, da non confondere con Nicola Parravano, che fu di fatto il boss della chimica italiana durante il fascismo e morì poi nel 1938.

25aprile25

Sotto l’annuncio per Mattei compare piccolo piccolo quella di una collega, che seppure naturalizzata italiana e iscritta alla Società Chimica di allora fu di fatto espulsa dalla società scientifica dopo le leggi razziali e resa apolide; questa manca nell’elenco di Scorrano, ma se lo meriterebbe perchè di fatto fu cittadina italiana e iscritta alla nostra associazione di allora. Si tratta di Rosa Kaminka.

25aprile26Allorquando, nel 1938, le leggi razziali promulgate dal regime fascista colpirono i cittadini italiani di origine ebraica privandoli dei diritti civili  e politici, Rosa Kaminka in quel momento cittadina italiana abitante a Vercelli fu radiata dall’Associazione italiana di chimica di Roma di cui era socia. (http://www.russinitalia.it/dettaglio.php?id=97); fuggì poi in Francia dove morì.

Nel numero 11-12 troviamo una serie di altri casi di morti “politicamente scorrette” avvenute prima dell’aprile 1945 e mai fino ad allora rivendicate.

25aprile27Qui sopra vedete Umberto Ceva, morto in carcere, apparentemente suicida, ben 15 anni prima (sic!) e mai prima commemorato, per ovvie ragioni politiche, ma vedete anche fra le righe il nome di un altro “chimico” arrestato, Vincenzo Calace; ma si tratta di un caso di eccesso di zelo. Entrambi, militarono nella lotta antifascista e non alla fine ma dal principio come Michele Giua. Calace, che non sembra fosse un chimico, ma un ingegnere meccanico, più fortunato di Ceva sopravvisse all’arresto e al confino e dopo la guerra partecipò attivamente alla vita politica italiana.

Ancora più sotto Ernesto Reinach, morto quasi due anni prima, fondatore della Oleoblitz, esperto di lubrificanti portato a morire a 90 anni in un vagone. Non era un chimico, anche se ci lavorava; trovate la sua storia qui.

Ma credo che il caso più eclatante fra i tanti annunci mortuari sia quello di Roberto Lepetit, industriale chimico, ma anche partigiano e antifascista, morto in un campo di concentramento nel quale anche la Siemens usava i deportati come minatori e scavatori. Roberto morì a pochissimi giorni dalla liberazione, il 4 maggio 1945 nel campo di Ebensee, un sottocampo di Mathausen, scavando le gallerie dove si costruivano armi e dispositivi bellici di vario genere.

25aprile28Nel lager di Ebensee, situato a est di Salisburgo, dal novembre 1943 i deportati lavoravano per la Siemens–Bau-Union alla costruzione di un officina sotterranea, destinata alla produzione missilistica delle V2, ma a causa di ritardi ed errori di progettazione non fu mai realizzata.

Dall’agosto del 1944 i deportati furono impiegati per l’installazione di una raffineria, entrata in funzione nel febbraio 1945 e probabilmente fu lì che trovò la morte Lepetit.

Lepetit fu come in altri rari casi , come Adriano Olivetti, un personaggio che vide al di là della propria appartenenza di classe e pagò con la vita questa sua capacità.

Una storia più accurata la trovate qui. La Lepetit ha continuato ad esistere dopo la guerra ed è poi stata acquistata dalla Dow.

Poi ci sono i piccoli accadimenti della guerra, la mancanza di carta, i bombardamenti continui che provocano molti problemi:25aprile29 25aprile210

Quanto è cambiata la chimica italiana in 70 anni? E quanto sono cambiati i chimici? A voi la risposta.

[1] Michele Giua Scienza, tecnica e politica, in ”La chimica e l’industria”, Milano, marzo-aprile 1945, anno XXVII, nn. 3-4, pp.35-36.

[2] MARIO GIACOMO LEVI, L’industria chimica italiana e le possibilità del suo avvenire, in ”La chimica e l’industria”, Milano, novembre-dicembre 1945, anno XXVII, nn. 11-12, pp. 189-195

[3] Luigi Cerruti, Bella&Potente La chimica del Novecento fra scienza e società, pp. 512, Editori Riuniti, Roma, 2003

************************************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements