Il mistero del computer che puzza di pipì di gatto.

a cura di C. Della Volpe

Negli ultimi mesi su internet si è diffusa la storia di un computer che puzza come la pipì del gatto; si tratta di un nuovo modello della Dell, il Dell Latitude Ultrabook E6430u.

http://www.theguardian.com/technology/2013/oct/30/dell-laptop-cat-pee-urine-smell-latitude-e6430u

195823155-027fca96-401d-4941-bc84-365dd9656692

Ora la Dell è una delle più famose ed apprezzate ditte che costruiscono computers da decenni e il problema della puzza di pipì di gatto è molto diffuso nell’ambito dei prodotti industriali. Se non mi credete provate a cercare “cat’s pee smell” e vedrete che non dico il falso: troverete computers, ma anche lavatrici, colle, e molti altri prodotti. Si tratta in effetti non di computers o di prodotti esposti ai nobili felini, ma di qualche tipo di procedura industriale che ha prodotto il problema.

Non si capisce a stare alla stampa se la Dell abbia risolto il suo problema perchè alcuni lamentano che nonostante la sostituzione che sembrerebbe essere l’unico modo di risolvere l’imbarazzante problema (ve lo immaginate il manager col suo nuovo laptop che nel pieno di un importante CdA si ritrova soggetto agli sguardi di odorosa disapprovazione dei suoi colleghi?) di fatto la cosa si sia ripresentata, ma il fatto mi ha terribilmente incuriosito.

http://betabeat.com/2013/10/dell-was-selling-laptops-that-reeked-of-cat-pee-but-dont-worry-they-fixed-it/

La cosa è stata attribuita all’ammoniaca, all’acido urico e a molti altri composti.

E così ho fatto una piccola indagine, che seppure non è arrivata ad una conclusione certa potrebbe offrire il verso per una interessante discussione.

Da dove viene la puzza dell’urina di gatto (maschio in particolare)?

Su internet trovate due risposte, delle quali una non mi convince molto; la prima che non mi convince è che l’odore sia dovuto alla presenza di acido urico nelle urine dei gatti; ora quel componente dell’urina si trova in quantità ancora maggiore nell’escreto degli insetti che pero’ non ha il medesimo odore; mi appare più convincente che l’odore specifico provenga dalla degradazione di uno specifico amminoacido, che si trova nell’urina dei gatti, la felinina:

Imagehttp://en.wikipedia.org/wiki/Cat_pheromone#Cat_urine_odorants

Questo particolare amminoacido, si degrada dopo escrezione a 3-mercapto-3-metilbutan-1-olo

Image

A sua volta questo prodotto potrebbe poi trasformarsi in altri composti odorosi simili, come il 4-mercapto-4-metil-pentan-2-one

Image

o infine come il 4-Metossi-2-metilbutan-2-tiolo

Image

Il primo di questi tre prodotti viene comunemente considerato un feromone del gatto, ossia un messaggero chimico fra gatti, che avvisa gli altri gatti maschi che un concorrente è lì nelle vicinanze o le femmine che un maschio disponibile è là vicino.

La storia in realtà parte un po’ più lontano perchè la felinina si produce nell’urina del gatto a partire da un altro prodotto e per azione di un enzima escreto allo scopo, come spiegato nell’immagine:

(http://www.rikenresearch.riken.jp/eng/research/4700)

Ma un prodotto di questo tipo, che si trova fra l’altro anche altrove in natura (per esempio insospettabilmente si trova nel famoso vino Sauvignon bianco ), come fa a ritrovarsi nel computer Dell?

Pare che il responsabile sia la tastiera del nuovo computer, un pezzo difficile da stampare ed inoltre incollato , perchè composto di varie parti e fra le altre anche contenente una membrana elastica; ora pur non conoscendo i dettagli costruttivi della tastiera e a rischio di sbagliare parte si potrebbe ipotizzare che un distaccante di stampaggio, un adesivo o la membrana elastica (se è gomma sarà stata di certo vulcanizzata e per farlo si usano composti solforati) possano contenere uno dei tre responsabili dell’odore dell’urina di gatto maschio; in effetti molecole uguali o simili come struttura si usano ampiamente nell’industria come agenti odoriferi o come distaccanti per esempio;  qualcuno ne sa di più?

Fatemi sapere, i misteri della chimica sono troppo stimolanti per lasciarli inesplorati e inoltre sono sempre stato un grande ammiratore dei gatti che non mi hanno mai lasciato ricordi odorosi sul computer……

2 Festival dell’acqua dell’Aquila.

a cura di Luigi Campanella, ex presidente SCI

Con un sistema semiautomatico per il riconoscimento e la classificazione dei cambiamenti, sarà possibile garantire un’efficace salvaguardia dell’acqua potabile, così come quella degli impianti.
Il change direction, rappresenta il cuore di tale sistema ed è fondamentalmente l’algoritmo che misura il cambiamento avvenuto tra due immagini raccolte in tempi diversi. Il sistema una volta sovrapposte le immagini le elabora attraverso un processo di classificazione, il cui scopo è quello di produrre una mappa che permetta di capire istantaneamente, grazie all’uso di colori differenti, quali modifiche sono state apportate sul territorio e se queste siano pericolose per la salvaguardia delle fonti idriche. Il nostro Paese ha fatto scelte precise su come immagina la gestione dell’acqua anche grazie ad un referendum. Ci dobbiamo rendere conto che ogni giorno circa 5.000 bambini muoiono per malattie causate da acqua di scarsa qualità e dalla mancanza di adeguati servizi igienico-sanitari, stiamo parlando della seconda causa di mortalità infantile. Certo, ci potremmo lamentare che sono 20 milioni gli italiani che non sono ancora collegati ad un depuratore e che il Sud vive un deficit infrastrutturale di non poco conto. Di sicuro il Festival dell’Acqua, appena conclusasi all’Aquila, è riuscito a fare sintesi sul tema e ad aprire gli occhi a chi pensa che il problema sia solo di principio.

 acqua1
“Dissetare il mondo”, ecco il leitmotiv del festival dell’Acqua, conclusosi l’11 ottobre all’Aquila. Un impegno globale, solidale e di responsabilità sociale.
Il capoluogo abruzzese è stato scelto come sede della seconda edizione della kermesse perché rappresenta un monito verso l’adozione di misure di prevenzione e innovazione nella pianificazione urbanistica delle nostre città.
L’edizione 2013 con i suoi 9 convegni e 3 seminari ha affrontato le tematiche più svariate, dalla sete nel Mondo alle carenze del sistema idrico italiano e il problema del Mezzogiorno. Al grande pubblico ed alla città ospitante sono invece stati estesi gli eventi di spettacolo e intrattenimento.
L’acqua, dunque, come diritto fondamentale dell’umanità: la Commissione ONU per i Diritti Economici, Sociali e Culturali già nel 2002 ha definito il diritto di ogni essere umano ad un accesso sicuro all’acqua per utilizzo personale e domestico.
“Salvaguardia della risorsa anche in funzione dell’uso da parte delle future generazioni, con costi efficienti attraverso la regolazione e la stabilizzazione normativa”, così Claudio De Vincenti, Sottosegretario allo Sviluppo economico, è intervenuto in apertura del Festival, mentre il Ministro dell’Ambiente, Andrea Orlando ha annunciato: “ Il prossimo anno vorrei convocare una conferenza nazionale sull’acqua, per rompere luoghi comuni consolidati. Siamo tutti d’accordo nel definire l’acqua bene comune, ma spesso gli strumenti proposti sono contradditori”.
Le assemblee dei Sindaci che definiscono il fabbisogno infrastrutturale e impiantistico dei rispettivi territori, hanno definito un fabbisogno di investimenti pari a 65 miliardi di euro per i prossimi 30 anni.
Si tratterebbe, dunque di prevedere investimenti pari ad una media annuale di 2,2 miliardi di euro, ovvero poco meno di 40 euro per cittadino l’anno, mentre l’attuale livello nazionale di investimenti è pari solo a 26 euro/abitante/anno (ovvero 1,2 miliardi all’anno, di cui appena il 10% provenienti da fondi pubblici). Un dato rilevante se confrontato al livello di investimenti nei paesi Ocse, pari circa a 80 euro/abitante/anno.

100424acquabenecomune

Occorre dire anche che il convegno dell’Aquila, che è stato organizzato da FederUtility, che è la federazione che associa tutti i gestori italiani del servizio idrico, ha suscitato molte polemiche, soprattutto da parte del Forum Italiano dei Movimenti per l’acqua, che denuncia il convegno come un tentativo di appropriarsi in positivo del tema dell’acqua dopo essersi opposta  al referendum. Al momento è in corso uno scontro legale sulla nuova tariffa approvata dall’Autorità competente la quale prevede una percentuale standard sul capitale investito reintroducendo di fatto la remunerazione abolita dal referendum; lo scontro è davanti al TAR della Lombardia e vede su fronti opposti proprio Federutility e il Forum; Federutility sostiene che le rivendicazioni del referendum sono malposte in quanto non ci sono i soldi per gestire le ingenti necessità del sistema idrico da parte di uno stato in deficit cronico, mentre il Forum sostiene che una tariffa opportunamente organizzata può far fronte al problema e che il profitto difeso da Federutility potrebbe solo aumentarla.

Quanto è chimico il potenziale chimico? (3 parte)

(la 1 parte di questo post la trovate su https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/

e la 2 su https://ilblogdellasci.wordpress.com/2013/10/17/quanto-e-chimico-il-potenziale-chimico-2-parte/)

a cura di C. Della Volpe

Cosa succede all’equilibrio?

Il concetto di equilibrio meccanico, e quindi di bilancio delle forze in campo è quello di una situazione di parità fra forze diverse; idea partorita in un contesto di teoria del continuo, non di teoria atomistica della materia. L’equilibrio meccanico vero e proprio, dovuto a forze macroscopiche contrastanti può essere comunque stabile o instabile; l’esempio classico è quello dell’equilibrio in campo gravitazionale di oggetti di forma appropriata. equilibrio

A è in equilibrio stabile perchè anche significativi disturbi non riescono a rovesciare l’oggetto conico, mentre B è instabile, ogni sia pur minimo disturbo può far cadere il cono e quindi allontanare il sistema dall’equilibrio ed infine C è indifferente, perchè ogni disturbo non cambia in modo visibile la situazione che possiede un elevato grado di simmetria. L’equilibrio stabile o indifferente che sono i casi comuni di equilibrio sono situazioni in cui non succede nulla e se qualcosa succede non modifica la situazione.

In chimica l’idea dell’equilibrio è totalmente diversa e quindi la situazione definita da Gibbs come l’assenza di lavoro disponibile, come un valore nullo dell’energia libera di Gibbs, ossia appunto del lavoro non di espansione estraibile dal sistema, non è comunque MAI una situazione in cui non succede nulla.

Al contrario all’equilibrio fra due fasi, fra due processi o fra due reazioni diretta e inversa succede di tutto, ma in modo tale che la situazione macroscopica sia invariata, anche se in certi casi la quantità del disturbo può essere importante, se supera un certo valore critico allora le cose possono anche cambiare in modo significativo; pero’ questo tipo di invarianza è proprio ciò che serve a introdurre il concetto della dinamica del sistema chimico.

L’elettrochimica possiede un concetto ed una quantità che mostrano in modo evidente la situazione; si tratta della cosiddetta corrente di scambio; per comprendere la corrente di scambio, possiamo partire da casi più semplici di equilibrio chimico-fisico, come per esempio l’equilibrio fra due fasi diverse, come un liquido ed un vapore a temperatura costante.

Si tratta di una situazione facilmente ottenibile anche in laboratorio e che in apparenza non sembra diversa da quella del cono di tipo A; ma in realtà ci si puo’ accorgere che le cose sono diverse per esempio usando dei materiali isotopici e verificando che se introduciamo un certo isotopo in una della fasi ad un certo momento lo ritroveremo presto o tardi equipartito (o quasi)  fra le due fasi.

Questo fenomeno ha consentito di studiare per esempio i fenomeni di scambio fra fasi diverse nell’ecosistema (atmosfera ed oceano per esempio) e scoprire che la ripartizione degli isotopi non è esattamente omogenea a causa del cosidetto “effetto isotopico” ossia della diversa velocità con la quale atomi di massa diversa possono partecipare alle reazioni chimiche ed ai processi chimicofisici. Sulla base di questa diversa ripartizione e sulle sue variazioni si possono studiare processi di tipo geologico o climatico e ricostruire il clima della Terra per milioni di anni.

Ma comunque anche volendo tener conto dell’effetto isotopico è possibile arrivare alla conclusione che un numero enorme di molecole passa continuamente di fase all’equilibrio.

Nel fare una stima ci viene in soccorso la teoria cinetica della materia che pure se con molte approssimazioni, perchè considera le molecole e gli atomi come punti materiali o come sfere rigide al massimo in grado di esercitare forze elettromagnetiche, riesce a stimare il numero di urti che si esercitano fra molecole oppure ad una interfaccia o ad una separazione di fase.

Questo punto (la sfera rigida come modello dell’atomo o della molecola) può essere utile per sviluppare la discussione in altre direzioni; per esempio far vedere (e lo si puo’ fare anche al liceo o al primo anno di università) che la densità di un liquido e il covolume del gas non si corrispondono affatto; per esempio il volume molare dell’acqua è circa 18 cm3 allo stato liquido, ma il suo covolume di van der Waals è 30.5 cm3; perchè?

Un buon punto su cui far riflettere e che ci tornerà utile fra un momento.

Torniamo alla teoria cinetica. Nel caso di un gas a temperatura e pressione ambiente il numero di urti raggiunge almeno 1024 al secondo per cm2. Un numero veramente mostruoso, anche se è da dire che non tutti gli urti sono “efficaci” ossia raggiungono lo scopo di far passare la barriera tra le fasi, perchè per esempio in una frazione consistente si dà luogo ad un urto elastico e la molecola rimbalza via; ma qui stiamo ragionando sugli ordini di grandezza.

Come si puo’ ottenere questa stima senza ricorrere a calcoli complicati?

Possiamo partire dalla pressione, che è una forza per unità di superficie; P=F/S, dove la F è il prodotto della massa di ciascuna molecola per l’accelerazione a cui è sottoposta nell’urto contro le altre o la parete nel tempo interessato; nel caso più semplice di urto elastico, la molecola arriva perpendicolare alla parete e ne rimbalza via nella medesima direzione ma con verso opposto e la stessa velocità, quindi la sua accelerazione è pari a due volte la velocità di arrivo diviso il tempo; già ma quale è la velocità?

Anche qui possiamo ottenere una stima semplice considerando che la energia delle molecole sia tutta cinetica e sia proporzionale alla temperatura assoluta, la temperatura assoluta come una sorta di energia media per molecola.

Si tratta di un’idea proposta da Maxwell e Boltzmann: E≈kT; la costante è pari alla costante dei gas; se si parte dalla equazione di stato dei gas il prodotto PV che esprime gli elementi base del lavoro di volume è proprio pari a RT per mole; se tutto il lavoro che il gas può fare è lavoro di volume ci siamo, anche se sappiamo che il valore esatto dipende dai gradi di libertà del sistema, ma ancora una volta non entriamo nei dettagli dell’argomento. In questo caso possiamo scrivere RT=1/2 mv2 cioè consideriamo tutta l’energia come cinetica (l’equazione esatta per il gas ideale sarebbe ovviamente 3/2 RT=1/2 mv2).

A t ambiente per vapor d’acqua avremo: 2500Joule=0.5*0.018*v2 e v=524m/s, un valore che da il corretto ordine di grandezza.

Un conto estremamente grossolano si può continuare così: per una mole di molecole di acqua che impatti a questa velocità e rimbalzi via da una parete, avremo in un secondo (1048 x0.018) N=19N; per avere una pressione di tipo atmosferico (che è pari a 105 N/m2) questa forza dovrà esercitarsi su circa 19/105 ≈1/5000 di m2, 2 cm2 e quindi il numero di urti per cm2 sarà dell’ordine di 3*1023; il risultato è ancora una volta qualitativamente accettabile.

Il numero di urti dipende comunque dalla densità molecolare, dal numero di molecole per unità di volume; ma allora come fanno ad essere in equilibrio due fasi come liquido e gas, se la densità di un liquido è circa 1000 volte superiore a quella del gas? Non dovrebbero  essere molto più numerose le molecole in uscita che quelle in entrata? La risposta può essere trovata in modo semplice.

La differenza fra covolume del gas e volume molare del liquido ci fa fare l’ipotesi che esistano delle forze di attrazione fra le particelle che nel caso del liquido, riescono a “comprimere” le molecole fra di loro e spiegano così sia la differenza dei due parametri che la maggiore difficoltà delle molecole di liquido a sfuggire dalla loro fase.

In un testo famoso, Introduction to thermodynamics and kinetic theory of matter 2° Edition di A. Burshstein si dice, riferendosi alla formula che rapporta le molecole in uscita dalle due fasi,:

“Its physical meaning is quite clear. Two phases located on different sides of the step barrier are in equilibrium only because of the higher density of the phase from which it is more difficult to escape.”

Una rappresentazione più formale della situazione potrebbe essere quella seguente:

pressione della fase vapore  =  pressione della fase liquida  =

pressione cinetica della fase liquida  x  fattore di correzione

Stiamo qui considerando che la pressione della fase liquida (o anche di un gas reale) sia la risultante della somma di due parti: la pressione mozionale o cinetica, legata al moto casuale delle particelle, sempre positiva, che produce l’espansione del sistema, ed una pressione “negativa”, in assoluto negativa [nota], causata dalle forze attrattive fra le particelle, in pratica una pressione che viene fuori naturalmente dalla equazione di van der Waals: la pressione mozionale o cinetica è la parte ideale della pressione, mentre quelle interna è diversa da zero solo se esistono forze di tipo attrattivo.

                   Pressione reale = pressione cinetica + pressione interna

pressione

figura dal Burshtein

Quella mozionale è uguale a quella che avrebbe un vapore con la medesima densità, per avere la pressione effettiva dobbiamo sottrarre quella interna o moltiplicare per un fattore correttivo (che tenga conto delle forze di attrazione) altrimenti la densità del liquido che è almeno tre ordini di grandezza maggiore di quella del vapore produrrebbe una pressione solo mozionale che non ci consentirebbe l’equilibrio liquido-vapore. La forma del fattore correttivo puo’ essere interessante; di solito si usa un termine esponenziale, usando l’idea di Boltzmann che la probabilità che una particella abbia una certa energia sia proporzionale ad un fattore esponenziale negativo il cui valore corrisponde al rapporto fra l’energia necessaria ad un certo processo e quella media che si ha alla temperatura di lavoro; questa a sua volta è il prodotto della costante dei gas per la temperatura assoluta.

Quindi avremmo una cosa del tipo:

P vapore = P cinetica del vapore= P cinetica del liquido exp(-E/RT) = Pcinetica del liquido– Pinterna del liquido

Il fattore esponenziale deve recuperare la differenza di densità fra vapore e liquido e quindi deve valere almeno un millesimo o meno; 1000=ln(6.9) e quindi questo vuol dire che il rapporto E/RT vale quasi 7; dato che RT a t ambiente vale attorno a 2.5-3kJoule/mole, abbiamo una E che vale attorno a 17-21 kJoule/mole, quindi questa barriera di energia è l’ordine di grandezza della barriera di forze attrattive da superare per passare da liquido a vapore; è anche l’energia da spendere per far vaporizzare un liquido; il valore non è esattissimo ma molto vicino alla realtà; nel caso dell’acqua si hanno 41kJ/mole all’ebollizione.

In questo agitatissimo equilibrio dove i fantastiliardi di urti per centimetro quadrato corrispondono a flussi dell’ordine di una mole per cm2 al secondo succede di tutto: alcune molecole rimbalzano elasticamente verso la fase gassosa, la maggior parte aderirà alla fase liquida verso la quale non ci sono barriere da superare, mentre al contrario le molecole di liquido che vanno verso la fase vapore sono circa 1000 volte di più per unità di volume, ma solo un millesimo di esse possiede l’energia per passare alla fase vapore superando le robuste forze attrattive che si esercitano nel liquido.

E’ un panorama complesso, altro che non succede nulla all’equilibrio!

Questa descrizione dell’interfaccia liquido-vapore, come di un luogo dove esista una sorta di barriera all’allontanamento delle molecole dal liquido verso il vapore, può essere utile per capire uno degli effetti che di solito viene considerato “avanzato” in termodinamica, ossia la tensione superficiale. L’idea di Young, espressa nella famosa equazione che esista una “pelle” dei liquidi risulta quindi una fortunata intuizione, sia pur basata su una visione ”continua” della materia. Questa pelle è quella che si comporta come una membrana elastica sulla quale si possono mantenere in superficie oggetti di forma e proprietà opportune come uno spillo o un insetto.

tenssup1tenssup2

Uno dei più comuni travisamenti nella presentazione della tensione superficiale è di considerare che esista uno stabile sbilancio di forze fra le molecole della superficie e le altre, come detto qui:

tenssup3

  http://www.darapri.it/immagini/nuove_mie/spumante/fisicaspum/tensionesuperficiale.htm

Si tratta di una descrizione che viene dai tentativi fatti in origine già da van der Waals e poi dai suoi successori (che sono poi confluiti nella quasi termodinamica) nel creare un paradigma coerente dei fenomeni di superficie; un discorso complesso che è stato spesso malcompreso: consideriamo che se tale sbilancio di forze continuasse ad esistere non saremmo più all’equilibrio!! Una forza di tal fatta comporterebbe una accelerazione che non c’è!

In realtà si puo’ concepire che tale sbilancio esista “inizialmente”, virtualmente, al momento della formazione della superficie e dia luogo velocemente ad un “ispessimento” della parte superficiale del liquido, insomma alla formazione di uno strato liquido a diversa composizione; tale aumento locale di concentrazione di alcune almeno delle specie presenti cambia le proprietà del liquido riportando all’equilibrio il sistema, perchè un aumento della densità delle molecole causa una variazione sia della componente mozionale che di quella interna della pressione.

E’ un po’ l’equivalente dell’effetto Volta quando due metalli diversi si avvicinano nel vuoto e il potenziale chimico e quello elettrico vanno all’equilibrio. Al momento della “creazione” della superficie il potenziale chimico si adatta alle nuove condizioni di asimmetria del sistema e la ristrutturazione della pressione mozionale e di quella interna generano una “tensione superficiale”, che ricordiamo si esercita SOLO lungo la tangente alla superficie del liquido. La descrizione calcolata per l’acqua è riportata nella seguente figura:

tenssup4

Notate che la figura non rappresenta il comportamento in condizioni ambiente; come si vede la densità bulk verso destra è inferiore al valore a sinistra (vapore) del primo complesso strato in cui si trovano addirittura due layers di diversa composizione ed orientamento.

Ma come si trasferisce questa descrizione dell’equilibrio come fenomeno dinamico a livello di processo elettrochimico?

Lo vedremo nei prossimi post.

[nota ] la pressione è la derivata dell’energia contro il volume cambiata di segno

P= (-∂E/∂V)altre variabili costanti; tuttavia non è detto che tale derivata abbia valore positivo, questo avviene tipicamente quando si fa lavoro per ridurre il volume di qualcosa come un gas, ma, se si fa lavoro per espandere il volume di una fase condensata, avviene il contrario; il famoso esperimento di M. Berthelot (http://www.lanl.gov/THROHPUT/Berthelot/Berthelot.ps‎ oppure http://iopscience.iop.org/0508-3443/15/3/119) dimostra che possono esistere pressioni assolute negative; c’è anche un interessante libro edito da A. Imre (http://link.springer.com/book/10.1007%2F978-94-010-0498-5) sul tema dove si racconta come sia possibile sottoporre l’acqua a pressioni negative di decine di atmosfere, l’acqua come una corda tesa, come avviene d’altronde nei vasi cribrosi delle piante.

Quando la chimica era ingenua

a cura di Giorgio Nebbia, nebbia@quipo.it

Quando non erano ancora stati “inventati” gli omega-3 per caratterizzare gli oli di pesce si seguiva il metodo di Tortelli-Jaffe come segue: “In un cilindretto a piede, con tappo smerigliato e perfettamente asciutto, si introducono 1 cm3 di olio del tutto esente da acqua, 6 cm3 di cloroformio, 1 cm3 di acido acetico glaciale, agitando fino a soluzione omogenea, quindi 40 gocce di una soluzione al 10 % di bromo in cloroformio e si agita nuovamente per qualche secondo: gli olii di animali marini e i loro prodotti di idrogenazione dopo qualche minuto si colorano in verde con riflessi azzurrini o giallognoli e questa tinta si intensifica sempre più entro mezz’ora, passando poi al bruno”. Chimica non tanto ingenua, poi, perché era citata nel Chemische Zeitung, vol. 39, p. 14-15 (1915) dove la reazione è interpretata come dovuta alla presenza negli oli di un cromogeno che, in certe condizioni, si trasforma in una sostanza con un colore caratteristico. La reazione di Tortelli e Jaffe era citata anche nell’ Yearbook of the American Pharmaceutical Association, vol. 4, p. 300 (1915) e in altri testi del tempo, oltre che in tutti i libri italiani di chimica analitica applicata e di Merceologia.

tortelli

Il “Tortelli” del metodo era il prof. Massimo Tortelli, nato nel 1859 a Bibbiena (Arezzo); laureato nel 1889; dopo aver prestato servizio nei Laboratori Chimici delle Gabelle (poi Laboratori chimici delle Dogane), divenne Direttore del Laboratorio Compartimentale di Genova, carica che tenne per quasi 20 anni. Nel 1910 vinse il concorso alla cattedra di Merceologia nell’Istituto superiore di studi economici e commerciali in Genova. Tortelli elaborò metodi analitici per la caratterizzazione e la scoperta delle adulterazioni degli olii vegetali più importanti, fra cui quelli di arachide, di colza (il test di Tortelli e Fortini fu pubblicato nella Gazzetta Chimica Italiana, vol. 41, p. 173-182 (1911)), e quello sopra ricordato per gli oli di pesce.

Fra i suoi contributi va ricordata l’invenzione del termoleometro, uno strumento per la misura dell’”indice termosolforico” definito come l’aumento di temperatura che si osserva facendo reagire acido solforico concentrato con un olio, un indice più o meno proporzionale al grado di insaturazione dell’olio. Questo saggio fu descritto nel libretto: Massimo Tortelli, “Termoleometro, apparecchio atto a scoprire le adulterazioni degli olii di oliva e pure degli altri olii vegetali e animali”, Feltre, Castaldi, 1904, e si esegue come segue: in un bicchiere di vetro a doppia parete nella cui intercapedine si è fatto il vuoto, si pongono 20 cm3 di olio in cui si immerge uno speciale termometro che, in vicinanza del bulbo, porta due alette di vetro che lo fanno funzionare anche da agitatore. http://win.galileilivorno.it/museo_della_chimica/popup/Tortelli_foto.html.

Al termooleometro si imprime un movimento rotatorio per circa un minuto finché il termometro indica una temperatura stabile t. Con una pipetta si misurano 5 cm3 di acido solforico concentrato di densità 1,8413, che si lasciano lentamente cadere sull’olio mentre con l’altra mano si agita di continuo la miscela, servendosi del termoleometro fino a che la temperatura si ferma per qualche minuto al valore T. La differenza T – t indica l’”indice termosolforico” che risulta fra 41 e 45 per l’olio di oliva, 78 per l’olio di cotone, eccetera.

Anche questo lavoro ebbe risonanza all’estero come dimostrano le citazioni: M. Tortelli, “Estimation of thermal value of fats and oil”, Analyst, 1909 da: Chemische Zeitschrift, 6, (33); 125, 134, 171, 184; (34), 168 (1907);.

Tortelli scrisse inoltre un “Trattato dei metodi generali di analisi dei grassi” e un libro sugli “Assaggi delle merci” e collaborò anche alla “Nuova Antologia”. Erano apprezzate le lezioni per le quali si preparava, anche negli ultimi anni, con grande scrupolo ed amore, perché fossero sempre aggiornate. A Tortelli si deve la fondazione a Genova dell’Istituto commerciale medio, del quale fu per molti anni direttore. Tortelli morì a 71 anni nel 1930.

jaffeIl prof. Emilio Jaffe, che collaborò con Tortelli per la reazione dell’olio di pesce, era nato a Casale Monferrato nel 1883, dopo la laurea in Chimica e Farmacia nel 1906, prestò servizio al Laboratorio Chimico della Scuola Agraria di Voghera; entrò poi per concorso nei Laboratori Chimici delle Dogane e svolse la sua attività di analista nelle sedi di Roma e Genova. Ma la sua vocazione era l’insegnamento: nell’autunno 1925 riuscì primo nel concorso alla Cattedra di Chimica e Merceologia dell’Istituto Tecnico Commerciale “M.Tortelli” di Genova, cattedra che tenne tanto degnamente da meritare che l’aula di lezione e il laboratorio merceologico dell’Istituto venissero poi intitolati al suo nome. Oltre ai lavori fatti in collaborazione col prof. Tortelli studiò le reazioni della trietanolammina con sali di metalli pesanti.

Apprezzato da studenti e colleghi, come ebreo Jaffe fu sospeso dall’insegnamento in seguito alle infami leggi razziali fasciste quando aveva 55 anni e subì persecuzioni durante la seconda guerra mondiale. Dopo la Liberazione riprese l’insegnamento e gli studi e morì a 68 anni nel 1951. In collaborazione col prof. Luigi Prussia scrisse vari libri di Merceologia per Istituti tecnici, che ebbero molte edizioni. La più vecchia edizione che ho trovato è datata 1938. Quando ero assistente con famiglia a carico, curai un aggiornamento della edizione per Istituti Tecnici Commerciali a indirizzo mercantile, come si chiamavano allora, pubblicata nel 1966.

jaffeprussia

Del prof. Luigi Prussia non sono stato capace di trovare notizie; risulta autore delle dispense di un corso di Chimica analitica dell’anno accademico 1897-1898, pubblicate a Parma, il che farebbe pensare che sia nato intorno al 1860-65; una sua pubblicazione sulla ricerca dei derivati del petrolio negli oli di trementina è datata 1914; potrebbe essere morto negli anni trenta del Novecento.

La cosa curiosa è che Tortelli e Jaffe, senza saperlo, avevano svelato la presenza negli oli di pesce di una sostanza che si sarebbe rivelata la “vitamina A” (scrivo fra virgolette perché è ben noto come molte sostanze, idrocarburi non saturi retinoidi e carotinoidi, possano essere dotate delle proprietà biologiche attribuite alla vitamina A). Le “virtù” dell’olio di fegato di merluzzo erano note da tempi antichi — un cucchiaio dello sgradevolissimo olio di fegato di merluzzo era la cura sicura per i bambini un po’ palliducci — ma le proprietà della “Vitamina A” sarebbero state riconosciute soltanto nei primi anni dieci del Novecento e il nome sarebbe stato assegnato nel 1920.

457px-All-trans-Retinol2.svg

Negli anni successivi al lavoro di Tortelli e Jaffe, Otto Rosenheim e Jack Cecil Drummond (Lancet, 198, 862 (1920)) trattando l’olio di pesce con acido solforico concentrato osservarono la comparsa di un colore blu di breve durata; l’intensità del colore risultava proporzionale all’effetto di vitamina A manifestato da tale olio quando somministrato ai ratti. Nel 1925 gli stessi Rosenheim e Drummond suggerirono di usare, invece dell’acido solforico, il reattivo di Kahlenberg, tricloruro di antimonio in cloroformio che provocava nella soluzione una colorazione blu della durata di due o tre minuti.

carreprice

Nel 1926 Francis Howard Carr (1874-1969) e Ernest Arthur Price (Biochemical Jouirnal, 20, 497-501 (1926) http://www.researchgate.net/publication/7038681_Colour_Reactions_Attributed_to_Vitamin_A ) perfezionarono il metodo, e la misura dell’intensità del colore blu che si forma dopo aggiunta di una soluzione di tricloruro di antimonio a sostanze contenenti vitamina A, per molti decenni fu utilizzata per l’analisi della concentrazione della vitamina. Una buona rassegna delle origini del “colore blu” che si forma dalla reazione di vari “acidi di Lewis” con molecole strutturalmente simili alla vitamina A si trova in : http://repositories.tdl.org/ttu-ir/bitstream/handle/2346/13047/31295004916192.pdf?sequence=1

per approfondire:

http://www.chimica.unipd.it/gianfranco.scorrano/pubblica/la_chimica_italiana.pdf

Quanto è chimico il potenziale chimico? (2 parte)

a cura di C. Della Volpe

(la 1 parte di questo post la trovate su https://ilblogdellasci.wordpress.com/2013/10/10/quanto-e-chimico-il-potenziale-chimico-1-parte/ )

La equazione che abbiamo ottenuto nella prima parte μ =- V zF è molto utile perchè ci dice che possiamo determinare il potenziale chimico attraverso una misura di potenziale elettrico quando siamo all’equilibrio; in un sistema elettrochimico all’equilibrio non succede nulla (a proposito, ma è proprio vero che non succede nulla? Gibbs non dice questo, ma solo che il lavoro disponibile è nullo, pensateci un po’ che ne parleremo prossimamente) e la eguaglianza fra le due forze in campo quella elettrica e quella chimica ci consente di determinare l’una dall’altra, quindi se misuriamo in una cella a circuito aperto, senza flusso di elettroni la differenza di potenziale V otteniamo la forza chimica spingente per mole, la differenza di potenziale chimico fra i due stati del materiale che circondano l’elettrodo (e/o che lo costituiscono) a seconda del tipo di reazione. Si tratta di uno dei modi più precisi per misurare le variazioni di energia libera dei processi.

Abbiamo reso quindi “visibile” il potenziale chimico tramite la stima dei suoi effetti elettrici.

Uno dei punti importanti nel caso del potenziale chimico è proprio di renderlo in qualche modo visibile, ossia di farci rendere conto dei suoi effetti su base concreta seppure qualitativa come è possibile fare quando manchi per più motivi la base matematica necessaria; come vedremo nel seguito tuttavia si può fare parecchio scegliendo vie alternative al calcolo differenziale quando tale requisito manchi.

Anche il caso del potenziale gravito-chimico può essere di aiuto; abbiamo detto che ci troviamo di fronte a tale potenziale quando le forze di non espansione in gioco sono di natura chimica e gravitazionale; quindi per esempio una sostanza semplice come l’acqua, poniamo un lago o un gas, l’aria nell’atmosfera terrestre, dovrebbe offrirci sufficiente materiale di riflessione. Potremo poi cercare casi più complessi.

Il potenziale chimico dipende dalle condizioni generali del sistema, per esempio pressione e temperatura e guida il comportamento del sistema fisico che tenderà sempre spontaneamente a raggiungere stati in cui tale potenziale si riduca; ad una prima superficiale osservazione potrebbe sembrare che introdurre qui pressione e temperatura possa essere contraddittorio con la definizione di Gibbs che escludeva variazioni di volume e flussi di calore, ma non è così.

Tuttavia iniziamo con il caso di un liquido in cui possiamo supporre una sostanziale incompressibilità del materiale e quindi che il suo volume non vari con la pressione. In un lago profondo, costituito essenzialmente di acqua “dolce” e potendo quindi trascurare l’effetto della concentrazione salina sul potenziale chimico, la struttura del lago all’equilibrio risponde essenzialmente al bilancio fra la forza di gravità, l’energia gravitazionale, che cresce al diminuire della profondità e il potenziale chimico che aumenta al crescere della profondità.

incompfluid

Fuchs H 1996 The Dynamics of Heat (New York: Springer) pag 287

L’acqua posta in superficie ha una altezza maggiore rispetto al fondo del lago, che usiamo qui come livello di riferimento e quindi possiede una maggiore energia potenziale gravitazionale per unità di massa, ossia un maggiore potenziale gravitazionale; mentre quella posta in profondità ne possiede uno minore. Ma se sono all’equilibrio deve esistere una contro forza, un fenomeno che si oppone a questo; e tale fenomeno è proprio la crescita del potenziale chimico con la pressione; se aumentiamo la pressione  su un liquido è come se lo strizzassimo, le sue molecole, tendendo a sfuggire alla pressione che le inchioda aumenteranno la loro tendenza a sfuggire tout court, ossia per esempio la loro tensione di vapore, che ci da una misura sia pure indiretta del potenziale chimico del liquido.

Un esempio dell’effetto della pressione sul potenziale chimico ci è offerto dal fatto che piccole gocce di liquido (micrometriche o ancora più piccole), sulle quali la curvatura molto forte esercita, attraverso la tensione superficiale, una pressione che può superare di parecchie volte quella atmosferica, hanno una tensione di vapore maggiore di quella presente su gocce di dimensione maggiore o sul liquido con una interfaccia piana; il fenomeno si verifica in molte circostanze ed unifica la tendenza dei cristalli di precipitato o dei grani di un solido metallico, delle gocce di liquido sospese in un gas a crescere spontaneamente di dimensioni a partire da una distribuzione, aggregandosi fino a trasformarsi in entità di dimensioni maggiori al limite in una unica entità:

ostwaldrip

 si tratta del cosiddetto teorema di Kelvin o del fenomeno dell’Ostwald ripening, che tra l’altro migliora la qualità dei gelati incrementando la dimensione media dei cristalli di ghiaccio. Quindi ringraziate il potenziale chimico se il vostro gelato è buono. Senza Ostwald ripening i gelati fanno schifo! E’ la differenza fra un “ghiacciolo” è un gelato.

E’ chiaro che nel lago ci deve essere una controspinta, che bilancia la differenza di potenziale gravitazionale; e tale controspinta è data dal diverso potenziale chimico del liquido con la profondità indotto dall’aumentata pressione; nel liquido a profondità maggiore avremo una maggiore pressione, che corriponde ad un maggiore potenziale chimico e un minore potenziale gravitazionale mentre in quello a profondità minore avremo un maggiore potenziale gravitazionale ed un minore potenziale chimico, ossia una minore pressione. La grandezza che con la sua costanza, la sua mancanza di gradiente, ci assicura dell’equilibrio è qui il potenziale gravito-chimico, ossia la somma del potenziale chimico e di quello gravitazionale.

In generale nelle acque del lago, considerando come h0 e P0 i valori ad una qualunque altezza o profondità di riferimento e M0 il peso molecolare del liquido e ρ la densità (intesa costante); sarà:

P- P0 =-ρg(h-h0)

possiamo scrivere che in un lago calmo non mescolato od agitato e considerando trascurabile la componente di temperatura sarà costante ad ogni altezza la somma:

Potenziale gravito-chimico= potenziale chimico + potenziale gravitazionale= costante (non dipende da h)

μ+M0gh=μ0+M0gh0

dove il pedice 0 indica il valore delle grandezze m e h all’altezza di riferimento.

A questo punto sostituendo la prima equazione nella seconda riscritta avremo μ=μ0-M0g(h- h0) e di conseguenza

μ=μ0+M0 (P- P0)/ ρ=  μ0+Vmol(P- P0) =μ0-Vmol ρg(h-h0)

dove Vmol è il volume molare del liquido. Questa equazione ci da’ la relazione molto semplice fra potenziale chimico del liquido e la sua pressione, che crescono di conserva; viceversa per l’altezza, come testimoniato dal segno negativo.

Facciamo un passo avanti e analizziamo il caso atmosferico.

Potrebbe in un primo momento sembrare contraddittorio che consideriamo il caso di un gas a diverse pressioni dato che nella definizione di Gibbs abbiamo escluso cambiamenti di volume. Ma le cose non stanno così, poichè stiamo qui parlando di un gas a diverse pressioni ma non del suo lavoro di volume conseguente al cambiare pressione; abbiamo cioè  due gas nella medesima quantità ed a due pressioni diverse (ma alla medesima temperatura) e ci chiediamo quale sia il massimo lavoro di non espansione che da esso possiamo ottenere.

Una buona obiezione potrebbe essere: ma come si fa per ottenere lavoro di non espansione da un gas a diverse pressioni e T costante?

E’ presto fatto.

Possiamo per esempio immaginare di metterlo in equilibrio con un liquido, in cui la solubilità dipenderebbe dalla pressione (legge di Henry, quindi più pressione, maggiore concentrazione nel liquido, basta qui fare l’esempio dei gas nell’acqua gasata) e di stimare il lavoro di pressione osmotica ottenibile mettendo poi tale soluzione a contatto con il liquido puro attraverso una membrana opportuna che faccia passare solo il liquido stesso e non il gas disciolto. In tal modo se le quantità relative sono scelte in modo opportuno le variazioni di volume complessivo sono trascurabili, ma si ottiene lavoro dallo spostamento del liquido attraverso la membrana.

osmotic

Come si comporta il potenziale chimico dei gas con la pressione? In generale il potenziale chimico aumenta con la pressione del gas o in altri termini un gas, il cui comportamento va in direzione da minimizzare il lavoro disponibile per mole (ossia il suo potenziale chimico), tende ad espandersi; lo stato finale del gas sarà quello in cui il gas occupa tutto il volume e quindi la pressione è la minima possibile.

Attenzione questo è vero anche in assenza di lavoro di volume!!

Se prendiamo infatti un gas a comportamento ideale, in cui le forze interne di attrazione siano trascurabili e una valvola che ne blocca il cammino, il gas tenderà ad espandersi una volta sbloccata la vavola fino al massimo volume possibile, ma non ci sarà alcun lavoro di volume in quanto non ci sono forze resistenti, nè interne, nè, SOPRATTUTTO, esterne. Avremo la cosiddetta espansione libera del gas: il potenziale chimico ci dirà correttamente che il gas si sposterà da uno stato a più elevata energia libera di Gibbs e quindi a più elevato potenziale chimico ad uno inferiore (attenzione le temperatura rimane qui costante).

Poniamoci allora il problema: nell’atmosfera terrestre in cui la pressione diminuisce con l’altezza (consideriamo al momento trascurabile il gradiente termico) come mai il gas che si trova più in alto e quindi possiede un maggior potenziale gravitazionale è in equilibrio (in atmosfera calma, assenza di vento) con il gas ad altezza minore che ne possiede uno minore? Si tratta di un problema analogo al precedente nel lago (e ricordate comunque che ad ogni buon conto spostando i due volumi di gas il volume complessivo non cambia).

Consideriamo sempre le equazioni che abbiamo usato prima:

Ancora una volta il potenziale gravito-chimico μGC sarà:

μGC=μ(p)+ M0gh

dove h è qui la variazione di altezza rispetto al livello del mare e p la pressione dell’atmosfera. Se siamo all’equilibrio, se l’atmosfera in assenza di vento e a temperatura costante presenta una situazione di stabilità, ciò significa che il lavoro disponibile per mole ossia μGC=0, quindi che                                          μ(p)=- M0gh

in cui il segno negativo ci dice una cosa importante, ossia che il potenziale chimico diminuisce con l’altezza, maggiore è l’altezza minore è il potenziale chimico ossia (in questo caso di temperatura costante) minore è la pressione, mentre sappiamo bene che il contrario avviene col potenziale gravitazionale, che aumenta con l’altezza.

Se conoscessimo la relazione μ(p) la relazione che lega nel caso del gas potenziale chimico e pressione, potremmo estrarre una relazione fra altezza e pressione in atmosfera, il che ci darebbe una utile legge; tale relazione in effetti esiste ed è la famosa equazione barometrica o ipsometrica su cui torneremo in un post successivo e che vedete qui espress graficamente.

Un ultimo caso potrebbe essere rappresentato dall’oceano, in cui abbiamo un fluido il cui potenziale chimico varia ANCHE con la concentrazione del sale, e non solo con la pressione (ancora una volta supponiamo costante la temperatura); in questo ultimo caso la costanza del potenziale gravito-chimico ci condurrebbe a concludere che la concentrazione del sale in genere cresce con la profondità, contribuendo ad aumentare il potenziale chimico, ma conservando la eguaglianza di quello gravito-chimico, poichè quello gravitazionale diminuisce. Tale fenomeno nell’oceano non è banale da rivelare a causa dei concomitanti fenomeni di aumento della pressione, variazione della temperatura e di mescolamento anche profondo dell’oceano dovuti alle correnti come il grande nastro trasportatore; tuttavia un’aumento generale della densità dell’oceano con la profondità è un dato acclarato e una relazione di questo tipo la trovate nel rif. [4] .

– continua

per approfondire:

[1] J.W. Gibbs, “A Method of Geometrical Representation of the Thermodynamic Properties of Substances by Means of Surfaces,” Transactions of the Connecticut Academy of Arts and Sciences 2, Dec. 1873, pp. 382-404 (quotation on p. 400).

[2] G Job,  F Herrmann Eur. J. Phys. 27 (2006) 353–371            Chemical potential—a quantity in search of recognition

[3] Fuchs H 1996 The Dynamics of Heat (New York: Springer)

[4] Kirkwood,    J, G., AND I. Oppenheim.    1961. Chemical    thermodynamics.    McGraw-Hill    Book Co., New York. pp. 246.

Atmosfera inurbana.

a cura di Luigi Campanella, ex Presidente SCI

L’atmosfera urbana è caratterizzata dalla presenza di un insieme vasto ed eterogeneo, da un punto di vista chimico-fisico, di particelle aerodisperse di dimensioni comprese tra 0,005 e 100 μm, costituite essenzialmente da minerali della superficie terrestre, prodotti di combustione e di attività industriali, artigiane, domestiche, sali provenienti da aerosol marini, prodotti di reazione in atmosfera. Le quantità di materiale particellare riscontrabili nelle atmosfere urbane sono in genere dell’ordine di 50-250 μg/m3.

pm
Fra queste particelle  viene considerata con sempre maggiore interesse per i suoi effetti sulla salute della popolazione esposta la frazione inalabile, ovvero la frazione granulometrica di diametro aerodinamico minore di 10 μm (PM 10). La frazione granulometrica del PM 10 formata da particelle di diametro aerodinamico maggiore di 2,5μm costituisce la frazione coarse, che una volta inalata può raggiungere l’apparato respiratorio superando il livello naso-faringeo, quella costituita da particelle con diametro aerodinamico minore di 2,5μm (PM 2,5) costituisce la frazione fine, che una volta inalata, è in grado di arrivare fino al livello degli alveoli polmonari.
Le polveri fini, o particolato, hanno soprattutto tre origini:

1. Mezzi di trasporto che bruciano combustibili
2. Impianti industriali
3. Impianti di riscaldamento

Le attuali conoscenze sul potenziale rischio cancerogeno per l’uomo dovuto all’esposizione del particolato, derivano da studi di epidemiologia ambientale e di cancerogenesi sperimentale su animali e da saggi biologici a breve termine, quali test di genotossicità, mutagenesi e trasformazione cellulare.

PM2.5_2011_mappa_13_02_2013_rid

PM2,5 – Stazioni di monitoraggio e superamenti del valore limite annuale (2011)
Fonte: ISPRA

PM10_2011__VMA_14_05_2013_rid

PM10 – Stazioni di monitoraggio e superamenti del valore limite annuale (2011)
Fonte: ISPRA

Si è riscontrata un’elevata attività mutagena nell’aria urbana di tutte le città del mondo e risulta crescente la preoccupazione per un possibile effetto cancerogeno sulla popolazione in seguito all’esposizione da particolato urbano. E’ infatti noto da molto tempo che estratti della componente organica da particolato urbano possono indurre cancro alla pelle in animali da esperimento e risultano mutageni in alcuni dei test adottati per tale valutazione.
Inoltre in alcuni studi è stato mostrato come l’esposizione ad aria urbana abbia provocato la formazione di addotti multipli al DNA, sia nel DNA batterico che nel DNA della pelle e del polmone del topo. Infine estratti della componente organica da particolato sono risultati positivi anche in saggi di trasformazione cellulare in cellule di mammifero.
Uno studio dell’US Environmental Protection Agency (USEPA) sui tumori “ambientali” negli Stati Uniti stima che il 35% dei casi di tumore polmonare “urbano” attribuibili all’inquinamento atmosferico sia imputabile all’inquinamento da particolato.
L’organizzazione Mondiale della Sanità ha riconosciuto che in Italia, nelle città più inquinate la percentuale dei decessi che si possono addebitare alle polveri può arrivare fino al 5%.
La variabilità della composizione chimica del particolato atmosferico fa si che, ai fini della protezione dei cittadini e degli esposti, la misura solo quantitativa di questo indice non sia del tutto significativa.
E’ per questo che negli ultimi anni vanno moltiplicandosi gli studi su questo inquinante, riguardanti il campionamento, l’analisi, la valutazione di tossicità.
La presenza nel particolato di elementi e composti diversi a differenti concentrazioni comporta quindi che, a parità di quantità, la qualità di esso possa essere differente da caso a caso e determinante ai fini della individuazione di situazioni di rischio e pericolo. È ovvio che, per gli aspetti più strettamente fisici del rischio ambientale, tale considerazione è relativamente meno influente in quanto tale azione si esercita attraverso un’ostruzione delle vie respiratorie da parte del particolato; ma quando da questi si passa a quelli chimici e quindi alle interazioni chimiche e biochimiche fra l’ecosistema, l’organismo umano, che ne fa parte, ed il particolato, si rende necessaria una valutazione integrale di tipo anche tossicologico finalizzata a valutare le potenzialità nocive del particolato in studio.
I test di tossicità integrale nascono con il fine di fornire in tempo reale risposte finalizzate a possibili interventi tempestivi in caso di situazione di allarme, superando i tempi morti dell’attesa dei risultati delle complesse e complete analisi chimiche e microbiologiche di laboratorio.

Le metodiche di campionamento da adottarsi devono essere compatibili con le procedure e le tecniche di preparazione dei campioni dell’analisi successiva. I metodi adatti a tale fine sono essenzialmente due: il metodo del filtro a membrana che permette di raccogliere direttamente il particolato su un supporto adatto alla successiva analisi mediante microscopio elettronico (MEA) ed il campionamento mediante impattori inerziali. Proposte sono anche venute da ricercatori chimici per adottare filtri di raccolta capaci di indicare la qualità del particolato in relazione alla sua tossicità.

per approfondire:

http://www.arpa.veneto.it/temi-ambientali/aria/qualita-dellaria/approfondimenti/metodi-di-misura-inquinanti-atmosferici

http://www.coboldi.it/dionex/padova_280208/PDF/bernardoni_PD280208.pdf

http://www.coboldi.it/dionex/milano_060607/PDF/Vecchi.pdf

Quanto è chimico il potenziale chimico? (1 parte)

a cura di C. Della Volpe

Da parecchi anni faccio un corso di elettrochimica per gli ingegneri; e quindi oltre a parlare di elettrochimica tout court devo affrontare il tema delle applicazioni pratiche: batterie, condensatori, celle a combustibile. In questo contesto non ci si puo’ limitare alle condizioni di equilibrio e all’equazione di Nernst.

La elettrochimica è una brutta bestia dal punto di vista didattico perchè ti costringe a parlare di termodinamica di non-equilibrio e dei sistemi complessi, ad una platea di studenti cresciuti in un mondo universitario che tende a considerare la termodinamica, come disse una volta una collega fisica qui di Trento, “una materia ottocentesca”, “una roba che ti impedisce di studiare la fisica del 900”.

Niente di più falso.

La termodinamica ha fatto enormi passi avanti nel 900, grazie soprattutto alla scuola di Bruxelles e a Prigogine. E questa termodinamica è una illustre sconosciuta per molti di noi.

Diventa un bel problema affrontare il problema della dissipazione in un contesto isotermo per esempio; gli studenti di ingegneria fanno un bel corso di Fisica Tecnica e quindi sanno tutto di teorema di Carnot, ma molto meno di secondo principio in senso lato, anche se puo’ sembrare strano.

L’approccio di Callen, poi, che considero molto utile in un contesto avanzato puo’ provocare grosse stragi concettuali se introdotto a livello medio basso, un po’ come gli orbitali dati in pasto agli studenti di primo anno delle superiori o comunque a quelli che non sanno cosa sia una funzione.

Per molti studenti universitari i processi di non equilibrio, anche se in stato stazionario poniamo o nel vicino equilibrio, come spesso si possono considerare i processi di conduzione elettrica nei solidi o anche in soluzione offrono qualche problema; la legge di Ohm diventa una legge empirica, non un’esempio, insieme alla legge di Fick, alla legge di Fourier, alla legge di Darcy, alle stesse reazioni chimiche, di processi termodinamici di non equilibrio in regime lineare (le reazioni chimiche lo sono solo a certe condizioni, ovviamente).

Tutte queste leggi che personalmente tendo a considerare insieme e a presentare insieme, specie se ne parlo con studenti di dottorato, sono considerate leggi empiriche e nemmeno i colleghi che le insegnano in contesti diversi (dalla geotecnica alla meccanica dei fluidi o alla fisica tecnica) spesso sanno che si tratta di fenomeni regolati in modo analogo e sussumibili sotto un’unico approccio teorico.

Ma fra gli altri c’è un concetto che offre difficoltà, ed è quello di potenziale elettrochimico; è ovvio che dietro questa difficoltà rimane la misconoscenza del potenziale chimico e perfino dell’energia libera di Gibbs.

Ricordo ancora la teorizzazione a riguardo di colleghi valenti, come il prof. Corradini, una delle nostre glorie nazionali, di cui seguii i corsi a suo tempo a Napoli, che era convinto (e lo diceva a lezione) che la chimica-fisica non fosse in fondo necessaria e che bastassero le conoscenze a riguardo date dai corsi di chimica generale; l’energia libera diventava quindi una formuletta:

                                                      ΔG=ΔH-TΔS.

Non so se abbia poi cambiato idea, ma la cosa ovviamente era ed è molto discutibile.

Ma si può fare qualcosa di più? Si può introdurre il concetto di potenziale chimico anche senza quell’apparato matematico che di solito lo contraddistingue? Si può presentare in modo elementare ma rigoroso? Ci sono vari tentativi in questo senso[2-3] a cui cerchero’ di rifarmi, sia pure in modo parzialmente originale, e ai quali vi rimando per maggiore completezza. Partiamo da qua: ma cosa è l’energia libera di Gibbs? Chi era Gibbs?

Josiah Willard Gibbs, è stato il primo grande teorico americano; ricevette a Yale il primo dottorato in Ingegneria dato in America; visse quasi tutta la sua vita in Connecticut, eccetto alcuni anni trascorsi in Germania (allora l’Europa era il centro del mondo culturale e scientifico e si veniva in Europa per “fare il dottorato” in certo senso). Pubblicò molte delle sue opere scientifiche in riviste del Connecticut (Transactions of Connecticut Academy) e fu talmente profondo nelle sue scoperte che alcuni dei suoi concetti e dei suoi approcci sono ancora oggi attuali. Le sue scoperte nel campo dell’analisi vettoriale e della meccanica statistica, che contribuì a fondare, gli valsero nel 1901 la Copley medal, una sorta di premio Nobel. Einstein stesso “riscoprì” alcune delle sue scoperte nel campo della meccanica statistica, delle quali riscoperte si rese conto solo dopo la pubblicazione dei testi di Gibbs in tedesco, dichiarando poi apertamente che il metodo di Gibbs era superiore al suo.

gibbsNel 1873 Gibbs descrisse la cosiddetta “energia disponibile”

the greatest amount of mechanical work which can be obtained from a given quantity of a certain substance in a given initial state, without increasing its total volume or allowing heat to pass to or from external bodies, except such as at the close of the processes are left in their initial condition[1].

ossia:

la massima quantità di lavoro meccanico che può essere ottenuta da una certa quantità di una certa sostanza in un dato stato iniziale, senza aumentare il suo volume totale o scambiare calore con corpi esterni (a meno che non siano lasciati nella loro condizione iniziale alla chiusura del processo)

 

E’ quello che comunemente definiamo come la massima quantità di lavoro di non-espansione; in cui la dizione lavoro di non-espansione corrisponde a quei lavori “meccanici”, ossia dovuti ad una forza che agisce per una certa distanza ma che non comporti espansione del sistema; come il lavoro di tipo superficiale, elettrico, gravitazionale o chimico. Atteniamoci al caso più semplice.

La variazione di energia di un sistema termodinamico semplice, ossia che escluda effetti di superficie, elettrici, gravitazionali, può essere scritta così:

Variaz. Totale = calore + lavoro di espansione+ lavoro di non-espansione

Seguendo la definizione di Gibbs quando i primi due termini a destra, che corrispondono a calore e lavoro di espansione, sono nulli rimane disponibile il lavoro di non espansione o energia libera di Gibbs.

Il nome della sola componente chimica è stato a lungo affinità ma dal 1923 si è trasformata in energia libera di Gibbs[nella prima edizione del libro di Lewis e Randall su cui si sono formate generazioni di chimici]; una riproposta di riusare il vecchio termine di affinità è stata poi fatta più recentemente da Prigogine con alcune modifiche.

Possiamo cercare di scrivere queste cose in un modo più formale che può essere il seguente:

Variaz. Totale = calore + lavoro di espansione+ lavoro di non-espansione

ΔU       =          q                      – P ΔV                           +μ ΔN

Se dividiamo il lavoro di non-espansione per il numero di moli N della sostanza abbiamo una nuova quantità specifica “per mole” che prende il nome di potenziale chimico; μ è quindi il potenziale chimico, una grandezza che ci dice per ogni mole di materiale quanto lavoro di non -espansione sia al massimo ottenibile.

Si tratta di un lavoro che può comportare lo “spostamento” del materiale medesimo lungo coordinate che sono geometriche o virtuali; geometriche se stiamo parlando di fenomeni come la diffusione di una sostanza da una soluzione più concentrata ad una più diluita oppure coordinate virtuali se gli atomi e le molecole si ristrutturano cambiando le loro distanze e i loro legami e trasformando così una sostanza in un’altra: una reazione chimica. Un termine che esprime per bene questa situazione è che il potenziale chimico ci da una misura della “tendenza a sfuggire” del nostro materiale, sfuggire dalla situazione di partenza per raggiungerne spontaneamente una seconda cui corrisponda un contenuto energetico minore, avendo compiuto un lavoro contro forze esterne; tale lavoro non-di-espansione potrà poi manifestarsi anche sotto forma di calore o di lavoro di espansione nel momento in cui la tendenza a sfuggire possa successivamente al suo manifestarsi avere effetto su parametri adeguati.

Ma anche altri termini possono contribuire, come il lavoro elettrico o il lavoro di superficie o altri che si possono introdurre a seconda del bisogno

In questo secondo caso possiamo avere parecchie combinazioni di notevole interesse; per esempio se ci riferiamo al moto di un materiale in un campo gravitazionale avremo una componente di lavoro gravitazionale, mentre se abbiamo del lavoro elettrico, avremo una componente elettrica; la somma della componente chimica e di quella gravitazionale prenderebbe il nome di energia libera gravito-chimica, mentre quella della componente elettrica e di quella chimica di energia libera elettrochimica.

In generale scriveremo (per evitare duplicati del simbolo q), sostituendo ancora al calore il termine T ΔS  in cui il termine  ΔS rappresenta semplicemente il rapporto fra il calore scambiato e la temperatura alla quale è stato scambiato:

Variaz. Totale = calore + lavoro di espansione+ lavoro di non-espansione

            ΔU       = T ΔS                         – P ΔV                          +μ ΔN+ V Δq + γ ΔA+etc

il significato dei nuovi simboli sarà introdotto più avanti.

Nel caso del potenziale elettrochimico avremo in particolare:

            ΔU       = T ΔS                         – P ΔV                          +μ ΔN+ V Δq

Se ci mettiamo nelle condizioni di Gibbs ci rimangono il terzo e il quarto termine a destra, dove V è il potenziale elettrico e q la carica elettrica adesso:  (μΔN+ VΔq)

e se  dividiamo la energia totale per il numero di moli della sostanza abbiamo una nuova quantità specifica “per mole” che prende il nome di potenziale elettro-chimico; esistono altri nomi non molto comuni per le altre combinazioni possibili; alcune non sono dotate nemmeno di un nome ad hoc.

Il potenziale elettrochimico = μ + V Δq/ ΔN; teniamo presente che il rapporto  Δq/ ΔN in un sistema elettrochimico può essere espresso in modo leggermente diverso perchè la carica elettrica è multipla della carica elementare dell’elettrone e sarà q= zNF, dove z è il numero di cariche per ione F, il Faraday, una mole di cariche elementari, per cui rimarremo con μ + V zF; questa quantità è il potenziale elettrochimico, una quantità molare che possiamo usare per comprendere una serie di fenomeni che vanno dal fenomeno di Volta, alla base di tutta l’elettrochimica fino al funzionamento di una cella elettrochimica e di una cella combustibile.

Un potenziale elettrochimico nullo corrisponde a scrivere

μ =- V zF

stiamo qui considerando una situazione in cui il sistema non ha energia disponibile, e quindi è all’equilibrio, questo è il senso dell’equilibrio: non c’è più energia disponibile per fare qualcosa; e in questa situazione si bilanciano due spinte contraddittorie: da una parte il potenziale chimico vero e proprio e dall’altra un potenziale elettrico.

Nel fenomeno di Volta, due metalli messi a contatto nel vuoto, il potenziale chimico delle cariche elementari dei due metalli non sarà il medesimo; gli elettroni dell’uno (le cariche che più facilmente possono spostarsi) tenderanno quindi a spostarsi da un metallo all’altro creando una piccola differenza di potenziale elettrico fino a bilanciare completamente la differenza di potenziale chimico delle cariche medesime. Questo fenomeno è molto veloce e una volta stabilitosi l’equilibrio non succede più nulla.

batteria

In una cella elettrochimica o in una cella a combustibile la diversa tendenza a sfuggire delle specie e la sua organizzazione accorta nelle due parti del dispositivo, la zona anodica e quella catodica provoca un flusso di materiale (ioni ed elettroni) in modo analogo; tuttavia qui abbiamo tempi molto più lunghi ed energie maggiori, consentendo un flusso di cariche che puo’ essere sfruttato per produrre energia in modo significativo; l’ordine esistente nella struttura della cella che contiene un separatore, che impedisce un mescolamento diretto, consente di forzare il flusso elettronico fuori dai materiali coinvolti ed ottenere in modo controllato energia elettrica.

La differenza di potenziale chimico agirà come una sorta di “pompa” che consente di stabilire e mantenere una differenza di potenziale eletttrico; la differenza di potenziale chimico tenderà a diminuire costantemente e manterrà fino a un determinato consumo dei reagenti una differenza di potenziale elettrico che consentirà il flusso degli elettroni; anche dopo la fine del flusso, in condizione di equilibrio quindi si potrà misurare una differenza di potenziale elettrico, seppur minore, ma essa non sarà ora più in grado di muovere le cariche in modo utile. Ci troveremo in una situazione non dissimile da quella finale dell’esperimento di Volta le due spinte sono all’equilibrio fra loro ed il lavoro disponibile è diventato nullo.

– continua

[1] J.W. Gibbs, “A Method of Geometrical Representation of the Thermodynamic Properties of Substances by Means of Surfaces,” Transactions of the Connecticut Academy of Arts and Sciences 2, Dec. 1873, pp. 382-404 (quotation on p. 400).

[2] G Job,  F Herrmann Eur. J. Phys. 27 (2006) 353–371            Chemical potential—a quantity in search of recognition

[3] Fuchs H 1996 The Dynamics of Heat (New York: Springer)

Megatoni, esplosivi e terremoti.

a cura di C. Della Volpe

Il megatone è una unità di misura della energia che corrisponde a quella rilasciata da una esplosione di un milione di tonnellate di tritolo, il composto inventato nel 1863 dal chimico tedesco Wilbrand; le sue capacità esplosive furono scoperte solo nel primo decennio del 900’; pensate che ad un certo punto della sua esplosiva storia fu depennato dall’elenco delle sostanze esplosive inglesi a causa della sua notevole stabilità; fra l’altro è anche molto tossico con potenti effetti sul corpo umano e sul suo metabolismo.

120px-Trinitrotoluene.svgDato che l’energia rilasciata dall’esplosione è di circa 4800 J per ogni grammo di tritolo, 1 milione di ton corrisponderebbero a 4.8 petajoules di energia (petajoule o PJ corrisponde a 1015 J). Ma per motivi convenzionali si è considerato che fosse più comodo usare un valore più basso, di 4184 J/grammo, ossia 4184 kJ/kg e quindi un megatone è  4.184 petajoules solamente.

Come si sa tale quantità, 4.184J, corrisponde a quella di una vecchia caloria e quindi abbiamo a che fare con 1000 calorie per grammo o una megacaloria per kg o una petacaloria per milione di ton. Insomma una voluta imprecisione introdotta per tener conto di una vecchia unità di misura; anche nella scienza queste cose, le abitudini,  hanno un peso, un peso tale da far accettare errori anche significativi.

Nel considerare questa unità salta agli occhi una cosa; la energia rilasciata dalla esplosione di un grammo di esplosivo TNT è notevolmente inferiore rispetto a quella rilasciata dalla combustione di 1 grammo di combustibile fossile; un kilogrammo di gasolio o di benzina o di petrolio cedono oltre 40MJ di energia durante la combustione, quindi circa 10 volte di più di quella ceduta da un kg di TNT e anche di altri esplosivi, per esempio la dinamite cede solo 7.5 MJ/kg; e gli effetti della esplosione quindi non dipendono tanto e solo dalla quantità di energia, ma dalla POTENZA dell’esplosione che si puo’ calcolare solo conoscendo il tempo, di solito molto breve, in cui la esplosione si completa, perchè come sappiamo la potenza è la energia diviso il tempo in cui viene ceduta.

Insomma si tratta di una unità di misura con un certo caos congenito; è vero che i megatoni ci dicono quanta energia è in gioco ma la medesima energia sarebbe ceduta da una quantità dieci volte minore di combustibile fossile; allora perchè non usare un combustibile fossile e scegliere invece un esplosivo?

Ovviamente si puo’ fare, le famose bottiglie “molotov” inventate dal generale russo Molotov erano delle bombe basate sulla deflagrazione di un combustibile tradizionale.

Il motivo per cui non conviene sta nel fatto che la potenza in gioco è inferiore perchè la velocità della reazione è inferiore; tale velocità di reazione si esprime in concreto nella velocità della onda esplosiva prodotta dalla combustione.

Nel caso di un fossile si ha al più una deflagrazione, ossia la onda esplosiva viaggia a velocità inferiore a quella del suono nel mezzo interessato, cioè in aria, mentre nel caso di un esplosivo come il TNT o la dinamite si ha una detonazione che produce una onda di pressione che viaggia a velocità superiore a quella del suono. Questa differenza di velocità ha una notevole conseguenza sugli effetti prodotti. E’ anche da chiarire che in realtà a voler essere precisi anche con un normale combustibile si puo’ avere una detonazione, ma occorre forgiare la camera di reazione in modo adeguato, per esempio sotto forma di sottile cilindro.

Nel caso delle normali combustioni poi si cerca di evitare assolutamente qualunque esplosione o comunque la si controlla in modo preciso cercando di massimizzare gli effetti termici più che meccanici; si mescolano i reagenti necessari (aria e combustibile), un esempio puo’ essere la esplosione del combustibile nel motore a scoppio appunto o nel motore diesel, in cui si evitano accuratamente le condizioni di “battito in testa” nel motore, le esplosioni incontrollate che danneggerebbero il dispositivo. L’ultimo grido in fatto di combustioni è in realtà la cosiddetta combustione senza fiamma o flameless. Il principio cardine di ridurre le emissioni inquinanti rimuovendo la “discontinuità” generata da qualsivoglia tipologia di fiamma o bruciatore ha avuto importanti ricadute tecnologiche, promosse in primis dalle sempre più stringenti normative ambientali in materia di emissioni inquinanti ed in misura maggiore dai benefici gestionali, funzionali ed economici conseguenti all’utilizzo delle tecnologie FTO (Flameless Thermal Oxidation)

Per comprendere come sono legate le tre cose: combustione che è comunque una reazione esplosiva, detonazione che produce una onda supersonica e deflagrazione che ne produce una subsonica, basta guardare la foto di una fiamma a cui si è appoggiata una retina metallica (che consente di guardare “dentro” la fiamma) o una fiamma in microgravità (sulla stazione spaziale) e subito dopo questo bel video ottenuto in condizioni di microgravità.

 fiamma1  fiamma2

Nella prima immagine si vede subito che la fiamma è una struttura ben precisa, il cui interno in un certo senso è “cavo”, ossia ha proprietà diverse dalla buccia luminosa, in cui si mescolano bene i reagenti aria e combustibile, mentre all’interno il mescolamento non è ancora avvenuto o in certi casi è solo parziale.

Nel filmato si vede con chiarezza che la reazione di combustione si sviluppa solo al confine in cui si mescolano il combustibile e il comburente, l’aria o l’ossigeno. Dunque nelle condizioni di microgravità, in assenza di convezione la fiamma che tutti noi conosciamo come un oggetto oblungo ed asimmetrico si trasforma in una superficie sferica che si espande; durante la sua espansione essa brucia letteralmente il suo corpo e consumando i suoi reagenti si spegne spontaneamente.

La deflagrazione è caratterizzata da una grande diminuzione della densità del gas a valle dell’onda d’urto e da una leggera caduta di pressione. La maggior parte del “fuoco” nella vita di tutti i giorni, dalle fiamme alle esplosioni, è tecnicamente una deflagrazione.

La detonazione è costituita da un’esplosione a velocità supersonica che genera un’onda d’urto, dove il materiale gassoso è in espansione ad alta temperatura, altissima pressione e densità pressoché costante. Nella detonazione, infatti, la densità dei gas combusti aumenta rispetto a quella della miscela fresca, mentre si verifica un rallentamento di questi ultimi rispetto alla velocità di fiamma, che è fortemente supersonica. I gas combusti seguono dunque l’onda di detonazione ma la vedono allontanarsi.

Nella gran parte degli esplosivi che detonano o alti esplosivi non si ha una combustione ma una reazione di autodistruzione di alcune molecole estremamente instabili che si dividono in molecole più piccole e gassose. La velocità di una tale reazione espressa in m/sec supera di solito di parecchio la velocità del suono nella miscela gassosa. Nelle condizioni più favorevoli il pentano per esempio detona, in una combustione che raggiunge al più i 1700m/sec,                                C5H12 + 😯2 —à 5CO2 + 6H2O

mentre la detonazione del TNT raggiunge quasi i 7000 m/sec

fiamma3

Quindi un alto esplosivo non ha il limite di doversi mescolare con il comburente in genere, è già tutto lì, oggi si direbbe che non ci sono i “lacciuoli” della combustione e la reazione procede molto velocemente, mentre anche nelle condizioni piu’ favorevoli un materiale fossile che è messo in condizione di detonare non riesce a fare molto meglio di quando deflagra. Consideriamo comunque che quando il normale gasolio si incendia lo fa ad una velocità inferiore ad 1 m/sec.

In una bomba atomica la velocità della detonazione raggiunge inizialmente i 30km/sec e surriscalda l’aria talmente da trasformarla in plasma, cosa che un normale esplosivo non potrebbe fare.

In conclusione allora un esplosivo cede una enorme quantità di energia ma sarebbe meglio considerare che i suoi effetti sono dovuti anche alla rapidità con la quale tale energia viene ceduta, cioè alla sua potenza,.

Tuttavia il modo di misurare gli esplosivi , almeno più comunemente si limita a considerare la loro energia e non la loro potenza.

Il megatone però ha ancora qualcosa da dirci; già perchè in realtà viene usato anche nella misura di altri fenomeni veloci, come per esempio i terremoti.

La scala più famosa per la misura dell’importanza dei terremoti è la cosiddetta scala  Richter. La magnitudine Richter di un terremoto è determinata dal logaritmo dell’ampiezza delle onde registrate dai sismografi. La formula originale è

formularichter

dove A è la massima escursione del sismografo di riferimento usato, A0 una funzione empirica che dipende dalla distanza dall’epicentro . A causa della scala logaritmica ciascun aumento unitario  nella magnitudine rappresenta un aumento di 10 volte nell’ampiezza misurata; in termini di energia pero’ ciascun aumento di  una unità  di magnitudine corrisponde ad un aumento di 31.62 volte e ciascun aumento di 0.2 unità al raddoppio dell’energia, perchè l’energia del terremoto varia con 103/2 dell’ampiezza dell’onda sismica.

La scala Richter si può allora trasformare in una scala direttamente energetica e l’energia si puo’ misurare in megatoni, in ton di TNT; in questo caso succede che un terremoto di magnitudine 0 corrisponda all’esplosione di 15g di TNT, ossia 63kJ, mentre un terremoto di magnitudine 2 a 63 MJ, 15 chili di TNT, 31.62×31.62 =1000 volte maggiore.

Ogni due gradi di aumento della magnitudine si ha un aumento di 1000 volte nell’energia del terremoto e quindi di un elemento nella scala dei prefissi:

mag. 4 -> 63 GJ, 15 ton,

mag. 6-> 63 TJ, 15 kilotoni,

mag. 8-> 63 PJ, 15 megatoni,

fino ad arrivare a 10 cioè 63 ettajoules e quindi 15 Gigatoni, mai registrato finora.

Anche qui tuttavia la sola energia non basta perchè occorre capire su quale ampiezza e qualità di zona geologica si scateni tanta energia e in quanto tempo eserciti i suoi effetti.

Tutto sommato le scale basate solo sull’energia non sono sufficienti a descrivere la ricchezza dei fenomeni naturali pur fornendocene una descrizione basilare.

Per fare una scaletta ricordiamo che comunque le bombe nucleari finora costruite accumulano una energia totale di 50 Gigatoni, corrispondente a tre volte più del piu’ potente terremoto che abbiamo indicato, una riprova che l’umanità rivaleggia con le forze della Natura quanto ad energia distruttiva, ma, ahimè,  non certamente quanto ad equilibrio.

I due volti della chimica.

a cura di Luigi Campanella, ex presidente SCI

A dispetto della sua immagine, peraltro infondata, della più ottusa delle scienze fisiche e della corrente chemofobica che la incrimina per l’avvelenamento e l’inquinamento delle nostre città e delle nostre compagne, la chimica è in realtà la scienza centrale del 20˚ secolo. Essa è la base per comprendere la biologia, la medicina, la fisica dello stato solido e l’intera gamma delle tecnologie entrate nella nostra vita di tutti i giorni. La Chimica aiuta anche a comprendere la cosmologia, la geologia, l’evoluzione, l’archeologia e la biotecnologia, nonché il sistema delle prevenzioni e dei rimedi igienici e sanitari.
In questo secolo – che possiamo definire come chimico – la nostra cultura di tutti i giorni ed il nostro benessere dipendono fondamentalmente dalla straordinaria abilità del chimico a sintetizzare, a domanda, strutture molecolari tridimensionali.

Allora perché l’immagine del chimico è così negativa? Perché c’è così grande ignoranza di essa fra i non addetti? Una ragione è forse nel fatto che all’inizio del secolo nessuna nuova grande teoria concettuale è emersa, che fosse paragonabile a quella di Planck. Einstein e Bohr in Fisica o di Freud in Psicologia? Oppure la chimica è meno integrata con la nostra storia culturale poiché non è riuscita a sollevare alcun interesse filosofico? Oppure ciò è dovuto al fatto che la prima immagine di creazione di beni materiali sostenuta da libri ed annunci pubblicitari è stata drammaticamente messa in discussione da disastri come quello di Bhopal?
Le due facce della Chimica possono essere  esaminate e discusse a partire da eventi storici importanti: così la prima guerra mondiale, la guerra del chimico, segna il passaggio da una chimica quella Vittoriana dedicata ai problemi della fame del mondo, della fissazione dell’azoto atmosferico ad una chimica che prepara esplosivi e armi chimiche, innescando all’interno della disciplina una serie di drammatici dilemmi: creazione o distruzione, promesse o minacce, mito o realtà, napalm in Vietnam o crescita della produzione alimentare, inquinamento o disinquinamento? Quest’ultimo merita un’attenzione particolare. Le richieste della Società hanno innescato delle risposte da parte della chimica che ora deve però fare fronte alle numerose richieste in termini filoecologici che nascono proprio dall’avere soddisfatto le prime. Le risposte non sono soltanto scientifiche in questo caso, e come tali, non suscettibili di soluzioni universali ed omogenee.
Le cose vanno meglio nel settore alimentare e in quello farmaceutico. Nel primo la rivoluzione chemio-gastrica e le proibizioni carcinogeniche sono i segnali di una sensibilizzazione verso la salvaguardia del diritto della scienza a proteggere il cittadino al di là degli interessi economici. Nel secondo l’ingegneria razionale delle molecole ha consentito grandi risultati sia sul piano industriale che sanitario. Si adatta assai bene a tale settore quanto John Kenly Smith ha scritto sull’industria chimica Americana definendola interattiva.
Passando dalle applicazioni alla teoria alcune domande vengono poste dal dibattito: c’è una via chimica alla teorizzazione? La chimica ha i momenti suoi propri e razionali o le modificazioni e gli sviluppi scientifici si devono tutti spiegare in termini di contingenze sociali e culturali, come sostengono alcuni sociologi in contrasto con alcune scuole chimiche che sostengono che gli aspetti cognitivi non possono essere mai né ignorati né sottomessi a quelli sociali? I fattori sociali sebbene non insignificanti nella scelta dei problemi chimici, specialmente in un contesto industriale e commerciale, assumono tutto il proprio ruolo nel contesto accademico quando i risultati delle scoperte devono divenire oggetto di investimenti e di scelte di mercato.

"The Alchemist", by Sir William Douglas, 1855

“The Alchemist”, by Sir William Douglas, 1855

La storia in questo caso dovrebbe e potrebbe essere di grande aiuto, ma qui si avverte la separatezza fra chimici e storici della chimica: la grande maggioranza dei ricercatori chimici non legge – e fa male! – libri di storia della chimica e si preoccupa più del rigore e della precisione delle proprie ricerche. Sebbene la chimica non sollevi profonde questioni filosofiche sul cosmo e sulle origini e significati della vita, non di meno esiste una base metafisica della chimica moderna che rappresenta una scienza matura e empiricamente ricca.
E’ certo però che i chimici possono avere successi limitati senza una prospettiva storica, ma di questo le colpe possono essere equamente distribuite per quanto riguarda il passato. Per il presente e per il futuro le correzioni sono sempre possibili ed i segnali si vedono. In fondo questa nota risponde a questo desiderio di integrazione culturale.