Il concetto di pH

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

Piacca, ovvero pH, un fonema indicante acidità, noto al grande pubblico non soltanto per via della pubblicità di detergenti e cosmetici (“che rispettano il pH della pelle”, “saponi a pH neutro”, ecc.) ma anche per i referti delle analisi di sangue e urina, in ambito “gastronomico” (pH degli oli commestibili, dei vini, ecc.), e per molte altre questioni. Inoltre di pH si parla nei corsi di chimica elementare in tutte le scuole secondarie superiori e in molti casi anche in quelle del secondo ciclo dell’obbligo.

Chi introdusse il concetto di pH e la relativa scala di misura dell’acidità (e della basicità) in chimica? Fu il chimico danese Søren Peter Lauritz Sørensen nel 1909 mentre studiava l’effetto della concentrazione di acidi e basi sulla velocità dei processi enzimatici. Poiché egli usava soluzioni diluite di acidi e basi aveva a che fare con valori molto piccoli di concentrazione di H+ (o di OH), diciamo ad es. minori di 10−1. Propose quindi di usare per esprimere queste concentrazioni l’esponente, cambiato di segno, della potenza di 10, e lo chiamò esponente dello ione idrogeno, con simbolo PH. [1a][1]. Il lavoro fu pubblicato contemporaneamente in tre lingue, tedesco, francese e danese. Scrive Sørensen: Con l’esponente ione idrogeno (PH) di una soluzione si intende il reciproco del logaritmo decimale del valore della normalità della soluzione basata sugli ioni idrogeno. [1b]

Vediamo in breve la vita professionale di Sørensen:

 SPL_Sorensen

Nacque a Havrebjerg il 9 gennaio 1868 e dopo aver terminato la scuola superiore fu ammesso all’Università di Copenhagen, a 18 anni. L’intenzione era quella di studiare medicina, ma influenzato da S.M. Jorgensen[2], scelse infine chimica. Ancora studente ricevette due medaglie d’oro, la prima per un articolo sul concetto di radicale chimico, la seconda per una ricerca sui composti dello stronzio. Mentre studiava per il dottorato si occupò di geologia della Danimarca e lavorò come assistente chimico all’Istituto Politecnico Danese. Conseguì il dottorato nel 1899 discutendo una tesi sugli ossidi del cobalto, sicché i suoi interessi iniziali furono essenzialmente rivolti alla chimica inorganica e analitica. Ma nel 1901 Sørensen fu chiamato a succedere a Johann Kjeldhal[3] come direttore del Dipartimento di Chimica del Laboratorio Carlsberg di Copenhagen, dove rimase per il resto della sua vita. Kjeldhal aveva lavorato su problemi di interesse biochimico e Sørensen proseguì su questa linea di ricerca. I suoi studi riguardarono in particolare la sintesi di amminoacidi, la messa a punto di metodi analitici, gli effetti di acidi e basi sulla cinetica di reazioni enzimatiche e ricerche sulle proteine. Nei due primi temi Sørensen si impegnò nella sintesi degli amminoacidi ornitina, prolina, e arginina. Egli dimostrò, fra l’altro, che il metodo di Kjeldahl per la determinazione dell’azoto amminico aveva una valenza più generale di quella ipotizzata dal suo scopritore. Nel 1907 mise a punto una metodica analitica per titolare un amminoacido con idrossido di potassio in presenza di formaldeide, noto come SFT (Sørensen Formol Titration). Successivamente, il lavoro sugli effetti di soluzioni tampone diverse (borati, citrati, fosfati e glicina) sul comportamento di proteine e enzimi lo condusse a utilizzare il metodo elettrochimico potenziometrico per studiare l’andamento della concentrazione degli ioni idrogeno, utilizzando un elettrodo di misura all’idrogeno e un elettrodo al calomelano come riferimento [1a, p. 150]. Fu in questo lavoro, concretizzatosi nel lungo articolo del 1909, che Sørensen definì il pH e la relativa scala di acidità utilizzata oggi in tutti gli ambiti scientifici [2][4]. Sørensen propose anche una scala basata sui colori assunti da un’opportuna miscela di indicatori ai vari pH. Insieme alla moglie studiò le lipoproteine, i complessi del monossido di carbonio con l’emoglobina e fu il primo a ottenere l’albumina di uovo in forma cristallina. Ebbe numerosissimi allievi e molti visitatori stranieri nel suo gruppo di ricerca. Fu anche attivo in campo tecnologico con contributi nell’industria danese dei liquori, dei lieviti e degli esplosivi. Morì a Copenhagen il 12 febbraio 1939.

JohanKjeldahl_in_1883

Johann Kjeldhal

Va quindi sottolineato che la scala del pH è stato solo uno dei tanti successi di Søren Sørensen in una carriera dedicata all’applicazione dei classici metodi fisico-chimici al nuovo settore della biochimica. In particolare le sue ricerche su enzimi e proteine, per le quali l’invenzione della scala del pH è stata solo un miglioramento metodologico, furono fondamentali, fornendo le basi per i successivi studi su questi composti azotati. Si può infine concordare con E.J. Cohn che: “Con Sørensen la chimica fisica delle proteine passò dallo stadio dell’osservazione e della descrizione qualitativa dei fenomeni a quello della loro caratterizzazione quantitativa in termini di leggi e di costanti” [3].

[1] S.P.L. Sørensen, a) Enzymstudien. II: Mitteilung. Über die Messung und die Bedeutung der Wasserstoffionenkoncentration bei enzymatischen Prozessen”. Biochemische Zeitschrift, 190921, 131–304; b) Enzyme Studies II. The Measurement and Meaning of Hydrogen Ion Concentration in Enzymatic Processes, in: http://www.chemteam.info/Chem-History/Sorenson-article.html

[2] F. Sgambato, S. Prozzo, E. Sgambato, R. Sgambato, L. Milano, Il centenario del pH (1909-2009). Ma in medicina, è proprio indispensabile utilizzare i logaritmi negativi per misurare gli idrogenioni? Parte I, Italian Journal of Medicine 2011, 5, 147—155.

[3] E.J. Cohen, Søren Peter Lauritz Sørensen (1868-1939), J. Am. Chem. Soc., 1939, 61, 2573-74.

[1] Successivamente il simbolo divenne PH e infine l’attuale pH. Sull’esatto significato della lettera p ci sono ancora pareri discordanti, quello più accettato è potenziale. Nel 1924 fu riconosciuto che al posto della concentrazione di H+ si doveva usare l’attività.

[2] S.M. Jorgensen (1837-1914), chimico danese, è considerato uno dei fondatori della chimica dei composti di coordinazione. Noto per il suo dibattito con Alfred Werner, anche se le sue teorie si dimostrarono errate, ebbero comunque una certa influenza su quella di Werner. Diede fondamentali contributi alla chimica del platino e del rodio.

[3] Johan Gustav Christoffer Kjeldahl (1849 – 1900), chimico danese si occupò in particolare delle proteine contenute nei malti per la fabbricazione della birra. Noto per il metodo di determinazione quantitativa accurata dell’azoto con un apparecchio di sua invenzione chiamato ancora oggi apparecchio di Kjeldahl. La descrizione dell’apparecchio è stata riportata in un post su questo blog: https://ilblogdellasci.wordpress.com/2012/12/07/chi-gli-ha-dato-il-nome-kjeldahl/

[4] In questo lavoro gli autori (dell’UO Medicina Interna, Ospedale Fatebenefratelli, Benevento), ricordano il centenario del pH (cosa che non mi risulta noi chimici italiani abbiamo fatto) analizzando in dettaglio la versione francese dell’articolo di Sørensen, ma fanno una stravagante proposta, eliminare –log[H+] (pH) dalla medicina e dalla chimica per medici, sostituendola con i nEq (nanoequiv.) di H+, poiché vi sarebbe linearità fra questi e il pH nell’intervallo di acidità compatibile con la vita. I futuri medici capirebbero di più in termini di equivalenti che attraverso il logaritmo… ???

Un chimico, un matematico e il calore. 1.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Rinaldo Cervellati

La sensazione del caldo e del freddo, del calore insomma, ha suscitato interesse e timore fin da quando l’essere umano ha preso coscienza di se e dell’ambiente che lo circonda. Molto sinteticamente si può dire che le due interpretazioni sulla natura del calore, quella dinamica (secondo cui il calore è dovuto al movimento delle parti dei corpi) e quella particellare (secondo la quale il calore è una sostanza diversa dalle altre) sono entrambe presenti nella filosofia naturale del mondo occidentale. Empedocle (495 a.c. – 430 a.c. circa) poneva il fuoco tra i quattro “elementi” dai quali si sarebbero formati i corpi materiali; Eraclito (535 a.c. – 475 a.c. circa), invece, sosteneva che il fuoco fosse un principio dinamico, e sarebbe quindi alla base di tutto. Aristotele (384 a.c. – 322 a.c. circa) aggiunse il fuoco come “quinta essenza” ai quattro elementi empedoclei cercando in questo modo di interpretare alcuni fenomeni termici, come il trasferimento del calore da un corpo caldo a uno freddo. Gli atomisti, con Democrito (460 a.c. – 370 a.c. circa) ragionavano in termini di atomi “caldi” e “freddi”, come ci riporta Lucrezio nel De Rerum Natura.

Le interpretazioni dei filosofi greci furono sottoposte al vaglio dei grandi scienziati e filosofi del XVII secolo che tuttavia, seppure con notevoli precisazioni, rimasero sostanzialmente ancorati alle concezioni precedenti. Galileo (1564-1642), per esempio, condivideva più la concezione democritea, infatti riteneva che del calore fossero responsabili corpuscoli infimi (“minimi ignei”) in continua agitazione, ritenendo che il freddo derivasse dalla privazione di tali corpuscoli. Anche Francesco Bacone (1561-1626), basandosi sul calore sviluppato per attrito, giunse alla conclusione che il calore è un moto di espansione. Cartesio (1596-1650) e Newton (1643-1727), invece, pur con certe differenze, sostennero che il calore dei corpi era dovuto all’agitazione o alla vibrazione delle particelle costituenti i corpi.

E i chimici? Com’è noto nel XVII e soprattutto nel XVIII secolo la chimica fu dominata dalla (o meglio dalle) teorie del flogisto, un principio non isolabile che interverrebbe nella formazione (perdita di flogisto) e scomposizione (acquisto di flogisto) degli ossidi metallici (calci). La classica teoria del flogisto, dovuta a G.E. Stahl[1] che la enunciò nel 1716, fu poi adattata per interpretare l’aumento di peso nella formazione degli ossidi giungendo a ipotizzare un peso negativo (!) per il flogisto. Queste teorie ebbero comunque un notevole influsso sull’interpretazione del calore, il flogisto poteva infatti essere considerato come il vero “principio” del fuoco.

Sebbene già attorno al 1730 le teorie del flogisto fossero state messe in discussione da alcuni chimici, fra cui l’olandese H. B. Boerehaave (1668-1738) e il russo M. Lomonosov (1711-1765), queste furono praticamente archiviate solo nel 1774 in seguito all’esperimento detto “dei dodici giorni” effettuato da Antoine Laurent Lavoisier. Tale esperimento portò alla scoperta che la formazione degli ossidi è dovuta a un gas contenuto nell’aria, che Lavoisier chiamò oxigène.lavoisier2

 laplace

Negli anni successivi, oltre a continuare le ricerche che condussero alla definitiva enunciazione della legge di conservazione della massa, Lavoisier eseguì, insieme al matematico e fisico matematico Pierre Simon de Laplace[2] una serie di esperimenti su fenomeni coinvolgenti il calore, raccolti in una memoria presentata all’Académie des Sciences il 18 giugno 1783 col titolo “Mémoire sur la chaleur” [1]*.prima pagina memoire

Questo è un raro esempio di collaborazione fra un chimico e un matematico. La memoria, suddivisa in quattro articoli, non costituisce solo il primo trattato di Calorimetria, ma è anche un manuale pratico e interpretativo di fenomeni termochimici. Nell’introduzione i due Autori spiegano i motivi che li hanno spinti a pubblicare i risultati delle loro ricerche:

Questa memoria è il risultato di esperimenti sul calore che abbiamo fatto durante lo scorso inverno, insolitamente mite, cosa che non ci ha permesso di fare di più. Ci eravamo dapprima proposti di attendere un inverno più freddo prima di pubblicare qualsiasi cosa su questo argomento, avremmo così potuto ripetere con tutta la cura possibile gli esperimenti, e farne di più, ma ci siamo impegnati a rendere pubblico questo lavoro anche se molto imperfetto, dalla considerazione che il metodo che abbiamo usato possa essere di qualche utilità per la teoria del calore e, per la sua precisione e generalità possa essere adottato da altri fisici…[1, p. 355]

Passano poi a descrivere l’organizzazione della memoria in quattro articoli:

… nel primo, presenteremo un nuovo metodo di misurare il calore; presenteremo nel secondo i

risultati delle principali esperienze che abbiamo fatto; nel terzo esamineremo le conseguenze che si possono trarre da queste esperienze, infine, nel quarto, discuteremo la combustione e la respirazione. [1, p. 355]

All’inizio del primo articolo gli Autori lamentano la mancanza di dati quantitativi negli studi fatti in precedenza sui fenomeni termici, anche se riconoscono la scelta di una scala per la misura della temperatura basata sui due punti fissi: la fusione del ghiaccio e l’ebollizione dell’acqua alla pressione atmosferica, come pure la ricerca di un fluido le cui variazioni di volume sono praticamente proporzionali alle variazioni di calore.

Ma… la conoscenza delle leggi che segue il calore, quando si diffonde in corpo, è lontana da quello stato di precisione tale da poter sottoporre ad analisi i problemi relativi… agli effetti del calore in un sistema di corpi irregolarmente riscaldati, particolarmente quando la miscela si decompone e forma nuove combinazioni. [1, p. 356]

Dopo aver ricordato le due ipotesi sulla natura del calore, Lavoisier e Laplace affermano che per poter proseguire il lavoro occorre stabilire esattamente cosa si intende per calore libero, calore latente, capacità termica e calore specifico di un corpo e forniscono le definizioni per queste grandezze, definizioni che ci sono oggi famigliari[3].

Prendono in esame alcuni fenomeni di equilibrio termico e di trasferimento di calore e cercano di interpretarli in base a una o all’altra teoria per concludere che:

Non decideremo quindi fra le due ipotesi precedenti; vari fenomeni appaiono favorevoli alla prima, ad esempio, il calore prodotto dall’attrito di due solidi; ma ci sono altri che possono essere spiegati più semplicemente dalla seconda… come non possiamo decidere fra queste due ipotesi sulla natura del calore, dobbiamo però accettare un principio comune a entrambe.

Se, in una combinazione o in un cambiamento di stato, vi è una diminuzione del calore libero, questo calore riapparirà quando le sostanze ritornano al loro stato precedente, e, viceversa, se in una combinazione o in un cambiamento stato, vi è un aumento di calore libero, questo calore scomparirà nel ritorno delle sostanze al loro stato originale[4].

Questo principio è ora confermato dall’esperienza, la detonazione del nitre [nitrato di sodio] ce ne fornirà in seguito una prova determinante. [1, pp. 358-359]

A questo punto gli autori descrivono il termometro a mercurio che useranno negli esperimenti e la scala termometrica (la Réaumur, simbolo r). Propongono una regola generale per la misura del calore specifico di un corpo per mescolamento scegliendo arbitrariamente una sostanza di riferimento, per esempio l’acqua:

Indicando con m la massa del corpo più caldo alla temperatura a, con calore specifico q, con m’ la massa del corpo meno caldo alla temperatura a’ con calore specifico q’, se b è la temperatura di equilibrio della miscela, ammettendo che il calore ceduto dal corpo più caldo sia stato tutto acquistato dal corpo meno caldo, dovrà essere:

m q . (a – b) = m’q’ . (b – a’)

da cui si ottiene:

q/ q’ = m’. (b – a’) / m . (a – b)

che è il rapporto fra i calori specifici dei due corpi.[1, pp. 362-363]

Gli autori riportano l’esempio del mescolamento di acqua e mercurio a temperature diverse giungendo alla conclusione che il calore specifico del mercurio è circa 33 volte più piccolo di quello dell’acqua (29.9 in base ai dati attuali).

Discutono in dettaglio i limiti e le fonti di errore del metodo del mescolamento, poi attraverso lunghe considerazioni su un modello ipotetico di strumento di misura del calore e dopo aver elaborato le equazioni per il trattamento dei dati, giungono alla descrizione meticolosissima del calorimetro a ghiaccio di loro invenzione.

calorimetroQui ne daremo una breve descrizione. Con riferimento alla figura originale, il calorimetro progettato e fatto costruire da Lavoisier e Laplace è formato da tre recipienti concentrici: nel più interno si colloca il corpo in esame; in quello intermedio il ghiaccio; in quello più esterno si colloca dell’altro ghiaccio che ha la funzione di isolante, evitando che il calore dell’ambiente esterno fonda il ghiaccio del recipiente intermedio. Anche il coperchio è cavo e riempito di ghiaccio. In base alla quantità d’acqua che fuoriesce dal recipiente intermedio mediante un apposito condotto si può misurare il calore fornito dal corpo nel contenitore più interno, o calcolarne il calore specifico. Per misurare il calore sviluppato in una reazione chimica si introducono i reagenti in un matraccio di vetro posto nel più interno dei recipienti del calorimetro sopra un supporto isolante. Nel matraccio vi è anche la possibilità di provocare una scintilla elettrica per innescare la reazione[5].

I due Autori forniscono anche indicazioni precise per misurare il calore assorbito in una trasformazione fisico-chimica, come la dissoluzione di certi sali[6] [1, p. 366].

Il primo articolo della memoria termina con un riassunto delle precauzioni usate per garantire l’attendibilità dei risultati, la temperatura del laboratorio non deve superare i 3-4°r il che riporta a quanto dichiarato nell’introduzione, gli autori avrebbero voluto ripetere gli esperimenti in un inverno gelido…

(continua)

Riferimenti.

[1]. M.rs Lavoisier & de Laplace, Mémoire sur la Chaleur, in: Histoire de l’Académie Royale des Sciences, Anno 1780, Paris, 1784, pp. 355-408. *Le parti della Mémoire tradotte in italiano sono opera dell’autore del post

Note.

[1] Georg Ernst Stahl (1659/60-1734), medico e chimico tedesco, grande personaggio sia in medicina che in chimica. Fra le sue opere, i trattati sullo zolfo e sui sali, gli Experimenta, observationes… chymicae et physicae. La sua teoria del flogisto, seppure errata, è considerata dagli storici come il primo tentativo di razionalizzare la chimica in un’unica teoria.

[2] Pierre Simon de Laplace (1749-1827), matematico e fisico francese ha dato contributi fondamentali allo sviluppo dell’analisi matematica, della statistica, della meccanica, dell’astronomia e della cosmologia. Famoso il suo Exposition du système du monde.

[3] Lavoisier e Laplace sono ben consapevoli che il calore specifico dipende dalla temperatura ritengono tuttavia che nell’intervallo 0°r – 80°r i calori specifici possano essere ritenuti approssimativamente costanti. Per le applicazioni pratiche questa approssimazione è utilizzata anche oggi.

[4] Gli autori anticipano qui quella che oggi chiamiamo 1a Legge della Termochimica o Legge di Lavoisier-Laplace.

[5] Si tratta di un calorimetro isobaro, sicché, come diremmo oggi, misura la variazione di entalpia, ΔH della trasformazione.

[6] Come noto oggi chiamiamo esotermiche le trasformazioni che avvengono con sviluppo di calore, endotermiche quelle che avvengono invece con assorbimento.

Astrochimica chirale.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

McGuire e colleghi hanno individuato per la prima volta, nella nube B2 del Sagittario, nella direzione del centro galattico, lo spettro di una molecola chirale o otticamente attiva: l’ossido di propilene.astro1

Difficile oggi dai centri delle nostre citta ultrailluminate riuscire a vedere la Via lattea e ancor più individuare la Nube del Sagittario. Da ragazzino riuscivo a vederla dalla periferia di Napoli, a Capodimonte, nei pressi dell’Osservatorio; oggi qui dal Trentino dovrei andare in montagna per vederla.

astro2

Comunque, bando ai ricordi. La molecola di ossido di propilene è questa:

astro3Come vedete è una molecola la cui immagine speculare non è coincidente con la molecola stessa; come sanno tutti i chimici questa struttura ha come effetto che le due molecole pur possedendo proprietà fisiche identiche non sono identiche affatto, anzi! Diversa è la loro interazione con la luce polarizzata, ma soprattutto con altre molecole chirali, una sottile differenza che è uno degli aspetti decisivi della vita come la conosciamo sulla Terra.

Si tratta della prima molecola chirale ad essere stata trovata nello spazio interstellare (e con questa tecnica spettroscopica); altre molecole erano state individuate in comete o in meteoriti, ma ancora nessuna in una nube interstellare, come questa, che è una vera fucina di nuove stelle a 400 anni luce dal centro galattico e a 25.000 anni luce da noi.

Come hanno fatto? Hanno modellato lo spettro di una molecola di ossido di propilene nell’ambiente della nube, concludendo che c’erano solo tre transizioni ben rivelabili che fanno parte della cosiddetta Q-branch, ossia quella parte di spettro infrarosso contenente transizioni vibrazionali con il medesimo numero quantico rotazionale. (ΔJ = 0).

Di queste tre ne hanno potuto osservare due a 2.342 e 2.141cm nei dati del progetto PRIMOS e la terza con il radiotelescopio Parkes (12.1, 12.8, and 14.0 GHz ).

In conclusione hanno confermato l’esistenza della molecola e sperano in futuro di poter incrementare la risoluzione e l’analisi dello spettro per poter individuare segni di “e.e.” ossia di eccesso enantiomerico, ovverossia di eccesso di uno dei due enantiomeri; eccesso enantiomerico che esiste nella vita sulla Terra e anche in molti dei campioni di meteoriti o di comete; la causa probabile dell’ipotetico eccesso, che finora è stato trovato nelle molecole di meteoriti e comete, potrebbe essere la presenza di radiazione circolarmente polarizzata (presente nella Nube del Sagittario); tale eccesso potrebbe confermare la causa prima della condizione che ha portato poi ad uno dei misteri ancora insoluti dell’origine della vita: l’eccesso di una sola specie enantiomerica nei composti organici coinvolti, come è il caso degli amminoacidi L nella vita terrestre: NOI!

Se un piccolo eccesso esiste la modellazione di processi lontani dall’equilibrio conferma che tale eccesso (anche in piccola fluttuazione) può essere amplifcata e diventare dominante. A questo proposito cito sempre il bellissimo lavoro sperimentale di Kondepudi (Science. 1990 Nov 16;250(4983):975-6.

Chiral symmetry breaking in sodium chlorate crystallization. Kondepudi DK, Kaufman RJ, Singh N.), un esperimento che si potrebbe ripetere con pazienza in un laboratorio scolastico; lo conoscevate?

Emergence and Amplification of Chirality via Achiral–Chiral Polymorphic Transformation in Sodium Chlorate Solution Growth,  Niinomi, H. Miura, Y. Kimura, M. Uwaha, H. Katsuno, S. Harada, T. Ujihara, and K. Tsukamoto Cryst. Growth Des. 14 (2014)

astro4

Termino con un invito.

Se fra i lettori ci sono altri astrofili come me che di tanto in tanto mettono il loro C8 o il loro Takahashi o il loro binocolo col muso all’insù verso il cielo notturno perchè non si fanno vivi sul blog? Meglio ancora se astrochimici. C’è tanta chimica nell’astronomia, anche da casa; guardate qua:

astro5Nebulosa di Orione, le quattro stelle centrali si chiamano “il trapezio”; dal centro di Trento; 24 gennaio 2016; Canon 550D 3200 ASA 15sec C8 primo fuoco. Non è bella ma è la mia prima foto di Orione!

E la spettroscopia casalinga! Fatta con pochi soldi ed un filtro che è un reticolo a 100 linee/mm

Arturo  astro6
Procione  astro7
Regolo  astro8
Giove  astro9

15 aprile 2015 – Condizioni: cielo sgombro di nubi; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

Spica  astro10

19 aprile 2015 – Condizioni: cielo nuvoloso; Celestron C8 – oculare zoom vixen 8-24 – filtro star analyser 100 – Samsung Note 2 in afocale

sole  astro11

Giorni precedenti Sole con prisma senza telescopio

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

Glutine non è una parolaccia.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Glutine è parolaccia ? sembrerebbe a giudicare dal numero crescente di prodotti alimentari, ma anche cosmetici, che si affrettano a dichiarare che non contengono glutine, anzi, come si dice secondo la moda anglofila imperante, “gluten free”.

Non c’è dubbio che una parte della popolazione italiana, si stima circa due percento, è “allergica” al glutine essendo afflitta da celiachia, una malattia che provoca disturbi anche gravi in chi mangia glutine.

Poiché il glutine è l’insieme delle proteine del frumento, sembra che si stia diffondendo anche una moda di ostracismo dello stesso frumento nella dieta italiana. Come chimico, non esprimo alcun giudizio di natura biologica o medica sulle “allergie” alimentari: mi limito a parlare degli aspetti chimici del glutine, un complesso di proteine presenti nel frumento in ragione del 8-12 percento del peso della farina (quella che si ottiene dal frumento tenero) o della semola (lo sfarinato che si ottiene dal frumento duro). Il resto degli sfarinati di frumento è costituito da amido e da limitate quantità di grassi e sali minerali.

Il glutine ha fatto la sua comparsa in una pubblicazione scientifica del chimico bolognese Bartolomeo Beccari (1682-1766), di cui quest’anno cadono 250 anni dalla morte. Straordinario personaggio del mondo scientifico del suo tempo; il padre farmacista aveva assicurato al figlio una buona istruzione che permise al giovane Bartolomeo di laurearsi in filosofia e medicina nel 1704.

Jacopo_Bartolomeo_BeccariBeccari si dedicò a esperimenti scientifici che descriveva in “tesi” all’Accademia delle Scienze e per i quali gli fu assegnata una cattedra dapprima di fisica sperimentale e poi di chimica nell’Università di Bologna. In quei tempi chimica, fisica e medicina e la stessa filosofia consentivano di affrontare la conoscenza della natura e della vita in una maniera davvero interdisciplinare che, purtroppo, si è andata perdendo col passare dei secoli. Beccari si dedicò allo studio dell’infiammabilità dei gas che fuoriuscivano da alcuni crepacci delle colline bolognesi; osservò che alcuni animali e alcuni minerali (per esempio il solfato di bario rinvenuto nelle colline bolognesi e chiamato “Pietra di Bologna”) presentano una luminosità che sarebbe stata interpretata come fosforescenza, fonte di luce, dal nome greco della luce, φῶς. Si occupò di ecologia, come diremmo oggi, studiando l’origine dei miasmi che si formano nelle paludi e il loro effetto sulla salute. Il granduca di Toscana lo incaricò di studiare se tali cattivi odori avrebbero potuto essere attenuati tagliando la macchia intorno a Viareggio, allora terreno paludoso, e se i miasmi di tali paludi avrebbero potuto arrivare a danneggiare gli abitanti di Lucca, a una ventina di chilometri dalla costa, e Beccari lo escluse.

Nelle ricerche sulla fisiologia dell’alimentazione Beccari si dedicò alla analisi del frumento e del latte e descrisse, in un saggio del 1728 intitolato “De frumento”, la separazione dalla farina di frumento di due differenti frazioni.

Versando la farina in acqua Beccari osservò che una parte galleggiava mentre una parte si depositava sul fondo del recipiente. Ripetendo l’esperimento più volte isolò la parte più leggera, che oggi sappiamo essere l’amido, e la descrisse come dotata di caratteri “vegetali”, mentre l’altra, che oggi conosciamo come glutine, aveva caratteri “animali”. Scaldando le due frazioni, Beccari osservò che dall’amido si liberavano gas “acidi”, mentre dal glutine di formavano vapori “alcalini”, e oggi sappiamo che ciò è dovuto ai composti azotati che si formano durante la scomposizione delle proteine del glutine. A titolo di curiosità l’analisi del contenuto di glutine nelle farine si fa ancora oggi impastando la farina con acqua e poi manipolando l’impasto sotto un sottile getto di acqua fino a quando tutto l’amido è stato asportato e resta un residuo elastico e appiccicaticcio, di colore giallo, una procedura che veniva mostrata nelle esercitazioni di merceologia ai miei studenti universitari e che è una variante del metodo di Beccari.

Il glutine è costituito da due principali proteine, la gliadina, costituita dall’unione di circa 100-200 amminoacidi (principale responsabile della celiachia), e la glutenina, costituita dalla combinazione di circa 2.000-20.000 amminoacidi. Proprio il carattere gommoso ed elastico del glutine consente di ottenere, con gli sfarinati di frumento, l’impasto per il pane e per la preparazione delle paste alimentari. Il frumento è l’unico cereale dotato di queste caratteristiche e se non altro bisogna dirgli grazie. Va peraltro detto che, dal punto di vista nutritivo, le proteine del glutine sono povere di lisina, uno degli amminoacidi essenziali (i componenti delle proteine che devono essere apportati con la dieta), e quindi una alimentazione a base di pane e pasta deve essere integrata con altri alimenti contenenti proteine con una migliore composizione di amminoacidi, come quelli di origine animale o delle leguminose.

glutine2

blog.giallozafferano.it

glutine

Pochi numeri stanno ad indicare l’importanza anche economica del frumento. L’Italia produce ogni anno circa tre milioni di tonnellate di pane e prodotti da forno utilizzando circa 8 milioni di tonnellate di frumento tenero, metà di produzione nazionale e metà di importazione. Inoltre produce circa 3,5 milioni di tonnellate all’anno di paste alimentari, per la metà destinate all’esportazione, usando circa 7 milioni di tonnellate di frumento duro, anche questo per circa metà di produzione nazionale e per circa metà di importazione.

A livello mondiale, i 750 milioni di tonnellate di produzione annua di frumento sono ancora insufficienti per sfamare tanta parte della popolazione terrestre.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ritrovamenti

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

Il senso dello scrivere su un blog che si occupa di chimica, è quello di divulgare la disciplina cercando di farla apprezzare a chi non la conosce, oppure toccare temi che riscuotano interesse per chi invece lavora nel settore sia come insegnante o docente, oppure direttamente in laboratorio o nell’industria.
Alcuni libri di divulgazione chimica sono dei long sellers. Uno fra tanti è per esempio “I bottoni di Napoleone” dove con rigore scientifico e capacità di scrittura viene raccontata la storia di diciassette molecole che hanno cambiato le nostre abitudini, la nostra vita quotidiana e addirittura la storia.

i-bottoni-di-napoleone-come-17-molecole-hanno-L-8_Lasq

Tra le abitudini che ho c’è quella di girare per librerie e bancarelle di libri alla ricerca di qualche libro magari fuori catalogo, oppure interessante per il lavoro che svolgo.
Spesso questa ricerca è infruttuosa, altre volte invece si trovano delle piccole chicche.
Negli anni ho salvato dal macero due volumi, una ristampa anastatica del 1948 del trattato di chimica analitica del Prof Villavecchia. Interessante perché mostra una chimica analitica ormai scomparsa, fatta di tanta manualità ormai sostituita dalla strumentazione moderna. Ma leggendo quei volumi negli anni ho scoperto che alcune tecniche possono essere utilissime ancora oggi, come ho già avuto modo di raccontare.
https://ilblogdellasci.wordpress.com/2016/05/16/ritorno-alla-titolazione/
Oggi molto spesso le librerie chiudono con allarmante frequenza, e trovare libri che interessano assume quasi il significato di un salvataggio. La sensazione di preservare la cultura che oggi sembra quasi dimenticata a favore di argomenti più frivoli come per esempio il gossip.
Soltanto pochi giorni fa la mia attenzione è stata immediatamente attratta da un libro che volevo da tempo e che ho trovato a metà prezzo in una libreria di Varese.
Il libro è “La chimica di tutti i giorni” di Gunter Vollmer e Manfred Franz.

$_12

E’ un libro ormai fuori catalogo quindi averlo trovato è stata una piacevolissima sorpresa. A parte le condizioni ottime del volume (praticamente come nuovo) è importante per me averlo perché è un utile prontuario per conoscere i prodotti che usiamo ogni giorno, ma soprattutto perché la mia curiosità per la chimica nacque proprio da questo. Capire cosa c’era in prodotti comuni come il dentifricio o nei profumi.
Erano le curiosità di quando frequentavo la scuola elementare, e non sempre trovavo chi le potesse soddisfare.
Conoscere è il primo passo da fare per apprezzare. So che questo libro ritrovato mi sarà utilissimo per le molte domande che spesso mi vengono rivolte. Per esempio un collega che voleva sapere cosa contenesse la schiuma da barba che usa per radersi. Immancabile il tema acqua che viene trattato anche in relazioni ai filtri per uso domestico e al loro utilizzo e funzionamento.
Mi fa tornare in mente un episodio ormai lontano nel tempo risalente a circa trent’anni fa.
Una piccola azienda produttrice di lacca per capelli e prodotti per la cura del corpo mi contattò per un colloquio di lavoro. Oggi sembra quasi una cosa impossibile vista la perdurante crisi economica. Ma allora succedeva abbastanza frequentemente. Mi presentai al colloquio con molte speranze pensando mi venisse proposto un lavoro in laboratorio oppure in un reparto produttivo. In realtà scoprii che avrei dovuto fare l’agente di commercio presso i negozi di parrucchiere o le estetiste. A loro il chimico serviva perché utilizzare qualche formula chimica nella presentazione del prodotto, oppure fare digressioni sulla struttura proteinica dei capelli sarebbe stata la chiave di volta per vincere le resistenze dei possibili clienti che si riteneva non avessero alcuna nozione anche basilare di chimica.
Ma non mi sentivo portato per fare il venditore, e  da questo punto di vista mi sembrava di dover fare l’imbonitore, quasi fossi il professor Dulcamara dell’Elisir d’amore di Donizetti. La cosa finì con un nulla di fatto.
Adesso ho a disposizione il mio libro salvato. E anche se molte curiosità sono ormai soddisfatte lo sto leggendo con molto piacere e perché no, anche con un pizzico di nostalgia pensando ai miei primi tentativi di ingresso nel mondo del lavoro.
E mi viene anche in mente che come diceva Primo Levi “Siamo chimici, cioè cacciatori”.
Anche di libri.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Ecocompatibilità ed ecosostenibilità:il contributo dei metodi chimici innovativi per i Beni Culturali

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Luigi Campanella, ex presidente SCI

 

Da ricerche economiche intraprese nel settore dei Beni Culturali risulta che quest’ultimi in Italia producono all’incirca 40 miliardi di Euro l’anno, pari a 2.6% del PIL, mentre in Inghilterra rendono 73 miliardi di Euro. Se si confronta questo dato con il numero di siti dichiarati patrimonio mondiale si apprende che l’Italia occupa il primo posto in classifica con 35 siti, pari a 11.2% del patrimonio mondiale totale contro 18 siti del Regno Unito, pari al 5.8%. Le cause di questa apparente contraddizione vanno ricercate nel degrado e nell’impoverimento economico dei siti culturali per chiusure, perdite o riduzioni, nella mancanza di un’attività programmatica, nella localizzazione preferenziale in città che soffrono dell’inquinamento urbano e anche del ritardato trasferimento di innovazione tecnologica.

Nella discussione ed attuazione di strategie che mirino ad un miglioramento della situazione attuale, il termine “sostenibilità” è ormai frequente. Esso può essere inteso sotto l’aspetto ambientale, igienico-sanitario, economico. Per il settore del restauro e della conservazione quest’ultimo si riferisce all’ottimizzazione dei cicli di manutenzione rispetto al rapporto costi/benefici, dove nei costi sono compresi sia quelli operativi sia quelli legati al degrado del bene e nei benefici le ricadute in termini di visitatori ad un patrimonio in salute e sempre disponibile al pubblico. Per quanto riguarda, invece, la sostenibilità sotto l’aspetto igienico-sanitario è da tenere presente che i restauratori sono figure professionali molto esposte sia a malattie professionali sia a problemi di sicurezza in ambiente di lavoro a causa dei metodi e dei materiali impiegati. L’esteso uso di solventi chimici nel settore (durante la pulitura, ma anche contenuti nei prodotti adoperati per il consolidamento, il fissaggio e la protezione finale) comporta, infatti, rischi per l’operatore che dipendono, tra l’altro, da quanto i composti sono accumulabili e volatili, in quanto l’ingresso nell’organismo avviene attraverso il contatto (più facilmente evitabile) e l’inalazione e il loro accumulo combinato (inevitabile anche se si controlla il livello delle singole esposizioni) può far raggiungere livelli di concentrazione con conseguenze nocive per la salute. La sindrome della Sensibilità Chimica Multipla, di cui sempre più si parla, deriva proprio da una sensibilità a queste involontarie e casuali combinazioni. Mentre ufficialmente questa categoria conta qualche migliaia di lavoratori, in realtà i restauratori operanti in Italia sono di più, molti dilettanti e volontari.

C’è, poi, l’aspetto ambientale: i prodotti utilizzati, con il loro carico di pericolo, sono smaltiti, spesso impropriamente, nell’ambiente circostante con conseguenze molto negative.

pergamena_erosa_rid

Considerando quanto esposto sopra, risulta chiaro che un investimento nell’innovazione del settore può avere delle ricadute importanti per gli aspetti igienici ed economici. L’innovazione può essere di processo, come nel biorestauro, un campo ampio che include la sostituzione di prodotti di sintesi nocivi o tossici con microorganismi antagonisti per il controllo di specie nocive per il materiale dei beni; come nella bioricostruzione, dove il consolidamento di materiale degradato è affidato a specie biologiche capaci di sintesi in situ, come nell’uso di enzimi per l’asportazione selettiva e controllata di materiale estraneo o alterato.

L’innovazione di prodotto riguarda, invece, i prodotti per il restauro, la manutenzione, la proposta di nuovi solventi, tensioattivi, polimeri riparatori e prodotti di vario genere, tutti più duraturi, più economici e, soprattutto, più sicuri e sostenibili di quelli oggi in uso. Infine, c’è un aspetto di innovazione tecnologica che comprende la definizione di nuovi indicatori dello stato di conservazione delle matrici di differente materiale (lapidee, lignee, cartacee), come è avvenuto con l’uso della tecnica NMR di superficie. Il concetto di restauro sostenibile è quindi legato a diversi filoni di ricerca; quelli più affini al settore della chimica mirano generalmente alla proposta di prodotti più sicuri e stabili e meno volatili, aggressivi e bioaccumulabili; auspicabile è una produzione che impieghi solo fonti rinnovabili e processi di sintesi puliti (prodotti secondari di reazione biocompatibili e atossici).

I prodotti per il restauro e la conservazion, per le diverse caratteristiche chimiche e la specificità di alcune operazioni, sono di norma destinati ad una specifica classe di materiali. Tra queste, la classe dei materiali cellulosici e specificatamente quelli cartacei vede da qualche tempo un interesse crescente di ricerca in quanto la carta prodotta dalla seconda metà dell’ottocento in poi mostra problemi conservativi per fattori intrinseci dovuti all’acidità così importanti da mettere a repentaglio un immenso patrimonio librario.

In generale la carta è considerata un materiale di natura eterogenea e talvolta complessa costituita da una matrice fibrosa, non esclusivamente di cellulosa, additivata di collante e anche di altre sostanze quali minerali o sbiancanti ottici. Dal punto di vista chimico il degrado dei materiali cartacei può essere riassunto sinteticamente con reazioni di idrolisi (rottura del legame beta-glicosidico della cellulosa catalizzata in ambiente acido) e di ossidazione, interconnesse tra loro (i terminali ossidrilici vengono trasformati per ossidazione in carbossili) che portano generalmente ad un ingiallimento e ad una diminuzione della resistenza meccanica con conseguenze negative estetiche, culturali (lettura spesso compromessa) e di manualità (fragilità della carta anche al tatto). Attualmente il restauro della carta si avvale di trattamenti per la deacidificazione e per il consolidamento. Quest’ultimo avviene o per laminazione (il foglio da trattare viene incluso tra due fogli consolidanti) o per applicazione di un mezzo consolidante in forma liquida. Tra quest’ultimi è molto diffuso l’uso di soluzioni acquose di esteri di cellulosa, soprattutto di metil-cellulosa, un composto non tossico e molto diffuso nel settore, ma la cui sintesi richiede l’uso di clorometano, un composto cancerogeno. Attualmente la ricerca vede l’impegno di diversi studiosi per identificare sia prodotti sintetici alternativi, efficienti e chimicamente stabili, sia prodotti naturali che offrono opportunità interessanti.

carta1

Un diverso problema nel restauro della carta sono, invece, le macchie. Esse costituiscono in prima istanza un problema esclusivamente estetico che può impedire la lettura del testo (manoscritti, documenti, libri) o la percezione estetica dell’oggetto (dipinti su supporto cartaceo). Tuttavia, talvolta, come nel caso di macchie di ruggine che possono originarsi per l’ossidazione di impurezze nella carta o di attacchi presenti sui fogli, il problema non rimane puramente estetico, in quanto il ferro agisce da catalizzatore nei processi ossidativi della cellulosa. La rimozione o l’attenuazione della macchia è, quindi, consigliata. Metodi di pulitura tradizionali per la rimozione di macchie di ruggine utilizzano reattivi chimici adatti a sequestrare il ferro dalla carta e generalmente si basano su reagenti riducenti, spesso abbinati a complessanti, capaci di ridurre il ferro (III) a ferro (II). Data la crescente attenzione verso la sostenibilità, primariamente da un punto di vista sanitario ed ambientale, i metodi di pulitura alternativi sono attualmente oggetto di diversi lavori di ricerca. Uno anche da noi esplorato è basato sull’elettroforesi, utilizzata in maniera non convenzionale. Comunemente, l’elettroforesi viene usata in ambito chimico e biomedico per la separazione di macromolecole. Quando particelle o molecole cariche, immerse e sospese in un fluido (il cui pH influenza lo stato di carica elettrica), sono sottoposte all’azione di un campo elettrico, l’attrazione elettrostatica verso gli elettrodi provoca il movimento delle particelle/molecole cariche verso gli elettrodi. E’ quindi ragionevole supporre che in condizioni sperimentali adatte si possano spostare le particelle/molecole estranee (macchia) dal materiale di supporto (oggetto) quando tale materiale è immerso in un fluido ed è sottoposto all’azione di un campo elettrico. Esiste poca e contrastante letteratura in questo senso: alcuni testi descrivono reperti sottomarini (ad esempio lignei o in pelle) trattati secondo questo principio per migliorare l’estrazione dei sali, ma anche per attenuare macchie di ruggine [3]; tuttavia, la letteratura menzionata non comprende pubblicazioni scientifiche internazionali. La carta è stata tra i primi e più diffusi supporti utilizzati per applicazioni analitico-chimiche dell’elettroforesi e l’esplorazione dell’applicazione dei principi elettroforetici alla sua pulitura è quindi molto interessante e promettente in alternativa ai tradizionali trattamenti chimici.

 

Riferimenti

[1] L.Campanella, C.Costanza, A.De Lera (2009) “Riparazione di carta invecchiata artificialmente e foto degradata”, comunicazione orale a: AlAr, Convegno nazionale sistemi biologici e beni culturali, 6-7 Ottobre, 2009, Palermo, Italia.

[2] Zhou Zhi-gang, Liu Zhi-li, Liu Xue-xian, “Study on the isolation, Purification and Antioxidation Properties of Polysaccharides from Spirula maxima”, Journal of Integrative Plant Biology, 1997, 39(1), 77-81.

[3] D. Pennec S., Lacoudre N., Montlucon J., “The conservation of Titanic artefacts”, Bulletin of the Australian Institute for Maritime Archeology, 1989, 13(2), 23-26.

[4] T.Hayashi, K.Hayashi, “Calcium Spirulan, an inhibitor of enveloped virus replication, from a blue-green alga, Spirulina platensis”, Journal of Natural Products, 1996, 59, 83-87.

[5] Q.Jiao, Q.Liu “Simple Spectrophotometric method for the estimation of algal polysaccharide concentrations”, Journal of Agricultural and Food Chemistry, 1999, 47, 996-998.

[6] E. Scarpellini, R. Caminiti, L. Campanella, S.H.Plattner, S.Nunziante Cesaro “Innovation in Paper Preservation: Green Chemical Treatments – First Results”, comunicazione di congress su poster a: CMA4CH 2014, 14-17.12.2014, Roma, Italia.

[7] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “ Materiali e metodi innovativi per il restauro sostenibile” in: Atti dei V Convegno Internazionale “Diagnosis for the conservation and valorization of cultural heritage”, 11-12.12.2014, Napoli, Italia, Aracne Editore, ISBN 978-88-548-7855-6, pp.1-10.

[8] R.Caminiti, L.Campanella, S.Nunziante Cesaro, S.H.Plattner, E.Scarpellini, “Effects of innovative green chemical treatments on paper – can they help in preservation?” in: Proceedings of the Green Conservation of Cultural Heritage Congress, 27-28.10.2015, Roma, Italia, International Journal of Conservation Science (in press).

[9] D.G.Suryawanshi, S.K.Bisaria “Removing Metallic Stains from Paper Objects Using Chelating Agents EDTA”, Restaurator, 2008, 26(4), 276-285.

  

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

 

Dai quadrati magici alla topologia molecolare. Parte 3. Wiener.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Nella prima parte di questo post abbiamo introdotto i quadrati magici e nella seconda abbiamo riassunto la storia dei rapporti fra algebra e chimica nel XIX secolo

Ma questa storia si è poi profondamente intrecciata e modificata con quella della meccanica quantistica in cui le matrici hanno un ruolo determinante. Non è possibile oggi parlare di chimica senza parlare di matrici, nel senso che il calcolo della chimica teorica è basato su questi oggetti algebrici; tuttavia l’automatismo e la complessità che sono seguiti all’invenzione del computer da tavolo hanno fatto si che molti dei concetti base si perdessero nel linguaggio tecnico, mentre invece è importante, importantissimo mettere l’algebra della chimica nella giusta prospettiva.

Questo processo si è potuto sviluppare solo dopo che la parte più rivoluzionaria della buriana concettuale della MQ è passata. E porta un nome, quello di Harry Wiener (1924-1998).

grafi32Nato a Vienna da una famiglia di cultura ebraica, Wiener fu costretto a fuggire dopo le leggi razziali e l’annessione riparando prima in Austria e poi in Portogallo. Come per altri uomini di cultura ebraica l’approdo finale furono gli USA, nel 1941; si laureò in chimica nel 1945 al Brooklyn College.

Durante il periodo della sua laurea cominciò ad occuparsi di un problema: come correlare i punti di ebollizione degli idrocarburi alla loro struttura molecolare.

La soluzione venne in modo inatteso e lo portò alla concezione del numero di Wiener, di cui parleremo in questo post.

Una mattina decise di studiare qualcosa alla Biblioteca pubblica di New York e, con l’intenzione di iniziare presto si recò in biblioteca alle 8. Ma con notevole disappunto scoprì che la bibioteca apriva alle 10 quel giorno. Piuttosto che tornare a casa si fermò fuori la biblioteca e per passsare il tempo si mise a pensare al problema che aveva in mente.

Con sempre maggiore coinvolgimento Wiener iniziò ad esplorare I possibili modi per poter rappresentare le diverse specie di moolecole di idrocarburo. Dopo un pò di prove Wiener scoprì un modo particolarmente promettente di fare questo. Sommando il numero totale di legami chimici esistenti fra tutte le coppie di atomi della molecola Wiener ottenne un numero che è ora comunemente indicato come numero di Wiener. Capì velocemente che il suo numero poteva effettivamente risolvere il problema perchè riusciva a riflettere in modo affidabile la tendenza dei punti di ebollizione del tipo di alcani considerati. Fu così che in un mattina del 1944 in una strada fuori la Biblioteca Pubblica di New York il numero di Wiener vide la luce.

Dennis H. Rouvray , Harry in the Limelight: The Life and Times of Harry Wiener

(in Topology in Chemistry: Discrete Mathematics of Molecules, D. H. Rouvray and R. B. King, Editors Horwood, 2002)

Cosa aveva scoperto Harry Wiener quella mattina del 1944 seduto fuori la biblioteca pubblica di New York?

Aveva inventato due indici che portano il suo nome: il numero di polarità p e il numero della distanza che è rimasto nella storia proprio come indice di Wiener, due quantità che si possono calcolare considerando le molecole di idrocarburo come grafi privi degli atomi di idrogeno.

Il primo dei parametri che egli chiamò nel 1947 numero di polarità, p, è definito come “the number of pairs of carbon atoms which are separated by three carbon-carbon bonds”, il numero di coppie di atomi separati da tre legami carbonio-carbonio”.

Il secondo dei parametri di Wiener era introdotto come il numero o parametro della distanza o del cammino e definito come: “the sum of the distances between any two carbon atoms in the molecule, in terms of the carbon-carbon bonds” ossia la somma delle distanze fra tutte le coppie di atomi della molecola in termini di legami carbonio-carbonio.

Trascurare gli atomi di idrogeno è una conseguenza del considerare l’essenziale della struttura molecolare e quindi l’area superficiale, la forma e la distribuzione della carica, cose nelle quali il ruolo degli atomi di idrogeno può essere ad un primo livello trascurato.

Prima di Wiener esisteva di fatto un solo approccio e anche parecchio datato per cercare di prevedere le proprietà molecolari in serie omologhe, quello inventato da Kopp attorno al 1840 e che prende il nome di principio di additività,

il quale asserisce che qualunque proprietà di una sostanza chimica può essere determinata semplicemente sommando i contributi a quella proprietà da ciascuno degli atomi componenti nella molecola della sostanza.

(Kopp, H. (1842a). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen I. Ann. Chem.41, 79.

Kopp, H. (1842b). Ueber die Vorausbestimmung einiger physikalischen Eigen- schaften bei mehreren Reihen organischer Verbindungen 11. Ann. Chem. 41, 169.)

Facciamo qualche esempio:

grafi33

l’n-butano per esempio ha p=1 in quanto solo la coppia di atomi 1 e 4 dista tre legami.

Inoltre questa molecola possiede 3 coppie a distanza 1 (3×1=3), due coppie a distanza due (2×2=4) e 1 a tre legami (1×3=3); la somma delle distanze è quindi 10 che è l’indice di Wiener, w.

Nel caso della molecola di isobutano

grafi34

abbiamo p=0, ma w=9 essendo la somma di 3 coppie a 1 e 3 coppie a 2 legami.

Infine considerate una molecola più grande, 3-metilpentano

grafi35

p=4 e w=31 e calcolateli da soli per fare esercizio.

A cosa serve questa idea?

Serve essenzialmente a prevedere le proprietà di una molecola di cui si conosca solo la struttura molecolare; nel caso dei punti di ebollizione degli idrocarburi Wiener fu capace nel 1947 di prevederli con una precisione dell’ordine di 0.5°C a partire da una tripletta di parametri che scendevano a due se si teneva conto della differenza fra le molecole lineari e quelle ramificate; questo per idrocarburi fino a 12 atomi di carbonio, un successo notevole!

Le due equazioni sono:

tB = aw +bp + c dove le 3 costanti dipendono dal gruppo di isomeri considerato e

Δt = (98/n2) Δw+5.5Δp

dove n è il numero di atomi di carbonio.

In pochi anni si sarebbero sviluppati centinaia di parametri estremamente sofisticati e sensibili e soprattutto si sarebbe completamente automatizzato il metodo per il loro calcolo, che consente di prevedere parecchi aspetti di molecole non ancora sintetizzate in modo relativamente semplice; questo consente di esplorare il chemical space, uno spazio che contiene miliardi e miliardi di possibili molecole.

In effetti subito dopo il periodo successivo alla scoperta dell’indice di Wiener, alle sue pubblicazioni, che erano probabilmente un pò in anticipo sui tempi, che non ebbero particolare risonanza, Wiener decise di dedicarsi alla medicina e si laureò in medicina nel 1949; diventò un pediatra privato ma la sua professione non era particolarmente remunerativa; fu poi chiamato nell’esercito e partecipò alla guerra di Corea; questo segnò la sua vita, nel senso che spostò i suoi interessi definitivamente verso la medicina. Si dedicò allo studio del ruolo dei componenti olfattivi nel comportamento delle persone (i feromoni) e negli anni successivi allo sviluppo di una teoria sull’origine della schizofrenia, supportando l’idea che ci fossero componenti genetiche e ambientali nello sviluppo di quella malattia.

Dal 1958 fu assunto alla Pfizer, dove divenne responsabile del settore ricerca e sviluppo occupandosi poi per i successivi 37 anni, fino alla morte in pratica di molti dei temi importanti della medicina dell’epoca.

grafi36A partire dai cinque articoli di Wiener e nell’arco di qualche decennio si è sviluppato un intero settore di previsioni basate sugli indici connessi alla struttura il QSAR, Quantitative Structure-Activity Relationships, che forse avete sentito nominare e che ha un numero enorme di applicazioni per esempio nel settore farmaceutico; ne parleremo nel prossimo post.

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Il biorisanamento dei suoli (bioremediation)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Mauro Icardi

L’uso di microorganismi come ausilio per il ripristino di situazioni di inquinamento ambientale è una tecnica ormai acquisita nel campo del trattamento delle acque reflue, ma si applica anche in quello del recupero dei suoli contaminati.
I suoli formano una sistema ecologico complesso, nel quale solidi, liquidi, gas, organismi viventi interagiscono tra loro, con l’atmosfera e l’acqua. I suoli hanno tempi di formazioni misurabili in migliaia di anni, ma una scorretta gestione può ridurne la fertilità, causare un inquinamento diffuso e ridurre la biodiversità.
Gli esseri viventi presenti nel suolo sono fondamentali anche per il corretto funzionamento dei cicli biogeochimici.

suolo

Le tecniche di biorisanamento utilizzano le piante ed i microrganismi ad esse associati per rimuovere, trasformare o bioaccumulare sostanze tossiche, compresi idrocarburi , solventi clorurati, pesticidi, percolati di discarica.
Se questi contaminanti sono presenti in quantità elevate è necessario un pretrattamento. Altra condizione necessaria è che i contaminanti da rimuovere siano fisicamente e chimicamente accessibili (biodisponibili).
La frazione biodisponibile è spesso considerata un valore statico, mentre in realtà può variare nel tempo a seconda delle specie chimiche ed al variare di alcuni fattori ambientali, ad esempio il valore di pH.
Il biorisanamento è quindi la tecnica che utilizza batteri, funghi, alghe e piante per eliminare o stabilizzare inquinanti in siti degradati.
L’utilizzo di microrganismi può essere effettuato per la decontaminazione da composti organici, per la valutazione della tossicità quando sono utilizzati anche come biosensori, e la trasformazione o la decomposizione di contaminanti con velocità di reazione elevate.
La detossificazione può avvenire con meccanismi di reazione redox, per precipitazione chimica o volatilizzazione. I microrganismi sono in grado di produrre enzimi ossidativi in grado di mineralizzare composti policiclici aromatici e fenoli.

Nomenc1

La capacità di biodegradare gli idrocarburi per esempio è dovuta alla produzione da parte dei microrganismi di sostanze cha agiscono come surfattanti ionici. Tali sostanze sono riversate all’esterno della cellula, in modo da creare delle emulsioni acqua idrocarburi permeabili rispetto alla parete cellulare. Quando una quantità sufficiente di ossigeno è presente nel suolo i microrganismi aerobi ossidano gli idrocarburi producendo CO2 e H2O. Qui si nota già una differenza rispetto a quanto avviene nel trattamento delle acque, dove gli idrocarburi ricoprendo con una patina superficiale la superficie della vasca di ossidazione impedirebbero gli scambi gassosi e quindi il metabolismo batterico.
Anche nel caso del trattamento del suolo però sono ovviamente necessarie condizioni chimico fisiche adeguate al metabolismo batterico come temperatura, pH, potenziale redox e coefficiente di permeabilità del suolo.
In generale sono più facilmente biodegradabili gli idrocarburi con un numero di atomi di carbonio < 20, mentre si considerano difficilmente biodegradabili o recalcitranti quelli con numero di atomi di carbonio > 20.
Nel caso di bioremediation batterica i microrganismi non costituiscono una soluzione permanente : alla fine è necessaria una rimozione della biomassa contaminata che deve essere smaltita in modo appropriato.
Il secondo filone di questo tipo di tecniche è quello della fitorisanamento (phytoremediation), cioè l’utilizzo di piante particolarmente adatte a crescere su terreni contamiinati. La tecnologia prene origine dal concetto che una pianta si può considerare una pompa ad energia solare (Gabbrielli 1998) capace di estrarre e concentrare particolari sostanze dall’ambiente. I contaminanti possono essere stabilizzati, decomposti direttamente nel suolo, oppure assorbiti dalle radici e traslocati ed immagazzinati negli organi aerei delle piante. Se i contaminanti sono poco al di sopra dei limiti di legge è una tecnica molto appropriata. In caso contrario si devono prevedere più cicli colturali, o in alternativa la messa in sicurezza del sito.
Rispetto alle tecniche di biorisanamento che fanno uso di batteri e prevedono un successivo smaltimento in discarica dei terreni contaminati la riduzione dei volumi smaltiti può essere inferiore di un fattore 10.
I fattori che influenzano il processo di fitorisanamento sono in alcuni casi simili a quelli per il birisanamento (pH del terreno, % di sostanza organica e umidità del suolo.) Altri invece sono specifici (tipo di sistema radicale, tipi di enzimi prodotti dalla pianta).
I tipi di decontaminazione che le piante possono svolgere sono:
Fitoflitrazione: assorbimento di sostanze da parte delle radici o di piante acquatiche che crescono in acque sufficientemente areate. I meccanismi di questa tecnica sono diversi a seconda dei contaminanti. Tra questi troviamo la precipitazione e la deposizione sulla parete cellulare.
Fitostabilizzazione: riduce la biodisponibilità delle sostanze inquinanti attraverso meccanismi quali la modificazione del pH , del contenuto di umidità del suolo, e ancora con la precipitazione di alcuni contaminanti.
Fitovolatilizzazione: il meccanismo si basa sull’estrazione delle sostanze inquinanti dal suolo che le piante riescono a metilare rendendole volatili e disperdendole in atmosfera attraverso l’apparato fogliare.
Fitodegradazione: uso delle piante e dei microrganismi ad esse associati in simbiosi per degradare i contaminanti organici. Le piante possono creare le condizioni ideali per la crescita di funghi e batteri tramite la creazione di zone aerobiche e la produzione di essudati. Questa associazione permette di creare le condizioni ideali per la degradazione biologica degli inquinanti.
Fitoestrazione: consiste nell’uso di di piante iperaccumulatrici in associazione con ammendanti appropriati per trasportare e concentrare principalmente di tipo metallico (nichel, zinco,rame,cromo) nelle parti aeree che sono poi raccolte con metodi agricoli tradizionali. Queste piante possiedono un apparato radicale piuttosto esteso e concentrano grandi quantità di metalli nelle parti aeree. I meccanismi si basano sulla produzione di molecole chelanti tipo le fitochelatine, acidificazione e solubilizzazione.
Fitopompaggio: questa tecnica è affine a quella della fitodepurazione. In questo caso le piante sono utilizzate come pompe in grado di sottrarre i contaminanti dalle acque aspirandone grandi volumi. Una pianta come il salice è in grado coinvolgere nell’evapotraspirazione fino a 200 litri di acqua al gorno,e questo può essere efficace per esempio nel risanamento degli acquiferi.

piante spazzine

Le tecniche di bioremediation con l’utilizzo di batteri o piante sono complementari. I batteri sono generalmente più efficaci nella degradazione di inquinanti organici, ma meno nel trattamento di metalli in particolar modo se presenti nel suolo. Le tecnologie di bonifica che prevedono l’escavazione e la sepoltura sono decisamente molto costose e meno praticabili o addirittura inutilizzabili quando il problema è acuto, oppure è diffuso o su una vasta area. I metalli accumulati nelle piante riducono i costi e i volumi destinati allo smaltimento.
E di questi giorni la notizia di una phytoremediation che si sta attivando nei terreni adiacenti all’Ilva di Taranto. Come sempre il titolo è a sensazione, ma la tecnica sta funzionando.
http://www.lastampa.it/2016/06/03/italia/cronache/sar-la-cannabis-a-salvare-taranto-dal-disastro-ambientale-dellilva-IaaHoarIYdv68RBV6SCOsI/pagina.html
Si utilizza la cannabis sativa, nella quale la quantità di THC (Tetraidrocannabinolo ) e a pari allo 0,2% come previsto dalla legge. A maggior ragione sarebbero da evitare titoli sensazionalistici e fuorvianti, ma tant’è nell’informazione scientifica dei quotidiani o nella banalità dei titolisti.
La riflessione andrebbe fatta sulla ormai ubiqua diffusione di inquinanti ambientali (in negativo), e sulle piccole “fabbriche chimiche” che sono microrganismi e piante (in positivo).

*********************************************************************************************

Nonostante le proposte siano state fatte si è aperta la fase di discussione publica ed E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

Mozziconi

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Giorgio Nebbia

Nel febbraio 2016 è entrata in vigore la tanto attesa legge 221 del 2015, che, oltre a numerose indicazioni di azioni relative alla difesa e al miglioramento dell’ambiente, contiene un articolo 40 che stabilisce “E’ vietato l’abbandono di mozziconi dei prodotti da fumo sul suolo, nelle acque e negli scarichi”. Lo stato si è finalmente accorto della pericolosità dei mozziconi di sigarette, rifiuti subdoli, diffusissimi e invadenti.

Cigarette_on_asphalt

Nel mondo si fumano circa seimila miliardi di sigarette all’anno; la felicità dei fumatori viene apparentemente (non lo so di persona perché non ho mai fumato) dal fatto che il tabacco delle sigarette, bruciando lentamente, fa arrivare in bocca e nei polmoni, con una corrente di aria aspirata dall’esterno, varie sostanze chimiche, fra cui la nicotina e molte altre. Dopo qualche tempo, dopo che sono bruciati circa i due terzi o i tre quarti della sigaretta, resta un mozzicone che viene buttato via. In seguito ai continui avvertimenti, da parte dei medici, che il fumo delle sigarette fa entrare nel corpo umano sostanze tossiche e cancerogene, le società produttrici di sigarette hanno cercato di attenuare i relativi danni ponendo, nel fondo delle sigarette, dove vengono posate le labbra, un “filtro” che, come promette il nome, dovrebbe filtrare, trattenere, una parte delle sostanze nocive.

Celluloseacetuar

Quando una sigaretta è stata adeguatamente “consumata”, il filtro, con ancora attaccato un po’ di tabacco, viene buttato via; sembra niente, ma la massa di questi mozziconi è grandissima. Ogni sigaretta pesa un grammo, il mozzicone pesa da 0,2 a 0,4 grammi e il peso di tutti i mozziconi di tutte le sigarette fumate nel mondo ogni anno ammonta a oltre un milione di tonnellate. I mozziconi dei circa 80 milioni di chilogrammi di sigarette fumate in Italia ogni anno hanno un peso di oltre 20 mila tonnellate, poche rispetto ai quasi 35 milioni di tonnellate dei rifiuti solidi urbani, ma moltissime se si pensa al potenziale inquinante di tali mozziconi, dispersi dovunque.

I mozziconi sono costituiti in gran parte dal filtro, un insieme di fibre di acetato di cellulosa disposte in modo da offrire un ostacolo alle sostanze trascinate dal fumo delle sigarette verso la bocca e i polmoni dei fumatori. Se si osserva il filtro di un mozzicone, si vede che ha assunto un colore bruno, dovuto alle sostanze trattenute, principalmente nicotina e un insieme di composti che rientrano nel nome generico di “catrame”: metalli tossici fra cui cadmio, piombo, arsenico e anche il polonio radioattivo che erano originariamente presenti nelle foglie del tabacco, residui di pesticidi usati nella coltivazione tabacco e i pericolosissimi idrocarburi aromatici policiclici, alcuni altamente cancerogeni.

fumo inquinaLa natura e la concentrazione delle sostanze presenti nei mozziconi dipendono dalla tecnologia di fabbricazione delle sigarette che le industrie modificano continuamente per renderle più gradite ai consumatori; la natura di molti additivi e ingredienti è tenuta gelosamente segreta, il che non facilita la conoscenza e la limitazione dell’effetto inquinante dei mozziconi abbandonati. Il disturbo ambientale dei mozziconi delle sigarette viene anche dall’acetato di cellulosa del filtro, una sostanza che nelle acque si decompone soltanto dopo alcuni anni, tanto che alcune società cercano di proporre sigarette con filtri “biodegradabili”, il che farebbe sparire rapidamente alla vista i mozziconi, ma lascerebbe inalterate in circolazione le sostanze tossiche che il filtro contiene.

Proviamo a seguire il cammino di un mozzicone di sigaretta. I mozziconi delle sigarette fumate in casa o nei locali chiusi, in genere finiscono nella spazzatura, ma quelli delle sigarette fumate all’aperto o in automobile finiscono direttamente nelle strade e quindi nell’ambiente. I fumatori più attenti, si fa per dire, all’ecologia hanno cura di schiacciare con il piede il mozzicone buttato per terra, per spegnerlo del tutto ma anche credendo di diminuirne il disturbo ambientale; avviene invece esattamente il contrario: il mozzicone spiaccicato spande tutto intorno per terra le fibre del filtro con il loro carico di sostanze tossiche e il residuo di tabacco che è ancora attaccato al filtro. Alla prima pioggia queste sostanze vengono trascinate nel suolo o per terra e da qui allo scarico delle fogne e da qui in qualche fiume o lago o nel mare. Le fibre del filtro galleggiano e vengono rigettate sulle coste dal moto del mare; a molti lettori sarà capitato di fare il bagno nel mare e di dover spostare fastidiosi mozziconi galleggianti.330px-Cyprinus_carpio_smoking

Nel contatto con l’acqua le sostanze che il filtro contiene si disperdono o si disciolgono e possono venire a contatto con gli organismi acquatici. Si sta sviluppando tutta una biologia e tossicologia delle interazioni fra i componenti dei mozziconi di sigarette e la vita acquatica, specialmente di alghe e altri microrganismi. Rilevanti effetti tossici sono dovuti alla stessa nicotina e non meraviglia perché la nicotina è stata usata come un antiparassitario proprio per la sua tossicità verso molti organismi viventi. La nuova legge raccomanda la diffusione di posacenere, ma anche così i veleni dei mozziconi non scompaiono: i loro effetti tossici continuano anche se finiscono nelle discariche o negli impianti di trattamento dei rifiuti. C’è bisogno di molta ricerca chimica sui mozziconi di sigarette, ma soprattutto c’è bisogno che le persone fumino di meno: ne trarrà vantaggio il loro corpo e il corpo comune di tutti noi, l’ambiente, le acque, il mare.

Juvenile_red_billed_gull_smoking

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements

 

“L’Universo è fatto di storie non di atomi”.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo

a cura di Claudio Della Volpe

Zitto e calcola!” frase attribuita a R. Feynman.

L’atomo sembrerebbe non avere più segreti per noi chimici; tuttavia è certo che comprenderne le proprietà non è banale e soprattutto illustrarle a chi non è chimico appare complesso e spesso tortuoso; in certi casi sembra quasi una “storia” ma nel senso deteriore, una invenzione del tutto incredibile, una velina ministeriale, quasi.

La natura elettrica della materia è un aspetto relativamente facile da accettare, dato che le proprietà elettriche sono facili da sperimentare, anche con carta e penna; chi non ha mai giocato almeno da bambino con una penna strusciata forte sul maglione e capace così di attrarre un pezzetto di carta?

Esperimenti di questo tipo, vecchi di millenni (ηλεκτρον-elektron è il nome greco dell’ambra) hanno aiutato a costruire il modello dell’elettricità positiva e negativa o meglio vitrea e resinosa per usare i nomi proposti qualche secolo fa da Charles François de Cisternay du Fay, sovraintendente dei giardini del Re di Francia (Volume 38 of the Philosophical Transactions of the Royal Society in 1734) segno che nella materia coesistono parti che si attraggono; per cui accettare la natura dell’atomo come composita, fatta di particelle di segno opposto è semplice.

muone1Più complesso capire “come” stanno insieme; da questo punto di vista tutti hanno sentito parlare dell’esperimento con cui Rutherford falsificò il modello a goccia di Thomson; l’esperimento fu condotto da Geiger e Marsden nel 1909 sotto la direzione più o meno informale di Rutherford (si favoleggia che abbiano interagito esclusivamente in corridoio) che interpretò poi i risultati in un lavoro del 1911 che invalidava definitivamente il modello a panettone (plum pudding model)

muone2The Scattering of α and β Particles by Matter and the Structure of the Atom”

Philosophical Magazine, Series 6, vol. 21, 1911, pp. 669–688.

Trovò che all’incirca una particella su 8000 veniva deflessa ad un angolo di oltre 90°.

« Fu l’evento più incredibile mai successomi in vita mia. Era quasi incredibile quanto lo sarebbe stato sparare un proiettile da 15 pollici a un foglio di carta velina e vederlo tornare indietro e colpirti. Pensandoci, ho capito che questa diffusione all’indietro doveva essere il risultato di una sola collisione e quando feci il calcolo vidi che era impossibile ottenere qualcosa di quell’ordine di grandezza a meno di considerare un sistema nel quale la maggior parte della massa dell’atomo fosse concentrata in un nucleo molto piccolo. Fu allora che ebbi l’idea di un atomo con un piccolissimo centro massiccio e carico. »”

citato da David C. Cassidy, Gerald James Holton, Gerald Holton, Floyd James Rutherford, (2002) Understanding Physics Harvard Project Physics Published by Birkhäuser, p. 632

L’idea del sistema solare non venne a Rutherford, ma appena pochi anni dopo a Bohr nel tentativo di spiegare le proprietà dell’atomo.

Di fatto il numero trovato da Rutherford, Geiger e Marsden chiariva che l’atomo di oro le cui dimensioni si stimavano in 1.5×10-10 m (150picometri) era occupato al centro da una zona molto densa e di carica positiva con un raggio che è immediato calcolare in al massimo 9×10-13 m (0.9 picometri o 900 femtometri); ma facendo qualche conto più esatto sulla frazione di particelle deviate e sull’angolo e sulle forze di Coulomb agenti su di esse ed applicando la conservazione dell’energia, Rutherford ridusse il raggio ulteriormente a circa 30 volte di meno, 3×10-14m (30 femtometri).

Negli anni successivi si svolse un dramma collettivo che mandò in soffitta la meccanica classica e tirò fuori dal cappello del mago il coniglio quantistico, un animale così strano che perfino chi partecipò fin dall’inizio alla sua estrazione si rifutava di crederci.

I conigli saltano, il coniglio quantistico fa ben di più.

La conclusione fu la cosiddetta interpretazione di Copenaghen a sua volta spesso riassunta nella frase attribuita a Feynman che reciterebbe:” Zitto e calcola!”.

muone3http://scitation.aip.org/content/aip/magazine/physicstoday/article/57/5/10.1063/1.1768652   Physics Today Could feynman have said this? N. David Mermin

Physics Today 57(5), 10 (2004); doi: 10.1063/1.1768652

La interpretazione di Copenaghen è una delle possibili interpretazioni ed è basata nel modo seguente(da Wikipedia)

Le affermazioni probabilistiche della meccanica quantistica sono irriducibili, nel senso che non riflettono la nostra conoscenza limitata di qualche variabile nascosta. In meccanica quantistica i risultati delle misurazioni di variabili coniugate (ossia quelle che si trovano nelle relazioni di indeterminazione di Heisenberg) sono fondamentalmente non deterministici, ossia che anche conoscendo tutti i dati iniziali è impossibile prevedere il risultato di un singolo esperimento, poiché l’esperimento stesso influenza il risultato.

Sono prive di senso domande come: «Dov’era la particella prima che ne misurassi la posizione?», in quanto la meccanica quantistica studia esclusivamente quantità osservabili, ottenibili mediante processi di misurazione. L’atto della misurazione causa il «collasso della funzione d’onda», nel senso che quest’ultima è costretta dal processo di misurazione ad assumere uno dei valori permessi, secondo una probabilità verificabile solo attraverso più misurazioni.

Quindi il gatto di Schroedinger è “vivo e morto” e non “vivo o morto”, fino a che non apriamo la scatola.

Questo tipo di approccio mi ha sempre lasciato molto freddo e personalmente mi ritengo un supporter del punto di vista di Bohm.

Il senso della questione la abbiamo già discusso in un post precedente , ma lo riassumo qui.

La matematica della MQ, dimostrata oltre ogni ragionevole dubbio da Bell, un irlandese geniale e testata sperimentalmente anch’essa oltre ogni dubbio attuale corrisponde a dire: ci sono tre concetti del senso comune che non potete accettare TUTTI INSIEME, dovete rinunciare ad uno di essi:

  • il principio di realtà: le cose ci sono anche se non le guardo
  • la località, ossia se una cosa avviene qui e adesso non può essere influenzata da ciò che sta avvenendo in questo medesimo istante molto lontano, più lontano di dove un segnale luminoso può giungere in tempo utile
  • il comportamento prevedibile della Natura; non è capriccioso e imprevedibile, ma in realtà lo è, se non in media; tutto può succedere anche se solo in minima percentuale di casi.

Sto semplificando all’eccesso, se avete dubbi leggetevi il post cui ho fatto riferimento prima.

L’interpretazione di Copenaghen rinuncia al principio di realtà; è quello che si definirebbe una interpretazione neopositivista, ossia i fenomeni della MQ che è la scienza di base della materia corrispondono a risultati di esperimenti, non necessariamente a oggetti “materiali” con proprietà intrinseche; in altre parole la Scienza non ci dice come sono fatte le cose del mondo, MA come è fatta la nostra conoscenza delle cose del mondo. Al di fuori dell’esperimento e dei suoi risultati non c’è altro: zitto e calcola!

L’approccio di Bohm è diverso; consiste nel rinunciare alla località, l’atomo è infinito; l’idea parte dall’esperimento di Davisson e Germer, quello della interferenza degli elettroni in una doppia fenditura, che Bohm e de Broglie interpretarono come fenomeno quantistico per il quale ogni tipo di particella è associata a un’onda che ne guida il moto (da cui il termine onda pilota) e che è responsabile del fenomeno di interferenza osservato. Matematicamente tale onda pilota è descritta dalla classica funzione d’onda della meccanica quantistica, corretta da un fattore che rende conto dell’influenza sul moto della particella. L’onda pilota, nel governare il moto della particella, evolve in accordo con l’equazione di Schrödinger. Diversamente dall’interpretazione a molti mondi, l’interpretazione di Bohm non implica che l’universo si separi quando viene effettuata una misura, e diversamente dall’interpretazione di Copenaghen è sia oggettiva che deterministica. Essa afferma che l’universo evolve uniformemente nel tempo, senza collasso delle funzioni d’onda.

muone4Quando usate un programmino come Atom in a box, vi viene mostrata la funzione d’onda in falsi colori con tanto di fase dell’onda ed evoluzione nel tempo; tuttavia è da chiarire che nella visione ortodossa di Bohr una rappresentazione del genere è del tutto fuori luogo. Infatti voi non avete alcuna certezza di cosa avvenga nel vostro sistema se non quando fate una misura su di esso; dunque l’idea implicita in quel programma e in molti altri, che è di fatto l’idea di realtà indipendente, l’ipotesi del realismo, che il vostro sistema esista senza la misura e che evolva in quel modo descritto istante per istante e che se voi faceste una misura in quel momento avreste quel risultato è del tutto ipotetica e probabilistica.

Di fatto il vostro atomo descritto con ricchezza di dettagli esiste solo quando ci fate una misura sopra e la sua descrizione è valida solo nel momento in cui la fate; in quel momento la funzione d’onda collasserà in uno degli stati possibili; dopo aver fatto parecchie misure potrete verificare che la distribuzione di probabilità ottenuta è quella attesa; di più nessuno PUO’ sapere; badate, NESSUNO vuol dire nemmeno il padreterno (per chi ci crede).

Torniamo al punto di partenza; come sono messe le cariche nell’atomo? Di solito si dice che quelle positive sono nel nucleo, tenute insieme in qualche modo, dall’effetto dei neutroni per esempio (falso: in effetti sia i neutroni che i protoni sono soggetti alla cosiddetta forza forte che a breve distanza sovrasta quelle elettriche, ma certo diluire le repulsioni fra protoni è utile) e quelle negative “orbitano” attorno muovendosi non su orbite precise ma nel modo descritto dagli orbitali, che sono delle funzioni matematiche il cui quadrato ci consente di calcolare la densità di probabilità. (Orbitano il piffero! Provate a tenere ferma un’onda! Si, si può fare ma è complicato.)

Ma appunto questo non può essere provato: quelle funzioni possono solo aiutarci a prevedere su base statistica il risultato di specifiche “misure”, interazioni che danno su base statistica un risultato compatibile con la funzione stessa, al momento della misura.

Ma cosa facciano le cariche mentre noi non facciamo misure non possiamo saperlo; anzi non abbiamo nemmeno il diritto di chiederlo: zitti e calcolate!

C’è un verso molto “ficcante” di una quasi sconosciuta poetessa americana, Muriel Rukeyser (1913-1980)

muon10Muriel, è stata una attivista politica, ma anche convinta che non bisogna separare scienza e umanesimo; per questo motivo ha scritto varie autobiografie di scienziati e matematici americani; fra gli altri pensate di J.W. Gibbs, il fondatore della termodinamica. (M. Rukeyser, Willard Gibbs: American Genius, (Woodbridge, CT: Ox Bow Press, 1988 [1942]). ISBN 0-918024-57-9 ) Gli aveva anche dedicato un poema nel 1930 (“Gibbs”, incluso in A Turning Wind, 1939). Ebbene in un poema del 1968 (The speed of darkness)) Muriel ha scritto:

“The Universe is made of stories, not of atoms.”

 volendo sottolineare con questa frase la sua lotta politica contro le armi nucleari e il loro uso, contro la guerra. Ma una riflessione simile potrei farla anche io pensando al perchè ho spinto e sgomitato per fare questo blog: raccontare storie per raccontare gli atomi.

In un certo senso quando noi presentiamo gli atomi, facciamo questo; raccontiamo storie; immaginate quale validità possa avere portare questi astrusi concetti della MQ parlando di orbitali a studenti anche del primo anno di università? Figuriamoci prima! Gli atomi che raccontiamo sono storie, perchè non supportati da una base di matematica sufficientemente ampia e robusta; meglio invece partire dai fatti, dagli esperimenti che giustificano gli atomi e le loro proprietà, gli atomi non come storie, ma come modello che deve nascere dal lavoro sperimentale, dalle ipotesi degli studenti. Se no gli atomi diventano storie nel senso deteriore, raccontini, favole, che però sfigurano rispetto alle vere grandi favole, che so come quelle di Torquato Tasso, ma con l’aggravante che Tasso scriveva meglio di quanto noi si possa mai sperare di raccontare gli atomi.

Ci sono però dei fenomeni molto, molto interessanti che aiutano a gettare luce sulle cose; uno di questi fenomeni che vorrei raccontarvi oggi è l’atomo muonico.

Di cosa si tratta?

L’atomo di idrogeno è l’atomo più semplice, un solo protone attorno a cui “orbita” un solo elettrone; le sue dimensioni sono le più piccole possibili fra tutti gli atomi; nel 1964 Slater pubblicò una serie di valori dei raggi atomici illustrati qui sotto ed ottenuti con i raggi X ; si tratta di raggi atomici misurati allo stato solido.

Il raggio dell’idrogeno solido è circa 25 picometri. In effetti quello stimato modernamente per la molecola di H2 gassosa è di 31 picometri. Questo raggio è circa la metà di quello calcolato per un atomo “libero” da legami nel vuoto. Infatti il cosiddetto raggio di Bohr, calcolato in modo semiclassico ma coincidente con quello che segna il massimo di densità della funzione 1s è dimuone5

ossia 0.53 angstroms

muone6

J.C. Slater J. Chem. Phys. 41, 3199 (1964)

Queste differenze sono comprensibili in quanto sia nella molecola di idrogeno che nel cristallo di idrogeno solido le forze agenti sono tali da costringere lo spazio occupato dalle due particelle che sono attratte da quelle circostanti. E’ un po’ quel che succede quando si confrontano i valori di volume molare di un liquido e del suo covolume (ossia il volume da sottrarre a quello gassoso totale per far tornare valida l’equazione di stato del gas ideale). Se andate a cercare i dati l’acqua liquida a t ambiente ha un volume molare di circa 18 cm3, ma il covolume dell’acqua è di ben 30 cm3. In altre parole i volumi di atomi e molecole non sono fissi, la molecola di acqua gassosa si espande quando le altre molecole non la stringono da vicino! L’idea che si possano trattare come sfere rigide tenute da molle sarà comoda per i conti ma non corrisponde alla realtà; gli atomi e le molecole sono “soffici”, come si conviene a oggetti ondulatori e compressibili, spugnosi.

Torniamo al caso dell’atomo muonico; chi ha letto il nostro post sulla fisica delle particelle elementari ricorderà che nel modello standard gli elettroni fanno parte di un gruppo di 6 particelle denominate leptoni, di cui fanno parte anche altre particelle: i muoni.

muone7Un muone è oltre 200 volte (207 per la precisione) più pesante dell’elettrone, ma è dotato di proprietà analoghe: stessa carica elettrica e stessa capacità di interagire con i fotoni.

Per questo motivo è possibile sostituire un elettrone con un muone; l’unico problema è che il muone è instabile e può degradarsi spontaneamente in altro; tuttavia la sostituzione regge per il tempo necessario a farci qualche “misura” e quindi la MQ considera tale sostituzione una interessante possibilità.

Si ottiene un atomo che contiene un muone al posto di un elettrone e si può fare questo con l’idrogeno ma anche con l’elio o con altri atomi. Le conseguenze sono interessanti e per molti versi inaspettate. Per esempio l’elio muonico si comporta come un idrogeno elettronico, il muone non collabora bene; perchè?

Il raggio di Bohr è una sorta di costante che si ritrova anche nella MQ rigorosa e che può servire a fare la cosiddetta adimensionalizzazione; ossia dividete tutte le distanze per questo valore, una sorta di unità di misura e le soluzioni diventano più semplici ed eleganti. Ma guardate con attenzione:

muone5

adesso a denominatore avete una massa me 207 volte maggiore e quindi il raggio di Bohr dell’idrogeno muonico è 207 volte inferiore: 25/207=0.12 picometri, ossia 120 femtometri, che è poco maggiore della stima di Rutherford per il nucleo di oro (30 femtometri); adesso l’atomo di idrogeno muonico è veramente piccolo, 207 volte più piccolo dell’idrogeno normale, ma ne conserva le proprietà, almeno in parte, se ne può fare spettroscopia, per esempio.

In effetti il nucleo dell’idrogeno è un protone isolato, il cui raggio è stimato attorno a 0.9 femtometri, ossia circa un 1% del raggio di Bohr per l’idrogeno muonico. E qui succede una cosa inaspettata, che succedeva già nell’atomo normale ma era troppo piccola per curarsene.

La funzione d’onda è definita anche “dentro” il volume del nucleo, non solo fuori di esso, le due funzioni d’onda di protone e elettrone o muone coprono medesime zone di spazio fisico; in particolare l’elettrone e il muone sono definiti anche “dentro” il volume del protone centrale; ma succede che quando sono uno “dentro” l’altro la forza di attrazione fra i due è minore. E’ una cosa che succede anche con la gravità e che avete studiato al liceo o al primo anno di fisica: in una ipotetica Terra parzialmente cava ma con la stessa massa, la forza di atttrazione diminuirebbe, in quanto un oggetto sarebbe attratto verso il centro di tutto ciò che è “sotto” di esso, ma anche verso l’esterno da tutto ciò che è “sopra” di esso, dalla massa restante; ed è ciò che accade in questo caso.

muone8Con l’elettrone la percentuale di funzione d’onda interna al protone è troppo piccola per farci caso, ma col muone le cose sono diverse e la spettroscopia dell’idrogeno muonico ne risente; anzi si può ricavare un nuovo raggio del protone dalla spettroscopia dell’idrogeno muonico; e questa spettroscopia, laser molto precisa conduce ad una scoperta inaspettata: il protone è più piccolo di quanto misurato finora e di un bel pò, il 4% (0.84 rispetto a 0.88 femtometri): si tratta del proton radius puzzle, una questione mica da ridere perchè mette in questione a partire dalla chimica muonica nientemeno che sua eccellenza il modello standard. O è sbagliata la spettroscopia dell’idrogeno, conosciuta da oltre un secolo, oppure è sbagliato il modello standard, o quanto meno incompleto, una robetta mica da ridere. Anche il protone è una spugnetta?

Voi che ne dite?

**********************************************************************************

E’ APERTA LA RACCOLTA DI FIRME PER LA PETIZIONE ALLA IUPAC per dare il nome Levio ad uno dei 4 nuovi elementi:FIRMATE!

https://www.change.org/p/international-union-of-pure-and-applied-chemistry-giving-name-levium-to-one-of-the-4-new-chemical-elements