Elementi della tavola periodica: Cobalto, Co.

Rinaldo Cervellati

 Il cobalto (Co) è l’elemento n. 27 della Tavola Periodica. Non si trova libero in natura (fatta eccezione per leghe di origine meteorica) ma combinato in alcuni minerali come l’heterogenite (ossido idrato di Co), la cobaltite (solfoarseniuro di Co), l’eritrite (arseniato idrato di Co), la skutterudite (arseniuro di Co) e il glaucodoto (solfo arseniuro di ferro e cobalto). La sua abbondanza in natura è valutata fra 20 e 30 ppm (parti per milione).

Heterogenite                                                               Cobaltite

Composti del cobalto sono stati usati per secoli per conferire un vivido colore blu a oggetti di vetro, ceramica e a smalti. Sali di cobalto sono stati individuati nella gioielleria persiana del terzo millennio a.C., in sculture egiziane (1550-1292 a.C.), nelle rovine di Pompei, e in oggetti cinesi, risalenti alle dinastie Tang (618-907 d.C.) e Ming (1368-1644 d.C.).

Manufatti in vetro colorato al cobalto

Il nome cobalto potrebbe derivare dal greco kobalos o dal tedesco kobalt, con il significato di “diavoletto”, usato dai minatori tedeschi che incolpavano i diavoletti di fargli trovare un minerale di scarso valore anziché oro.

L’isolamento del cobalto metallico è attribuito al chimico e mineralogista Georg Brandt (1694-1768) che, attorno al 1741 scrisse:

Dato che ci sono sei tipi di metalli, come ho dimostrato con esperimenti affidabili, ci devono anche essere sei tipi di semi-metalli: ho ricavato un nuovo semi-metallo, che ho chiamato cobalt regulus[1] [1]

Brandt fu anche in grado di dimostrare che il cobalto era la fonte del colore blu nel vetro, in precedenza attribuita al bismuto (presente insieme al cobalto).

Oggi, solo una parte di cobalto viene estratta per fusione e riduzione dai suoi minerali, la maggior parte del metallo viene ottenuta come sottoprodotto dell’estrazione di rame e nickel. I principali produttori di cobalto sono la Repubblica democratica del Congo (RDC), la Russia, l’Australia, il Canada e lo Zambia. Nel 2016 la sola RDC ha rappresentato circa il 60% della produzione mondiale di cobalto (123.000 tonnellate) [2].

Paesi produttori di cobalto

Dal 10 al 25% della produzione nella RDC proviene da miniere artigianali, dove i minatori scavano con attrezzi manuali per decine di metri con scarsa pianificazione e ancora meno sicurezza. La mancanza di precauzioni è causa frequente di lesioni o morte. L’estrazione mineraria inquina l’ambiente circostante esponendo la fauna locale e le comunità indigene a metalli tossici che si ritiene causino malformazioni alla nascita e difficoltà respiratorie (rapporto di funzionari dell’OMS). Gli attivisti per i diritti umani hanno asserito, e il giornalismo investigativo ne ha data conferma, che il lavoro infantile viene utilizzato nelle miniere artigianali africane. Questa rivelazione ha spinto la produttrice di cellulari Apple Inc., il 3 marzo 2017, a smettere di acquistare minerali da fonti che provengono dalle zone incriminate della RDC, utilizzando solo fornitori verificati per soddisfare il proprio fabbisogno di cobalto [2].Il cobalto metallico è fragile e duro, il suo aspetto è simile a quello del ferro e del nickel. Possiede una permeabilità magnetica pari a circa due terzi di quella del ferro. Il cobalto tende a esistere come una miscela di due forme allotropiche in un ampio intervallo di temperatura; la forma β predomina sotto i 400 °C, la forma α sopra questa temperatura. La trasformazione è lenta il che rende in parte conto dell’ampia variazione dei dati riportati sulle proprietà fisiche del metallo. Il cobalto ha due principali stati di ossidazione: +2 e +3.

Cobalto metallico

Storicamente la maggior parte del cobalto prodotto è stata utilizzata per la produzione di superleghe. La stabilità alla temperatura di queste leghe le rende adatte per le pale di turbine a gas. Le leghe sono anche resistenti alla corrosione e all’usura, sono quindi utilizzate per realizzare impianti ortopedici che non si consumano nel tempo. Speciali leghe di cobalto-cromo-molibdeno come il Vitallium sono utilizzate nelle protesi dell’anca e del ginocchio. Le leghe di cobalto sono anche usate per protesi dentali come conveniente sostituto del nickel, che può essere allergenico. Alcuni acciai speciali contendono anche cobalto per aumentarne la resistenza al calore e all’usura. Le leghe speciali di alluminio, nichel, cobalto e ferro, note come Alnico, sono utilizzate nella costruzione di magneti permanenti. La lega con il 95% di platino, particolarmente adatta per la microfusione, è molto usata in gioielleria.

L’ossido di litio e cobalto (LiCoO2) è ampiamente utilizzato nei catodi delle batterie agli ioni di litio. Il materiale è composto di strati di ossido di cobalto intercalati con il litio. Durante la scarica della batteria, il litio viene rilasciato come ioni di litio (Li+). Le batterie al nichel-cadmio (NiCd) e nickel-idruro metallico (NiMH) includono anche cobalto per migliorare l’ossidazione del nichel nella batteria.

Sebbene nel 2018 la maggior parte delle batterie al litio-cobalto siano state utilizzate nei telefoni cellulari, un’applicazione più recente è costituita da batterie ricaricabili per auto elettriche. In questo settore la richiesta di cobalto è quintuplicata. Si prevede che la domanda continui a crescere con l’aumento della diffusione dei veicoli elettrici. Ciò rende urgente trovare nuove materie prime contenenti cobalto in aree più stabili del mondo.

                  Vano batterie di un’auto elettrica           Batteria di uno smartphone

Diversi composti del cobalto sono utilizzati come catalizzatori in chimica organica sia in laboratorio sia nell’industria. L’idrodesolforazione del petrolio, ad esempio, il processo industriale che serve a eliminare le impurezze di zolfo nei combustibili liquidi, utilizza catalizzatori contenenti cobalto e molibdeno.

Composti del cobalto continuano a essere usati come pigmenti e coloranti in vari rami dell’arte e dei tessuti. Prima del XIX secolo, il cobalto era usato prevalentemente come pigmento. Il pigmento, di un intenso colore blu, era prodotto fin dal Medioevo fondendo una miscela del minerale smaltite (una varietà di skutterudite) con potassa (carbonato di potassio), raffreddata e poi finemente macinata. Rifusa insieme a silice o silicati produceva un vetro di colore blu. Il pigmento era ampiamente utilizzato anche nei dipinti. Nel 1802 Louis Jacques Thénard[2] scaldando una miscela di fosfato o arsenato di cobalto e allumina (ossido di alluminio) scoprì l’alluminato di cobalto che prese il nome di blu cobalto. Questo pigmento presentò grandi vantaggi per i pittori dell’epoca poiché era molto stabile e facilitava l’asciugatura della pittura a olio. Ancora oggi il blu cobalto è ottenuto con un procedimento simile a quello di Thénard.

Altri pigmenti al cobalto come blu ceruleo (stannato di cobalto (II)), varie tonalità di verde cobalto (miscele di ossido di cobalto (II) e ossido di zinco), cobalto viola (fosfato di cobalto) vengono utilizzati come pigmenti dagli artisti per la loro elevata stabilità cromatica.

Blu cobalto pigmento

Il cobalto è un oligoelemento appartenente secondo alcuni alla categoria dei microelementi [4], secondo altri a quella degli ultratracce [5]. Il cobalto, tossico allo stato ionico, viene assunto in forma organica tramite l’apporto di vitamina B12.

La vitamina B12, nota anche come cobalamina, è una vitamina idrosolubile coinvolta nel metabolismo di ogni cellula del corpo umano: è un cofattore nella sintesi del DNA e nel metabolismo degli acidi grassi e degli aminoacidi. È particolarmente importante nel normale funzionamento del sistema nervoso attraverso il suo ruolo nella sintesi della mielina e nella maturazione dello sviluppo di globuli rossi nel midollo osseo.

La maggior parte delle persone onnivore nei paesi sviluppati ottiene abbastanza vitamina B12 dal consumo di prodotti animali tra cui carne, pesce, uova e latte. Le fonti vegane di cibo contenente vitamina B12 sono molto rare, i vegani sono quindi particolarmente esposti a sindromi da deficienza da vitamina B12.

L’americana FDA suggerisce una RDA (recommended daily allowance) di 2,4 μg/giorno per gli adulti e gli adolescenti, l’europea EFSA l’ha aumentata a 4,0 μg/giorno.

Sintomi da deficienza di vitamina B12 possono essere gastrite, anemia, disturbi intestinali e del sistema immunitario. Nei casi accertati, il trattamento consiste nell’aumentare la dieta con alimenti ricchi della vitamina e nell’utilizzo di opportuni integratori.

I batteri nello stomaco degli animali ruminanti convertono i sali di cobalto in vitamina B12. Una presenza minima di minerali di cobalto nel suolo assicura la salute degli animali al pascolo. Poiché questa è l’unica fonte di vitamina B12 per i ruminanti, è raccomandata un’assunzione di 0,20 mg/kg al giorno.

La dose letale di cobalto è stata valutata in 140-500 mg/kg di peso corporeo [6].

Il cobalto ha diversi isotopi, tutti radioattivi il più noto dei quali è il cobalto-60 (o 60Co), artificiale, sorgente di raggi gamma, usato in radioterapia e per la sterilizzazione di strumenti chirurgici.

Il riciclo degli scarti degli acciai e delle altre leghe non ferrose al cobalto procede come descritto nel precedente post sul nickel, e il prodotto riciclato viene riutilizzato nell’industria siderurgica. Negli ultimi anni, lo sviluppo delle batterie al nickel-litio e litio-cobalto ha determinato una sempre maggiore necessità di mettere punto efficaci processi di riciclaggio dei prodotti esausti.

Molto recentemente il gruppo di ricerca guidato dal professor Pulickel Ajayan della Rice University di Houston (TX) ha messo a punto un metodo più sostenibile per recuperare metalli come il cobalto dai loro ossidi comunemente usati come catodi nelle batterie agli ioni di litio (M.K. Tran et al., Deep Eutectic Solvents for Cathode Recycling of Li-Ion Batteries, Nature Energy, 2019, 4(4): 339-345.)

Pulickel Ajayan

Il metodo utilizza una miscela di due solventi: cloruro di colina[3] (un integratore per alimenti animali) e glicole etilenico (il comune antigelo). La miscela è eutettica, cioè congela a una temperatura più bassa di quella dei due componenti singolarmente. La dottoranda Mai Kim Tran, collaboratrice di Ajayan dice: L’aspetto interessante di questo solvente è che può sciogliere una grande varietà di ossidi metallici. Inoltre può essere considerato un solvente “verde”, composto da un integratore di mangimi per polli e dal precursore del polietilene, che, miscelati a temperatura ambiente, formano una soluzione limpida, relativamente poco tossica con efficaci proprietà solvatanti.

Durante i test con polvere di ossido di litio-cobalto, il solvente trasparente ha prodotto un ampio spettro di colori blu-verde, una indicazione della presenza di cobalto disciolto. Più brillante diventava il colore, più cobalto veniva catturato. Per l’estrazione del metallo dall’ossido di litio-cobalto (III), sono state ottenute efficienze ≥90% sia per il cobalto sia per il litio.

Mai K. Tran

Tran afferma: Nell’usuale recupero dei metalli si usano acidi che sebbene siano efficaci, sono corrosivi e non ecologici. Nel complesso, riciclare i componenti delle batterie agli ioni di litio è in generale costoso e rappresenta un rischio per i lavoratori.

Il professor Ajayan sostiene che i rifiuti di batterie ricaricabili diventeranno “una sfida ambientale sempre più incombente a causa della crescente domanda di veicoli elettrici e relativi accessori. È molto importante recuperare metalli strategici come il cobalto che sono fondamentali per le prestazioni di questi dispositivi di accumulo di energia e potrebbero un domani avere una fornitura limitata. Dalla situazione attuale dei rifiuti di plastica dovremmo imparare che è arrivato il momento giusto per porre in atto una strategia globale per riciclare il crescente volume di rifiuti delle batterie”.

Infine, anche per quanto detto sulla capacità degli animali ruminanti di sintetizzare la vitamina B12, il ciclo biogeochimico del cobalto riveste particolare importanza. Poiché non è riportato nell’articolo citato nel post sui cicli biogeochimici degli elementi, si può fare riferimento allo schema semplificato della Figura 7 del più recente articolo di G. Dulaquais et al: Contrasting biogeochemical cycles of cobalt in the surface western Atlantic Ocean, Global Biogeochemical Cycles, 2014, 28, 1387-1314. Scaricabile al link:

https://agupubs.onlinelibrary.wiley.com/doi/epdf/10.1002/2014GB004903

Bibliografia

[1] E.M. Gusenius, Beginnings of Greatness in Swedish Chemistry Georg Brandt, (1694-1768), Trans. Kansas Acad. Sci., 1967, 70(4), 413-425.

[2] https://en.wikipedia.org/wiki/Cobalt

[3] H. Chisholm, Hugh, ed. (1911). Thénard, Louis Jacques, Enciclpaedia Britannica26 (11th ed.), Cambridge University Press.

[4] https://it.wikipedia.org/wiki/Oligoelementi

[5] https://www.nutritionalhq.com/what-is-cobalt/

[6] https://www.mineravita.com/eng/cobalt_rda.php

[1] Regulus era il nome usato dai chimici al tempo di Brandt per indicare la massa più o meno impura di metallo formatosi durante la fusione e riduzione dei minerali. Georg Brandt è considerato il fondatore della chimica svedese.

[2] Louis Jacques Thénard (1777-1857), chimico francese. Le sue ricerche hanno spaziato dai composti di arsenico e antimonio con ossigeno e zolfo agli eteri, acidi sebacici e alla bile. Nel 1818 scoprì il perossido di idrogeno. Nel 1810 ottenne la cattedra di chimica all’Ecole Polytechnique e alla Faculté des Sciences. Thénard era un eccellente insegnante; come lui stesso disse: il professore, gli assistenti, il laboratorio: tutto deve essere sacrificato agli studenti [3]. Come la maggior parte dei grandi maestri pubblicò un libro di testo, il Traité de chimie élémentaire, théorique et pratique (4 voll., Parigi, 1813-16), che è servito come modello per un quarto di secolo. Il suo nome è uno dei 72 iscritti nella Torre Eiffel.

[3] La colina (che deriva dal greco kolè, “bile”) è una sostanza organica classificata come nutriente essenziale, per l’esattezza si tratta di 2-idrossi-N,N,N-trimetiletanammonio. Viene denominata anche vitamina J e talvolta è accostata (non a caso) alle vitamine del Gruppo B. È un costituente dei fosfolipidi che compongono la membrana cellulare e del neurotrasmettitore acetilcolina.

Dalle forze di van der Waals all’adesione.1. L’effetto Casimir.

Claudio Della Volpe

In un libro (THE CASIMIR EFFECT Physical Manifestations of Zero-Point Energy

2001, WSP) dedicato al tema dell’effetto Casimir, l’autore K. Milton scrive

It might seem to the reader that the Casimir effect is an esoteric aspect of quantum mechanics of interest only to specialists. That this is not the case should be apparent from the duality of this effect with van der Waals forces between molecules. The structure of gross matter is therefore intimately tied to the Casimir effect.

In altri termini quelle che i chimici hanno sempre chiamato forze di van der Waals, sono di fatto al cuore della meccanica quantistica più sofisticata e sarebbe più giusto chiamarle forze di Casimir-Polder.

Hendrik Casimir, 1909-2000

Vediamo di darci un’occhiata.

C’era una volta l’equazione di stato dei gas ideali, una delle prime e più conosciute leggi di comportamento della materia, basata sia sull’esperienza sperimentale che sulla teoria cinetica dei gas. Credo non ci sia relazione più conosciuta e studiata da chi si avvicina alla chimica.

PV=nRT

Fu proposta nel 1834 da Émile Clapeyron, come summa sperimentale e teorica di secoli di studio del comportamento della materia in fase gassosa.

Nel 1873 J. D. van der Waals ne propose una modifica importante Over de Continuïteit van den Gas – en Vloeistoftoestand, Sulla continuità dello stato liquido e gassoso); per la formulazione di questa legge lo studioso fu insignito del Premio Nobel per la fisica nel 1910.

L’articolo fu tradotto e commentato in inglese su Nature nel 1874 da J. Clerk-Maxwell.

Questa modifica introduceva una nuova equazione:

I due parametri a sinistra nell’equazione sono un’assoluta novità; b è il covolume, ossia il volume occupato dalle molecole o dagli atomi in fase gassosa, che bisogna sottrarre al volume totale del recipiente per avere il volume libero a disposizione delle molecole in movimento. van der Waals pone questo valore pari a 4 volte il volume delle molecole come tali; si tratta, come nota Maxwell, di una idea che in qualche modo ha basi empiriche; oggi diremmo che le molecole non sono oggetti rigidi come li immaginiamo a volte.

Per esempio, il valore oggi accettato per il covolume dell’acqua è 30cm3/mole, mentre il volume molare dell’acqua liquida è solo 18cm3/mole; le molecole allo stato liquido sono “compresse” rispetto allo stato gassoso: le molecole e gli atomi sono oggetti soffici, non sfere dure.

Ma la parte più interessante è l’altro parametro; che esprime di quanto dobbiamo aumentare numericamente la pressione del gas per rispettare un comportamento ideale. Questo equivale a dire che fra di esse si esercita una sorta di pressione negativa, una pressione interna, direbbe oggi la teoria cinetica, che si oppone alla pressione traslazionale o mozionale (come la chiamano alcuni), che riduce la pressione che il gas esercita sulle pareti esterne. Ci sono dunque delle forze agenti fra le molecole che, pur incapaci di tenerle insieme quando sono allo stato gassoso, ne riducono le capacità di muoversi, ne riducono la pressione esercitata; c’è fra di loro una forza di attrazione come fra i pianeti del sistema solare e il Sole.

Dal punto di vista sperimentale i parametri di van der Waals sono legati alle condizioni critiche, ossia alle condizioni in cui la funzione di van der Waals ha un flesso e che delimita il confine oltre il quale il gas entra in equilibrio con la fase liquida.

Dal punto di vista teorico come si affronta la cosa? Come sono correlati i parametri con il potenziale di interazione?

Devo dire che c’è una certa ambiguità nelle definizioni che si trovano in giro; ma in questo post chiameremo forze di van der Waals tutte le forze che dipendono da interazioni dipolari sia che coinvolgano dipoli fissi, come una molecola d’acqua o di monossido di carbonio, che dipoli indotti, come un atomo di elio sottoposto ad un campo elettrico di qualunque origine; dunque le tre combinazioni dipolo-dipolo (forze di Keesom), dipolo-dipolo indotto (forze di Debye) e dipolo indotto-dipolo indotto (forze di London) saranno tutte considerate nell’insieme denominato forze di van der Waals o forze di dispersione.

Le energie di interazione fra atomi conseguenti alle forze di van der Waals variano con l’inverso della sesta potenza della distanza: W=-A/r6, dove A è una costante.

Se volete una dimostrazione esatta di come si arrivi a questa conclusione potete guardarvi questo link.

In sostanza questo tipo di interazione è la componente attrattiva nella rappresentazione che spesso viene data della interazione biatomica, definita curva di Lennard-Jones. Ovviamente se la energia di interazione o potenziale di interazione (il potenziale ricordiamo che è una energia per unità di “carica” del campo di interazione) varia con l’inverso della sesta potenza della distanza, allora la forza varierà con l’inverso della settima potenza poiché F=dV/dr (dove F è la forza).

Un aspetto di cui si parla poco è che le forze di van der Waals possono essere anche repulsive, dipendono dalla combinazione fra tutte le attrazioni e le repulsioni; nel grafico seguente la cosa è correlata esplicitamente ai parametri macroscopici, meglio di quanto non possa fare la curva di Lennard-Jones fra due atomi.

Questa rappresentazione è la base di molti dei discorsi e delle descrizioni semplificate che si fanno e c’è un errore a cui voglio accennare: questa descrizione vale nell’interazione fra DUE particelle, come appunto avviene in un un gas di van der Waals in cui la distanza fra le molecole è grande. Ora usare questo tipo di analisi in fase condensata è sbagliato. In fase condensata dove le distanze fra le particelle sono molto inferiori avviene che non si possa più usare un modello di calcolo “ a coppie” di particelle, in cui il minimo è ben definito.

Succede una cosa che potremmo esemplificare con questa immagine e che significa che l’uso del termine “interazioni polari” è spesso un abuso concettuale.

Ma di questo argomento e delle sue conseguenze sulle interazioni in fase condensata parleremo in un altro prossimo post. Anche perchè un aspetto qui non considerato con precisione è quello delle variazioni dei potenziali conseguenti al considerare forze fra oggetti macroscopici in generale. Altrove potete trovare una definizione più precisa: forze di Lifshitz-van der Waals, a seguire ad un fondamentale articolo di Lifshitz sul tema delle interazioni dipolari fra corpi macroscopici in genere, successivo a quello di cui parlamo oggi qui (E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Zh. Exsp. Teor. Fiz. 29, 83-94 (1955)

e E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Sov. Phys. JETP 2, 73-83 (1956)).

Ma ne riparleremo.

Torniamo alle forze di van der Waals.

Le forze di van der Waals per come sono state introdotte ed analizzate e per come sono conosciute mediamente dal chimico, sono una forma semplificata della situazione effettiva.

Hendrik Casimir è stato un fisico olandese (1909-2000) che ha lavorato presso il laboratorio Philips ad Eindhoven, uno dei più prestigiosi laboratori di fisica del mondo; pur lavorando presso una azienda privata, Casimir ha sviluppato concezioni teoriche generali e fondamentali. Nel 1947 Hendrik Casimir e Dirk Polder proposero l’esistenza di una forza fra due atomi polarizzabili e fra un’atomo di questo tipo ed una piastra conduttrice chiamata forza di Casimir–Polder. Voi mi direte ma questa è roba vecchia, la conosciamo già, è la forza di London!

Può essere interessante capire la differenza fra le forze di London ipotizzate già nel 1937 fra due atomi e il punto di vista di Casimir-Polder.

La differenza come vedete già dai titoli è che London considera piccole distanze e non tiene conto dell’effetto del campo e della sua dinamica nel tempo; il campo è ritardato, si espande a velocità finita ed i suoi effetti si propagano a velocità finita; dunque mentre London ragiona come in una azione a distanza, Casimir accetta il fatto basilare che il campo elettromagnetico viaggi e si modifichi a velocità finita, quella della luce. Questa impostazione che “ritarda” la trasmissione del segnale è appunto chiamata “ritardo”, retardation in inglese.

Questa è certamente una correzione di secondo ordine per così dire ma non così piccola come si può immaginare. Il titolo del lavoro di Casimir e Polder ha a che fare proprio con la differenza di cui parliamo.

La conclusione di Casimir e Polder è la seguente:

Dunque come vedete, a piccole distanze le cose non cambiano, l’approssimazione di London è accettabile, ma quando si considerano distanze più grandi le interazioni variano più velocemente.

A questo punto interviene l’imponderabile. Dopo una conversazione fra Casimir e Bohr sul lavoro pubblicato, Bohr suggerisce che il fenomeno previsto da Casimir e Polder abbia a che fare con la cosiddetta energia di punto zero e questo catalizza un secondo lavoro a nome del solo Casimir che gli dà fama perenne. (http://www.dwc.knaw.nl/DL/publications/PU00018547.pdf) Come vedete il lavoro effettivo (più vecchio di qualche settimana) è citato in questo mostrato in figura, ma non sono riuscito a scaricarlo; il suggerimento di Bohr è riportato in varie cronache ma non corrisponde a qualcosa di scritto, è tradizione orale che ci sia stato!

Cosa è questa benedetta energia di punto zero? E’ una di quelle cose che i chimici si trovano scodellata dalla fisica teorica e con la quale devono fare i conti: piccola, sottile, imprevedibile e scotta come un laser UV.

Giusto per chiarire se vi andate a leggere il lavoro di London del 1937 l’energia di punto zero è già presente.

Bella questa descrizione qualitativa ma chiarissima: l’energia di punto zero viene dalla natura profonda della MQ: gli oggetti quantistici non stanno mai fermi!

Ora una nota può servire; alcuni presentano questa energia di punto zero come derivante dalla relazione di indeterminazione fra energia e tempo; ma questa è una approssimazione concettuale forte; come dire per brevi istanti di tempo il primo principio può essere violato! Falso! La MQ non prevede la violazione del primo principio.

Se fosse così esisterebbero due operatori quello dell’energia, l’hamiltoniano e quello del tempo che dovrebbero essere nel medesimo rapporto degli altri operatori connessi dalle relazioni di indeterminazione, i due operatori delle relazioni di indeterminazione tecnicamente sono coniugati, ma non commutano (ossia la differenza fra le loro due applicazioni in ordine invertito è pari a iħ).

MA QUESTO E’ FALSO!! Per la buonissima ragione che un operatore tempo non c’è in MQ. Dunque se si scrive che il prodotto ΔExΔt è soggetto alla relazione di indeterminazione si sta forzando la MQ. (ringrazio per questa nota il collega Stefano Siboni del mio dipartimento con cui collaboro da sempre). Il tempo della MQ è un parametro, è un tempo assoluto e questo cari colleghi è uno dei punti deboli della MQ.

Meglio la chiara e generale interpretazione di London. Gli oggetti quantistici non stanno mai fermi e dunque hanno un’energia di punto zero.

Questa situazione mi ricorda molto il caso dell’equilibrio. L’equilibrio per un chimico è un fenomeno dinamico, anche all’equilibrio due fasi si scambiano materia, fra reagenti e prodotti, fra gas e liquido per esempio, ma anche fra un elettrodo e una soluzione anche a corrente netta nulla c’è uno scambio di cariche, misurabile (è la cosiddetta corrente di scambio); questo è in totale contrasto con l’idea dell’equilibrio meccanico. Per la meccanica all’equilibrio non succede nulla, per la chimica succede sempre qualcosa. In una visione classica ad energia zero non succede nulla, in una visione quantistica gli oggetti non stanno mai fermi e l’energia non è esattamente zero.

Dal punto di vista sperimentale l’effetto Casimir inteso come l’attrazione fra piastre metalliche a piccola distanza (qualche nanometro) è difficile da misurare precisamente, ma la misura è stata fatta ripetutamente ed è in perfetto accordo con la teoria. Nel 1997 lo ha misurato Steve K. Lamoreaux del Los Alamos National Laboratory e poi Umar Mohideen e Anushree Roy della Università di California, Riverside. In pratica hanno usato una piastra metalllica ed una superficie sferica con raggio molto grande. Infine nel 2001 un gruppo padovano (Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe Ruoso) ha fatto la prima misura fra microrisonatori e dunque fra lastre piane.

Possiamo interpretare l’effetto in questo modo, ma tenete presente che si tratta sempre di una interpretazione non matematica; il vuoto non è tale a causa dell’energia di punto zero, ossia del principio di indeterminazione; dunque il vuoto dello spazio non è vuoto assoluto, ma è un “vuoto quantistico”, ossia una schiuma effervescente di particelle virtuali in coppie materia-antimateria che si affacciano all’esistenza e scompaiono continuamente; questo materiale è tantissimo nella media statistica ed esercita l’equivalente di una pressione; dato che la probabilità di esistenza o se volete il principio di indeterminazione dipende dai confini del sistema considerato, se limitiamo questi confini riduciamo la probabilità di esistenza di queste coppie “virtuali”; dunque fra due piastre metalliche ci sarà minore probabilità e pressione e le due piastre sperimenteranno una forza netta di attrazione che è pari (a qualche nanometro) ad 1 atmosfera! Pazzesco! L’effetto della pressione del vuoto!

https://physicsworld.com/a/the-casimir-effect-a-force-from-nothing/

Non sto a raccontarvi le altre cose: esiste un effetto Casimir repulsivo, esiste un effetto Casimir dinamico e tutto ciò dipende dalla combinazione fra energia di punto zero, ossia principio di indeterminazione e vuoto. Le forze di Casimir-Polder sono l’equivalente “ritardato” delle forze di van der Waals, e spiegano buona parte dell’adesione fra corpi solidi; ma non tutta. Ne ho parlato altrove e ve ne riparlerò, anche perchè sull’adesione ci ho lavorato anni. E la differenza viene dalla vecchia amica teoria acido-base (versione Lewis).

Potremo mai usare l’effetto Casimir per produrre energia dal “nulla”? Al momento pensiamo di no. Ma la MQ è imprevedibile!! Finchè dura beninteso, dopo tutto è solo una teoria ed ha il difettuccio di usare un tempo assoluto.

Nel frattempo cominciamo a sostituire al termine forze di van der Waals il termine più ampio e preciso: forze di Casimir-Polder (ed in futuro anche forze di Lifshitz-van der Waals, ma prima scriverò un altro post sul tema delle forze di adesione fra corpi macroscopici).

(continua)

http://www.lescienze.it/news/2013/02/16/news/luce_vuoto_quantistico_particelle_virtuali_fotoni_effetto_casimir_dinamico-1511221/

Lamoreaux, S. K. (1997). “Demonstration of the Casimir Force in the 0.6 to 6 μm Range”. Physical Review Letters. 78 (1): 5–8

Mohideen, U.; Roy, Anushree (1998). “Precision Measurement of the Casimir Force from 0.1 to 0.9 µm”. Physical Review Letters. 81 (21): 4549–4552. arXiv:physics/9805038

Bressi, G.; Carugno, G.; Onofrio, R.; Ruoso, G. (2002). “Measurement of the Casimir Force between Parallel Metallic Surfaces”. Physical Review Letters. 88 (4): 041804. arXiv:quant-ph/0203002

La famigerata durezza dell’acqua

Mauro Icardi

Quando parliamo della durezza di un’acqua facciamo riferimento al contenuto di sali di calcio e magnesio, presenti in forma di carbonati, bicarbonati, solfati, cloruri e nitrati. La durezza dipende dall’origine superficiale o profonda delle acque e dalla geologia dell’area di captazione. In funzione dei diversi gradi di durezza, espressa comunemente in equivalenti di carbonato di calcio (mg/L CaCO3 o grado francese °f), si riconoscono diversi tipi di acque con diversa durezza. La durezza si può distinguere in totale, permanente e temporanea.

La durezza totale è la somma della durezza temporanea e di quella permanente. Viene espressa in base al contenuto totale di calcio e magnesio, calcolato come CaCO3 (scala in gradi francesi °f), o come CaO (scala in gradi tedeschi, °t): 1 grado francese = 10 mg/l di CaCO3, 1 grado tedesco = 10 mg/l di CaO .

La durezza permanente è dovuta a sali di calcio e magnesio che non si decompongono per riscaldamento, come i carbonati, solfati e cloruri.

Il termine durezza temporanea si riferisce a quei sali solubili (idrogenocarbonati, HCO3) che per ebollizione dell’acqua si trasformano in sali insolubili (carbonati, CO32-) che precipitano:

Ca(HCO3)2 (aq)   ⇌   CaCO3 (s)   +   CO2(g)   +   H2O (l)

DUREZZA TEMPORANEA = DUREZZA TOTALE – DUREZZA PERMANENTE

Utilizzando la scala di durezza in gradi francesi (quella solitamente di uso più comune) la valutazione della qualità di un acqua si può esprimere con questa tabella.

Una tabella simile a questa normalmente si trova sulle confezioni di detersivo, per determinare il dosaggio ottimale di prodotto.

Le acque dure possono ridurre l’efficacia dell’azione dei saponi e detersivi e causare incrostazioni su elementi idraulici e macchinari, dovute a precipitazione dei sali, rendendo in alcuni casi utile il ricorso a processi di addolcimento delle acque, realizzato con diversi trattamenti tra cui scambio ionico od osmosi inversa.

Esistono vari tipi di resine che vengono utilizzate nei trattamenti delle acque, e a seconda del tipo di ioni che scambiano vengono classificate in: cationiche o anioniche.

 

Le resine a scambio cationico rimuovono dall’acqua gli ioni positivi calcio (Ca++) e magnesio (Mg++) scambiandoli con lo ione sodio (Na+).

Un funzionamento analogo hanno le resine a scambio anionico utilizzate ad esempio per rimuovere il nitrato (NO3), che viene trattenuto dalla resina e scambiato con lo ione cloruro (Cl).

Tornando alla durezza, ed alle incrostazioni calcaree, non è inusuale che caldaie per produzione di acqua calda sanitaria e riscaldamento domestico, risultino ancora perfettamente funzionanti a livello di bruciatore, ma di fatto fortemente ostruite da calcare per quanto riguarda il bollitore di accumulo, oppure i tubi di circolazione dell’acqua.

La determinazione analitica della durezza dell’acqua è ancora un’analisi che si esegue con i mai dimenticati metodi di una volta. Il principio è quello della titolazione complessometrica degli ioni calcio e magnesio, disciolti nel campione di acqua.

Il campione di acqua viene tamponato a pH 10 e successivamente titolato con una soluzione di sale disodico dell’acido etilendiamminotetracetico (EDTA) in presenza di nero eriocromo T come indicatore.

il campione da titolare assume un colore rosso-violetto che al raggiungimento del punto equivalente (quando tutti gli ioni calcio e magnesio sono stati complessati dell’EDTA) vira al blu. Questa tecnica che può sembrare obsoleta, in un immaginario del laboratorio di analisi ormai dominato dalle apparecchiature di analisi strumentale, è invece la metodica di analisi ufficiale emanate dell’Istituto superiore di sanità per le acque destinate al consumo umano.

Nella legislazione in vigore, per il parametro “durezza” viene data solo l’indicazione di un range di valori consigliati, e pertanto il mancato rispetto di questi valori non rappresenta una vera e propria non conformità e dovrà, di volta in volta, essere valutato ai fini dell’emanazione del giudizio di idoneità. La composizione in sali minerali che conducono ad una durezza di 10 – 15 °f rappresenta il miglior contenuto raccomandabile a livello sanitario.

E a proposito di implicazioni a livello sanitario, una pubblicazione del 2007 suggerisce che, un valore adeguato di durezza delle acque destinate al consumo umano, rappresenti un fattore protettivo nei confronti dell’insorgenza di malattie cardiovascolari. Lo studio per altro suggeriva altresì di approfondire il ruolo del parametro durezza, così come quello di altri micronutrienti che si assumono con l’acqua potabile, nella valutazione del rischi cardiovascolare. Che è legato a diversi altri fattori, quali quelli metabolici, genetici, ed allo stile di vita.

Qui il link della pubblicazione.

http://old.iss.it/binary/itti/cont/Notiziario%20ISS%20durezza%20acqua.1179820668.pdf

Per concludere credo che occorra ricordare un principio fondamentale: parametri e i rispettivi limiti parametrici, così come il recepimento nella normativa nazionale, sono basati sulle conoscenze scientifiche disponibili, e tengono conto del principio di precauzione, al fine di garantire che le acque possano essere utilizzate e consumate in condizioni di sicurezza nell’intero arco della vita. In generale, i valori parametrici individuati si fondano sugli orientamenti stabiliti dall’Organizzazione mondiale della Sanità (WHO, o OMS).

(Nota del curatore. Su alcuni siti il grado francese è ancora indicato con la °F maiuscola che è un errore, perchè quello è il simbolo del grado Fahreneit °F; per questa perla si veda il sito Culligan, al quale avevamo segnalato la questione ma senza effetto, https://www.culligan.it/la-durezza-dellacqua/ il simbolo acccettato del grado francese è °f o °fH)

Mary Elvira Weeks (1892-1972)

Rinaldo Cervellati

 

Non sapere cosa sia accaduto nei tempi passati, sarebbe come restare per sempre un bambino  (Cicerone)

Coloro che non ricordano il passato sono condannati a ripeterlo (George Santayana)

Nell’anno dedicato al 150° anniversario della Tavola Periodica mi sembra opportuno ricordare la figura di Mary Elvira Weeks, chimico e storica della chimica che scrisse fra il 1932 e il 1933 la serie di 21 articoli sulla scoperta degli elementi per il Journal of Chemical Education, poi raccolta   nel ponderoso volume Discovery of the Elements che dal 1935 al 1968 ha visto sette edizioni e numerose ristampe.

Mary Elvira nacque il 10 aprile 1892 a Lyons, una cittadina di poche migliaia di abitanti nella Contea di Walworth, Wisconsin. Frequentò il Ripon College, ottenendo il B.A. (Bachelor of Arts) in chimica nel 1913. Si recò quindi all’Università del Wisconsin, dove nel 1914 ottenne il Master in chimica lavorando con J. Howard Mathews[1]. Durante i successivi sette anni ha lavorato come insegnante di chimica in scuole secondarie superiori e analista in laboratori industriali.

Nel 1921 divenne istruttrice di chimica all’Università del Kansas, dove continuò il suo lavoro di ricerca per il dottorato che completò poco tempo dopo. Nel 1927 fu promossa assistant professor e, dieci anni dopo, associate professor. Anche se effettuava alcune ricerche sperimentali oltre ai suoi pesanti doveri di insegnamento, i suoi veri interessi erano storico-linguistici, quindi iniziò a combinare questi talenti spostando i suoi studi dalla ricerca sperimentale a quella in storia della chimica.Mary Elvira Weeks

Alla Kansas University conobbe Frank B. Dains[2] che aveva accumulato una splendida collezione di immagini di chimici famosi. Infatti, dopo aver conseguito il dottorato a Chicago nel 1898, Dains aveva trascorso un anno a Berlino e Friburgo e, com’era consuetudine tra gli studenti americani, aveva visitato numerosi chimici e chiesto foto. Dains continuò a collezionare immagini durante il resto della sua carriera ma a causa di un intenso programma di ricerca in chimica organica non aveva mai pubblicato nulla sulla sua collezione.

Elvira Weeks combinò il suo doppio interesse per la chimica e la linguistica preparando una collezione di articoli sulla scoperta degli elementi, che furono pubblicati come una serie di 21 articoli sul Journal of Chemical Education negli anni 1932-1933. La popolarità di questi articoli incoraggiò la Chemical Education Publishing Company di Easton (Pennsylvania) a raccogliere la serie in un libro: Discovery of the Elements (1° edizione 1934). Gli articoli e il libro furono generosamente illustrati con le immagini della collezione Dains, successivamente integrata da immagini raccolte da Weeks. Il libro infine ha visto sette edizioni; le ultime con la collaborazione di Henry M. Leicester[3].

Discovery of Elements 6th Edition

In realtà Discovery of the Elements è, per molti aspetti, una storia della chimica che si sviluppa attorno al tema principale della scoperta degli elementi. Vi sono lunghe interessanti digressioni su altre ricerche dei chimici che hanno scoperto nuovi elementi.

Nonostante il successo dei suoi scritti, il Dipartimento di Chimica della Kansas University non era disposto a premiarla per la sua “opera letteraria”. Le facoltà di chimica erano inclini a dare premi alle indagini sperimentali di laboratorio piuttosto che a ricerche storiche, a prescindere da quanto fossero accurate[4]. Weeks infatti rimase assistant professor per dieci anni prima della promozione a associate professor. Dopo altri sette anni come professore associato, decise di abbandonare l’insegnamento per sfruttare meglio i suoi interessi storici e linguistici. Nel 1944, Weeks divenne associato di ricerca in letteratura scientifica presso la biblioteca scientifica Kresge-Hooker in fase di sistemazione alla Wayne State University di Detroit. Alla Kresge-Hooker ebbe finalmente l’opportunità di utilizzare al meglio i suoi talenti.

All’avvicinarsi del 75° anniversario della sua fondazione (1876) l’American Chemical Society decise che sarebbe stata un’ottima iniziativa scrivere e pubblicare una storia della Società. Nel 1944 affidò questo incarico a Charles A. Browne, membro dell’ACS fin dagli ultimi anni del diciannovesimo secolo, un chimico con esperienza nel mondo accademico (dottorato a Göttingen, 1901), industriale e governativo e uno dei fondatori della Divisione ACS di Storia della Chimica (HIST). Browne, durante la sua carriera come direttore del New York Sugar Research Laboratory, e successivamente come capo chimico dell’Ufficio USA di Chimica e Suoli, aveva maturato una vivace vocazione per la storia della chimica. Era quindi la persona giusta per scrivere la storia della Società e accettò questo incarico. Browne morì all’inizio del 1947 all’età di 76 anni con l’organizzazione del libro impostata e nove capitoli completati. Diversi mesi prima aveva persuaso Weeks a diventare co-autore. Weeks si trovò dunque responsabile per la maggior parte degli undici capitoli che restavano da scrivere e per la raccolta del materiale supplementare. Il volume A History of the American Chemical Society-Seventy-five Eventful Years, di Charles Albert Browne e Mary Elvira Weeks fu pubblicato nel 1952.

Mary Elvira Weeks si ritirò nel 1954 ma continuò a vivere nella sua casa di Detroit lavorando part-time come traduttrice scientifica. Nel 1967 ricevette il Dexter Award, premio assegnato dall’American Chemical Society in riconoscimento di una straordinaria carriera di contributi in storia della chimica.

Weeks era per natura una persona amichevole ma molto riservata, capace comunque di affrontare impegni di notevole portata. Morì il 20 giugno 1975 dopo diversi mesi in una casa di riposo.

Per la stesura di questo post ho attinto dalle seguenti opere:

A.J. Ihde, A Quarter Century of Dexter Awards, 1981, unpublished manuscript, estratto in

http://acshist.scs.illinois.edu/awards/Dexter%20Papers/WeeksDexterBioJJB1.pdf

A.J, Ihde, The History of The Dexter Awards. Part III: The Second Decade, Bulletin for the History of Chemistry, 1989, 3, 11–12.

[1] Joseph Howard Mathews (1881-1970) chimico fisico americano, professore universitario ed esperto di identificazione delle armi da fuoco. Nel 1914 Mathews aveva da poco completato il dottorato di ricerca in chimica a Harvard sotto la guida di Theodore W. Richards, primo americano a vincere il Premio Nobel “per le sue accurate determinazioni dei pesi atomici”. Mathews è stato preside del Dipartimento di Chimica dell’Università di Wisconsin-Madison per 33 anni, dal 1919 al 1952.

[2] Frank Burnett Dains (1869-1948) chimico organico americano ottenne il B.Sc. nel 1890 e l’M.Sc. nel 1981, entrambi alla Wesleyan University. Nel 1898 ottenne il dottorato di ricerca all’università di Chicago. Entrò nel Dipartimento di Chimica della Kansas University nel 1911, raggiungendo lo status di professore ordinario nel 1914. Si ritirò nel 1942. La collezione dei suoi scritti, foto e disegni è conservata all’University of Kansas Libraries, a Lawrence.

[3] Henry Marshall Leicester (1906 – 1991), statunitense, è stato un biochimico e storico della chimica. Particolarmente interessato alla storia della chimica in Russia, ha pubblicato diverse biografie di chimici russi sul Journal of Chemical Education e in varie enciclopedie. Tradusse anche opere di chimica classica russa, come quelle di Mikhail Vasilyevich Lomonosov (1711-1765) considerato il “Leonardo da Vinci russo”, del quale era considerato un esperto negli Stati Uniti. Dal 1951 al ritiro nel 1971 è stato professore di biochimica presso la Dental School dell’Università del Pacifico.

[4] Le cose sono molto migliorate negli USA, mentre in Italia non è cambiato quasi nulla, resta il micidiale pregiudizio per cui chi si occupa di ricerca in storia (o in didattica) della chimica è un fallito nella ricerca scientifica.

Il chimico e l’intelligenza, un ricordo di H. Christopher Longuet-Higgins

Claudio Della Volpe

Quasi tutti i chimici sanno che c’è stato un famoso musicista che era anche chimico; beh in effetti egli si riteneva un chimico, e fu anche famoso, a contatto con i grandi chimici della sua epoca, ma coltivava la musica come passione. Poi la storia ha deciso che Borodin è stato prima una grande musicista (autore delle Danze Poloviciane e del Principe Igor) e poi un chimico analitico che si occupò delle reazioni delle aldeidi.
Ma oggi voglio parlarvi invece di un altro chimico di cui avete sentito certamente parlare almeno per una delle sue scoperte avvenute addirittura prima della laurea e che al colmo della sua carriera di chimico e fisico teorico abbandonò la chimica per dedicarsi alle “scienze cognitive”, alla musica ed alla percezione visiva, alle applicazioni della nascente intelligenza artificiale al tema della composizione musicale e della visione, un chimico che pubblicò, su riviste famose, sia di argomenti chimici che musicali e percettivi.
Sto parlando di Hugh Christopher Longuet-Higgins. La sua vita e la sua attività scientifica porterebbero a intitolare questo breve ricordo: l’intelligenza di un chimico, visto il carattere poliedrico e profondo delle sue ricerche.
Christopher nacque nella parrocchia di Lenham, nel Kent, secondo dei tre figli di un parroco. La sua famiglia era di origini ugonotte (i protestanti francesi). In realtà fu poi ateo per il resto della vita. Studiò alla Pilgrims’ School e quindi al Winchester College di Winchester.Si trattava di un ambiente prestigioso come attestano i nomi di parecchi dei suoi compagni di studi: Freeman Dyson e Michael Dewar fra gli altri. Insieme con Dyson costruì modelli dei poliedri. Vinse il premio per la matematica nel 1941 in forte concorrenza con Dyson.

Nel 1941 vinse anche una borsa di studio per il Balliol College di Oxford. Seguì il corso di chimica, ma fece anche esami di musica e fu organista al Balliol. Ebbe come insegnante di chimica Ronnie Bell con il quale pubblicò, ancora studente, il lavoro di chimica per cui è più famoso proponendo la struttura corretta del diborano, un composto chimico la cui struttura non era interpretabile con il modello allora in uso del legame di valenza. Si era nel 1943, in piena II guerra mondiale.

Il legame a tre centri (e 2 elettroni), come viene definito, è divenuto un classico della chimica; c’è da dire che la struttura adgeuata (ma senza le finezze della meccanica quantistica) era stata già proposta nel 1921 (W. Dilthey, Über die Konstitution des Wassers, in Angew. Chem., vol. 34, nº 95, 1921, p. 596, DOI:10.1002/ange.19210349509. ma questo sarà un altro post.)Iniziò il PhD e lo completò all’Università di Oxford sotto la supervisione di Charles Coulson, il celeberrimo autore di “Valence bond”. Coulson era un cristiano metodista, mentre Longuet-Higgins era ateo; ne seguirono dibattiti pubblici sul tema della religione cui entrambi parteciparono su sponde opposte. Seguì un’attività di post-dottorato all’Università di Chicago e all’Università di Manchester.

Nel 1947 Longuet-Higgins sviluppò la teoria degli orbitali delle molecole organiche coniugate ottenendo teoricamente risultati che erano stati conosciuti sperimentalmente già da molti decenni. Mostrò come le proprietà dei sistemi coniugati possono essere derivate combinando nella trattazione degli orbitali molecolari il comportamento degli orbitali di non legame. Formulò una teoria che descriveva le proprietà termodinamiche delle miscele che più tardi estese alle soluzioni di polimeri. Fece anche ricerche sulle proprietà ottiche delle molecole ad elica e sui loro spettri elettronici.

Nel 1952 fu nominato professore di fisica teorica al King’s College di Londra; nel 1954 diventò professore di chimica teorica all’Università di Cambridge e membro del Corpus Christi College (Cambridge). In questo periodo diede importanti contributi alla chimica teorica.
Dal 1954, usò tecniche matematiche per predire comportamenti chimici. Per esempio nel 1962 previde che il ciclobutadiene (che non era ancora stato sintetizzato) sarebbe potuto esistere come legando di un atomo di un metallo di transizione; tre anni più tardi, nel 1965, per la prima volta questo composto fu sintetizzato da Rowland Pettit della University of Texas, sebbene egli non riuscisse a isolarlo.
Applicò la teoria dei gruppi per definire gli elementi di simmetria delle molecole non rigide, come nel caso dell’idrazina (N2H4) e così fu capace di classificare i singoli livelli quantici della molecola.
All’inizio degli anni 70 maturò un cambiamento radicale della sua vita. Da affermato chimico teorico si trasformò in un esploratore dell’intelligenza aritificiale e delle sue applicazioni alle arti umane: musica e immagine. Egli era probabilmente arrivato a questo salto sulla base della sua esperienza come utente dei computer dell’epoca; tuttavia non ci considerò mai un ricercatore di AI ma piuttosto di “scienza cognitiva” , un termine che inventò lui stesso, intendendo che si occupava di come l’uomo guarda all’Universo atttorno a lui.
Si spostò prima all’Università di Edinburgo e poi, insieme ad altri scienziati nel 1974, fondò il Centro per le ricerche su Percezione e Cognizione alla Università del Sussex, Brighton. Qui sotto due dei lavori che pubblicò su Nature su temi di scienza cognitiva, sia di musica che di visione.

I suoi contributi al problema della rappresentazione tridimensionale nella visione sono ormai un fatto acquisito in tutte le applicazioni.

In particolare nell’articolo sulla visione egli introduce “il metodo degli otto punti” che serve a ricostruire un oggetto da una sua visione binoculare, dunque una rappresentazione del processo che il nostro cervello compie effettivamente.

Una breve rappresentazione del suo punto di vista sui temi musicaliLonguet-Higgins (1979): —

You’re browsing, let us imagine, in a music shop, and come across a box of faded pianola rolls. One of them bears an illegible title, and you unroll the first foot or two, to see if you can recognize the work from the pattern of holes in the paper. Are there four beats in the bar, or only three? Does the piece begin on the tonic, or some other note? Eventually you decide that the only way of finding out is to buy the roll, take it home, and play it on the pianola. Within seconds your ears have told you what your eyes were quite unable to make out—that you are now the proud possessor of a piano arrangement of “Colonel Bogey“.

Andò in pensione nel 1988 e morì nel 2004. Costituisce un esempio raro di scienziato abile sia nei temi puramente naturalistici che umanistici e di una capacità e visione culturale amplissima, come è difficile trovare oggi attorno a noi. Ai miei occhi il fatto che se ne parli poco è segno della povertà culturale dei nostri tempi, mascherata dalla parossistica preoccupazione per il numero delle pubblicazioni.

Referenze e testi consultati.

https://en.wikipedia.org/wiki/Christopher_Longuet-Higgins   dove si trova anche una lista pressocché completa di lavori; una lista sicuramente completa è su: https://royalsocietypublishing.org/doi/10.1098/rsbm.2006.0012

Gregory, R. L.; Murrell, J. N. (2006). “Hugh Christopher Longuet-Higgins. 11 April 1923 — 27 March 2004: Elected FRS 1958”. Biographical Memoirs of Fellows of the Royal Society. 52: 149–166. doi:10.1098/rsbm.2006.0012.

http://www.quantum-chemistry-history.com/Lo-Hi2Ue.htm

Longuet-Higgins, H. C.; Bell, R. P. (1943). “64. The Structure of the Boron Hydrides”. Journal of the Chemical Society (Resumed). 1943: 250–255. doi:10.1039/JR9430000250.

 Longuet-Higgins, Hugh Christopher (1947). Some problems in theoretical chemistry by the method of molecular orbitals. bodleian.ox.ac.uk (DPhil thesis). University of Oxford.

  Venn Cambridge University database Archived 14 June 2010 at the Wayback Machine

  H. C. Longuet Higgins; U. Öpik; M. H. L. Pryce; R. A. Sack (1958). “Studies of the Jahn-Teller effect .II. The dynamical problem”. Proc. R. Soc. A. 244 (1236): 1–16. Bibcode:1958RSPSA.244….1L. doi:10.1098/rspa.1958.0022.See page 12

  Longuet-Higgins, H. C.; Abrahamson, E. W. (1965). “The Electronic Mechanism of Electrocyclic Reactions”. Journal of the American Chemical Society. 87 (9): 2045. doi:10.1021/ja01087a033.

 Longuet-Higgins, H.C. (1963). “The symmetry groups of non-rigid molecules”. Molecular Physics. 6 (5): 445–460. Bibcode:1963MolPh…6..445L. doi:10.1080/00268976300100501.

Longuet-Higgins, H. C. (1981). “A computer algorithm for reconstructing a scene from two projections”. Nature. 293 (5828): 133–135. Bibcode:1981Natur.293..133L. doi:10.1038/293133a0.

Elementi della tavola periodica: Nickel, Ni.

Rinaldo Cervellati

Il nickel (Ni) (nichel o nichelio) è l’elemento n. 28 della Tavola Periodica, la sua abbondanza nella crosta terrestre è di circa 26,6 ppm (parti per milione), per confronto quella del più abbondante zinco è circa 72 ppm. Sull’origine del suo nome vi sono opinioni contrastanti, secondo alcuni deriverebbe dal diminutivo del nome svedese Nicolaus (Nickel, che significa folletto) [1], secondo altri dal tedesco kupfernichel, col significato di “rame del diavolo”.

Sebbene siano stati ritrovati bronzi risalenti al 3500 a.C. contenenti fino al 2% di nickel e alcuni manoscritti cinesi del 1700-1400 a.C. riportino che il paitung (“rame bianco”) era diffuso in Oriente, il metallo fu isolato dal suo minerale niccolite dal chimico tedesco Axel Frederik Cronsted nel 1751. La niccolite è un minerale costituito principalmente da arseniuro di nickel (NiAs) con piccole quantità di cobalto, antimonio, ferro e zolfo. Il nome deriva dal latino scientifico del minerale, Niccolum, il che fa propendere per l’origine nordica svedese per il metallo.

A sinistra: niccolite minerale; a destra: nickel metallo

Il nickel è un metallo bianco argenteo di aspetto lucido. È duro, malleabile, duttile, ferromagnetico, discreto conduttore di calore ed elettricità. Lo stato di ossidazione più comune del nickel è +2 ma sono stati osservati anche complessi di nickel negli stati di ossidazione 0, +1 e +3.

Il nichel si trova come costituente nella maggior parte dei meteoriti e spesso serve come uno dei criteri per distinguere un meteorite da altri minerali. I meteoriti di ferro, o sideriti, possono contenere ferro in lega contenente dal 5 al 20% di nickel. Commercialmente si ottiene dalla pentlandite (solfuro di ferro e nichel in rapporto 1:1 Fe:Ni) della regione Sudbury dell’Ontario, un distretto che produce gran parte del nichel del mondo. Si pensa che il deposito di Sudbury sia il risultato di un antico impatto di meteoriti. Un altro tipo di riserva nickelifera è costituito da lateriti in cui i minerali principali sono limonite (un idrossido di ferro e nickel) e garnierite (un silicato idrato di nichel).

Si stima che, dalle zone emerse in cui si è osservato almeno 1% di concentrazione di nichel, le risorse di nichel disponibili siano almeno 130 milioni di tonnellate, circa il doppio delle riserve già note. Il 60% è in lateriti e il 40% in depositi di solfuri.

Tuttavia il 45% delle riserve totali note di nickel si trova in Australia e Nuova Caledonia. Altri giacimenti di nichel si trovano in Russia, Cuba, Indonesia e altrove.

Mappa delle riserve mondiali di minerali di nickel (2005)

Vaste risorse di nickel si trovano nei noduli di manganese sul fondo degli oceani. La difficoltà di trovare nuovi depositi di lateriti e solfuri nelle usuali zone di sfruttamento sta conducendo all’esplorazione in Africa centro-orientale e nel subartico.

Nel 1967 nei pressi di Canala in Nuova Caledonia è stato scoperto un minerale costituito quasi esclusivamente da nickel contenente tracce di cobalto e di ferro. A questo minerale è stato il nome nickel (nativo) [2, p.348]. Successivamente, nel 1975, nel letto di un fiume del Sud Westland, in Nuova Zelanda, furono trovati detriti contenenti scaglie o granuli di nickel nativo (Ni 96.3%, Fe 1.77%, Co 0.69%) di dimensioni fino a 75 mm. La località del ritrovamento è circa 13 km a valle di una zona ricca di awaruite, un minerale costituito essenzialmente da leghe di nickel e ferro a composizione variabile da Ni2Fe a Ni3Fe. È stato dimostrato che il contenuto di nichel dei granuli detritici aumenta con la distanza dai depositi di awaruite. Ciò dà credito all’ipotesi che granuli e scaglie siano di origine naturale formatisi per lenta lisciviazione dell’awaruite a bassa temperatura nel corso dei millenni, da cui il nome nickel nativo [3]. Il nickel nativo non ha applicazioni pratiche.

Circa il 47% del nichel primario consumato è impiegato per la fabbricazione di acciaio inossidabile e altre leghe di acciaio, il 41% in leghe non ferrose e superleghe, il 7% in galvanoplastica e il 5% in altri usi. L’industria siderurgica degli Stati Uniti ha prodotto circa 2,4 milioni di tonnellate di acciaio inossidabile al nichel nel 2018, quasi il 20% in più rispetto al 2017. Le vendite di superleghe a base di nickel per motori a reazione continuano ad aumentare [4].

Fra gli altri impieghi i più importanti sono: batterie ricaricabili, catalizzatori e altri prodotti chimici, materiali per placcature e per coniare monete.

Alcuni impieghi del nichel (oltre che negli acciai)

A quest’ultimo proposito piace ricordare che le prime monete di rame-nickel furono emesse nel regno indo-greco nel II secolo a.C., mentre la prima moneta di nickel puro fu coniata nel 1881.

Col nome nichelino (nickel) si indica popolarmente la moneta statunitense da cinque cent, ossia cinque centesimi di dollaro. Dal 1938 al 2003 il disegno del nichelino ha sempre presentato al dritto il profilo del presidente degli Stati Uniti Thomas Jefferson e sul retro il Monticello, ossia la tenuta presidenziale di Thomas Jefferson. Negli anni 2004 e 2005 il Monticello fu sostituito da disegni commemorativi ma nel 2006 si tornò all’impressione originaria, mentre nel lato dritto della moneta continua a figurare l’immagine di fronte del Presidente Jefferson. Dal 1866 al 1938 si sono succeduti vari tipi di nichelino con leghe ed effigi diverse.

Il “nichelino” USA dal 2006

In Italia le monete da 50 e 100 lire erano fatte di acmonital (acronimo per acciaio monetario italiano) o di cupronichel, due leghe metalliche contenenti nickel. È contenuto nelle monete da 1 e 2 euro. Altri stati usano o hanno usato nickel per le loro monete.

Monete da 1 euro

Molti enzimi del tipo idrogenasi contengono nickel oltre agli aggregati ferro-zolfo. I siti nickel in queste idrogenasi hanno il compito di ossidarsi piuttosto che di sviluppare idrogeno: sono state presentate prove a sostegno dell’ipotesi che i centri nickel siano i reali siti attivi di questa classe di enzimi. Alcuni studi clinici hanno ipotizzato un qualche ruolo del nickel nell’organismo umano escludendone comunque il rischio di carenze, è comunque essenziale per alcuni microorganismi costituenti la flora intestinale dei vertebrati. Il nickel è pertanto classificato come oligoelemento ultra-traccia, da assumere eventualmente in quantità dell’ordine del microgrammo/giorno.

Sono comunque in commercio fiale contenenti un’associazione di gluconato di cobalto e zinco insieme a solfato di nickel (circa 76 microgrammi/fiala) consigliato come integratore per tutte le disfunzioni endocrine!

Sopra certi livelli il nickel è tossico, il valore limite di soglia, cioè la concentrazione ambientale dei prodotti chimici aerodispersi al di sotto delle quali si ritiene che la maggior parte dei lavoratori possa rimanere esposta nella vita lavorativa senza alcun effetto negativo per la salute, è di 0.05 mg/m3 settimana per il nickel e i suoi composti.

Purtroppo il nickel è uno tra i più potenti allergizzanti e il fatto che sia frequentemente presente in oggetti di uso comune (oggetti di bigiotteria, utensili da cucina, forbici, monete, piercing, ecc.) rende particolarmente diffusa la relativa dermatite da contatto. I sintomi comprendono eczema nel punto di contatto sotto forma di puntini o vescicole, prurito, rossore, bruciore o dolore, gonfiore. Pertanto, in alcuni categorie di oggetti (ad es. bottoni, gioielli, orologi) la presenza di nickel è stata limitata per legge sotto una soglia piuttosto restrittiva. L’Unione Europea regola per decreto la quantità di nichel che può essere contenuta in prodotti che sono a contatto con la pelle. In un articolo pubblicato dalla rivista Nature alcuni ricercatori svizzeri hanno però riportato che le monete da 1 e 2 euro eccedono il limite imposto dalla UE [5].

In una piccola percentuale di pazienti allergici si riscontrano anche disturbi sistemici, per esempio gastrointestinali, in questo caso si parla di allergia sistemica al nichel. Questi pazienti dovrebbero evitare gli alimenti contenenti nickel, tra i quali troviamo legumi (fagioli, lenticchie, piselli), frutta secca (arachidi, nocciole, noci), cacao e derivati.

I metalli vengono riciclati non solo per il loro valore commerciale ma anche perché la riciclabilità è una loro qualità intrinseca. Ciò è particolarmente vero per i metalli non ferrosi, un gruppo che include il nickel. Il nickel è uno dei più apprezzati metalli comuni non ferrosi e probabilmente è il materiale più riciclato. Gli esperti del settore stimano che 4,4-4,6 milioni di tonnellate all’anno di rottami della lavorazione degli acciai e altre leghe al nickel vengano raccolti per riciclare circa 350.000 tonnellate del metallo (circa un quarto della domanda totale). Questo nickel riciclato è riutilizzato principalmente dall’industria siderurgica.

L’industria di trasformazione dei rottami contenenti nickel è composta di quattro o cinque grandi aziende operanti a livello internazionale per garantire che gli scarti siano raccolti da ogni angolo del globo.

Le batterie contengono una varietà di materiali che possono essere riutilizzati come materia prima secondaria. Esistono metodi e tecniche consolidati per il riciclaggio della maggior parte delle batterie contenenti piombo, nichel-cadmio e mercurio. Per le nuove batterie al nichel-idruro e al litio, i metodi di riciclaggio sono tuttavia nelle fasi iniziali di sviluppo.

Schema riciclaggio nickel

Secondo il Nickel Institute: “L’efficienza del riciclaggio del nickel è una delle più alte” [6].

Afferma lo stesso Istituto: “In riferimento all’anno 2010, circa il 68% di tutto il nickel disponibile dagli scarti viene riciclato e inizia un nuovo ciclo di vita; un altro 15% entra nel ciclo degli acciai al carbonio. Tuttavia, circa il 17% continua a finire in discarica, principalmente in prodotti metallici e nei rifiuti di apparecchiature elettriche ed elettroniche, ma la richiesta di nickel riciclato è in continuo aumento” [6].

Infine, al nickel è dedicato uno dei racconti del libro Il Sistema Periodico di Primo Levi. Nichel descrive il primo lavoro di Primo Levi, subito dopo la laurea, nei laboratori chimici di una miniera.

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-20

https://it.wikipedia.org/wiki/Nichel

Bibliografia

[1] O. Lurati, Toponymie et géologie., Quaderni di semantica, 2008, XXIX(2), 437-452.

[2] M. Fleischer, New Mineral Names., The American Mineralogist, 1968, 53, 348-353

[3] G.A. Challis, Native nickel from the Jerry River, South Westland, New Zealand: an example of natural refining., Mineralogic Magazine, 1975, 40, 247-251

[4] U.S. Geological Survey, Mineral Commodity Summaries, febbraio 2019

[5] F.O. Nestle et al., High nickel release from 1- and 2-euro coins., Nature, 2002, 419, 132.

[6] https://www.nickelinstitute.org/policy/nickel-life-cycle-management/nickel-recycling/

I cicli biogeochimici degli elementi.

Claudio Della Volpe

L’idea di quest’anno di pubblicare post sugli elementi della tavola periodica sta avendo un certo successo; tuttavia devo dire che pochi di coloro che hanno contribuito hanno accettato lo spirito del mio invito completamente e in particolare una cosa che nella mia proposta era basilare: riportare per ogni elemento il ciclo biogeochimico e l’impatto del ciclo industriale su quello naturale.

E’ un argomento che mi affascina e che non è molto conosciuto né presente in letteratura e che fra l’altro ha a che fare col titolo e il soggetto del nostro blog; tutti conoscono i cicli degli elementi “maggiori” i cosiddetti “grandi nutrienti”, come il carbonio, l’azoto, il fosforo, l’ossigeno o lo zolfo casomai ma si fermano qua. Invece i cicli biogeochimici sono presenti per tutti gli elementi; come ho scritto recentemente (C&I 2019 n. 3) i cicli biogeochimici possono essere visti come parte degli ipercicli su cui Manfred Eigen (premio Nobel per la chimica nel 1967) ha basato la sua visione della vita; i cicli biogeochimici come volano degli ipercicli biologici e nel medesimo tempo come dissipatori del flusso di energia libera che dal Sole si scarica sulla Terra in ragione di decine di migliaia di terawatt.

Come scrisse nel suo libro Weather Prediction by Numerical Process (p 66) il fisico Lewis Fry Richardson

Big whirls have little whirls that feed on their velocity,

and little whirls have lesser whirls and so on to viscosity.

Grandi vortici hanno vortici più piccoli che si nutrono della loro velocità,

                        e piccoli vortici hanno vortici più piccoli e così via fino alla viscosità.

https://svs.gsfc.nasa.gov/vis/a000000/a003800/a003827/

Lo stesso meccanismo di degradazione dell’energia libera che funziona nei fluidi funziona dappertutto: “vortici han vortici più piccoli”.

Sembra una frase leonardesca: esprime qua come il flusso di energia solare si articola non solo sul piano meccanico dai grandi venti che coprono costantemente grandi zone di superficie ai piccoli venti regolari come l’Ora del Garda, dalle grandi correnti oceaniche alle onde che vi bagnano l’ombrellone, ma anche dai grandi cicli degli elementi ai processi chimici dentro la cellula vivente; la cascata dissipativa prosegue costantemente da quando la Terra esiste.

Il flusso dal Sole è di circa 174.000 terawatt (122.000 dopo albedo), ma quello netto che la macchina termodinamica terrestre, il sistema della biosfera, il Sistema Terra considerato come una macchina termica accoglie ed usa trasformandolo in “lavoro ordinato”, strutture è molto più basso, circa 6000 terawatt, come ho provato a calcolare in un post precedente).

In questa ottica l’economia umana è il metabolismo della nostra particolare specie; l’economia non è solo costrutto storicamente determinato, ma parte da una base biofisica, è ecological economics, come scriveva già tanti anni fa Enzo Tiezzi, una delle menti chimiche italiane più brillanti a cui va il mio grato ricordo sempre. E questo purtroppo nessun economista del Sole-24 ore lo capisce. E anche parecchi colleghi fanno spallucce!

Questo metabolismo ha inglobato i metalli facendo partire l’epoca che chiamiamo preistorica già oltre 7000 anni fa con il cosiddetto calcolitico, l’età del rame; dunque prima le rocce e la pietra, da sempre, godendo del lascito delle razze umane che ci hanno preceduto e affiancato, poi il carbonio, l’azoto e il fosforo con la scoperta dell’agricoltura circa 10-12000 anni fa e poi il rame, il bronzo, il ferro e così via.

Il nostro metabolismo sociale è stato questo.

A proposito dell’economia scriveva un filosofo ottocentesco:

«il lavoro non è la fonte di ogni ricchezza. La natura è la fonte dei valori d’uso (…) altrettanto quanto il lavoro»…..“dal punto di vista di una più elevata formazione economica della società, la proprietà privata del globo terrestre da parte di singoli individui apparirà così assurda come la proprietà privata di un uomo da parte di un altro uomo». “I beneficiari dei frutti della terra, infatti, sono soltanto «i suoi usufruttuari – e hanno il dovere di tramandarla migliorata, come boni patres familias, alle generazioni successive».

Appunto, la Natura! Come stanno le cose?

In un bel lavoro del 2009 (GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi:10.1029/2008GB003376, 2009) gli autori scrivono:

Sebbene i metalli servano come “nutrienti tecnologici” senza i quali la società moderna non può funzionare, essi non hanno ricevuto la stessa attenzione su scala globale dei “grandi nutrienti” C, N, S e P. Solo il ciclo globale completo del rame, comprendente sia i depositi che i flussi sia naturali che antropogenici è stato ricostruito quantitativamente [Rauch and Graedel, 2007]. (si tratta di un lavoro che è stato citato in un post precedente dedicato al rame)

Il lavoro è dotato di magnifiche tavole di cui vi riporto un esempio:

Il ciclo globale del Nickel:

E conclude con alcune considerazioni estremamente importanti ma non del tutto nuove per i lettori di questo blog:

La dimensione crescente della riserva in uso ha anche ripercussioni sul futuro delle sorgenti della risorsa metallica, poiché più metallo sarà ragionevolmente estratto dalle discariche dello stock in uso adesso attraverso il riciclo. Questo recupero non necessariamente ridurrà la pressione sulla estrazione del metallo da minerale, perché la maggior parte dei depositi metallici rimane molto concentrato rispetto agli stock in uso ed il minerale è necessario per i crescenti livelli di consumo e per compensare per le perdite del riciclo. Comunque , la stabilizzazione della popolazione mondiale ragionevolmente costituirà il primo passo per equilibrare il ciclo metallico mondiale. Enfasi dovrà essere messa sulla comprensione della quantità, la forma, e la distribuzione spaziale degli stock di metalli in uso poiché questa riserva diventerà importante in modo crescente come risorsa metallica cui attingere.

I nostri risultati complessivi indicano che l’azione dell’umanità è diventata un agente geomorfico (NdT relativo cioè alla morfologia della superficie terrestre) significativo attraverso la mobilizzazione dei metalli.

Flussi totali naturali ed antropogenici al presente esistono al medesimo ordine di grandezza per tutti i metalli investigati.

Il più grande movimento di masse nel sistema naturale (produzione crostale e subduzione, erosione dei sedimenti e loro denudazione, e deposizione oceanica) eccede di un ordine di grandezza o più il maggiore movimento di masse antropogenico (estrazione mineraria, produzione metallica e consumo del metallo) solo per Al e Fe. D’altronde Cu è l’unico metallo per il quale il flusso antropogenico eccede quello naturale per un ordine di grandezza o più.

Questa equivalenza degli ordini di grandezza si paragona bene con quello dei “grandi nutrienti”, dove la mobilizzazione del C da parte di attività umane è meno di un’ordine di grandezza rispetto a quello naturale, N e S sono approssimativamente gli stessi, mentre la mobilizzazione del P eccede quella naturale per più di mezzo ordine di grandezza. Queste perturbazioni dei cicli naturali globali dei metalli risultano nella riallocazione delle masse di metalli dai sedimenti superficiali ai margini continentali e dalle masse di minerali agli stock di metalli in uso.

Questo è l’Antropocene! I nostri “cicli”  (che sono “aperti”, non sono cicli ) dominano la situazione e questo sconvolge la biosfera; dobbiamo dedicare maggiore atttenzione a questi processi e cercare quanto più possibile di chiuderli come la Natura ha sempre fatto; non esistono discariche planetarie di metalli e rischiamo dunque di  trasformare la Terra in una pattumiera. Il primo passo è studiare e conoscere la situazione, per poterla adeguatamente trasformare. Ecco perché inserire il ciclo biogeochimico nei post sugli elementi è importante.

Voi che ne dite?

Ascoltare le richieste dei giovani.

Mauro Icardi

Il 24 Maggio, invitato dai giovani di “Friday for future “, ho partecipato insieme a loro alla manifestazione per il clima. Devo premettere che avrei partecipato ugualmente. Ma la richiesta di intervenire, e fare un breve intervento di una decina di minuti dopo il corteo per le strade di Varese , mi ha permesso di stabilire un contatto con loro. Ho risposto alla loro richiesta senza alcuna esitazione.

Quando sono salito sul palco non ho parlato di acqua. Ho voluto invece parlare di tempo. Il tempo che non possiamo più perdere, relativamente ai problemi ambientali e climatici.

E del tempo trascorso da quando l’umanità, o per meglio dire una parte di essa, ha iniziato a interrogarsi su un tema fondamentale. Cioè se è reale la possibilità di poter crescere economicamente, senza alcun limite. In un pianeta che invece è limitato. Un pianeta finito, inteso come spazio. Anche se la frase si presta a ad altre tristi considerazioni.

Ho voluto raccontare loro la vicenda che portò alla pubblicazione del “Rapporto sui limiti dello sviluppo”.

Di come, seppure molto giovane (avevo dieci anni quando lessi la notizia su un trafiletto di poche pagine sul numero domenicale del quotidiano “La stampa”, il 4 Marzo del 1972), quella notizia abbia finito per essere quello che ho definito il mio imprinting culturale.

I ragazzi in piazza mi hanno ascoltato con attenzione ed interesse. Forse anche perplessi che tutto quello che oggi li spinge a scendere in piazza, a protestare, a cercare di risvegliare la coscienza, sia singola, sia collettiva, non sia di fatto una cosa successa ora. E’ invece da quasi cinquant’anni che i problemi ambientali aspettano soluzioni. Alcune regole di comportamento personale erano già state suggerite. Per esempio evitare l’uso sconsiderato di imballaggi in plastica, oppure quello di usare l’automobile con intelligenza e parsimonia. Questi suggerimenti, due in un elenco che ne comprendeva quindici, erano contenuti in un libro di biologia pubblicato nella prima metà degli anni 70, e da adottarsi per gli istituti di scuola superiore.

Terminata la manifestazione del mattino, ho voluto rimanere con loro ancora qualche ora. Ascoltarli e dialogare. Senza cadere nella retorica, la loro generazione è quella che rischia di pagare un dazio alle scelte non ponderate che la mia generazione, e quelle che l’hanno preceduta hanno fatto.

Ho voluto invitarli sia all’impegno personale, che allo studio. Studio e comprensione che non devono essere limitati al loro percorso formativo e scolastico. Ma che deve, secondo il mio parere, continuare praticamente ogni giorno. In questo modo potranno rispondere a chi, superficialmente, definisce queste manifestazioni una scusa per perdere ore di lezione.

Questa partecipazione è solo un primo passo. Cercherò, per quanto mi sarà possibile di continuare ad ascoltarli, e di fare un pezzo di strada al loro fianco. Come sempre ho ricevuto, forse più di quanto ho potuto dare. Ma credo, così come proprio in questi giorni ha dichiarato Vandana Shiva, che abbiano bisogno di essere ascoltati. Aiutati a capire dinamiche che spesso forse comprendono, ma che possono anche metterli in difficoltà. Aiutarli ad apprezzare impegno, etica e sobrietà Credo che sia un impegno importante nei loro confronti. Ma da quel che ho potuto cogliere, credo che si possa essere ragionevolmente ottimisti.

Ghiaccio superionico ottenuto in laboratorio

Rinaldo Cervellati

L’acqua solida in condizioni normali si presenta in forma amorfa o di cristalli esagonali chiamati ghiaccio Ih, forma cristallina tipica di quasi tutto il ghiaccio presente nella biosfera.Varietà di forme di ghiaccio esagonale

Quasi tutto perché in alta atmosfera si possono trovare piccole quantità della forma cristallina cubica, chiamata ghiaccio Ic, che però è metastabile. Il ghiaccio Ic, in cui la configurazione degli atomi di ossigeno è simile a quella degli atomi di carbonio nel reticolo cristallino del diamante, si può produrre in laboratorio a temperature fra -140 e -50°C, ma si trasforma nella forma Ih sopra -30°C.

In laboratorio sono state ottenute almeno altre 17 forme cristalline di ghiaccio lavorando a diverse temperature e pressioni, un elenco con le corrispondenti caratteristiche si può trovare nel riferimento [1].

Fin dal 1988 calcoli teorici avevano previsto che l’acqua, sottoposta a pressioni estreme superiori a 100´103 atmosfere e temperature oltre 2000 K, poteva diventare superionica con un “mare” di protoni (ioni di idrogeno) che diffondono attraverso il reticolo solido dell’ossigeno.

Tuttavia la conferma sperimentale si è avuta solo lo scorso febbraio con la pubblicazione di una ricerca effettuata da un gruppo di scienziati del Lawrence Livermore National Laboratory, CA, coadiuvati dal Laboratory for Laser Energetics dell’Università di Rochester, NY, (M. Millot, F. Coppari et al., Nanosecond X-ray diffraction of shock-compressed superionic water ice., Nature, 2019, DOI: 10.1038/s41586-019-1114-6). Gli scienziati suppongono che questa particolare forma di ghiaccio possa giocare un ruolo chiave nella struttura di pianeti come Urano e Nettuno.

La notizia è stata riportata da Chemistry & Engineering newsletter nel numero del 16 maggio scorso [2], ma un’anticipazione è stata data dal notiziario on-line dell’Istituto Nazionale di Astrofisica (INAF) che contiene anche un’ intervista a Federica Coppari, responsabile della ricerca insieme a Marius Millot [3].

Federica Coppari, italiana, dopo la laurea e un master in Fisica all’Università di Camerino ha ottenuto il dottorato in Fisica all’Université Pierre et Marie Curie di Parigi, poi si è trasferita negli USA, dove attualmente è ricercatrice nel Lawrence National Laboratory a Livermore.

Federica Coppari

Marius Millot, francese, dopo il dottorato in Fisica ottenuto nell’Université Paul Sabatier di Tolosa, si è trasferito negli USA dove attualmente è responsabile di ricerca al Lawrence National Laboratory.

Marius Millot

L’intervista a Coppari è stata effettuata da Lorenzo Pizzuti, dell’INAF.

Alla prima domanda su in cosa consiste il ghiaccio superionico e in quali condizioni si ottiene, Coppari ha detto:

La condizione di superionicità è un particolare stato della materia in cui gli ioni pesanti si presentano sotto forma solida, mentre quelli leggeri sono in stato liquido. Nel caso dell’acqua, l’ossigeno occupa delle posizioni ben definite dalla struttura cristallina, mentre gli idrogeni non occupano delle posizioni fisse, ma si muovono liberamente.

Struttura del ghiaccio superionico [3]

Nel lavoro che abbiamo pubblicato abbiamo visto che il ghiaccio superionico è stabile tra circa 100 e 200 miliardi di Pascal e tra 2000 e 4000 gradi Kelvin.

A proposito della domanda su come sono riusciti a ottenere il ghiaccio superionico, Coppari ha risposto:

Per ottenerlo abbiamo preso un campione di acqua (l’acqua che conosciamo, per intenderci), l’abbiamo compressa usando un particolare dispositivo chiamato cella a incudini di diamante[1] fino a formare il ghiaccio chiamato Ice VII: una struttura più densa del 60 per cento rispetto al ghiaccio che abbiamo in frigorifero. Siamo poi andati a fare i nostri esperimenti di compressione shock all’Omega Laser facility, nel Laboratory for Laser Energetics di Rochester. In pratica, abbiamo messo la cella a incudini di diamante in una camera apposita, poi abbiamo focalizzato 2000 Joule di energia laser su uno dei diamanti per formare un’onda d’urto che si propaga attraverso la cella, comprimendo e scaldando l’acqua ulteriormente».

Immagine dall’esperimento di compressione, ottenuta con il laser per studiare le proprietà dell’acqua superionica [3].

Pizzuti ha poi chiesto quali differenze ci sono fra il nostro normale giaccio di freezer e questa nuova forma superionica. Ecco la risposta:

Il ghiaccio che troviamo sulla Terra, stabile a basse temperature e a pressioni ambiente ha struttura cristallina esagonale. Cambiando le condizioni di pressione e temperatura il ghiaccio può diventare acqua (scaldando) o assumere una struttura cristallina diversa (comprimendo). Ecco perché all’interno di pianeti tipo Urano e Nettuno, nei quali ci aspettiamo pressioni di centinaia di miliardi di Pascal e migliaia di gradi Kelvin, l’acqua avrà una struttura e delle proprietà sicuramente diverse da quelle del ghiaccio che usiamo per fare il mojito! Probabilmente l’interno dei pianeti non sarà formato da acqua pura, ma da composti e misture di carbonio, idrogeno, ossigeno e azoto. Lo studio delle proprietà dell’acqua pura alle condizioni che ci aspettiamo all’interno di questi pianeti è comunque un primo passo verso una comprensione più approfondita dei meccanismi che hanno portato alla formazione di questi pianeti.

Infine, alla domanda sulle implicazioni e gli sviluppi futuri della ricerca, Coppari ha risposto:

Le implicazioni si possono identificare su diversi fronti: per quanto riguarda la fisica fondamentale, è la prima osservazione sperimentale che questo stato della materia, predetto sulla base di calcoli teorici più di 30 anni fa, esiste nell’acqua. Un’altra implicazione per le scienze riguarda il campo magnetico di questi pianeti, che è intimamente legato a come si sono formati ed evoluti. La visione di molti planetologi è che Urano e Nettuno siano caratterizzati da una struttura interna formata da fluidi convettivi. Altri hanno invece postulato una struttura a strati, con un sottile strato fluido e un mantello di ghiaccio superionico per spiegare le anomalie del campo magnetico di questi pianeti. La scoperta che il ghiaccio è in effetti superionico alle condizioni interne di Urano e Nettuno dà credito a questa teoria. Anche gli sviluppi futuri sono molteplici. Una domanda ovvia è: qual è l’effettiva struttura dell’ossigeno nell’acqua superionica? Con esperimenti di diffrazione X si potrà rispondere a tale quesito. Ulteriori sviluppi riguardano l’esplorazione del diagramma di fase dell’acqua a più alte pressioni per vedere fino a dove si estende il dominio di stabilità del ghiaccio superionico. Non tralasciamo, ovviamente, lo studio delle misture di C-H-O-N [carbonio-idrogeno-ossigeno-azoto] per avere un’idea più precisa di cosa succede all’interno di questi pianeti.

Robert Car, un fisico teorico che ha studiato il ghiaccio superionico all’Università di Princeton è impressionato dal controllo sperimentale che ha consentito al gruppo di ricerca non solo di raggiungere quelle temperature e pressioni, ma anche di effettuare misure di diffrattometria a raggi X. Marius Millot è intenzionato a continuare il progetto di ricerca per indagare il ghiaccio superionico a diverse pressioni e temperature e per effettuare studi simili sull’ammoniaca solida.

Riferimenti

[1] https://it.wikipedia.org/wiki/Cristalli_di_ghiaccio

[2] S. Lemonick, Scientists make superionic ice,

https://cen.acs.org/physical-chemistry/Scientists-make-superionic-ice/97/i20?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[3] L. Pizzuti, Quant’è strano un mojito su Urano, https://www.media.inaf.it/2018/02/09/ghiaccio-urano-nettuno-coppari/

[1] Dispositivo che permette di generare pressioni altissime e di studiare il comportamento di un materiale sottoposto a tali condizioni. Originariamente ideata per essere usata in apparati sperimentali in cui era prevista l’osservazione ottica di quanto avveniva nel campione, è stata successivamente resa polivalente per ogni tipo di studio in cui il campione sottoposto a pressione è riscaldato e irraggiato con vari tipi di radiazione elettromagnetica (raggi X o gamma o infrarossi, luce di sincrotrone ecc.). Il dispositivo è stato utilizzato anche per ottenere in laboratorio il primo composto dell’elio, Na2He, di cui parleremo in un prossimo post.

NdP: http://www.lescienze.it/news/2019/05/11/news/ghiaccio_nero_caldo-4403157/

New high-pressure phases of ice   P Demontis, R LeSar, ML Klein  Physical review letters 60 (22), 2284  (questo lavoro ha ricevuto finora solo 58 citazioni ma probabilmente è il più importante lavoro sull’acqua degli ultimi decenni).

 

I modelli sconfitti. 2.

Claudio Della Volpe.

(la prima parte del post è qui)

Stiamo raccontando la storia dei modelli atomici del primo novecento e siamo arrivati a questo punto ad una proposta di atomo che incomincia ad avere caratteri rivoluzionari; il prossimo modello è intitolato a G. A. Schott(8).

Schott è stato un vero e proprio “maestro” della teoria elettromagnetica, un conoscitore tecnicamente approfondito delle equazioni di Maxwell e degli effetti che dipendono dal movimento delle cariche.

Ha tentato fino alla sua morte nel 1937 di opporsi alla teoria quantistica della materia cercando di sviluppare un approccio classico che tenesse fede ai necessari impegno sperimentali.

Anche se la teoria quantistica di Planck è del 1900 il primo attacco alla teoria classica per quanto riguarda la struttura atomica è solo del 1913, col modello planetario di Bohr, in cui si realizzano due punti di vista estremi: orbite elettroniche prive di emissione radiativa ed una espressione quantizzata per i salti energetici.

Schott è stato l’estremo campione della teoria classica della fisica; ha basato la sua difesa su una teoria “ad hoc” ma non priva di stimoli che riprenderemo appena dopo.

In particolare egli sostiene che la soluzione può venire da una struttura interna dell’elettrone che preveda che l’elettrone non sia una particella puntiforme e che esso invece si espanda sia pur a velocità bassa. E’ un’idea che riprende quella di Jeans dell'”elettrone strutturato”. Questa proposta contrasterebbe con la conservazione dell’energia e dunque l’autore è costretto a considerare uno stress interno all’elettrone causato dalla pressione esercitata dall’etere. Infine Schott propone sulla base di alcuni calcoli che questo fenomeno di interazione fra etere e elettrone sia all’origine della gravità.

La sua teoria non riesce comunque a riprodurre la relazione di Rydberg, ma getta le basi di un’idea interessante per spiegare il comportamento non-radiativo del sistema atomico: la espansione dell’elettrone, vedremo fra un momento.

Risale al 1910 il modello dell’archione, di J. Stark.(9)

Ancora una volta vediamo che la lingua può giocare un ruolo essenziale nella divulgazione delle teorie; questo è un lavoro in tedesco dunque meno accessibile sia allora che oggi allo scienziato medio. In questo originale lavoro non sufficientemente celebrato si introduce di fatto l’idea del protone, che viene chiamato “archione”.

As was determined, a chemical atom can contain several positive quanta, separable from each other, with which a mass is connected on the order of that of the hydrogen atom; we may not exclude after the current conditions of our experience the possibility that this also for the smallest chemical atom, which applies for hydrogen atom. As Archion we define now the individual which possesses an electrical charge equal that of the positive elementary quantity and whose mass afflicted with this charge cannot be made smaller, without the individual destroyed as such too. The designation positive quantity is to only characterize the size of the electrical charge, not those with it linked mass. The word Archion is, similar to the word electron, the statement about the charge and that statement about the minimum mass connected with the charge association towards.

Secondo l’idea di Stark l’archione possiede un momento dipolare magnetico, che consentirebbe all’archione di legarsi testa coda con un altro archione, allineandosi per formare un circolo chiuso che darebbe forma e struttura all’atomo come tale. La relativa debolezza dell’attrazione magnetica fra archioni sarebbe aiutata dalla opportuna presenza di elettroni che diminuirebbero la repulsione fra archioni. Ancora una volta questa proposta non risponde all’esigenza di prevedere la formula di Rydberg.

A questo punto nel medesimo 1910 viene pubblicato un articolo da parte di Ehrenfest che segna un punto a favore della meccanica classica ed anche un seme per il futuro problema della creazione di materiali per l’invisibilità, oggi si direbbe metamateriali per l’invisibilità. Solita sfiga , è in tedesco, ma rimedio mettendo l’immagine qua, non si sa mai qualche volenteroso……Questo articolo (10) non ebbe assolutamente il peso e l’impatto che avrebbe meritato.

Uno dei problemi fondamentali, abbiamo visto è quello della stabilità del modello atomico, e la domanda che ci si pone è: ma esiste nell’ambito della teoria di Maxwell un modo per evitare che un sistema di cariche in movimento accelerato emetta una radiazione elettromagnetica e dunque che la sua energia diminuisca? Si può passare ad una visione che impedisca di ricorrere a scelte radicali, ossia la MQ?

La traduzione grossolana del titolo sarebbe: “Movimenti elettrici senza radiazione elettromagnetica”, oggi si direbbe radiationless o nonradiating sources (potenza dell’inglese altro che impronunciabile ungleichformige!!!!!).

In questo brevissimo testo di una sola pagina (una modalità veramente wittgensteiniana) l’intuizione geniale di Ehrenfest è che possono esistere distribuzioni di cariche in accelerazione che non emettono radiazione. Una la vedete rappresentata nel piccolo filmino (in inglese gif) qua sotto (cliccate su quella che sembra una riga), una lamina infinita piana con densità di carica omogenea che accelera verticalmente, cioè perpendicolarmente a se stesso; dato che il campo elettromagnetico è TRASVERSALE, un tale movimento perpendicolare alla superficie NON corrisponde all’emissione di radiazione! Bellissima intuizione!

Lamina orizzontale d carica oscillante.

Tenete presente che al momento della pubblicazione di questo articolo geniale Bohr non aveva ancora scritto nulla sul suo modello e che i due modelli quello “dei Thomson” e di Nagaoka pongono al centro il problema della stabilità del moto di cariche elettriche. Dunque proposta perfettamente centrata. Articolo “economico” in linea con i tempi: dopo tutto il Tractatus di Wittgenstein è solo del 1921, il libro filosofico più breve del mondo, la scrittura essenziale; qua abbiamo l’idea geniale in una sola pagina. E questa E’ un’idea geniale, un seminal paper secolare.

Se il moto del sistema di cariche è perpendicolare alla superficie onde elettromagnetiche non si possono generare.

Perchè questo sistema non irradia? Perchè è un sistema infinito non puntiforme come l’esempio che si fa sempre; ovviamente sistemi infiniti non ne esistono; ma la soluzione finita c’è, la vedete nel secondo filmato qua sotto; una sfera uniformemente carica il cui raggio oscilli!!

Abbiamo la medesima situazione e non ci sono campi elettromagnetici emissibili da questo sistema che ricorda ovviamente l’elettrone autoespandente del campione dell’anti MQ: Schott!

Come se non bastasse Ehrenfest traccia la proprietà generale che un sistema di cariche accelerate deve possedere per non emettere un campo.

La condizione in modo riassuntivo recita: supponiamo di avere nella zona A indicata in figura una disposizione di cariche la quale generi un potenziale che al confine con la zona B va costantemente al valore presente in B; in B il laplaciano (come indicato nell’equazione) è costante, ossia in media il campo elettrico ha divergenza nulla, ha valore costante (se non vi ricordate cosa è il laplaciano non vi preoccupate, ve lo riassumo io in forma non rigorosa, è la media dei valori dei vettori in uscita da un punto).

.

mentre in A il campo elettrico è espresso dall’equazione seguente e

, , .

e H = 0; queste scelte garantiscono un comportamento non radiativo.

Ecco qua, in una paginetta, risolto in modo originale il problema della stabilità che aveva ossessionato per 10 anni i fisici classici; ma non bastò!

Accidenti agli articoli in tedesco! La MQ ha vinto per una questione di lingua? Certamente una diffusione di queste idee più ampia avrebbe reso inutili almeno nell’immediato le scelte radicali della MQ fatte solo tre anni dopo da Bohr, avrebbe aperto altre prospettive. Ma così non è stato.

Salto la storia dell’esperimento di Geiger-Marsden, gli studenti di Rutherford, dato che ne ho parlato in un post precedente. Quell’esperimento impose un modello “planetario”; ma nella descrizione di Rutherford (11) non ci sono commenti su come gli elettroni si muovano;

Considering the evidence as a whole, it seems simplest to suppose that the atom contains a central charge distributed through a very small volume, and that the large single deflexions are due to the central charge as a whole, and not to its constituents. At the same time, the experimental evidence is not precise enough to negative the possibility that a small fraction of the positive charge may be carried by satellites extending some distance from the centre.

Rutherford sapeva che quel movimento degli elettroni inteso in modo tradizionale avrebbe reso l’atomo instabile

The question of the stability of the atom proposed need not be considered at this stage, for this will obviously depend upon the minute structure of the atom, and on the motion of the constituent charged parts.

ma non coglie nessuno dei suggerimenti originali fatti da Schott o da Erhenfest, forse non li conosceva? Certo non li cita. Non so, non ho trovato commenti in merito. Sta di fatto, ma pochi lo ricordano, che Rutherford si tira indietro sulla questione della stabilità.

Alla fine il vincitore risultò N. Bohr (12)

Che modello di interazione aveva Bohr? Secondo questo lavoro (13) che ritraccia la storia del modello Nagaoka il modello Rutherford, quello di Bohr e di Nagaoka condividevano lo stesso tipo di potenziale e di interazione fra nucleo ed elettroni. Rimaneva il problema della stabilità.

Le regole nuove che Bohr ha suggerito per risolvere le contraddizioni di Rutherford, la solita instabilità elettromagnetica degli elettroni in rotazione attorno al nucleo piccolo e lontano, sono su un altro piano:

  1. Gli elettroni possono muoversi solo in orbite stabili che possiedono un momento angolare quantizzato.
  2. Un elettrone può cedere la sua energia solo tutta in una volta saltando da uno stato n ad uno n-1.

In queste regole Bohr ha riversato quello che Jeans aveva immaginato fosse necessario, ed era, h, la costante di Planck.

A questo punto i fisici avevano un modo di riprodurre finalmente la formula di Rydberg e tutti i sofisticati e sottili ragionamenti del decennio precedente furono in gran parte dimenticati.

Ma non del tutto, perchè qualcuno continuò a combattere contro i quanti.

Sto parlando ovviamente di Schott. Nel 1933 egli dimostrò un nuovo modo di costruire un sistema non radiativo(14).

Una carica sferica uniforme di raggio α sottoposta ad un moto periodico di periodo T non produrrà radiazioni se si soddisfa la seguente condizione :dove m è un intero piccolo e c la velocità della luce. Il fenomeno è mostrato in figura.Nel 1933 la teoria quantistica si era già rafforzata in modo tale che Schott non tentò assolutamente di costruire un modello atomico basato sul fenomeno appena scoperto, ma dato che nel 1930 si era scoperta una nuova forma di radiazione senza carica elettrica (che poi Chadwick dimostrerà essere il neutrone) Schott ipotizzò che il neutrone potesse farsi risalire alla sua scoperta. Il neutrone dunque come una collezione di una o più sfere non radianti.

Having now established the principal result of our investigation, we may perhaps be permitted to indulge in a little speculation, and, though models of the atom and its constituents, especially classical ones, are out of fashion, enquire whether such models, constructed out of charged sphere, like the one considered above, may not, after all, be of use in the elucidation of atomic problems… Obviously it does not help to account for Bohr’s radiationless electron orbits, for, if one of our spheres were used as a model of the electron, the radiationless orbits of its centre would be far too small, since they would lie entirely inside the electron, as we saw in the last section.

But this very fact suggests that, if two of our spheres were taken as models of the electron and proton, it might prove possible to use them to construct a permanent model of the neutron, possibly also permanent models of atomic nuclei; for we require radiationless orbits of nuclear dimensions, which can be provided by our spheres, if they are of such dimensions, and have no spin.

La teoria matematica usata per il calcolo è così elegante che si è pensato non potesse essere inutile; come ho scritto altrove: la bellezza è verità e la verità è bellezza, seguendo Keats.

In effetti questa teoria è diventata la base di partenza per lo studio di sistemi radiationless, senza emissione, le cosiddette nonradiating sources, che hanno dato la spinta alla ricerca sui cosiddetti metamateriali invisibili a indice di rifrazione negativo, ma questa è un’altra storia che vi racconterò in un altro post ed è anche un importante argomento non di magia ma di fisica e chimica dei metamateriali (15).

Concludiamo dicendo questo; i modelli atomici prequantistici sono stati numerosi; molti più di quanti ne ricordiamo comunemente; alcuni di essi contenevano idee matematiche e fisiche di notevole interesse; oggi quei modelli “erronei” rivivono in teorie fisiche diverse dalle originali e ci insegnano che forse il mondo potrebbe essere diverso da come lo rappresentiamo e lo raccontiamo.

Sappiamo che due teorie basilari come la relatività e la MQ presentano problemi di compatibilità; non abbiamo ancora una soluzione per questo problema, forse sia la MQ che la relatività sono “sbagliate”, sono casi particolari di altro. E forse proprio nei “modelli sconfitti” possiamo trovare suggerimenti per superare i problemi; e certamente possiamo trovare in essi lo spirito indomito di scienziati creativi e misconosciuti che vale la pena di ricordare con orgoglio. Attenti a parlare di modelli sconfitti e di modelli vincitori. Nel calorico c’era l’intuizione dell’entropia, nell’intuizione di Ehrenfest e Schott c’è il mondo dell’invisibilità.

Non tutto ciò che viene sconfitto è destinato a perire.

Riferimenti

  • 8) A. Schott, “On the electron theory of matter and the explanation of fine spectrum lines and of gravitation,” Phil. Mag., Ser. 6, Vol. 12 (1906), 21-29.)
  • 9) Stark, Prinzipien der Atomdynamik: Die Elektrischen Quanten (Leipzig, Verlag von S. Hirsel, 1910)
  • 10) Phys. Z. 11 (1910), 708-709) titolo:  “Ungleichförmige Elektrizitätsbewegungen ohne Magnet- und Strahlungsfeld”.
  • 11) Ernest Rutherford, The Scattering of α and β Particles by Matter and the Structure of the Atom – April 1911, Philos. Mag, 21:669-688,[
  • 12) Niels Bohr, “On the Constitution of Atoms and Molecules (Part 1 of 3),” Phil. Mag. 26 (1913), 1-25; sono tre articoli il primo si scarica liberamente gli altri no ed è una vergogna; abbasso il copyright che è in realtà un modo di coprire il selvaggio accumulo di profitto delle grandi case editoriali.
  • 13) https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4989051/
  •  14) A. Schott, “The electromagnetic field of a moving uniformly and rigidly electrified sphere and its radiationless orbits,” Phil. Mag. Vol. 15, Ser. 7 (1933), 752-761.
  • 15) https://skullsinthestars.com/2008/04/19/invisibility-physics-acceleration-without-radiation-part-i/