Microparticelle nei cosmetici.

In evidenza

Luigi Campanella, già Presidente SCI

Ecobiocontrol è il portale che da quasi due decenni ha un ruolo di orientamento verso acquisti di detergenti e di cosmetici rispettosi del principio di sostenibilità, un vero proprio punto di riferimento (su base scientifica ovviamente). E’ un luogo di discussione e con il quale confrontare le formulazioni di detergenti per la casa e cosmetici, tramite l’Ecobiocontrol dizionario.
L‘Agenzia Europea per le Sostanze Chimiche (ECHA) non sembra impegnarsi troppo sull’argomento….; in effetti ha elaborato una proposta rivolta alle tecnologie di produzione ed impiego di microparticelle solide solubili ed insolubili per cosmetici e detergenti come anche alle regole transitorie verso soluzioni migliori delle attuali. L’associazione della piccole e media impresa europea con il sostegno di alcuni ricercatori ha commentato criticamente attraverso il portale suddetto questa proposta giudicandola asservita ad interessi economici e causa di un vistoso rallentamento dei processi innovativi in atto, giustificando attraverso il rischio accettabile atteggiamenti in contrasto con una politica amica dell’ambiente che nelle ultime decadi ha trovato anche il supporto di soluzioni tecnico-scientifiche.https://tg24.sky.it/ambiente/2018/01/22/cosmetici-microplastiche.html

La posizione che emerge non è aprioristicamente contraria all’utilizzo di micro particelle applicate a cosmetici e detergenti, ben consapevole che da questro utilizzo possono derivare funzionalità e convenienza. La convinzione espressa è che è sicuramente possibile sostituire i materiali esistenti largamente irrispettosi dell’ambiente con altri più rispondenti alle esigenze degli ecosistemi, ma per remare a favore, e non contro, delle correnti raccomandazioni e direttive con soluzioni reali è richiesto che il metabolismo dei sistemi naturali sia sempre considerato il punto di partenza.

Da questo si possono dedurre quali tipi di materiali, in quali forme e di quanto di essi possa essere fatto uso senza sfidare e compromettere i processi biotici ed abiotici del nostro pianeta.

Ciò premesso cosa ECHA intende per microplastiche? Si tratta di particelle con una dimensione minore di 5 mm di plastica macromolecolare insolubile ottenuta per polimerizzazione, modificazione chimica di macromolecole naturali o sintetiche, fermentazione microbica. C’è subito da osservare nella forma che, al di là della completezza, tale definizione adottata dall’ECHA è solo valida per prodotti volontariamente sottomessi ai suoi criteri, non per ogni prodotto introdotto sul mercato. Nel merito poi della sostanza vengono esclusi da essere considerate microplastiche i polimeri naturali non modificati, tranne che per idrolisi ed i polimeri biodegradabili. Con riferimento allo smaltimento non si può non notare che la raccomandazione alle 3R contenuta nella proposta (ridurre,riusare,riciclare) mal si adatta a sostanze come cosmetici e detergenti per la presenza in essi di numerosi eccipienti non riciclabili: solo una stretta selezione degli ingredienti e delle materie prime nelle fasi di sviluppo e produzione ed un’attenta sorveglianza e guida del consumatore possono implementare i criteri di protezione ambientale. Come conseguenza delle precedenti carenze rifiuti insufficientemente degradati raggiungono i mari e gli oceani in tempi variabili in dipendenza dalle situazioni diverse dei fiumi, ma mediamente valutabili per i fiumi europei in un paio di giorni. Passando alla composizione nel Mediterraneo le particelle di dimensione maggiore di 700 micron sono costituite per oltre la metà da polietilene e per un quinto da polipropilene; si ritrova ancora relativamente poco polivinilalcool, ma la sua presenza è crescente e questo deve preoccupare perché con le nuove tecnologie applicate ai polimeri naturali rinnovabili questo composto è fortemente lucrativo a causa del suo carattere di biodegradabilità in certe condizioni microbiche. Il punto più debole della proposta ECHA è nei test di biodegradazione che riproducono quelli ufficialmente riconosciuti ma estendendone i cicli a 90-120 giorni in luogo dei 28 previsti usualmente ed innalzandone le temperature sperimentali fino a più di 30°C. I test sono stati sviluppati per biodegradare tensioattivi solubili, non microplastiche insolubili. Con le microplastiche solubili è la stessa solubilità un segno di degradabilità. Le microplastiche, sia solubili che insolubili, dovrebbero essere testate con metodi appropriati. La microplastica media attuale non può essere degradata in condizioni aerobiche ed anaerobiche in tempi talmente brevi da mantenere l’ambiente in buone condizioni. Non ha quindi senso puntare a cicli di degradazione lunghi e per di più in condizioni di temperatura irrealistiche. In più l’attuale trattamento delle acque reflue non consente la separazione fra microplastiche solubili ed insolubili prima del rilascio dell’effluente nel sistema acquatico collettore ed i tempi di ritenzione negli impianti di trattamento delle acque reflue sono troppo brevi per consentire la degradazione.

Il documento conclude chiedendo che, secondo una scelta che pare ovvia e di buon senso comune, venga proibito il rilascio nell’ambiente di materiali aggiunti intenzionalmente, incluse le micro particelle, sia in forma solubile che insolubile, quando questi non soddisfano stretti criterihttps://tg24.sky.it/ambiente/2018/01/22/cosmetici-microplastiche.html

-provenienza da fonti rinnovabili

-trasformazione per via fisica o chimica,ma secondo i criteri della Green Chemistry

-assenza di addittivi indesiderati o dannosi

– bassa tossicità acquatica

-pronta degradabilità in condizioni aerobiche ed anaerobiche o compostabili

-assenza di rilascio di metaboliti stabili dopo la degradazione o il compostaggio

Questi criteri sono focalizzati sulla prevenzione e rispondono al primo e più importante principio della Green Chemistry: prevenire il rifiuto è meglio che trattarlo o eliminarlo dall’effluente. Esistono ormai in commercio parecchie molecole che soddisfano questo profilo. I costi sono spesso maggiori, ma nelle valutazioni economiche ci si dimentica sempre dei costi ambientali. La piccola e media impresa in questo senso viene spesso frenata nell’adozione di innovazioni dagli interessi dei grossi produttori generalmente più conservatori.

Elementi della tavola periodica: Tallio, Tl.

In evidenza

Rinaldo Cervellati

Il tallio ricevette notevole attenzione da parte dei media di tutto il globo e di conseguenza del grande pubblico sul finire del 2006, in relazione alla morte della ex-spia russa Alexander Valterovich Litvinenko. Litvinenko, ex ufficiale del FSB (il servizio segreto della Federazione Russa) già KGB, perseguitato da un Tribunale russo, ottenne asilo politico in Gran Bretagna. Si ammalò improvvisamente l’1 novembre 2006 e, poiché i sintomi combaciavano, la prima diagnosi fu avvelenamento da tallio, fu curato per questo ma le sue condizioni peggiorarono e morì all’University College Hospital di Londra il 22 novembre.

Alexander Litvinenko all’University College Hospital

In seguito l’autopsia rivelò che la causa del decesso era dovuta all’isotopo radioattivo 210Po del polonio, mai usato prima come veleno.

Il Tallio (Tl) è l’elemento n. 81 della Tavola periodica, la sua abbondanza stimata nella crosta terrestre è circa 0,7 ppm, quindi non è molto raro. Non si trova libero in natura, è contenuto nei minerali crookesite (seleniuro di rame), nella lorandite (solfoarseniuro di tallio) e nella hutchinsonite (solfo arseniuro di piombo e tallio). Si trova anche nella comune pirite (solfuro di ferro) dalla quale si estrae principalmente.

Il nome deriva dal greco θαλλός (thallos), che significa rametto, germoglio verde, poi latinizzato in thallium.

                                                                                                  Da sinistra a destra:   Crookesite, Lorandite, Hutchinsonite e (sotto) Pirite

Il tallio fu individuato indipendentemente nel 1861 dai chimici William Crookes[1] e Claude-Auguste Lamy[2] in residui della produzione di acido solforico. Entrambi utilizzarono il metodo della spettroscopia di fiamma[3] in cui il tallio emette una notevole riga spettrale di colore verde. Il termine thallós è stato coniato da Crookes. Nel 1862 fu isolato sia da Lamy tramite elettrolisi, sia da Crookes per precipitazione da soluzioni con zinco e fusione della polvere risultante.

Il tallio è l’ultimo elemento del gruppo 13 della Tavola periodica, insieme a boro, alluminio, gallio e indio. Possiede due numeri di ossidazione: +1 (I) e +3 (III), la riduzione dallo stato di ossidazione +3 a quello +1 è spontanea in condizioni standard (25°C, 1atm). Nello stato di ossidazione +1, che è il più frequente, il suo comportamento chimico assomiglia a quello dei metalli alcalini.

Il tallio metallico è malleabile e tenero, abbastanza da poter essere tagliato con un coltello a temperatura ambiente. Presenta lucentezza metallica che, se esposta all’aria, cambia rapidamente in una sfumatura grigio-bluastra, simile al piombo, per formazione di ossido di tallio.

Tallio metallico ossidato (a sinistra), tallio metallico sotto vuoto (a destra)

In presenza di acqua forma idrossido di tallio, deve quindi essere conservato in olio minerale o sotto vuoto. Gli acidi solforico e nitrico dissolvono rapidamente il tallio per formare i corrispondenti sali, solfato e nitrato, mentre l’acido cloridrico forma uno strato insolubile di cloruro di tallio (I).

Il tallio naturale è formato da due isotopi 203Tl (29.5%) e 205Tl (30.5%), oltre a questi sono 23 gli isotopi artificiali con masse che vanno da 184 a 210. Il più stabile di essi è il 204Tl con tempo di emivita di 3,78 anni, ma il più importante è il 201Tl con tempo di emivita di 73 ore, dimostratosi utile per applicazioni mediche.

Gli alogenuri di tallio(I) sono stabili, il cloruro e il bromuro hanno la struttura del cloruro di cesio, mentre il fluoruro e lo ioduro una struttura simile a quella del cloruro di sodio. Cloruro, bromuro e ioduro sono fotosensibili, come gli analoghi composti d’argento. La stabilità dei composti del tallio (I) mostra differenze rispetto agli altri elementi del gruppo: ossido, idrossido e carbonato sono stabili.

I composti di tallio (III) assomigliano ai corrispondenti composti di alluminio (III), ma sono generalmente instabili.

I composti organotallici tendono generalmente a essere termicamente instabili, in soluzione acquosa forma lo ione stabile dimetil tallio, [Tl(CH3)2]+. Il trimetilallio e il trietiltallio sono liquidi infiammabili con basso punto di ebollizione.

Sebbene contenuto nei minerali sopra citati la sua estrazione da questi richiederebbe processi poco economici. La maggior parte del tallio si ottiene come sottoprodotto dall’arrostimento della pirite per la produzione di acido solforico. Le scorie di arrostimento utilizzate per la produzione del tallio contengono grandi quantità di altri materiali e vengono inizialmente lisciviate mediante l’uso di una base o di acido solforico. Il tallio viene poi fatto precipitare più volte dalla soluzione per rimuovere le ulteriori impurità. Alla fine è convertito in solfato di tallio da cui il tallio viene estratto per elettrolisi su elettrodi di platino o acciaio inossidabile.

Il tallio può anche essere ottenuto come sottoprodotto dalla fusione di minerali di piombo e di zinco. I noduli di manganese trovati sul fondo dell’oceano contengono tallio, ma la loro raccolta oltre a essere proibitivamente costosa è dannosa per l’ambiente marino.

L’USGS (United States Geological Survey) stima in 10 tonnellate la produzione annua mondiale di tallio.

Applicazioni

Poiché il solfato di tallio è inodore e insapore è stato a lungo usato come veleno per topi e insetticida. Data la sua elevata e non selettiva tossicità, il suo impiego a questo scopo è stato vietato in moltissimi Paesi dai primi anni ’70 del secolo scorso[4].

In ottica, i cristalli di bromuro e ioduro di tallio (I) sono usati come materiali ottici a infrarossi, perché sono più duri di altri materiali, inoltre trasmettono lunghezze d’onda significativamente più lunghe. L’ossido di tallio (I) è stato usato per produrre vetri con un alto indice di rifrazione. Combinato con zolfo o selenio e arsenico, il tallio è stato utilizzato nella produzione di vetri ad alta densità con bassi punti di fusione nell’intervallo 125 e 150 °C. Questi vetri, a temperatura ambiente, hanno proprietà simili a quelli normali ma sono più resistenti, e hanno indici di rifrazione migliori.

In elettronica, la conduttività elettrica del solfuro di tallio (I) lo rende utile nei fotoresistori. Il seleniuro di tallio è stato utilizzato in bolometri per il rilevamento a infrarossi. Il drogaggio di semiconduttori al selenio con tallio migliora le loro prestazioni, quindi è utilizzato in tracce nei raddrizzatori al selenio. Un’altra applicazione del drogaggio con tallio sono i cristalli di ioduro di sodio nei dispositivi di rilevamento delle radiazioni gamma. Alcuni elettrodi degli analizzatori di ossigeno disciolto contengono tallio.

Sono in corso attività di ricerca sul tallio per lo sviluppo di materiali superconduttori ad alta temperatura per applicazioni quali la risonanza magnetica, la propulsione magnetica, e la trasmissione di energia elettrica. La ricerca su queste applicazioni è iniziata dopo la scoperta del primo superconduttore di ossido misto di rame, calcio, bario e tallio nel 1988. Sono stati scoperti superconduttori di cuprato di tallio con temperature di transizione superiori a 120 K. Alcuni superconduttori di questo materiale drogati con mercurio hanno temperature di transizione superiori a 130 K a pressione ambiente, quasi quanto i cuprati di mercurio che detengono il record mondiale.

In medicina, prima della diffusa applicazione del tecnezio-99[5] in medicina nucleare, l’isotopo radioattivo tallio-201 (201Tl), con un’emivita di 73 ore, era la sostanza principale per la cardiografia nucleare. Il nuclide è ancora usato nei test stress per la determinazione del rischio nei pazienti con malattia coronarica (CAD).

Uno stress test al tallio è una forma di scintigrafia in cui la quantità di tallio nei tessuti è correlata all’afflusso di sangue. Le cellule cardiache vitali hanno normali pompe di scambio ionico Na+/K+. Il catione Tl+ lega le pompe K+ e viene trasportato nelle cellule. L’esercizio fisico induce l’allargamento (vasodilatazione) delle arterie nel corpo. Ciò produce un’anomalia coronarica nelle aree in cui le arterie sono dilatate al massimo. Le aree di infarto o tessuto ischemico rimarranno invece “fredde”. Il tallio pre e post stress può indicare le aree che trarranno beneficio dalla rivascolarizzazione miocardica. La scintigrafia può rivelare l’esistenza di un’anomalia coronarica o la presenza di coronaropatia ischemica.

Altri usi

Una lega di mercurio-tallio, che forma un eutettico con il tallio all’8,5% congela a -60 ° C, e viene quindi utilizzata in termometri e interruttori a bassa temperatura. In chimica organica di sintesi, i sali di tallio (III), come il trinitrato di tallio o il triacetato, sono reagenti utili per favorire diverse trasformazioni di composti aromatici, come chetoni e olefine. Sali di tallio solubili sono aggiunti ai bagni di doratura per aumentare la velocità di doratura e ridurre le dimensioni dei granuli all’interno dello strato d’oro.

Tossicologia

Il tallio e i suoi composti sono estremamente tossici e devono essere maneggiati con cura. I composti del tallio (I) hanno un’alta solubilità in acqua e sono prontamente assorbiti attraverso la pelle. Sintomi di avvelenamento da tallio sono la perdita dei capelli e il danneggiamento dei nervi periferici. Esistono purtroppo numerosi casi registrati di avvelenamento fatale da tallio.

L’OSHA[6] (Amministrazione per la Sicurezza e la Salute sul Lavoro) ha fissato il limite di esposizione consentito per l’esposizione cutanea al tallio sul posto di lavoro in 0,1 mg/m2 per giorno lavorativo di 8 ore. A livello di 15 mg/ m2, il tallio è immediatamente pericoloso per la vita e la salute.

L’esposizione per inalazione non deve superare 0,1 mg/m2 in una media ponderata nel tempo di 8 ore (settimana lavorativa di 40 ore). Il tallio si assorbe facilmente attraverso la pelle e si dovrebbe prestare attenzione per evitare questa via di esposizione, poiché l’assorbimento cutaneo può superare la dose assorbita ricevuta per inalazione fino al limite di esposizione consentito.

Il tallio è un sospetto cancerogeno per l’uomo.

Uno dei metodi principali per rimuovere il tallio (sia radioattivo sia stabile) dall’organismo è usare il blu di Prussia[7], sostanza che assorbe il tallio. La terapia prevede la somministrazione per os di fino a 20 grammi al giorno di blu di Prussia che verrà poi espulso (insieme al tallio) con le feci. Per rimuovere il tallio dal siero del sangue vengono anche utilizzate l’emodialisi e l’emoperfusione.

Secondo la United States Environmental Protection Agency (EPA), le fonti antropiche di inquinamento da tallio includono emissioni gassose di cementifici, centrali elettriche a carbone e fognature. La principale fonte di elevate concentrazioni di tallio in acqua sono gli scarichi (peraltro vietati) delle acque di lisciviazione dalle operazioni di lavorazione delle piriti.

Smaltimento e riciclaggio

In un’ampia rassegna sull’impatto ambientale e sulla salute dell’uso di tallio e composti, pubblicata nel 2005, Peter e Viraraghavan [1], dopo aver affermato che i metodi convenzionali di rimozione dei metalli pesanti dalle acque reflue ha scarso effetto sul tallio, elencarono alcune tecniche di trattamento per proteggere l’ambiente dalla tossicità del tallio.

Posto che i rifiuti generati dalla produzione e l’uso di composti di tallio possono trovarsi sia in acque reflue (contenenti meno dell’1% in peso di solidi sospesi e di carbonio organico totale) sia in acque non reflue, nelle prime il tallio può essere ridotto a 2 ppb (parti per miliardo) facendolo precipitare come solfuro che richiede comunque un attento controllo simultaneo del pH e del potenziale della soluzione.

Il tallio può essere efficacemente rimosso dalle acque non reflue con limatura di ferro e perossido di idrogeno a pH 3-4. I composti di tallio sono ridotti a metallo che viene poi eliminato per filtrazione.

Le acque reflue contenenti composti del tallio (III) vengono miscelate con calce o idrossido di sodio fino a un pH fra 8 e 10. Il tallio precipita come idrossido e quindi filtrato.

Per la rimozione del Tl(I) si usa una tecnica di adsorbimento su biossido di manganese. Fanghi di biossido di manganese prodotti durante l’elettrolisi dello zinco hanno dimostrato di essere molto efficaci nella rimozione degli ioni tallio dalle acque di lavorazione di zinco e piombo, da una quantità iniziale di 12,5 mg/L alla finale inferiore a 100 μg/L.

In Cina l’inquinamento ambientale da tallio è un problema divenuto attuale poiché il Paese è ricco della risorsa e la sta intensivamente sfruttando nell’industria elettronica. Molto recentemente è apparsa un’esauriente rassegna sull’argomento, pubblicata dal gruppo di ricerca guidato da J. Wang e G. Sheng [2]. Gli autori ricordano che le tecnologie convenzionali di trattamento chimico e fisico sono sì in grado di rimuovere tracce di Tl, ma si sono rivelate non convenienti per raggiungere lo standard ambientale richiesto (≤0,1–5μg/L). Sono invece molto promettenti l’adsorbimento utilizzando nanomateriali di recente sviluppo, i materiali polimerici modificati con ossido di metallo e le celle a combustibile microbiche[8].

Cella a combustibile microbica

Ciclo biogeochimico

Così come per il litio, anche per il tallio non si trova quasi nulla sul suo ciclo biogeochimico poiché, a maggior ragione in questo caso, non sono noti enzimi in grado di interagire con esso. Esistono studi geochimici, limitati ad aree specifiche del pianeta.

Nel 2018, la rivista scientifica Minerals decise di proporre un numero speciale su “Thallium: Mineralogy, Geochemistry and Ore Processes”, nella sezione Mineral Deposits, richiedendo articoli su questi argomenti. Su 7 articoli ricevuti 3 riguardavano aspetti geochimici di minerali di tallio in zone specifiche: Alpi Apuane (Italia), Nord Urali (Russia), Legenbach Quarry (Svizzera) [3].

Infine, ricordiamo che nell’ottobre 2017, il decesso di due anziane persone di Desio, fu imputato da molti giornali, fra cui il Corriere della Sera, alle “esalazioni” degli escrementi di piccione che avrebbero contenuto sali di tallio. La notizia creò un certo panico, ma si trattava della solita bufala giornalistica, che a sostegno riportò fantomatiche ricerche dell’OMS, mai avvenute.

Ne parlò su questo blog Claudio della Volpe:

https://ilblogdellasci.wordpress.com/2017/10/04/il-tallio-i-piccioni-e-i-giornali/

concludendo che se davvero gli escrementi dei piccioni contenessero tallio, Piazza San Marco sarebbe vuota…

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-31

https://en.wikipedia.org/wiki/Thallium

https://it.wikipedia.org/wiki/Tallio

Bibliografia

[1] A.L. John Peter , T. Viraraghavan, Thallium: a review of public health and environmental concerns., Environment International, 2005, 31, 493 – 501.

[2] J. Liu et al., Thallium pollution in China and removal technologies for waters: A review., Environment International, 2019, 126, 771– 790.

[3] https://www.mdpi.com/journal/minerals/special_issues/thallium

[1] Sir William Crookes (1832 – 1919) è stato un chimico e fisico britannico. Famoso per le sue ricerche sulla conduzione dell’elettricità nei gas a bassa pressione in tubi poi chiamati tubi di Crookes. Scoprì che quando la pressione era molto bassa, il catodo emetteva dei deboli raggi luminosi da lui chiamati raggi catodici. In seguito fu dimostrato che si trattava di un fascio di elettroni. Ebbe molte onorificenze e fu presidente della Society for Psychical Research.

[2] Claude-Auguste Lamy (1820 – 1878), chimico francese, fu compagno di studi di Louis Pasteur, intraprese poi la carriera di professore universitario all’École Normale Supérieure di Parigi. Indipendentemente da Crookes scoprì e isolò il tallio nel 1862.

[3] Tecnica spettroscopica ideata e perfezionata da Robert Wilhelm Eberhard Bunsen (1811 – 1899) chimico tedesco e Gustav Robert Kirchhoff (1824-1887) fisico tedesco, fondatori della spettroscopia di emissione.

[4]A causa della sua popolarità storica come “arma del delitto”, il tallio ha acquisito, insieme con l’arsenico, notorietà come “veleno dell’avvelenatore” e “polvere dell’eredità”.

[5] Il tecnezio (simbolo Tc) è l’elemento n. 43 della Tavola periodica e fu ottenuto artificialmente da Carlo Perrier ed Emilio Segré nel 1937. Il suo isotopo 99Tc è attualmente molto impiegato in medicina nucleare per il suo tempo di emivita.

[6] L’OSHA è un’agenzia del Dipartimento del Lavoro degli USA fondata nel dicembre 1970. Il suo compito è quello di garantire la sicurezza tramite l’introduzione di opportuni standard.  La EU-OSHA (Agenzia Europea per la Salute e Sicurezza sul Lavoro), fondata nel 1994, ha l’obiettivo di rendere i luoghi di lavoro europei più sicuri, produttivi e salutari, attraverso la condivisione e l’applicazione di informazioni di carattere giuslavoristico, sanitario e di prevenzione, non va quindi confusa con la statunitense OSHA.

[7] Il blu di Prussia (noto anche come Blu di Berlino) è un pigmento blu scuro usato nelle vernici e un tempo in pittura. Chimicamente è un sale misto di ferro e potassio, il ferrocianuro di ferro e potassio. Fu scoperto da due chimici tedeschi a Berlino, da cui il nome.

[8] Una pila a combustibile microbiologica (microbial fuel cellMFC) o pila a combustibile microbica è un sistema (bio)elettrochimico che mimando le interazioni batteriche naturali trasforma energia chimica in energia elettrica.

Nanoconi: nuovi allotropi del carbonio

In evidenza

Rinaldo Cervellati 

Dopo la scoperta del ciclocarbonio, recentemente oggetto di un post sul blog:

https://ilblogdellasci.wordpress.com/2019/08/26/un-nuovo-allotropo-del-carbonio-il-ciclocarbonio/

ecco che vengono individuati i nanoconi, nuovi allotropi del carbonio.

Lo scorso 3 settembre, su Chemistry & Engineering news on-line, Neil Savage riporta la scoperta di un nuovo allotropo del carbonio con struttura molecolare a forma di cono [1]. Poiché questa scoperta ha dato luogo a una disputa scientifica sulla priorità vale la pena ricordare anzitutto la versatilità del carbonio a formare allotropi.

Nel 1985 Harold Kroto dell’Università del Sussex, lavorando con James R. Heath, Sean O’Brien, Robert Curl e Richard Smalley della Rice University, scoprirono l’ormai famoso fullerene C60 nel residuo fuligginoso formatosi nella vaporizzazione del carbonio in atmosfera di elio, che essi chiamarono buckminsterfullerene[1] [2]. Gli stessi autori paragonarono la struttura della nuova molecola (un poligono con 60 vertici e 32 facce, di cui 12 pentagonali e 20 esagonali) a quella di un pallone da football, da cui deriva il nome popolare footballene (inglese) o soccerene (americano), v. fig. 1.

Figura 1. Un pallone da calcio in cuoio (a sinistra), se si immagina di sostituire ogni vertice sulle cuciture con un atomo di carbonio si ottiene la struttura del C60 (a destra).

Per dovere di cronaca, la struttura del C60 era stata prevista nel 1973 da due teorici sovietici in base a calcoli quantomeccanici, ma il loro articolo [3] fu ignorato, in patria e all’estero.

Dalla scoperta a oggi molti altri fullereni e loro derivati sostituiti sono stati sintetizzati e le loro proprietà indagate, così come nuove specie allotropiche: i nanotubi di carbonio e il grafene (fig. 2).

Figura 2. Struttura di un nanotubo (a sinistra) e del grafene (a destra)

In determinate condizioni la struttura dei fullereni tende a rilassarsi e, arrotolandosi su se stessa, dà luogo ai nanotubi di carbonio. Il grafene è un allotropo del carbonio sottoforma di un singolo strato di atomi in un reticolo esagonale bidimensionale in cui ciascun atomo si trova su un vertice. Può anche essere considerata una molecola aromatica indefinitamente grande, il caso ultimo della famiglia degli idrocarburi policiclici planari.

Queste molecole sono estensivamente studiate per i loro possibili impieghi in vari settori dell’elettronica.

Tornando alla notizia riportata da C&EN, il Prof. Frank Würthner, ordinario di chimica organica all’Università di Würzburg (Germania), in collaborazione con il ricercatore post-dottorato Kazutaka Shoyama ha pubblicato la sintesi e alcune proprietà di un nanocono, di diametro 1,68 nm e altezza 0,432 nm [4]. Un anello a cinque atomi di carbonio costituisce la punta del cono, utilizzando una tecnica particolare i due ricercatori hanno aggiunto attorno ai bordi del cono anelli a sei atomi fino a raggiungere un totale di 80 atomi di carbonio. Infine, alla periferia del cono sono stati inseriti cinque etero cicli con azoto per aumentare la solubilità del materiale, chiamato C80N5 (fig. 3)

Figura 3. Struttura del nanocono C80N5: vista dall’alto (a sinistra), vista laterale (a destra). Atomi di carbonio in grigio; di idrogeno in bianco; di azoto in blu; di ossigeno in rosso.

Frank Würthner

Dice Würthner: i nanoconi potrebbero rivelarsi più solubili in solventi organici rispetto al grafene; la solubilità è necessaria per realizzare film sottili per costruire dispositivi, come ad esempio componenti di celle solari. I nanoconi assorbono anche la luce di gran parte dello spettro visibile meglio dei fullereni. Come i fullereni, sono anche poveri di elettroni. Gli autori affermano che queste due proprietà potrebbero renderli utili per realizzare efficienti celle solari organiche, e la loro fluorescenza potrebbe essere sfruttata nei sensori. Tuttavia, la resa della sintesi è bassa, appena lo 0,6%.

Il Prof. Lawrence T. Scott, professore emerito, coordinatore del Gruppo di Ricerca in Chimica Organica dell’Università di Boston, un’autorità in merito a fullereni e nanotubi, ha postato il seguente commento:

Dovrebbe essere notato che abbiamo riportato la sintesi del nanocono genitore  C70H20 su Science Advances. Il gruppo di Würzburg e quello di Boston hanno presentato il loro lavoro indipendente al 18 ° Simposio internazionale sui nuovi composti aromatici (ISNA-18) a Sapporo, in Giappone, in luglio 2019. Ci congratuliamo con il professor Würthner per la sua sintesi di un derivato penta-imidico del nanocono, che è molto interessante come nuovo materiale che accetta elettroni per potenziali applicazioni a dispositivi elettronici. Abbiamo l’ambizione di usare il nostro nanocone non sostituito come un “seme” da cui far crescere nanoconi più grandi mediante ripetute aggiunte di anelli a 6 membri. Per gli storici interessati, il manoscritto di Würzburg è stato sottoposto al J. Am. Chem. Soc. il 21 giugno 2019 ed è stato pubblicato on-line il 5 agosto 2019, mentre il nostro manoscritto è stato inviato a Science Advances il 17 novembre 2018 ed è stato pubblicato il 23 agosto 2019.[5]

In fig. 4 è riportata una molecola citata da Scott.

Figura 4. Struttura cristallina del penta-mesitil carboncono, sintetizzata all’Oak Ridge National Laboratory [5]

Lawrence T. Scott

Bibliografia

[1] N. Savage, Nanocones extend the graphene toolbox. New structure joins fullerenes and nanotubes, adding interesting optical properties., C&EN news, September 3, 2019

[2] H. W. Kroto, J. R. Heath, S. C. O’Brien, R. F. Curl, R. E. Smalley, C60: Buckminsterfullerene., Nature, 1985, 314, 162-163, 14/11/1985.

[3] Bochvar, D.A.; Galpern, E.G., (1973).On hypothetical systems: carbon dodecahedron, S-icosahedron and carbon-S-icosahedron (in Russo), Dokl. Akad. Nauk SSSR (Proc. USSR Acad. Sci.), 1973, 209, 610.

[4] K. Shoyama, F. Würthner, Synthesis of a Carbon Nanocone by Cascade Annulation., J. Am. Chem. Soc., 2019, DOI: 10.1021/jacs.9b06617

[5] Z-Z Zhu et al., Rational synthesis of an atomically precise carboncone under mild conditions., Sci. Adv., 2019, https://advances.sciencemag.org/content/5/8/eaaw0982

[1] Il nome “buckminsterfullerene” fu scelto dagli scopritori in omaggio all’architetto statunitense Richard Buckminster Fuller (1895- 1983), teorico dei sistemi, scrittore, designer, inventore, e filosofo. Ha reso popolare la nota cupola geodetica. Fu anche professore alla Southern Illinois University.

Kroto, Curl e Smalley hanno ricevuto il Premio Nobel per la Chimica nel 1996 per il loro ruolo nella scoperta di questi materiali.

Molecole: una risorsa materiale e culturale

In evidenza

Giovanni Villani*

Lo scopo di questo articolo è di analizzare uno dei concetti chimici più importanti, quello di molecola, e di capire le sue relazioni con il mondo macroscopico. Quest’analisi seguirà un approccio sia storico sia filosofico, mettendo in evidenza i momenti storici fondamentali e le loro conseguenze per tutta la chimica.

Il mondo molecolare della chimica è talmente importante che nel titolo di questo lavoro è stato definito come una risorsa sia materiale sia culturale. Sull’importanza “materiale” diremo solamente che questo concetto, sia con gli aspetti legati alle proprietà sia con quelli legati alle trasformazioni (reazioni chimiche), è collegato alla quasi totalità della Chimica. Sull’importanza “culturale”, invece, spenderemo qualche parola in questo lavoro perché è un aspetto sottovalutato, persino in ambito chimico. Noi pensiamo, invece, che anche tramite i suoi aspetti culturali, oltre che con gli indubbi risultati materiali, si possa pubblicizzare un’immagine positiva della Chimica.

I concetti di molecola e composto seppure collegati hanno origini storiche molto diverse. Il primo, quello di molecola, è relativamente moderno e a lungo è stato confuso con il concetto di atomo. Ancora alla fine del XVIII e agli inizi del XIX secolo i chimici francesi assegnavano il termine molécule al limite di divisibilità delle sostanze, mentre i chimici inglesi usavano con lo stesso significato il termine atom. Parte della confusione veniva dal fatto che i chimici non riuscivano a immaginare che le molecole di alcuni elementi (idrogeno, ossigeno, ecc.) potessero essere formate da più atomi uguali (H2, O2, ecc.). Dalton, infatti, aveva escluso che potesse esistere un legame tra due atomi uguali.

Il fatto che con l’espressione “particella” alcuni chimici intendessero l’atomo e altri la molecola portò a un’apparente contraddizione tra le ipotesi di Dalton e quelle di Gay-Lussac. In pratica, la molecola si poteva “rompere” nelle reazioni chimiche, mentre l’atomo, per definizione, doveva restare immodificato. Avogadro, nel 1811, per primo rimosse queste contraddizioni e inizio a distinguere questi due concetti di particella elementare. Fu Gaudin, chimico francese del XIX secolo, che introdusse per i gas elementari la distinzione in molecole monoatomiche, biatomiche e poliatomiche. Egli scrisse che una molecola di gas idrogeno combinandosi con una molecola di gas cloro dava due molecole di gas acido cloridrico; affinché ciò avvenisse era necessario che le molecole originali si dividessero in due parti e poiché queste due mezze molecole non potevano più essere ulteriormente divise, egli suggerì di considerarle semplici atomi.

Tale chimico fu il primo a scrivere correttamente la sintesi dell’acqua:

                        2H2 + O2 → 2H2O

in cui appare chiaramente che le molecole di ossigeno e di idrogeno hanno due atomi, ma anche la necessità che la molecola di ossigeno si dividesse in due parti e che queste formalmente si aggiungessero alle due molecole di idrogeno.

Fu, tuttavia, il lavoro di Cannizzaro a risolvere definitivamente la questione della differenza tra atomo e molecola. A seguito della relazione di Cannizzaro a Karlsruhe del 1860 fu accettata la seguente proposta:

si propone di adottare concetti diversi per molecola e atomo, considerando molecola la quantità più piccola di sostanza che entra in reazione e che ne conserva le caratteristiche chimiche e intendendo per atomo la più piccola quantità di un corpo che entra nella molecola dei suoi composti.

Confrontiamo questa definizione di molecola con quella riscontrabile oggigiorno in un dizionario di chimica[1]:

Una delle unità fondamentali che formano i composti chimici; la parte più piccola di un composto chimico che può prendere parte a una reazione chimica. Nella maggior parte dei composti covalenti, le molecole consistono di gruppi di atomi tenuti insieme da legami covalenti o di coordinazione. Le sostanze covalenti che formano cristalli macro-molecolari non hanno molecole individuali (in un certo senso, l’intero cristallo costituisce una molecola). Analogamente i composti ionici non hanno molecole, perché sono raggruppamenti di ioni di carica opposta.

La molecola è l’unità fondamentale dei composti chimici, dove “fondamentale” viene legato alla reattività come aveva proposto Cannizzaro. In passato (e anche oggi in qualche libro divulgativo) si legava invece il concetto di molecola alle “proprietà macroscopiche”. Infatti, si diceva: “la molecola è la porzione di composto più piccola che conserva le proprietà del composto”. A questa definizione era facile obiettare che la singola molecola perde molte delle proprietà del composto in quanto la maggior parte di esse sono legate all’interazione tra le molecole e non alla singola molecola. Non esiste, infatti, una molecola “liquida” o “solida”, ma queste proprietà sono presenti solo quando si ha un numero grande di molecole.

Il legare molecola e composto chimico tramite la reattività ha dei vantaggi ed è allo stesso tempo un po’ riduttivo. Il vantaggio è che effettivamente la reattività molecolare e quella macroscopica della sostanza chimica sono collegabili in maniera biunivoca. Lo svantaggio è duplice:

–        In questo modo sembra che si definisca la reattività come una “proprietà” molecolare mentre è un concetto relativo a due o più partner. Su questo punto essenziale del concetto di reazione chimica non avendo il tempo di svilupparlo, si fa riferimento a[2].

–        Spariscono dalla definizione di molecola tutta una serie di proprietà macroscopiche effettivamente correlabili, seppure non in maniera biunivoca, alle molecole. Così facendo si diluisce il parallelismo atomo/elemento e molecola/composto, che è stato storicamente il modo di procedere che ha creato questi concetti e ha sviluppato un tipo di spiegazione specifica della chimica e particolarmente feconda.

Nella seconda parte della definizione odierna di molecola si trovano dei pasticci tra concetti del piano microscopico e quelli di quello macroscopico che andrebbero evitati. Il seguito della definizione moderna di molecola evidenzia due casi problematici del binomio molecola/composto: cristalli macromolecolari e cristalli ionici. In questi due casi il composto chimico non è formato da molecole, se si esclude il caso che si possa considerare formato da una sola enorme molecola.

Un punto essenziale da mettere in evidenza è, infatti, che non tutte le sostanze hanno un molecola. Non è, infatti, necessario per ogni sostanza prevedere che nel passaggio dal piano atomico a quello macroscopico possiamo individuare un’entità (la molecola) intermedia. Non l’avevano fatto i filosofi greci che passavano dal piano atomico a quello macroscopico senza vedere la necessità di un piano molecolare; non lo fa la “Natura” dove, accanto a elementi molecolari (idrogeno, ossigeno, ecc.) troviamo elementi in cui non possiamo distinguere molecole (tanti metalli) ed elementi come il carbonio, in cui possiamo trovare sia forme non molecolari (diamante e grafite) sia forme molecolari come il fullerene, C60.

Due aspetti, per niente presenti nella definizione molecolare sono da mettere in evidenza e differenziano i concetti di molecola e di composto chimico in maniera notevole.

–        Il mondo molecolare (e submolecolare) è in “continuo movimento”, cioè presenta una dinamica interna alla molecola e tra le molecole. La dinamica microscopica è del tutto assente nel concetto di composto, dove, tuttavia, si possono evidenziare le proprietà legate a tale dinamica con le spettroscopie.

–       La molecola presenta una sua “struttura”, detta appunto molecolare. Anche in questo caso, un identico discorso sull’assenza a livello macroscopico, può essere fatto. Riguardo alla struttura molecolare è senz’altro da mettere in evidenza che tale concetto permette di razionalizzare le reazioni chimiche mediante la rottura e/o la formazione di legami (variazione della struttura molecolare). Su questo punto essenziale della chimica moderna non avremo il tempo di tornare e faremo riferimento a[3].

Il mondo microscopico si rivela più ricco di quello macroscopico e questo è il motivo dell’efficacia di tale livello di spiegazione nel capire le proprietà delle sostanze chimiche. Per queste ultime il tempo entra solo nel momento della loro creazione o distruzione (reazioni chimiche), mentre per le molecole è un concetto presente sempre (tramite le vibrazioni, per esempio).

Da un punto di vista culturale, che cosa ha il mondo molecolare di tanto importante da meritare una trattazione filosofica e scientifica specifica? A tutti è nota la teoria atomica della materia e, seppure a grandi linee, la sua controparte filosofica. Molto meno studiata, per non dire completamente assente, è invece la teoria molecolare della materia. La sua controparte filosofica, poi, è tutta da scrivere. Nel mio libro La chiave del mondo ho cercato di mostrare l’importanza scientifica e filosofica della teoria molecolare della materia.

Il livello di complessità delle molecole, poi, presenta delle peculiarità. In una possibile lista dei livelli di complessità della realtà, quella che dall’atomo porta al macroscopico, il livello molecolare, anche a prima vista, si situerebbe immediatamente prima della biforcazione tra il mondo inanimato e quello animato. Rispetto al mondo vivente, le molecole sono il livello di studio immediatamente precedente (basta guardare al binomio cellula/costituenti cellulari) e sono, quindi, fondamentali nel suo studio, come la biochimica sta a evidenziare. Il livello molecolare è, tuttavia, anche il livello immediatamente precedente agli oggetti inanimati macroscopici che ci circondano e anche per essi il mondo molecolare entra nella loro spiegazione. In quest’ultimo caso, basti pensare ai minerali, alle rocce, ecc. e al ruolo che svolge la geochimica nel loro studio[4].

Non è, tuttavia, solo questa la peculiarità del mondo molecolare. Esso è un mondo ricco qualitativamente, cioè i suoi enti, milioni, sono tutti diversi gli uni dagli altri a tal punto da avere ognuno un nome proprio. È questa sua caratteristica che lo rende capace di spiegare tanto il complesso mondo macroscopico inanimato quanto l’ancora più complesso mondo vivente. Questa sua varietà è una diretta conseguenza della struttura molecolare, e su questo concetto scientifico fondamentale per la chimica e la scienza tutta, va posta l’attenzione. Infatti, un approccio scientifico e filosofico al mondo molecolare incentrato sul concetto di struttura crea un collegamento tra la scienza che studia le molecole (la chimica) e la filosofia e le avanguardie culturali, collegamento sostanzialmente interrotto nel XX secolo, rispetto alla ricchezza e all’intensità del passato.

È importante chiedersi quale è stata la causa della crisi del rapporto tra la chimica e la filosofia in questo ultimo secolo. Accanto a una crisi complessiva del rapporto tra le discipline scientifiche e le visioni più generali del mondo, e il pragmatismo scientifico ne è la logica conseguenza, la crisi tra la chimica e la filosofia ha una sua motivazione specifica. Fino all’Ottocento la chimica era sicura di avere un suo substrato filosofico e filosofi della natura si facevano chiamare i chimici di allora. Le particelle chimiche (atomo molecola) del XIX secolo erano, infatti, un patrimonio culturale di indubbio valore che tale disciplina apportava al più ampio campo scientifico. Con l’espropriazione del mondo atomico/molecolare da parte della Meccanica Quantistica (e, quindi, dei fisici), i chimici si sono sentiti privati della loro base culturale e si sono sempre più chiusi nei laboratori, nelle applicazioni industriali e nelle loro astrazioni specialistiche.

Il paradosso di ciò è che la chimica, che più della fisica plasma il mondo quotidiano, è diventata una cenerentola a livello culturale, una disciplina senza aspetti generali, una branca di fisica applicata. Io credo che solo quando sarà evidente, anche tra i chimici, che la loro disciplina ha una valenza generale specifica e diversa da quella della fisica, solo allora il rapporto tra la chimica e la cultura si potrà ristabilire. Il concetto di struttura molecolare è, a mio avviso, il punto di forza che permette una solida differenziazione della chimica dalla fisica e, per le sue fondamentali implicazioni, essere non solo un concetto tecnico fondamentale, ma anche un concetto squisitamente filosofico. Quindi, il ristabilirsi di un fecondo rapporto tra chimica e filosofia deve e può avvenire intorno al concetto di realtà strutturata (le molecole), cioè sul terreno di quegli approcci scientifici recenti chiamati “scienze della complessità”, riproiettando la chimica tra le avanguardie culturali[5],[6].

È un posto che essa merita e al quale può ambire se i suoi operatori, i chimici appunto, si scuotono e, senza abbandonare i tecnicismi, essenziali nella scienza moderna, pongano uguale attenzione agli aspetti più generali e concettuali, vorrei dire filosofici, della loro disciplina.

*Istituto di Chimica dei Composti OrganoMetallici ICCOM-CNR (UoS Pisa), Area della Ricerca di Pisa  E mail: giovanni.villani@cnr.it

Giovanni Villani è  stato Presidente della Divisione didattica della SCI fino al 2018. E’ primo ricercatore CNR i suoi interessi di ricerca sono: theoretical and computational chemistry; theoretical study of biological systems; software development; analysis of the main chemical concepts; relationship between chemistry and the other scientific disciplines.

[1] J. Daintith, Oxford Dictionary of Chemistry, Oxford University Press, NewYork (2004).

[2] G. Villani, “Sostanze e reazioni chimiche: concetti di chimica teorica di interesse generale”, Epistemologia, XVI (1993) 1.

[3] G. Villani, La Chiave del Mondo. Dalla filosofia alla scienza: l’onnipotenza delle molecole, CUEN, Napoli, 2001, Cap. 7 e 9. Reperibile in rete al sito http://www.culturachimica.it/wp-content/uploads/2017/04/La-chiave-del-mondo.pdf

[4] G. Villani, “Complesso e organizzato. Sistemi strutturati in fisica, chimica, biologia ed oltre”, (FrancoAngeli, Milano, 2008), Cap. 3.

[5] G. Villani, “La chimica: una scienza della complessità sistemica ante litteram” in “Strutture di mondo. Il pensiero sistemico come specchio di una realtà complessa”, Vol. 1, a cura di L. Urbani Ulivi (il Mulino, Bologna 2010).

[6] G. Villani, “Chemistry: a systemic complexity science” (Pisa University Press, Pisa 2017).

Dalle forze di van der Waals all’adesione. 3. “Polare/non polare?” Non è questo il problema.

In evidenza

Claudio Dellla Volpe

I post precedenti di questa serie sono stati pubblicati qui e qui.

Hugo Christiaan Hamaker (Broek op Langedijk, 23 marzo 1905Eindhoven, 7 settembre 1993), fisico olandese; lavorò presso i laboratori di fisica della Philips di Eindhoven, dove lavorava anche Casimir di cui abbiamo parlato nel primo post di questa serie, quando le grandi multinazionali erano ancora attori di progresso, non solo meccanismi per fare soldi espropriando il resto del mondo. Persona schiva, di lui esiste una sola foto in rete, quella che vedete qui sopra; pubblicò in tutta la vita solo 13 lavori (elencati in fondo), di cui parecchi di statistica.

Hamaker è stato un gigante della scienza del 900; di lui parleremo oggi; ha lavorato sempre al confine fra fisica e chimica; d’altronde le divisioni fra le discipline sono solo artifici. Scusate, ma io la penso così, la Natura è una ed una è la Scienza; il resto (a partire dai settori disciplinari, ANVUR, etc ) sono cavolate, umanissime cavolate.

Per meglio inquadrare i risultati di Hamaker e Lifshitz (di cui parleremo nel prossimo ed ultimo post) ricostruiamo una linea del tempo, una timeline delle scoperte a partire dalle forze di van der Waals.

  1. Emile Clapeyron: equazione di stato dei gas ideali
  2. J.D. van der Waals: equazione di van der Waals.
  3. F. London: forze di London.
  4. H.C. Hamaker: calcolo delle forze fra particelle macroscopiche usando il metodo additivo o di coppia e senza considerare gli effetti di ritardo nel calcolo delle forze di interazione
  5. H.B.G. Casimir: effetto Casimir, effetto del ritardo sulle forze di interazione
  6. E.M. Lifshitz: teoria generale delle forze di attrazione fra corpi solidi a partire da grandezze macroscopiche, correggendo il metodo di coppia o di additività e introducendo il ritardo; il più generale approccio alle forze di interazione fra corpi macroscopici.

Per passare dalla scoperta delle forze di interazione fra singoli atomi o molecole alla teoria generale in termini di descrizione quantistica delle forze di interazione fra corpi macroscopici e tenendo conto del “ritardo”, cioè della velocità finita della luce, ci sono voluti dunque oltre 120 anni.

Il processo come vedremo non è ancora completato, nel senso che ancora oggi, 2019, dopo quasi 70 anni dal lavoro di Lifshitz la cultura chimica media non ha ancora recepito gli effetti totali delle scoperte e delle messe a punto; e la prova è, come si discuterà in seguito, il linguaggio comunemente usato, in particolare le paroline magiche: polare/non polare che voi stessi avrete detto millemila volte e che sono inadeguate o erronee in molti casi.

Cosa dice Hamaker?

Cominciamo col dire che l’approccio di Hamaker è un approccio pre-Casimir e dunque non-ritardato. La logica del calcolo è riportata nell’immagine qua sotto, tratta dal famoso libro di Israelachvili (Intermolecular & surface forces, dotato di una schiera di esercizi molto ben fatti; libro da usare in un corso di chimica-fisica 2 o esercizi di Chimica fisica, se ci sono ancora nell’attuale ordinamento).

Si tratta del metodo dell’immagine applicato al campo elettrico e dunque un metodo di elettrostatica, in cui il campo elettrico è concepito in modo stazionario, senza considerare il fatto che il campo si trasmette (con le sue variazioni) alla velocità della luce. Per analizzare questi casi si applica la cosiddetta equazione di Poisson, la base dell’elettrostatica, che corrisponde a dire che il laplaciano del potenziale di quel certo campo è pari alla densità di carica diviso la costante dielettrica del vuoto cambiata di segno:

Il simbolo φ sta per il potenziale del campo elettrico (energia per unità di carica) e vale per una carica puntiforme ma anche per una distribuzione di carica nello spazio, come può essere quella di una molecola (in tal caso è una funzione anche complicata. Ovviamente per un lettore non a conoscenza della fisica questo può sembrare ostrogoto e anche per un chimico che non ricordi l’esame di fisica 2. Ma per la fortuna di questi ipotetici lettori ho avuto trenta a fisica 2 e proprio con una domanda su questo argomento.

Abbiamo già incontrato il laplaciano in precedenti post e l’abbiamo definito così:

è una opportuna media dei valori dei vettori in uscita da un punto. C’è un modo grafico per vedere il laplaciano: consideriamo il potenziale di origine come la funzione che descrive i livelli di grigio dei pixel in una immagine, quella a sinistra qui sotto:

Il laplaciano è rappresentato graficamente dall’immagine a destra, ottenuta sostituendo ad ogni punto dell’immagine un punto “trasformato” applicando pixel per pixel una operazione matriciale che estrae la somma delle derivate seconde calcolate in quel punto; si dimostra che tale “operatore” laplaciano è descritto dalla seguente matrice.

Immaginate che il punto di interesse sia quello al centro e gli date peso -8, poi date peso 1 a quelli appena sopra sotto, indietro ed avanti e poi ad ogni punto di interesse si sostituisce la somma di questi pesi moltiplicati per i punti matrice e divisi per un fattore costante denominato h2.

Il risultato automatico è l’immagine a destra che ha estratto le derivate seconde bidimensionali in ciascun punto, in sostanza ha estratto i contorni dell’immagine, nel caso specifico i profili delle case e del panorama.

Dunque se avete un campo potenziale rappresentato dall’immagine a sinistra il suo laplaciano sono i profili descritti a destra che individuano le zone di massima variazione della variazione (la derivata della derivata, la derivata seconda), le zone di massimo contrasto dell’immagine che voi col vostro occhio-cervello individuate come profili delle cose; eh già il nostro cervello fa continuamente in tempo reale il laplaciano di ciò che ci circonda, altro che miseri computer numerici!!

Hamaker voleva calcolare le forze di interazione fra le particelle del suo sistema di atomi e molecole di dimensioni macroscopiche ma non aveva il potenziale del campo che gli interessava, ma aveva la distribuzione di cariche, nuclei ed elettroni , ossia aveva la sua trasformata, il suo laplaciano e voleva trovare la funzione potenziale, da cui poi calcolare le forze; dunque voleva passare “alla rovescia” dall’immagine di destra a quella di sinistra. (questo perché la forza è la derivata del potenziale verso la distanza cambiata di segno). Come si fa a risolvere questo problema in modo generale?

Il metodo delle immagini delle cariche è una possibile soluzione; basata sulle proprietà dell’equazione di Poisson. Non so chi abbia inventato per primo il metodo, ma è chiaro che si basa su una matematica conosciuta fin dal XIX secolo, quella delle equazioni differenziali. Il concetto base è che c’è una sola soluzione accettabile per il problema del potenziale per ogni caso considerato; ci sono dei casi in cui la soluzione è semplice altri in cui non lo è affatto, ma se quelli in cui non è semplice soddisfano una equazione e una serie di condizioni al contorno identiche almeno in una parte dello spazio rispetto a quelli in cui la soluzione è semplice, per il teorema di unicità possiamo usare la stessa soluzione in quella parte di spazio.

Per fare un esempio pratico riferiamoci a R. Feynman; nel suo famoso libro di fisica tratta proprio il problema che ci interessa (link in fondo):

Guardate la destra dell’immagine: Abbiamo un piano infinito conduttore posto nello spazio, (per semplicità possiamo collegarlo a terra (così il suo potenziale è nullo) e, a una distanza finita a da questo, una carica elettrica positiva. Quale sarà il potenziale in tutto lo spazio di destra? Non abbiamo una soluzione chiara. Possiamo immaginare due o tre cose:

-la carica positiva induce sul conduttore una carica negativa, con densità non uniforme (probabilmente sarà maggiore in corrispondenza della carica e minore via via che ci si allontana lungo il conduttore); questa carica genera a sua volta un potenziale nello spazio; ma finchè non conosciamo la distribuzione della carica non sappiamo come va il potenziale.

– il potenziale lungo il piano conduttore è nullo perché è posto a terra

– il potenziale all’infinito rispetto alle cariche è nullo.

Ok; ma possiamo usare il criterio della soluzione unica. Immaginiamo di mettere una seconda carica uguale alla prima ma opposta (è la carica immagine o immaginaria); mettiamola alla medesima distanza dal piano e in corrispondenza come nel disegno di Feynman, così sul piano il potenziale sarà nullo.

Questo ci darà le medesime condizioni al contorno nel semispazio di destra, ma anche nuove condizioni nel semispazio di sinistra; la soluzione valida a destra sarà la medesima nei due casi questo ci dice la matematica, il teorema di unicità; e in questo caso però la soluzione formale è possibile, ve la risparmio; potete leggerla su libro di Feynman che è reperibile all’indirizzo indicato in fondo.

Questo metodo della carica immagine, della carica che sembra un riflesso della carica reale a destra del piano, si può usare in molti altri casi e consente a Hamaker di calcolare quel che gli serve. La carica riflessa, ricorda i comportamenti ottici e le due cose non sono così distanti come possa sembrare; e non solo perchè nella magia tradizionale l’immagine, il contatto visivo sono necessari (ricordate la partita di quidditch di Harry Potter? O l’occhio del male del Signore degli anelli? L’immagine è ciò che permette la applicazione della forza anche nella magia!!); ne riparleremo in seguito; nel nostro linguaggio “scientifico” le proprietà ottiche della materia sono importanti per valutarne l’interazione.

Hamaker usa un’altra condizione basilare oltre al metodo non ritardato dell’elettrostatica, usa il cosiddetto metodo della additività di coppia. Di che si tratta?

Si considerano le interazioni fra tutte le particelle (atomi o molecole) di un corpo e dell’altro una coppia alla volta e si sommano o si integrano fra di loro; questa cosa sembra ovvia ed è certamente la più semplice dal punto di vista matematico; ovviamente si divide per due perchè si considera ogni interazione due volte; ma il punto non è questo.

Questo punto di vista presuppone che ogni coppia di atomi o di molecole sia effettivamente in grado di arrivare nel MINIMO di energia potenziale; questo ha senso per casi in cui le particelle siano sufficientemente lontane come nei gas, e dunque libere di muoversi; ma NON ha senso, è sbagliato nei casi in cui le particelle siano molto vicine come nei solidi e nei liquidi; in questo secondo caso il minimo non è di coppia ma di multicorpo e non ha una espressione semplice. Riporto ancora una cosa che avevo scritto nel primo post:

In fase condensata la procedura scelta da Hamaker dà una importanza eccessiva alle interazioni polari perché sono calcolate col metodo additivo; tali interazioni non possono raggiungere il valore di minimo per ogni coppia ma piuttosto un unico minimo globale non calcolabile in modo banale; la comune diatriba su polare/non polare in fase condensata è basata sui risultati ottenuti dall’approccio di Hamaker che nei fatti è invece una approssimazione feroce, applicabile solo in fase gassosa; ma che è rimasta nel nostro gergo. Immeritatamente.

Nell’immagine qui sotto vedete i vari casi estraibili dal calcolo di Hamaker; come si vede in tutti i casi entra in gioco una costante; nel caso più semplice si tratta della costante che si usa nel potenziale di Lennard-Jones, ma nel caso di corpi macroscopici entra in gioco la “costante di Hamaker”, citata migliaia di volte nella letteratura, che corrisponde a questa grandezza:

Qui le due densità sono espresse in numeri di particelle dei materiali interagenti per unità di volume; la costante di Hamaker è simile in materiali anche molto diversi.

Vale circa 10-19J; Israelachvili fa notare come sia possibile avere valori molto simili anche in caso di sostanza molto diverse, fra 0.4 e 4 x 10-19 J:

Due domande con brevi risposte:

Quanto valgono le forze di van der Waals valutate con questo metodo?

Per due superfici planari a contatto (0.2nm di distanza) la pressione che le unisce è enorme anche se si riduce rapidamente con la distanza; a 10nm diventa solo 0.05 atm, ma è ancora misurabile.

Ma allora perchè se una cosa si rompe, non siamo capaci di riincollarla perfettamente solo rimettendone le parti insieme? Beh siamo in un oceano di aria umida e sporca che si intromette immediatamente fra le parti staccate deturpandone le superfici e sporcandole ed inoltre il contatto fra le parti che non sono piane sarà sempre inesatto, impreciso.

Le forze possono essere anche repulsive? Una risposta la trovate nel commento della prima figura del libro di Israelachvili che ho riportato; dipende dalle costanti dielettriche dei vari materiali in gioco, ma ne riparleremo nel prossimo ed ultimo post, dedicato alla teoria acido-base dell’adesione, fondata sulla teoria di Lifshitz.

(continua)

 

Ringrazio il mio collega Stefano Siboni, prof. di Fisica Matematica, per gli utili commenti.

Riferimenti.

Lavori pubblicati da Hamaker in tutta la sua vita; sono solo 13.

  • H.C. Hamaker (1934). Reflectivity and emissivity of tungsten : with a description of a new method to determine the total reflectivity of any surface in a simple and accurate way. Amsterdam: Noord-Hollandsche Uitg. Mij. x+76 pp. (Tesi di dottorato dell’Università di Utrecht)
  • H.C. Hamaker and W.F. Beezhold (1934). Gebrauch einer Selen Sperrschicht Photo Zelle zur Messung sehr schwacher Intensit¨aten. Physica 1, 119-122.
  • H.C. Hamaker (1937). The London-Van der Waals attraction between spherical particles. Physica 4(10), 1058–1072.
  • H.C. Hamaker (1942). A simple and general extension of the three halves power law. Physica 9(1), 135–138.
  • J.E. de Graaf and H.C. Hamaker (1942). The sorption of gases by barium. Physica 9(3), 297–309.
  • H.C. Hamaker (1950). Current distribution in triodes neglecting space charge and initial velocities. Applied Scientific Research, Section B, 1(1), 77–104.
  • H.C. Hamaker (1962). Applied statistics : an important phase in the development of experimental science (Inaugural lecture). Microelectronics and Reliability, 1(2), 101–109.
  • H.C. Hamaker (1962). On multiple regression analyses. Statistica Neerlandica, 16(1), 31–56.
  • H.C. Hamaker (1969). Nogmaals de wet en de kansspelen : commentaar op Hemelrijk’s beschouwingen. Statistica Neerlandica, 23(3), 203–207.
  • H.C. Hamaker (1968). Some applications of statistics in chemical and physical classroom experiments. In European Meeting on Statistics, Econometrics and Manag. Sci. (Amsterdam, The Netherlands, September 2–7, 1968).
  • H.C. Hamaker (1969). De wet en de kansspelen. Statistica Neerlandica, 23(2), 179–191.
  • H.C. Hamaker (1970). Over claimfrekwenties, claimbedragen en risicopremies bij de privé-autoverzekering. Het Verzekerings-archief, 47, 154–174.
  • H.C. Hamaker (1971). New techniques of statistical teaching. Revue de l’Institut International de Statistique, 39(3), 351–360.

Testo di riferimento:

Intermolecular & Surface forces di J. Israelachvili 2 ed. Academic Press 1992

Il cap. 11 di questo testo contiene l’essenziale delle idee di Hamaker a Lifshitz spiegate in modo lucido e con parecchi esercizi ed esempi.

http://www.feynmanlectures.caltech.edu/II_06.html

Il Litio: Origine e ruolo nello spazio

In evidenza

Diego Tesauro

La maggior parte dell’opinione pubblica, fino a non molti decenni fa, non aveva una grande familiarità con il litio che invece riscontrava l’interesse di scienziati di tutte le discipline, oltre naturalmente dei chimici, dai biologi, ai medici e soprattutto ai fisici e agli astronomi per le sue proprietà e i suoi impieghi specifici. Lo sviluppo delle batterie per le apparecchiature elettroniche, l’ha fatto assurgere agli onori della conoscenza di un più vasto pubblico. Ma quale è la sua abbondanza sul nostro pianeta? Il litio, terzo elemento della tavola periodica, di conseguenza tra gli elementi più leggeri, contrariamente a quanto si possa immaginare, non è un elemento particolarmente abbondante in natura. E’ presente in 65 ppm (in numero di atomi, circa 20 ppm in massa) nella crosta terrestre. (è solo il 25° elemento per abbondanza) E’ però un elemento essenziale, negli organismi viventi; è infatti presente tra le 21 e le 763 ppb nei tessuti e nei liquidi corporei . Fra tutti gli isotopi solo due sono stabili 6Li e 7Li in una distribuzione percentuale 7.60% contro il 92.40%. I minerali che lo contengono però possono presentare percentuali diverse in quanto i due isotopi sono sensibili alla separazione nei processi geologici di formazione dei minerali stessi o di scambio ionico, a causa della loro differenza, relativamente grande, di massa. Gli ioni Litio spiazzano il magnesio o il ferro in strutture ottaedriche nelle argille il litio-6 è qualche volta preferito al litio-7. Inoltre la differenza di distribuzione nei prodotti commerciali è dettata dall’estrazione dell’isotopo 6Li per scopi militari. Infatti da questo isotopo viene prodotto il Trizio alla base dei processi di fusione di nucleare attivi nelle testate nucleari a fusione. Nel sistema solare ha la stessa abbondanza oppure è presente in percentuali ancora minori?

Abbondanza dei nuclei a seguito della nucleosintesi nelle prime tre ore dopo il Bing bang . Il Litio si è formato dopo tre minuti, quando la temperatura è scesa sotto il miliardo di gradi.

Come si può vedere dal grafico su scala logaritmica il Litio è fra gli elementi più rari. Questa sua scarsa abbondanza è dovuta ad una “fragilità” del litio nei nuclei caldi delle stelle. Infatti i nuclei di litio partecipano alla sintesi dell’elio nella seconda reazione catena della catena protone-protone (vedi figura) a temperature relativamente basse (di qualche milione di gradi) e si esaurisce nei nuclei delle stelle. Da dove proviene allora il Litio presente sulla Terra? Questa domanda non ha una risposta univoca e soprattutto del tutto certa. Bisogna innanzitutto notare che il litio è uno dei pochi elementi presenti nell’universo (con idrogeno ed elio) che si è formato subito dopo il “Big Bang” nei primi tre minuti di esistenza dell’Universo nella cosiddetta fase fotonica [1]. Il Litio-7 si forma a seguito di un decadimento b+ del Berillio-7 prodottosi dalla fusione di un nucleo di 3He con 4He. Secondo la teoria della nucleosintesi standard la sua presenza in questa fase è stimata in rapporto in 10−10 relativamente all’ idrogeno.

Schema delle tre vie sintetiche seguite per la fusione dell’idrogeno in elio. Il Litio-7 è coivolto nella seconda via nell’ultimo step della reazione.

La determinazione di questa abbondanza “cosmica” (cioè primordiale) di litio è una delle prove del Big Bang stesso. I dati possono venire confermati osservando stelle molto vecchie di seconda popolazione (generatasi non da materia proveniente da altre stelle, ma dalla materia primordiale) molto rare nella nostra galassia presenti nell’alone galattico. Ebbene i dati risultano in contrasto con le stime teoriche (che invece sono confermate pienamente per l’elio e l’idrogeno) in quanto si osserva un’abbondanza circa 3 volte inferiore rispetto a quanto atteso. Una risposta non è, anche in questo caso, univoca e potrebbe risiedere in molte possibilità legate alla conoscenza dei processi di arricchimento di neutroni nella materia ad elevate temperature coinvolgendo il modello standard fino alla cosiddetta “materia oscura”. Nelle stelle invece più giovani il litio è quasi del tutto assente in quanto l’isotopo 7Li, fondendosi con un protone a temperature relativamente basse per le stelle di 2,5 milioni di gradi, genera due nuclei di 4He. E’ pertanto possibile rilevarlo nelle stelle come il Sole, solo nelle atmosfere stellari (in particolare nelle zone chiamate fotosfere dove ci giunge la radiazione nella lunghezza d’onda del visibile), che non presentano moti convettivi profondi di gas con zone confinanti dove sono in atto processi di fusione. In questo caso, il rimescolamento del gas provoca una sua scarsità anche nelle atmosfere di stelle giovani come le nane rosse (https://it.wikipedia.org/wiki/Nana_rossa). Queste ultime vengono riconosciute proprio dalla mancanza di litio e distinte da altre tipologie stellari come le nane brune (https://it.wikipedia.org/wiki/Nana_bruna) di dimensioni ancora inferiori. A questa scarsità di litio primordiale e nelle stelle più giovani, fa da contrappeso una presenza maggiore nella materia interstellare in prossimità del sistema solare. In questi ambiti si riscontra un’abbondanza di litio superiore al valore cosmico-. Ciò significa che ci sono stelle che producono litio e lo allontanano dalle zone più calde e successivamente lo espellono nello spazio interstellare prima che possa ulteriormente reagire con un protone. Questi meccanismi sono presenti nelle fase evolutive terminali di stelle di piccola massa. Analogamente nelle stelle giganti rosse, che sono al termine della loro fase evolutiva, nell’atmosfera si riscontra una quantità di litio maggiore rispetto a quanto previsto [2]. La ricerca e i modelli da sviluppare necessitano quindi ancora di essere ulteriormente affinati per poter rispondere a tutte le domande sulla presenza del litio nell’universo.

[1] B.D. Fields The Primordial Lithium Problem Annual Reviews of Nuclear and Particle Science 2011 1-29

[2] H.L. Yan et al. The nature of the lithium enrichment in the most Li-rich giant star Nature Astronomy 2018, 2, 790–795.

Elementi della Tavola periodica: Litio, Li.

In evidenza

Rinaldo Cervellati

Il litio è attualmente noto al grande pubblico per l’impiego di suoi composti nelle batterie usate nei telefoni cellulari e in accumulatori per lo sviluppo di auto elettriche (“batterie agli ioni di Litio”).

Il Litio è l’elemento n. 3 della Tavola periodica, la sua abbondanza nella crosta terrestre è di 20 mg/kg (20 ppm), 25° in ordine di abbondanza. E’ il primo dei metalli alcalini, collocato nel I Gruppo insieme a sodio (Na), potassio (K), Rubidio (Rb), Cesio (Cs) e Francio (Fr). Per confronto l’abbondanza del secondo metallo alcalino, sodio è 2,36´104 mg/kg (23600 ppm), al sesto posto.

Il nome deriva dal greco λιθoς (lithos) che significa ‘pietra’. Data la sua alta reattività non si trova libero in natura, in accordo con il suo nome, il litio costituisce una parte minore delle rocce ignee, con la maggior concentrazione nei graniti. Le pegmatiti granitiche sono infatti costituite in gran parte da minerali contenenti litio, come lo spodumene e la petiteite che sono le fonti più sfruttate dal punto di vista commerciale. Un altro minerale significativo del litio è la lepidolite, che è ora un nome obsoleto per una roccia costituita da polilitionite e trilitionite.

Spodumene                                  Lepidolite

Nel 1800 il chimico e statista brasiliano José Bonifácio de Andrada e Silva scoprì un nuovo minerale in una miniera sull’isola di Utö, in Svezia, e lo chiamò petalite (silicoalluminato di Litio, LiAlSi4O10). Tuttavia, fu solo nel 1817 che Johan August Arfwedson[1], che lavorava nel laboratorio del famoso chimico J. J. Berzelius[2], rilevò la presenza di un nuovo elemento durante l’analisi della petalite. Questo elemento formava composti simili a quelli del sodio e del potassio, sebbene il suo carbonato e idrossido fossero meno solubili in acqua e meno alcalini.

Johan August Arfwedson

Berzelius diede al materiale alcalino il nome “lithium” per sottolineare la sua scoperta in un minerale solido, al contrario del potassio, che era stato scoperto nelle ceneri delle piante e del sodio, che era noto in parte per la sua presenza nel sangue animale.

Arfwedson in seguito mostrò che questo stesso elemento era presente nei minerali spodumene e lepidolite.

Nel 1818, Christian Gmelin[3] fu il primo ad osservare che i sali di litio danno un colore rosso cremisi alla fiamma. Tuttavia, sia Arfwedson che Gmelin provarono e non riuscirono a isolare l’elemento puro dai suoi sali.

Fu isolato nel 1821, da William Thomas Brande[4] che lo ottenne per elettrolisi dell’ossido di litio, un processo che era stato precedentemente impiegato dal chimico Sir Humphry Davy per isolare i metalli alcalini potassio e sodio. Brande descrisse anche alcuni sali puri di litio. Stimando che la litia (ossido di litio) contenesse circa il 55% di metallo, egli valutò che il peso atomico del litio fosse di circa 9,8 g/mol (valore moderno ~ 6,94 g/mol).

Nel 1855, grandi quantità di litio furono prodotte attraverso l’elettrolisi del cloruro di litio da Robert Bunsen e Augustus Matthiessen[5]. La messa a punto di questa tecnica portò nel 1923 alla produzione commerciale di litio dalla società tedesca Metallgesellschaft AG, che eseguì l’elettrolisi di una miscela liquida di cloruro di litio e cloruro di potassio.

Il litio è un metallo tenero, color bianco argenteo. In condizioni ambiente, è l’elemento solido più leggero. Come tutti i metalli alcalini, il litio è altamente reattivo e infiammabile e deve essere conservato in olio minerale pesante. Al taglio, mostra una lucentezza metallica, ma l’aria umida lo corrode rapidamente in un grigio opaco argenteo, poi nero offuscato per formazione di idrossido di litio (LiOH e LiOH.H2O), nitruro di litio (Li3N) e carbonato di litio Li2CO3 (risultato di una reazione secondaria tra LiOH e CO2).

Litio metallico: annerito per ossidazione e carbonatazione (a sinistra), galleggiante in olio minerale (a destra)

Come gli altri metalli alcalini, il litio ha un singolo elettrone di valenza che può essere facilmente ceduto per formare un catione. Per questo motivo, il litio è un buon conduttore di calore ed elettricità, nonché un elemento altamente reattivo, sebbene sia il meno reattivo fra i metalli alcalini. Tuttavia, il litio fuso è significativamente più reattivo della sua forma solida.

Come ricordato è abbastanza morbido da poter essere tagliato con un coltello. Al taglio, appare argenteo splendente, ma cambia rapidamente in grigio man mano che si ossida in ossido di litio. Mentre il suo punto di fusione è uno dei più bassi tra tutti i metalli, ha i più alti punti di fusione e di ebollizione fra i metalli alcalini.

Il litio ha una densità molto bassa e può galleggiare sugli idrocarburi liquidi.

Il litio reagisce facilmente con l’acqua, ma con un vigore notevolmente inferiore rispetto agli altri metalli alcalini. La reazione forma idrogeno gassoso e idrossido di litio in soluzione acquosa.

(chimicamente: 2Li(s)+ 2H2O(l) → 2LiOH(aq) + H2(g))

Sebbene i metalli alcalini più pesanti possano essere immagazzinati in sostanze più dense, come olii minerali, il litio non è abbastanza denso da essere completamente immerso in questi liquidi, è quindi più conveniente conservarlo in vaselina.

Il litio si incendia e brucia in ossigeno e in vapor d’acqua, è infiammabile e potenzialmente esplosivo a contatto con l’acqua liquida, sebbene meno degli altri metalli alcalini poiché la reazione non è sufficientemente esotermica per indurre la combustione dell’idrogeno. Il litio è uno dei pochi metalli che reagiscono con l’azoto in condizioni ambiente per formare il nitruro e in ciò assomiglia al magnesio (Mg) che si trova nella seconda casella del Gruppo II della Tavola periodica. Con l’ossigeno forma l’ossido (Li2O) e il perossido (Li2O2), con solubilità simili e instabilità termica dei carbonati e dei nitruri. Il litio reagisce con l’idrogeno gassoso ad alte temperature per produrre idruro di litio (LiH). Il litio forma anche un superossido LiO2.

Altri composti binari noti includono gli alogeni (alogenuri: LiF, LiCl, LiBr, LiI), lo zolfo (solfuro: Li2S), e il carbonio (carburo: Li2C2). Sono noti molti altri composti inorganici in cui il litio si combina con anioni per formare sali: borati, carbonati, nitrato, e il boroidruro (LiBH4). Litio alluminio idruro (LiAlH4) è comunemente usato come agente riducente in sintesi organica.

Possiede un solo numero di ossidazione: +1. Composti organometallici del litio sono comunemente usati come reagenti in chimica organica.

Il litio metallico naturale è costituito da due isotopi stabili: 6Li and 7Li, quest’ultimo essendo il più abbondante (92.5%). Sono stati preparati artificialmente sette isotopi radioattivi del litio, dal più stabile 8Li con tempo di emivita di 838 ms al 4Li, che decade, emettendo un protone, in 7.6 × 10−23 s.

La produzione di litio è notevolmente aumentata dalla fine della seconda guerra mondiale. Il minerale contenente il litio viene dapprima separato dagli altri contenuti nelle rocce ignee e poi trasformato in cloruro. Il metallo viene quindi prodotto per elettrolisi da una miscela fusa di cloruro di litio al 55% e cloruro di potassio al 45% a circa 450 ° C.

Dal 2015, la maggior parte della produzione mondiale di litio si trova in Sud America (Argentina, Bolivia e Cile), dove i minerali contenenti litio si trovano in saline.

Salina di Uyuni in Bolivia

Dalle saline si ottengono salamoie poste in vasche interrate, dove i minerali di litio vengono concentrati per evaporazione solare.

La salamoia di litio è probabilmente l’unica tecnologia di estrazione del litio oggi ampiamente utilizzata, poiché l’estrazione diretta dai minerali è molto più costosa, quindi fuori mercato.

Il contenuto totale di litio nell’acqua marina è piuttosto elevato: una concentrazione relativamente costante di 0,14-0,25 ppm, ma non sono ancora stati sviluppati metodi di estrazione commercialmente validi.

Un’altra potenziale fonte di litio è la fuoriuscita da pozzi geotermici con concentrazioni più elevate che si avvicinano a 7 ppm. Il recupero del litio da questi pozzi si è dimostrato possibile: il litio viene separato dagli altri materiali per semplice filtrazione. I costi di processo e ambientali sono principalmente quelli di rendere operativi questi pozzi, l’impatto netto sull’ambiente potrebbe quindi essere positivo.

Le riserve mondiali identificate nel 2018 ammontano a 16 milioni di tonnellate (dati dell’USGS United States Geological Survey), sebbene una stima accurata delle riserve mondiali di litio sia difficile. 65 milioni di tonnellate di risorse fra note e ancora non scoperte sembra una stima più ragionevole.

Dal 2016 i primi tre paesi produttori di litio al mondo sono, sempre secondo l’USGS, Australia, Cile e Argentina. Metà delle riserve conosciute del mondo si trovano in Bolivia lungo il pendio centro-orientale delle Ande.

Vi sono opinioni diverse sulla potenziale crescita della produzione di litio. Uno studio del 2008 così concluse: “La produzione realisticamente raggiungibile di carbonato di litio sarà sufficiente solo per una piccola parte delle future esigenze del mercato delle auto ibride”, la domanda del settore dell’elettronica dei cellulari assorbirà gran parte dell’aumento di produzione previsto nel prossimo decennio e la produzione di massa di carbonato di litio causerà danni ecologici irreparabili agli ecosistemi che dovrebbero essere protetti, inoltre la propulsione ibrida è incompatibile con il concetto di “automobile verde” ”.

Uno studio del 2011 effettuato dall’Università del Michigan in collaborazione con la Ford Motor Company riportò che le risorse erano sufficienti per supportare la domanda globale fino al 2100, incluso il litio necessario per il potenziale uso nei veicoli elettrici. Lo studio stimò le riserve globali a 39 milioni di tonnellate e la domanda totale di litio durante il periodo di 90 anni fu stimata a 12-20 milioni di tonnellate/anno, dipendentemente dagli scenari relativi alla crescita economica e ai tassi di riciclaggio.

Nel 2014, il Financialist, rivista finanziaria sponsorizzata dal Credit Suisse, affermò che la domanda di litio cresceva di oltre il 12% l’anno. Secondo l’articolo, questa percentuale avrebbe presto superato la disponibilità prevista del 25%. L’articolo paragonò la situazione del litio del 2014 con quella del petrolio, per cui così come “l’aumento del costo del petrolio ha spinto a investire in costose tecniche di estrazione da acque profonde e sabbie bituminose”; anche il prezzo del litio, se continuerà a salire spingerà, in una direzione simile” con pericolose conseguenze per l’ambiente.

Nel luglio 2018 sono state scoperte in Perù nuove risorse di minerali di litio ad alta qualità per 2,5 milioni di tonnellate dell’elemento.

Gli usi del litio e dei suoi composti sono così numerosi che vale la pena esaminarli in breve settore per settore.

Nell’industria della ceramica

L’ossido di litio è ampiamente usato nella lavorazione della silice, riducendone il punto di fusione e la viscosità e portando a smalti con proprietà fisiche migliori fra cui un basso coefficiente di espansione termica. Gli smalti contenenti ossidi di litio sono usati principalmente per stoviglie. L’industria della ceramica utilizza generalmente carbonato di litio perché durante la “cottura”si converte in ossido. In tutto il mondo, questo è uno dei maggiori impieghi dei composti di litio.

Nell’industria elettronica

Alla fine del 20° secolo, il litio è diventato un componente importante degli elettrodi e degli elettroliti di batterie e accumulatori (“celle agli ioni di litio”), per il suo elevato potenziale d’elettrodo. Inoltre, a causa della sua bassa massa atomica, ha un elevato rapporto carica /peso. Una tipica batteria agli ioni di litio può generare circa 3 volt per cella, rispetto a 2,1 volt per quella al piombo e a 1,5 volt per la zinco-carbonio. Le batterie agli ioni di litio sono ricaricabili e hanno un’alta densità di energia, differiscono dalle batterie al litio, che sono batterie usa e getta (primarie) con litio o suoi composti come anodo. Altre batterie ricaricabili che utilizzano litio includono la batteria ai polimeri di ioni di litio, la batteria al litio ferro fosfato e la batteria a nanofili.

Il litio si è rivelato molto utile nell’ottimizzare le nano-saldature al silicio nelle batterie elettriche dei telefoni cellulari e di altri dispositivi elettronici.

Industria dei lubrificanti

Il terzo uso più comune di litio è nei grassi. L’idrossido di litio è una base forte e, se riscaldata con un grasso, produce un sapone a base di stearato di litio. Il sapone al litio ha la capacità di addensare gli oli e viene utilizzato per produrre grassi lubrificanti per tutte gli usi anche ad alte temperature.

Usi in Metallurgia

Il litio (ad es. come carbonato di litio) è usato come additivo per scorie di stampi a colata continua perché ne aumenta la fluidità, un uso che nel 2011 rappresentava il 5% dell’impiego globale del litio. I Composti di litio sono anche usati come additivi per la sabbia di fonderia usata nella fusione del ferro per ridurne le venature.

Il litio (come fluoruro di litio) viene utilizzato come additivo nelle fonderie di alluminio (processo Hall-Héroult), per ridurre la temperatura di fusione e aumentare la resistenza.

Usato come additivo nella saldatura, il litio metallico favorisce la fusione di tutti i metalli durante il processo ed elimina la formazione di ossidi assorbendo le impurità. Le leghe di litio con alluminio, cadmio, rame e manganese sono utilizzate per produrre parti di aeromobili ad alte prestazioni.

Purificazione dell’aria

Il cloruro di litio e il bromuro di litio sono igroscopici e sono usati come essiccanti per gas. L’idrossido di litio e il perossido di litio sono i composti più utilizzati per la rimozione dell’anidride carbonica e la purificazione dell’aria in aree chiuse, come nelle cabine di veicoli spaziali e di sottomarini. L’idrossido di litio assorbe infatti l’anidride carbonica dall’aria formando carbonato di litio (in linguaggio chimico: 2LiOH + CO2 → Li2CO3 + H2O) ed è preferito rispetto ad altri idrossidi alcalini per il suo peso ridotto.

Il perossido di litio (Li2O2) in presenza di umidità non solo reagisce con l’anidride carbonica per formare carbonato di litio, ma rilascia anche ossigeno. La reazione è la seguente:

2Li2O2 + 2CO2 → 2Li2CO3 + O2.

Impiego in Ottica

Il fluoruro di litio (LiF), coltivato artificialmente in forma di cristallo, è chiaro e trasparente e viene utilizzato in ottica specializzata per applicazioni nell’infrarosso (IR), ultravioletto (UV) e UV sotto vuoto. I cristalli di LiF hanno fra il più basso indice di rifrazione e lasciano passare la più ampia gamma di lunghezze d’onda ultraviolette. Il fluoruro di litio è talvolta usato nelle lenti focali dei telescopi. L’elevata non linearità di un altro composto del litio, il niobato di litio, lo rende utile nelle applicazioni di ottica non lineare. È ampiamente utilizzato nei prodotti di telecomunicazione come telefoni cellulari e modulatori ottici.

Composti del litio sono utilizzati in oltre il 60% dei telefoni cellulari.

Usi nell’industria dei polimeri

I composti organici del litio (organolitici) sono ampiamente utilizzati nella produzione di polimeri e altri prodotti chimici. Nell’industria dei polimeri, che è il principale consumatore di questi reagenti, i composti alchil-litici sono usati come catalizzatori/iniziatori nella polimerizzazione di olefine (es. polietilene). I composti organolitici sono preparati con litio metallico e alogenuri alchilici.

Applicazioni militari e nucleari

Il litio metallico e i suoi complessi idruri, come Li [AlH4], sono usati come additivi ad alta energia per i propellenti dei razzi. L’idruro di litio e alluminio può anche essere usato da solo come combustibile solido.

L’idruro di litio contenente l’isotopo 6Li viene utilizzato nelle armi termonucleari, dove funziona da combustibile per la fase di fusione della bomba.

Uso in Medicina

Il litio si è dimostrato efficace nel trattamento del disturbo bipolare[6]. I sali di litio possono anche essere utili per le diagnosi correlate, come il disturbo schizoaffettivo e la depressione maggiore ciclica. La parte attiva di questi sali è lo ione litio Li+.. Tuttavia possono avere effetti collaterali negativi come il rischio di sviluppare l’anomalia cardiaca di Ebstein nei neonati nati da donne che assumono litio durante il primo trimestre di gravidanza.

Il litio è stato anche studiato come possibile trattamento per un’altra patologia neurologica: la cefalea a grappolo.

Ruolo biologico

Benché gli studi sul ruolo biologico siano ancora controversi, il litio è considerato un elemento ultra-traccia nell’organismo umano, assunto cioè per circa 1 μg/giorno. Le fonti alimentari primarie di litio sono i cereali e le verdure e, in alcune aree, anche l’acqua potabile ne contiene piccole quantità. L’assunzione umana varia quindi secondo la posizione e la dieta.

Il litio fu scoperto per la prima volta negli organi umani e nei tessuti fetali alla fine del XIX secolo. Nell’uomo non sono attualmente note patologie da carenza di litio. I meccanismi biochimici di azione del litio sembrano essere multifattoriali e sono intercorrelati con le funzioni di numerosi enzimi, ormoni e vitamine, nonché con fattori di crescita e trasformazione [1,2].

La respirazione di polvere di litio o composti del litio inizialmente irrita il naso e la gola, mentre una maggiore esposizione può causare un accumulo di liquido nei polmoni, portando a edema polmonare. La manipolazione del metallo come tale costituisce un pericolo poiché il contatto con l’umidità forma idrossido di litio caustico.

Riciclaggio

In generale le industrie dei laterizi e dei materiali ceramici riutilizzano i materiali a fine vita e i loro scarti per la fabbricazione di nuovi prodotti. Di seguito è riportato lo schema del ciclo di produzione del Gruppo Steinzeug-Keramo, principale fornitrice di grès ceramico in Europa.

Per quanto riguarda il recupero dalle batterie agli ioni di Li, che va assumendo sempre più importanza, vale quanto scritto per nickel e cobalto, tuttavia uno schema per il recupero di praticamente tutti i componenti di una batteria è stato riportato e discusso da S. Nowack e M. Winter [3]. Eccolo:

Nowack e Winter hanno riprodotto questo schema da un loro recente articolo pubblicato dalla rivista scientifica europea ChemSusChem [4].

Ciclo biogeochimico

In letteratura si trova ben poco sul ciclo biogeochimico del litio, probabilmente perché non ci sono enzimi che lo gestiscono, al contrario il litio è in grado di inibire un enzima importante [2].

Lo schema che segue riporta il ciclo geochimico dell’isotopo naturale più abbondante, il 7Li, elaborato da S. Penniston-Dorland, X-M. Liu e R. L. Rudnick [5].

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-18

https://it.wikipedia.org/wiki/Litio

https://en.wikipedia.org/wiki/Lithium

Bibliografia

[1] K.M. Brown, D.K. Tracy, Lithium: the pharmacodynamic actions of the amazing ion., Therapeutic Advances in Psychopharmacology, 2013, 3 163–176.

[2] W.H. Geo, E. Jacobsson, Systems Biology Understanding of the Effects of Lithium on Cancer., Frontiers in Oncology2018, DOI: 10.3389/fonc.2019.00296

[3] S. Nowack e M. Winter, Recycling of Lithium Ion Batteries, https://www.laboratory-journal.com/science/chemistry-physics/recycling-lithium-ion-batteries

[4] S. Rothermel et al. Graphite Recycling from Spent Lithium Ion Batteries, ChemSusChem, DOI: 10.1002/cssc.201601062

[5] S. Penniston-Dorland et al., Lithium Isotope Geochemistry., Rev. Miner. Geochem., 2017, 82, 165-217.

[1] Johan August Arfwedson (1792 – 1841), mineralogista chimico svedese che scoprì l’elemento chimico litio nel 1817 isolandolo come sale (cloruro o solfato). Eletto membro della Reale Accademia Svedese delle Scienze nel 1921.

[2] Jöns Jacob Berzelius (1779 – 1848), famoso chimico svedese. Berzelius è considerato, insieme a Robert Boyle, John Dalton e Antoine Lavoisier, uno dei fondatori della chimica moderna. Autorità indiscussa in Europa nella prima metà del XIX secolo.

[3] Christian Gottlieb Gmelin (1792-1860) chimico tedesco, nipote di Johann Konrad Gmelin e pronipote di Johann Georg Gmelin, nota famiglia di medici e farmacisti.

[4] William Thomas Brande (1788 – 1866) chimico inglese, nel 1811 pubblicò un metodo per dosare l’alcool nelle bevande fermentate, tra cui vino, sidro e birra. Nel 1812 fu nominato professore di chimica presso la Apothecaries Society. Membro della Royal Society.

[5] Augustus Matthiessen (1831-1870), era un chimico e fisico britannico, ha lavorato con Robert Bunsen all’Università di Heidelberg dal 1853 al 1856, in questo periodo isolò il calcio e lo stronzio puri. Tornato in Inghilterra è stato docente di chimica allo St Mary’s Hospital, poi allo St Bartholomew’s Hospital, a Londra. La sua ricerca ha riguardato principalmente la costituzione di leghe e gli alcaloidi dell’oppio.

[6] Quest’anno ricorre il 70 anniversario della scoperta del litio per la cura dei disturbi psichiatrici. A dimostrarne per la prima volta l’efficacia, nel 1949, è stato John Cade (1912-1980), psichiatra australiano che iniziò mentre era prigioniero dei giapponesi (1942-1945) dopo la caduta di Singapore. La storia è ripercorsa nel libro “Lithium”, dello psichiatra americano Walter Brown (Liveright Publishing, 2019), recensito su Nature Online. Notizia ANSA 28 agosto 2019.

Essere o non essere ….un neonicotinoide?

In evidenza

Claudio Della Volpe

Oggi vi parlerò di un caso che mette insieme vari aspetti interessanti; si tratta di un nuovo pesticida Bayer, nome commerciale Sivanto, molecola Flupiradifurone, che probabilmente diventerà nei prossimi mesi un oggetto di ampie discussioni. Vi dico quel che ho capito io, ovviamente; ogni commento è benvenuto.

Flupiradifurone, classe butenolidi

4-[[(6-chloropyridin-3-yl)methyl](2,2-difluoroethyl)amino]furan- 2(5H)-one

C12H10ClF2N2O2

La questione detta in due parole è questa. Da una parte gli ambientalisti dicono: si tratta di un pesticida che agisce come i neonicotinoidi; e i neonicotinoidi sono attualmente proibiti in EU perché si è dimostrato che possono danneggiare le api ed altri insetti impollinatori o comunque non nocivi. La risposta della Bayer è: non è un neonicotinoide, ma una nuova classe di molecole, i butenolidi che agiscono sul recettore nicotinico ma diversamente e dunque il problema non si pone. In definitiva la questione sembra questa: il flupiradifurone è un neonicotinoide? cosa sono i neonicotinoidi? e soprattutto basta esserlo o meno per avere o no certe conseguenze?

Cerchiamo di capirci di più.

Anzitutto vi ricordo gli altri post che abbiamo pubblicato sul blog o miei interventi su C&I sul tema neonicotinoidi e la lotta a coltello che ha portato fra il 2013 e il 2014 alla sospensione in UE dei tre neonicotinoidi più importanti ritenuti responsabili della cosiddetta sindrome di collasso della colonia (CCD).

https://ilblogdellasci.wordpress.com/2013/05/20/nicotina-e-neonicotinoidi-cosa-hanno-in-comune-fumo-e-insetticidi/

https://ilblogdellasci.wordpress.com/2014/06/25/api-e-pesticidi-una-conferma-autorevole/

https://ilblogdellasci.wordpress.com/2013/02/04/tonio-le-api-e-la-chimica/

Tornando alla questione da cui siamo partiti, si tratta in definitiva di come si misura la somiglianza o la differenza in chimica. Il principio base della chimica applicata alla biologia è il seguente:

“Molecole simili esercitano attività biologiche simili”

Da sempre i chimici hanno usato questo criterio per modificare le strutture dei composti biologicamente attivi in un modo che viene definito isosterico o bioisosterico.

Sostituire in modo isosterico un certo atomo o un certo gruppo di atomi dotato di certe dimensioni e proprietà con altri simili apre la via alla creazione di inibitori, agonisti o antagonisti enzimatici o recettoriali ed altri principi attivi dotati di proprietà via via più o meno utili.

Il problema è: come si definisce la diversità in un modo che sia “oggettivo”?

Non ci sono modi comunemente accettati di stabilire tale diversità (soprattutto nell’interazione fra molecole e ambiente biologico) oggettivamente.

In una recente review Org. Biomol. Chem., 2004, 2, 3204–3218 Bender e Glen dicono:

To conclude, molecular similarity is always a property that depends on an external criterion which defines similarity (a receptor, a physicochemical property). Similarity is not a property of the molecule itself, molecules are perceived as being similar (or different) by external ‘judges’ that are guided by natural laws (receptors, detectors of physicochemical properties). The magnitude of similarity that is required for similar activity also depends on the external reference, as illustrated by steroids, which are overall very similar but nonetheless possess very different properties. There are no absolute measures of molecular similarity and each case requires the selection of appropriate properties and classification methods.

Parecchi casi sorprendenti di relazione struttura/attività mostrano che sostanze chimicamente simili hanno attività biologiche completamente diverse.

Non sto parlando di sostituzioni non isosteriche; se cambio a caso una singola base fra migliaia della sequenza DNA corrispondente ad un certo enzima la modifica potrà ovviamente corrispondere ad una tripletta che codifica un amminoacido del tutto diverso, non isosterico ed allora che l’enzima sia inattivo (nel senso: possa esserlo) è ovvio. Non sto nemmeno parlando di una sostituzione fra due enantiomeri; sappiamo che molti farmaci comunissimi sono enantiomeri ed uno solo è attivo; fra i FANS gli antiinfiammatori che sono in molti casi diventati farmaci da banco spesso capita che uno dei due enantiomeri sia molto più efficace dell’altro (è vero per l’ibuprofene e per il naproxene, quest’ultimo è stato il primo farmaco ad essere commercializzato come enantiomero, mentre nel caso dell’ibuprofene si somministra il racemo ma il metabolismo si incarica di modificarne la composizione).

Ma le differenze possono essere ancora più sottili. Nel caso degli agonisti del recettore acetilcolinico-nicotinico che è la molecola biologica che ci interessa succede che sia la nicotina che i neonicotinoidi siano efficaci, ma la nicotina, con una carica elettrica al pH dei liquidi corporei, non supera efficacemente la barriera emato-encefalica che difende le cellule nervose centrali e dunque nell’uomo la nicotina ha effetti periferici più potenti che a livello centrale ma non riesce a fare lo stesso negli insetti in cui i recettori sono essenzialmente centrali; molecole isosteriche ma con nessuna carica elettrica al pH di impiego penetrano la barriera e diventano efficaci negli insetti ed è il caso dei neonicotinoidi. Chi volesse approfondire questo aspetto può andarsi a rileggere il primo dei post che ho citato che analizza in qualche dettaglio il tema specifico. Ma ci sono molti altri casi, di cui uno illustrato qua sotto ed altri nel lavoro indicato a fianco.Braz. Chem. Soc., Vol. 13, No. 6, 717-726, 2002.

Ciò premesso come si misura la distanza o similarità fra due molecole?

In geometria due punti nello spazio possono essere separati da una certa distanza e per calcolarla conoscendo la posizione dei punti si usano metodi semplici; eppure anche qui c’è una certa ambiguità.

Se siete su un piano euclideo la distanza fra due punti di coordinate x1, y1 e x2,y2 è ovviamente dist(x,y)=√(x1-x2)2 +(y1-y2)2 . Tuttavia se siete in un posto fisico poniamo a Manhattan, dove le costruzioni sono tutte squadrate, impedendovi di spostarvi liberamente lungo l’ipotenusa, la distanza fra due punti diventa dist(x,y)=(x1-x2)+y1-y2).

In questo caso tuttavia esiste un punto di vista più generale che è quello di Minkowsky, caratterizzato da un parametro di ordine p:

p vale 1 sul piano di Mahnattan (tutte le linee meno la verde) e 2 sul piano di Euclide (linea verde).

Si tratta della cosiddetta “geometria del taxi”.

In matematica più in generale per stabilire la similarità o differenza fra due insiemi (o la loro “distanza”) si può usare il criterio di Jaccard:

In sostanza si divide la quota comune per la somma dei due insiemi dunque si ottiene un numero inferiore ad 1; questo criterio ha avuto un certo successo ed è usato parecchio nei calcoli di similarità chimica col nome di criterio di Tanimoto riscritto come segue:

dove A e B sono genericamente vettori su cui si possono fare le operazioni indicate: prodotto scalare (indicato dal punto) e norma (indicata dalla doppia linea) , le due formule qua sopra sono matematicamente identiche a condizioni abbastanza ampie; sono calcoli matriciali, come avviene sempre più spesso in chimica, e questo ci porta a dover ricordare dei post che abbiamo scritto sul tema in passato in una serie non conclusa ma che oggi riprende interesse:

https://ilblogdellasci.wordpress.com/2016/06/13/dai-quadrati-magici-alla-topologia-molecolare-parte-3-wiener/

e i post immediatamente precedenti.

un esempio di distanza di Tanimoto fra vettori A e B

La questione è che per valutare la distanza o meglio la similarità col criterio di Tanimoto i vettori devono essere “binari”; e come si trasforma una molecola 3-D in un vettore binario? Associando 1 o 0 alla presenza di un set di frammenti standard. Dunque perdendo un bel po’ di informazione!!

In conclusione, come dice la slide di Willet (Università di Sheffield), si tratta di un approccio molto crudo, ma sorprendentemente efficace in molti casi; MA non sempre.

Per esempio non lo è nel caso dell’odore associato con un composto; in quel caso il criterio di Tanimoto fallisce. E’ un criterio che dipende dai parametri scelti per classificare le molecole; con in più una sorta di errore sistematico: dal momento che Tanimoto tiene in conto solo la presenza o l’assenza di un certo frammento ci sarà una maggiore sovrapposizione per frammenti complessi che per frammenti singoli rispetto ad un certo target da raggiungere, a cui assomigliare.da http://infochim.u-strasbg.fr/CS3_2014/Slides/CS3_2014_Willett.pdf

Ora voi mi direte vabbè ma ce ne sono molti altri di criteri, perché insistere sul criterio di Tanimoto? Beh la risposta è semplice; da una parte è il criterio più comune e generale e poi è proprio quello usato da Bayer nella presentazione del nuovo pesticida per distinguerlo dai neonicotinoidi.

 

Flupyradifurone: a brief profile of a new butenolide insecticide Ralf Nauen et al

Bayer CropScience, Research & Development, 40789 Monheim, Germany

Pest Manag Sci. 2015 Jun;71(6):850-62. doi: 10.1002/ps.3932. Epub 2014 Nov 27.

Secondo la valutazione del lavoro fatto dai ricercatori Bayer la similarità fra i butenolidi e i neonicotinoidi è inferiore a 0.5, secondo il criterio di Tanimoto e dunque i butenolidi non sono neonicotinoidi.

Inoltre il nuovo prodotto è stato sintetizzato a partire dalla stemofolina, che non è la nicotina; è un alcaloide prodotto dalla Stemona japonica, una pianta asiatica e che è già usata per vari tipi di disturbi dalla farmacologia.

La scelta di usare questa molecola come struttura di partenza è almeno formalmente legata al controllo delle resistenze; nel lavoro Bayer si legge:

The development and commercialization of new chemical classes of insecticides for efficient crop protection measures against destructive invertebrate pests is of utmost importance to overcome resistance issues and to secure sustainable crop yields.

dunque cambiare struttura per continuare ad agire sul medesimo bersaglio senza generare o generando meno resistenze, che sono uno dei principali problemi dei prodotti di sintesi usati in agricoltura. In conclusione il flupiradifurone è diverso dai neonicotinoidi se misurato col criterio di Tanimoto e non ha resistenze crociate con esso.

Quale è invece la posizione degli ambientalisti?

Gli ambientalisti partono dalla classificazione IRAC, una associazione fondata in effetti dalle industrie del settore con lo scopo di organizzare i dati relativi ai vari tipi di pesticidi ed alle loro resistenze (IRAC= Insecticide Resistance Action Committee); dunque la classificazione che propongono è principalmente relativa a questo aspetto; IRAC raccoglie tutti gli insetticidi che agiscono sul recettore nicotinico in un unico gruppo ma diviso in 5 sottogruppi.

Come si vede anche questa classificazione riconosce che l’azione del prodotto è centrata su medesimo recettore nicotinico dei neonicotinoidi, ma considera i butenolidi di cui il flupiradifurone è al momento l’unico rappresentante (così come l’altra molecola recente di Bayer, il Sulfoxaflor) come una sottoclasse a se fra i tutti modulatori competitivi del recettore aceticolinico nicotinico a cui appartengono anche i neonicotinoidi. E’ diverso dal punto di vista delle resistenze, questo si, ma cosa comporta questo in concreto? In sostanza quel che conta è che il Sivanto agisce in modo analogo ai neonicotinoidi.

La questione dirimente è non tanto a quale classe strutturale pertiene una certa molecola se misurata con metodi che, lo abbiamo visto non sono affatto “oggettivi”, ma quali sono i suoi effetti concreti?

Dunque – dicono gli ambientalisti- dato che anche il Sivanto agisce sui recettori nicotinici la questione è: il Sivanto agisce anche sui recettori nicotinici degli insetti impollinatori o no? E se lo fa quali sono i suoi effetti?

La risposta sembra sia positiva; un numero crescente di lavori fatti in laboratorio e sul campo dimostra che purtroppo anche il Sivanto, nonostante mostri una maggiore selettività, è implicato in una azione massiva anche verso api, bombi ed altri insetti impollinatori; ricordiamo qui di passaggio che dati recenti basati su una analisi trentennale dimostrano che il numero di insetti volanti è diminuito nei cieli europei e anche sudamericani di quasi l’80%!!! Ne abbiamo parlato in un post recente ed anche su C&I (LA CHIMICA E L’INDUSTRIA online | ANNO II | N° 1 | GENNAIO/FEBBRAIO 2019 , p. 28) e il sospetto che questo sia dovuto ai pesticidi agricoli, anche se non solo, è praticamente una certezza.

Per esempio Hasselbach e Scheiner dimostrano che il Sivanto ha effetto misurabile sull’attività delle api di qualunque età: Scientific Reports | (2018) 8:4954 | DOI:10.1038/s41598-018-23200-0 sia pure solo alle massime dosi.

Risultato analogo con l’ulteriore sospetto di azioni in croce con altri pesticidi è mostrato da:

Tosi S, Nieh JC. 2019 Lethal and sublethal synergistic effects of a new systemic pesticide, flupyradifurone (Sivantow), on honeybees. Proc. R. Soc. B 286: 20190433. http://dx.doi.org/10.1098/rspb.2019.0433

In sostanza il Sivanto sembra essere meglio sopportato, ma non è immune da una azione che è potenzialmente in grado di alterare il comportamento delle api e dunque mettere a rischio la loro sopravvivenza; non ci sono studi su altri impollinatori; ulteriori studi sono necessari per chiarire il suo ruolo effettivo nei confronti degli insetti “utili”; e in genere degli insetti che non consideriamo nocivi. Già ma nel frattempo il Sivanto è già in commercio in UE.

La chimica, lo studio della similarità chimica (nella forma del criterio di Tanimoto) pur così utile, può essere usato per fare marketing, se usato in un contesto che non ha le armi concettuali per comprendere i limiti dei metodi usati. La Bayer sottolineando la differenza fra Sivanto e neonicotinoidi (principalmente dal punto di vista delle resistenze) non mette al centro la questione base: quanto è nocivo per le api? Quanto è veramente diverso dai neonicotinoidi? In definitiva la risposta all’amletica domanda: essere o non essere un neonicotinoide potrebbe essere: ok si il Sivanto tecnicamente è diverso (dal punto di vista delle resistenze indotte) dai neonicotinoidi, ma i suoi effetti sulle api sono analoghi anche se, forse, di intensità minore. Vedremo, c’è da studiare ancora.

Rimane la riflessione che abbiamo fatto più volte: ma l’agricoltura industriale può essere concepita come una sorta di deserto in cui cresce solo quello che va bene a noi? Ossia il nostro cibo può essere il frutto di una guerra sistematica alle altre specie? Gli uomini come predatori non solo uccidono quello di cui si cibano, ma uccidono anche tutto ciò di cui NON si cibano, ma che disturba la produzione delle proprie prede. Non vi sembra una esagerazione assurda?

Riferimenti.

https://jcheminf.biomedcentral.com/articles/10.1186/s13321-018-0302-y

https://www.pan-europe.info/sites/pan-europe.info/files/public/resources/factsheets/201609%20Factsheet%20What%20is%20a%20neonicotinoid_Flupyradifurone_Sulfoxaflor_EN_PAN%20Europe.pdf

 

  1. Braz. Chem. Soc., Vol. 13, No. 6, 717-726, 2002. Scaricabile da http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0103-50532002000600002

Org. Biomol. Chem., 2004, 2, 3204–3218

Riciclo e diversificazione degli usi dell’acqua. Cosa si sta sperimentando.

In evidenza

Mauro Icardi

L’acqua è una risorsa rinnovabile, ma le attuali condizioni ambientali (riscaldamento globale, diffusione ubiquitaria di inquinanti emergenti e non ancora regolamentati e normati), la rendono una risorsa limitata. In particolare il bilancio idrico è negativo perché il consumo è più veloce della fase di recupero, e la quantità di acqua inquinata tende a prevalere su quella tendenzialmente pura. A questo occorre aggiungere il forte impatto che il cambiamento climatico sta avendo sul regime delle precipitazioni. Per queste ragioni è necessario programmare adeguatamente le gestione delle fonti di captazione delle acque primarie, e sarà necessario in un futuro molto prossimo attivarsi per un riciclo delle acque reflue. Queste ultime potrebbero, dopo adeguati processi di trattamento, essere destinate ad usi diversi da quello potabile. Tra gli altri l’utilizzo irriguo o quello industriale, senza dimenticare ad esempio quello non primario del lavaggio degli autoveicoli. La legislazione italiana già prevede la possibilità di riuso delle acque per scopi agricoli e industriali. Per ottenere un’acqua destinata al riutilizzo che sia di qualità, è necessario in ogni caso che siano rimossi gli inquinanti non convenzionali, che si sono aggiunti negli anni a quelli convenzionali.

I composti organici di sintesi che vengono immessi nel ciclo dell’acqua provengono da diverse fonti: farmaci, pesticidi, cosmetici e prodotti chimici di uso sia domestico sia industriale. La ricerca nel settore si sta occupando di questo problema. Tramite l’utilizzazione di processi di adsorbimento, di filtrazione a membrana (MBR) , e di processi ossidativi avanzati. In qualche caso le tecniche vengono usate in combinazione tra loro, sfruttando le proprietà peculiari di ognuna di esse. Per esempio la microfiltrazione o l’ultrafiltrazione possono essere utilizzate solo in combinazione con una fase di adsorbimento. Questo perché la fase di filtrazione avanzata riesce a trattenere le particelle solide nei reflui, ma non è efficace per rimuovere i microinquinanti organici solubili in acqua.

Il trattamento di osmosi inversa riesce ad essere efficace, sia nei confronti delle sostanze disciolte, che nei confronti dell’inquinamento batteriologico. In Germania il progetto MULTI-ReUse finanziato dal Ministero tedesco dell’istruzione e della ricerca (BMBF), sta mettendo a confronto le varie tecnologie per valutarle e confrontarle. La sperimentazione si sta attuando presso la città di Nordenham in Bassa Sassonia. Si tratta di una regione con una forte domanda di acqua da parte di clienti industriali e commerciali. Gran parte dell’acqua è necessaria come acqua di servizio, ad esempio come acqua di processo, di raffreddamento o di pulizia. Per proteggere le risorse di acqua potabile si sta valutando come l’acqua trattata dall’impianto di trattamento delle acque reflue possa essere ulteriormente trattata per essere in grado di offrire diversi tipi di acqua di servizio in diverse qualità e quantità. E’ quindi stato installato un impianto pilota per lo studio di questa. ll compito principale del progetto MULTI-ReUse è quindi lo sviluppo, e la valutazione di un sistema modulare di trattamento dell’acqua, al fine di poter offrire acqua di servizio in diverse qualità e volumi per i diversi utilizzi, a prezzi competitivi. Oltre a queste valutazioni tecnico economiche, si cerca di valutare anche l’accettazione socio-culturale di un’operazione di questo genere, fattore decisamente non trascurabile.

E’ quindi stato installato un impianto pilota nel quale, dopo il trattamento biologico convenzionale, l’acqua reflua viene inviata ad un trattamento di flocculazione seguito da un fase di ultrafiltrazione. Quest’ultima rimuove l’inquinamento organico, mentre la rimozione dei sali e dei microinquinanti organici viene effettuata tramite un ulteriore trattamento di osmosi inversa. Per valutare le capacità dell’impianto di essere efficiente nella rimozione degli inquinanti emergenti, sono state effettuate analisi su molecole quali il diclofenac ed il benzotriazolo.

L’abbattimento di questi due inquinanti è risultato pari al 99,8 per il diclofenac e all’88% per il benzotriazolo. Questi risultati sono stati messi a confronto con quelli ottenuti con altre tecnologie, quali l’ozonizzazione, oppure la combinazione di filtrazione su carbone attivo ed ultrafiltrazione, e sono risultati significativamente migliori. Nella prosecuzione del progetto verranno comunque valutate altre tecnologie, tra le quali anche quelle che utilizzano carbone attivo, in combinazione con altre tecnologie, quali la filtrazione a membrana. Oltre a questo si valuterà lo smaltimento del concentrato prodotto dalla fase di osmosi.

Questa sperimentazione è tedesca, ma l’idea di base dovrebbe essere patrimonio comune. Il trattamento delle acque reflue dovrà essere modificato profondamente. Il depuratore classico sarà solo una fase di un processo di trattamento a maggior complessità tecnologica. E la chiusura del ciclo delle acque comporterà un impegno importante per destinare i materiali di risulta dei nuovi trattamenti, ad uno smaltimento adeguato. Come si vede quindi, pulire l’acqua prevede il dover trattare materia residuale. Si chiamino fanghi, o retentato di osmosi o di ultrafiltrazione, non ci si può illudere di sfuggire a questa necessità indifferibile. Le leggi naturali non si aggirano. Si tratti di secondo principio della termodinamica, o come in questo caso di legge di conservazione della massa. Quello con cui alteriamo la purezza dell’acqua richiede un prezzo da pagare, in termini tecnici ed economici, per riportarla ad un grado di purezza accettabile. E pone anche un tema etico. Cioè l’uso che facciamo dell’acqua. Quanta ne sprechiamo, e quanta ne destiniamo ad usi non primari. Vale la pena di rifletterci un poco di più. E auspico che progetti di questo tipo diventino usuali anche in Italia, dove troppo spesso le idee ci sono, ma sono più lente ad essere messe in pratica.

Link del progetto: https://water-multi-reuse.org/en/

La chimica nell’economia globalizzata:il caso dei metalli rari.

In evidenza

Luigi Campanella, già Presidente SCI

Stiamo assistendo ad una fase piuttosto travagliata dell’economia globale.

Gli interlocutori potenziali sono tanti, quelli realmente in grado di incidere e determinare i futuri scenari sono invece pochissimi, da contare sulle dita di una mano.

In particolare Cina e Stati Uniti nella fase più recente sono stati protagonisti di complicate rimostranze a partire dalla guerra tecnologica e dall’applicazione di dazi destinati a limitare il libero mercato. Da chimici non possiamo non focalizzare la nostra attenzione su una delle risposte della Cina alla politica americana di Trump, risposta in relazione ad una delle armi più significative in possesso del governo cinese, spesso dimenticata o sottostimata. Mi riferisco ai cosiddetti metalli rari, materiali chiave per le tecnologie più avanzate, fondamentali per garantire prestazioni elevate in dispositivi tecnologici compatti. L’aggettivo rari tende a contrapporli a quelli comuni come ferro, rame, manganese, alluminio. Si tratta di una cinquantina di elementi, denominati anche strategici o tecnologici, a volte più preziosi dell’oro, come nel caso del rodio che lo è 10 volte di più. Oltre il 90% della produzione dei metalli rari nel mondo, complessivamente valutata nel mondo pari a 25000 tonn/anno, è gestita dalla Cina.

La loro estrazione impegna metodi e processi molto complessi, tanto che l’UE definisce tali elementi come “metalli  critici” che inserisce in una  lista periodicamente aggiornata. Dicevo più sopra dell’impatto di questi metalli sulle applicazioni tecnologiche: si pensi che in uno smartphone di più recente produzione sono presenti circa 70 elementi, alcuni dei quali appartenenti al gruppo dei metalli rari. Probabilmente in questa applicazione i due  rari più importanti sono il neodimio che sostituisce i tradizionali magneti, consentendo rispetto a questi più elevati gradi di miniaturizzazione e l’indio che ha consentito di trasformare gli schermi dei telefoni in display tattili: il vetro del dispositivo viene ricoperto da una griglia composta da ossido d’indio, cosicchè al tocco dello schermo da parte del dito la carica presente su di esso, anche se di modesta entità, consente la registrazione del punto di contatto.

La Cina forte della sua supremazia sia come ricchezza del territorio che come capacità estrattiva e tecnologie di lavorazione già nel 2010 stabilì un embargo di 6 mesi per Giappone ed USA perchè voleva spingere le aziende a comprare i propri prodotti piuttosto che vendere ad esse materiali grezzi. Si tratta di un’arma  importante che potrebbe essere pericolosamente riproposta in un clima di guerra fredda. D’altra parte nel mondo occidentale sta maturando la convinzione che i materiali rari disponibili senza ricorso alle importazioni sono nettamente deficitari rispetto ai fabbisogni, purtroppo in tempi recenti non solo riferiti alle tecnologie, ma anche alla produzione di dispositivi militari, come nel caso degli USA.

Anche Italia e Francia cominciano a rilevare con preoccupazione queste carenze nazionali, per fortuna con attenzione rivolta soprattutto alla produzione di batterie per le auto elettriche. Probabilmente tenuto conto che anche Paesi  Sudamericani  come il  Cile ed Africani come il Congo dispongono di risorse, la differenziazione delle fonti di approvigionamento potrebbe essere una strategia intelligente capace di abbattere la drammaticità del confronto fra big.

Un altro punto fondamentale riguarda il riciclo: spedendo nei Paesi poveri le nostre strumentazioni tecnologiche obsolete facciamo due errori: pensiamo di salvarci l’anima rispetto ai principi di umana solidarietà e rinunciamo ad una strategia di riciclo e recupero: i metalli rari presenti nei dispositivi tecnologici infatti possono essere completamente riutilizzati.

Un nuovo allotropo del carbonio: il ciclocarbonio.

In evidenza

Rinaldo Cervellati

Nella C&EN newsletter del 16 agosto scorso, Laura Howes, col titolo “Chemists use atomic manipulation to nudge cyclo [18] carbon into being.”[1], informa che un gruppo di ricercatori, utilizzando la microscopia a scansione e la manipolazione atomica, hanno sintetizzato e “visualizzato” un nuovo allotropo[1] del carbonio che era stato previsto per la prima volta negli anni ’80.

La notizia è stata data anche da Davide Castelvecchi con dovizia di particolari [2].

L’impresa di realizzare il nuovo allotropo ciclico a 18 atomi di carbonio con legami tripli alternati a legami semplici (figura 1) è riuscita a un gruppo di scienziati formato da chimici del Centro di ricerca IBM di Zurigo e del Dipartimento di Chimica dell’Università di Oxford [3].

Figura 1. Struttura del del ciclo[18]carbonio (ciclocarbonio)

Dapprima P. Gawel e M. Schriven del gruppo di ricerca del prof. H. Anderson di Oxford, hanno sintetizzato la molecola precursore con mezzi chimici. Tale molecola includeva tre eterocicli a quattro atomi di carbonio ciascuno contenente due atomi di ossigeno.

Tale molecola è stata inviata al Laboratorio di Zurigo dove K. Kaiser e F. Schultz del gruppo di ricerca del prof. L. Gross, l’hanno posta su un strato sottile di cristallo di cloruro di sodio in una camera a vuoto. La molecola è stata poi manipolata usando una sonda elettrica in un microscopio a forza atomica[2]. Questa manipolazione ha permesso di eliminare, uno alla volta i tre eterocicli trasformandoli in monossido di carbonio. Il risultato è stato il ciclocarbonio, come mostra lo schema di figura 2 comprendente le microfotografie relative ai vari stadi dell’operazione.

Figura 2. Il precursore a tre anelli (a sinistra), eliminazione uno per volta degli anelli tramite impulsi elettrici (centro sinistra e centro destra), ottenimento del ciclocarbonio (destra). Le corrispondenti immagini AFM sono riportate in basso.

Per completezza la figura 3 mostra lo schema di un microscopio a forza atomica (a sinistra) e l’apparecchiatura reale (a destra).

Figura 3. Schema di un AFM: (1): mensola, (2): Supporto per mensola, (3): Elemento piezoelettrico, (4): Punta (che funge da sonda) , (5): rivelatore di deflessione e movimento (6): campione, (7): xyz drive, (sposta il campione (6) nelle direzioni x, y e z rispetto all’apice della punta (4)) e (8): Regolatore di fase.

Kaiser ha anche usato l’immagine microfotografica per esplorare la struttura della molecola e ha scoperto che la molecola ha una simmetria rotazionale di ordine nove.

Katharina Kaiser

Combinando tale osservazione con i calcoli, il gruppo ha potuto determinare che il ciclocarbonio è costituito da una sequenza alternata di legami singoli e tripli, in contrasto con l’alternativa teorica che aveva previsto un anello continuo di doppi legami.

I legami alternati sono interessanti perché potrebbero conferire alle catene di carbonio a anello le proprietà dei semiconduttori. Gawel dice che potrebbero essere utilizzate in futuro come componenti dei transistor molecolari.

Rik Tykwinski, un chimico fisico organico dell’Università di Alberta, non coinvolto nel lavoro, afferma: “Il ciclocarbonio è insieme allotropo e molecola, motivo per cui questa sintesi è così sensazionale”. Tykwinski paragona la scoperta a quella dei fullereni: “Questo è davvero uno studio impotantissmo, punto di riferimento in chimica del carbonio.”

Castelvecchi ci informa che per ora, i ricercatori studieranno le proprietà di base del ciclocarbonio che essi per ora sono stati in grado di produrre solo una molecola per volta. Continueranno anche a provare tecniche alternative che potrebbero aumentarne le quantità. In effetti Gawel dice che il lavoro è finora una fondamentale ricerca di base.

Il chimico Roald Hoffmann della Cornell University, Premio Nobel 1981 e altri hanno a lungo teorizzato la possibilità di lunghe catene chiuse di carbonio, afferma che “Il lavoro è bellissimo”, anche se, aggiunge, resta da vedere se il ciclocarbonio è stabile quando viene tolto dalla superficie salina e se può essere sintetizzato in modo più efficiente di una molecola alla volta.

Per l’esattezza, i due gruppi, a Zurigo e a Oxford, avevano iniziato a collaborare prima del recentissimo risultato. Nel 2016, Leo Gross e i suoi colleghi di Zurigo avevano dimostrato come si potevano usare gli impulsi di tensione dalla punta dell’ago di un microscopio a scansione per rompere, uno ad uno, i legami in una molecola e poi controllare ciò che era successo con la microscopia a forza atomica (AFM). Quando Przemyslaw Gawel, postdoc nel laboratorio di Harry Anderson a Oxford, ascoltò Gross presentare il lavoro in una conferenza, vide l’opportunità di usare la tecnica IBM per seguire i riarrangiamenti di catene di atomi di carbonio. Gawel si presentò e i due gruppi iniziarono a collaborare[4], collaborazione che ha poi portato al cicl carbonio come qui è stato illustrato.

 

 

 

Leo Gross                 Przemyslaw Gawel             Harry L. Anderson

Bibliografia

[1] L. Howes, Chemists use atomic manipulation to nudge cyclo [18] carbon into being. C&EN news, August 16, 2019.

https://cen.acs.org/physical-chemistry/chemical-bonding/Chemists-use-atomic-manipulation-nudge/97/web/2019/08?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[2] D. Castelvecchi, Chemists make first ring of pure carbon., Nature, Vol 572, 22 August 2019

[3] K. Kaiser et al., An sp-hybridized molecular carbon allotrope, cyclo[18]carbon., Science, 2019, DOI: 10.1126 /science.aay1914

[4] N. Pavlicek et al., Polyyne formation via skeletal rearrangement induced by atomic manipulation., Nature Chemistry, 2018, DOI: 10.1038 /s41557-018-0067-y

[1]L’allotropia è la proprietà di esistere in diverse forme, presentata da alcune sostanza semplici (cioè sostanze i cui atomi sono dello stesso elemento). Le diverse forme sono note come allotropi. La definizione si deve a J.J. Berzelius (1779-1848). Tipico esempio è proprio il carbonio che esiste come grafite, diamante, fullereni, nanotubi e in questa nuova forma.

[2] La microscopia a forza atomica (atomic force microscopy, AFM) è un tipo di microscopia a sonda di scansione (SPM), con una risoluzione dell’ordine delle frazioni di un nanometro, oltre 1000 volte migliore del limite ottico. Le informazioni vengono raccolte “sentendo” o “toccando” la superficie con una sonda meccanica che permette movimenti precisi. Le operazioni vengono quindi controllate via microfotografica.

Il metano rema contro.

In evidenza

Claudio Della Volpe

Questo post esce in contemporanea sul blog di ASPO-Italia

Abbiamo ripetutamente discusso la questione se il metano sia o meno un vero aiuto per la transizione energetica a causa dei problemi climatici, ossia se tenuto conto di tutto il ciclo produttivo la sostituzione del metano a petrolio e carbone possa considerarsi un oggettivo passo avanti nella direzione della riduzione dell’effetto serra di origine antropica.

Vi ricordo qui alcuni post che ne parlavano:

https://ilblogdellasci.wordpress.com/2017/06/09/la-pubblicita-di-eni-il-metano-ci-da-una-mano-o-no/

https://ilblogdellasci.wordpress.com/2019/03/15/commenti-alla-proposta-di-piano-nazionale-integrato-per-lenergia-e-il-clima/

https://ilblogdellasci.wordpress.com/2019/03/04/lambiente-al-portico-della-pace/

Ed abbiamo concluso che le cose non stanno così o almeno non in modo semplice ed automatico in quanto dato che il metano è di per se un gas serra molto più potente del diossido di carbonio specie su tempi brevi (oltre 80 volte nei primi 20 anni dalla dispersione) e dato che il ciclo produttivo complessivo si calcola ne perda in atmosfera il 2% (nella media mondiale), la sostituzione del metano al petrolio o perfino al carbone può rivelarsi inutile o controproducente; ha molto più senso sostituire direttamente alla generazione fossile una generazione rinnovabile dotata di accumulo.

Finora tuttavia mancava una analisi diretta degli effetti climatici della corsa verso il metano che si è scatenata da alcuni anni a questa parte, specie con il fracking, ossia con lo sfruttamento di quei giacimenti non tradizionali ma diffusi in alcune parti del mondo e che sono localizzati in modo tale che occorre rompere le rocce per estrarre il metano.

Un recente lavoro di R. Howarth pubblicato su Biogeosciences, una delle riviste internazionali più quotate (Biogeosciences, 16, 3033–3046, 2019 https://doi.org/10.5194/bg-16-3033-2019
) chiarisce la questione dell’effetto del metano derivante da attività estrattiva e più in generale dal ciclo produttivo globale, con conclusioni molto pesanti per questo tipo di attività.

Il lavoro è scaricabile da https://www.biogeosciences.net/16/3033/2019/

Come vedremo l’interesse nasce dalle conclusioni ma anche dai metodi sperimentali usati, legati alla analisi isotopica e dunque dalla individuazione dell’origine del metano un problema questo di cui ci siamo occupati altre volte.

Prima di tutto partiamo dai dati sperimentali, che erano già conosciuti da qualche anno e di cui si era tentata una analisi varie volte; sono riportati nel grafico qui sotto ed erano stati publicati in Schaefer, H., Mikaloff-Fletcher, S. E., Veidt, C., Lassey, K. R., Brailsford, G. W., Bromley, T. M., Dlubokencky, E. J., Michel, S. E., Miller, J. B., Levin, I., Lowe, D. C., Martin, R. J., Vaugn, B. H., and White, J. W. C.: A 21st century shift from fossil-fuel to biogenic methane emissions indicated by 13 CH4 , Science, 352, 80–84, https://doi.org/10.1126/science.aad2705, 2016.

(non scaricabile gratuitamente)

Nell’immagine qui sopra i dati di partenza; nel primo grafico la variazione della concentrazione atmosferica del metano che come si vede negli ultimi 35 anni è costantemente aumentata sia pure con un plateau fra 2000 e 2005. Tuttavia la cosa interessante e di cui parleremo oggi è il contrasto con la variazione della composizione isotopica del metano espressa dal secondo grafico nel medesimo periodo. Il grafico riposta in ordinata una quantità denominata δ13C che è definita come segue:

Ossia essa è il rapporto dei rapporti fra le moli dei due isotopi stabili del carbonio nel campione e in un campione standard, meno 1 e moltiplicata per 1000.

Il campione standard è quello di Belemnitella estratto da una specifica formazione geologica, scelto per la sua composizione estremamente ricca in 13C; questo standard si è consumato nel tempo ed è stato poi sostituito da altri ma conservando la continuità di misura.

Il rapporto a sinistra sarà di solito inferiore ad 1 ed avremo dunque di solito dei valori negativi, dell’ordine delle decine, che diventeranno meno negativi quando la frazione dell’isotopo 13 aumenterà rispetto al 12. Se testate un campione di Belemnitella ovviamente avrete numeratore e denominatore uguali con risultato zero. Dunque più negativo vuol dire più lontano dalla Belemnitella, ossia con meno 13C, mentre un valore positivo significherebbe con più 13C dello standard.

I due isotopi sono entrambi stabili (a differenza del 14C) e la differenza di composizione dipende da quello che i chimici chiamano effetto isotopico, ossia dato che i due atomi hanno masse atomiche diverse, il più leggero è anche il più veloce nelle reazioni; la differenza è di circa l’8% ed è dunque significativa.

Per esempio come già notato (in un commento) le piante C3 e C4 ossia le normali e le grasse hanno una composizione isotopica diversa con diverso δ13C. Il grafico seguente mostra il δ13C per diversi tipi di carbonio.

http://wwwchem.uwimona.edu.jm/courses/CHEM2402/Crime/GC_IRMS.html

Nel caso della CO2 il δ13C varia regolarmente durante l’anno come mostrato nel grafico seguente che rappresenta i dati raccolti a Mauna Loa.

I combustibili fossili aggiungono all’atmosfera CO2 che contiene meno 13C. Questa aggiunta è maggiore della quantità di CO2 rimossa dalla biosfera. Il risultato è che il δ13C scende piano piano in corrispondenza dell’aumento di concentrazione della CO2.

L’analisi condotta sui dati del metano è sostanzialmente parallela, ma i valori sono più bassi ancora perché partono già da valori più bassi.

I dati del metano riportati nel grafico di Schaefer prima crescono con la quantità di metano, dunque il metano mentre aumenta in quantità si arricchisce dell’isotopo 13, poi invece dopo il plateau del 2000-2005 mentre il metano continua ad aumentare la quota di 13C diminuisce. Come mai?

I dati sono stati analizzati da almeno due lavori importanti nel 2016 uno pubblicato su Nature e l’altro su Science; quello su Nature è

Schwietzke, S., Sherwood, O. A., Bruhwiler, L. M. P., Miller, J. B., Etiiope, G., Dlugokencky, E. J., Michel, S. E., Arling, V. A., Vaughn, B. H., White, J. W. C., and Tans, P. P.: Upward revision of global fossil fuel methane emissions based on isotope database, Nature, 538, 88–91, https://doi.org/10.1038/nature19797, 2016.

mentre quello su Science lo abbiamo già citato prima.

Entrambi hanno concluso con riguardo al metano che “fossil- fuel emissions have likely decreased during this century and that biogenic emissions are the probable cause of any recent increase in global methane emissions.

Per comprendere bene la frase occorre rifarsi alla definizione delle tre principali componenti di metano emesso:

Biogenico: zone umide, risaie, mucche, discariche

Termogenico: derivante da componenti spontanee dei depositi di combustibili fossili oppure da esplorazione, produzione e attività di miniera.

Pirogenico: risultato di combustione incompleta di combustibili sia naturali che fossili e anche di biocombustibili.

Come si vede c’è un certo intreccio del ruolo antropogenico nelle varie componenti. Dunque la frase del lavoro citato NON esclude l’attività umana; tuttavia tutti e due i lavori non comprendono una analisi dettagliata delle componenti fossili che derivano dalle forme più recenti di estrazione, ossia lo shale gas e lo shale oil; definibili come quelle sorgenti fossili non tradizionali, che invece di essere intrappolate da una zona non pervia ma in ambiti porosi in cui fluiscono liberamente, sono intrappolate DENTRO la roccia e dunque occorre fratturare la roccia per estrarre sia il gas che il petrolio. In assenza di commenti sulla questione shale essi attribuiscono la riduzione dell’isotopo 13 a fonti biogeniche.

Howarth ha invece modellato esplicitamente il contributo del metano provenente dallo shale considerando la letteratura tecnica a riguardo ed inserendo in un modello più completo l’analisi delle emissioni.

Dalla tabella soprastante si vede che i δ13C dei fossili sono simili ma non identici (la punta indica la media). Un modello che consideri le quantità estratte di shale che hanno consentito all’industria estrattiva di superare i valori totali del passato consentono anche di calcolare il contributo a questa grandezza isotopica. E questo è il contenuto di calcolo modellistico del lavoro. Su questa base la conclusione è radicalmente diversa dagli altri due lavori:

We conclude that increased methane emissions from fossil fuels likely exceed those from biogenic sources over the past decade (since 2007). The increase in emissions from shale gas (perhaps in combination with those from shale oil) makes up more than half of the total increased fossil-fuel emissions. That is, the commercialization of shale gas and oil in the 21st century has dramatically increased global methane emissions.

Dunque Howarth dice: attenzione se includiamo le sorgenti shale e il loro contributo con ipotesi semplici ed essenziali la valutazione si rovescia: sono i nuovi fossili a far ridurre la concentrazione di isotopo 13.

Ci sono due considerazioni tecniche che si possono fare a partire da questa conclusione:

1) si parla spesso di “perdite” ma in realtà tali presunte perdite non sono fuggitive, ma rappresentano un modo di funzionare dell’industria estrattiva, di trasporto e di trattamento che sottovaluta questo problema e ci sarebbero in effetti le possibilità tecniche di modificare la situazione, ovviamente con un congruo aggravio dei costi che farebbero così evidenziare come in effetti l’EROEI di tali risorse è molto inferiore a quello stimato senza tali considerazioni. Perfino il semplice deposito di gas naturale può rivelarsi pericoloso climaticamente, come è avvenuto nel caso californiano di Aliso Canyon di cui abbiamo parlato sul blog.

2) nell’ottobre 2018 l’IPCC ha pubblicato un report legato alle conclusioni della COP21 di Parigi nel quale ha fra l’altro notato che il sistema climatico appare reagire più prontamente a riduzioni della componente metano rispetto alla componente CO2, e che tale fenomeno offre dunque la possibilità di avere effetti climatici più rapidi in entrambe le direzioni.

Sulla base dei calcoli di Howarth si può concludere che l’uso del metano non solo NON rappresenta quello che alcuni (compresa l’ENI e parecchi ambienti “ambientalisti”) ritengono, ossia un ponte verso le vere rinnovabili; al contrario l’uso del metano è un rischio ormai chiaro di peggiorare le cose e deve essere evitato con tutte le forze; ovviamente a partire dalla costruzione di inutili infrastrutture relative sia alla sua estrazione che al suo trasporto (come è il caso della TAP).

Il cubo di Rubik chimico

In evidenza

Rinaldo Cervellati 

Come noto al grande pubblico, il cubo di Rubik è un famoso rompicapo 3D (twisty puzzle 3D). E’ stato ideato nel 1974 dall’architetto ungherese Ernő Rubik[1], da cui il nome. Sebbene il cubo di Rubik abbia raggiunto il picco della sua popolarità all’inizio degli anni ’80, è ancora largamente utilizzato. Molti appassionati continuano a confrontarsi in competizioni internazionali nel tentativo di risolvere il cubo di Rubik nel tempo minore possibile e in varie categorie.

Nella C&EN newsletter del 9 agosto scorso, Bethany Halford, col titolo “Rubik’s cube with a chemical twist” [1], informa che un gruppo di ricercatori chimici ha pubblicato una versione chimica del cubo di Rubik [2]. Racconta Halford:

Nel gennaio 2018, Jonathan Sessler[2] (Università del Texas a Austin) era a una riunione che presentava il lavoro svolto dal suo laboratorio realizzando modelli 2D da lastrine di idrogel colorati. Philip A. Gale[3], un chimico dell’Università di Sydney, specializzato in chimica supramolecolare e post-dottorato nel laboratorio di Sessler negli anni 1995-97, lo sfidò a trasformare queste lastrine in un cubo di Rubik. Afferma Gale [1]: “La forma delle matrici di gel di Jonathan mi hanno ricordato la faccia di un cubo di Rubik, mi chiedevo se sarebbe stato possibile costruire un cubo funzionante formato da blocchi di gel che avrebbero potuto essere facilmente riconfigurati”.

Jonathan Sessler e Philip A. Gale

Sessler accettò la sfida e affidò il progetto a Xiaofan Ji ricercatore post-dottorato. Il compito si rivelò una sfida tremenda più del previsto. Ji ha avuto problemi nella sintesi di idrogel con i sei colori necessari per realizzare un cubo di Rubik.

Ben Zhon Tang

Fu solo quando Ji chiese la collaborazione del gruppo del prof. Ben Zhong Tang[4] dell’Università di Scienza e Tecnologia di Hong Kong, che furono scoperti composti che, grazie all’aggregazione, inducevano la fluorescenza quando incorporati in idrogel (AIE Aggegation-Induced Emission), figura 1.

Figura 1. Fotografie di sospensioni acquose di composti AIE (da Da S-1 a S-6: sospensioni blu, verdi, gialle, arancioni, rosse e bianche, rispettivamente) e i corrispondenti idrogel AIE.[2]

Il secondo passo consistette nell’assemblare le lastrine in cubetti con le facce diversamente colorate. Ciò venne realizzato facendo aderire le piastrine fra loro, infatti gli idrogel formano legami incrociati di forza variabile col tempo. Un tempo di contatto di 24 ore garantisce la stabilità della struttura. I cubetti di questi idrogel vennero quindi fatti aderire per 1 ora in una struttura simile a un cubo di Rubik, (RC). Ciò produsse un blocco 3 × 3 × 3 (RC) in cui i singoli blocchi di gel fluorescenti aderiscono debolmente l’uno all’altro. Come conseguenza, è possibile ruotare anche gli strati 1 × 3 × 3 che compongono l’RC orizzontalmente o verticalmente per realizzare nuove forme (figura 2).

Figura 2. Fotografie che mostrano a) la formazione dell’idrogel HG-C attraverso l’adesione macroscopica dell’idrogel HG-0 e degli idrogel AIE HG-1 – HG-6 con ricottura per 24 ore, b) la formazione di un idrogel RC simile a un cubo di Rubik attraverso l’adesione macroscopica per 1 ora di singoli blocchi HG-C di idrogel (3 × 3 × 3), c) idrogel RC fatto rotolare a mano.[2]

La figura 3 mostra le successive rotazioni di 90° su un cubo di Rubick (a sinistra) e il suo analogo chimico (RC) (a destra).

Figura 3 [2]

C’è però un problema: dopo 24 ore, il cubo di Rubik chimico si blocca in quella data posizione. Lo stesso meccanismo che ha permesso al gruppo di ricerca di unire le tessere colorate ha infatti reso il gioco non più giocabile. Dice Sessler: “Fondamentalmente abbiamo realizzato un materiale che, come il gesso di Parigi o l’argilla, nel tempo diventa più duro”.

Anche se ricreare il giocattolo alla moda è stato divertente, Sessler afferma che non è il suo obiettivo finale. Vorrebbe realizzare piastrelle di materiali morbidi e intelligenti che funzionano come i materiali fluorescenti di Tang cambiando colore in presenza di stimoli chimici. Tali piastre potrebbero comunicare informazioni mediche quando vengono posizionati sulla pelle di una persona o guidare robot che eseguono reazioni chimiche, come ad es. una titolazione acido-base.

Infine, ecco il commento di Gale: “È un lavoro elegante e apre un nuovo approccio alla produzione di sensori”, sono lieto che abbiano affrontato la sfida.

Desidero ringraziare Bethany Halford, senior correspondent of ACS C&EN newsletter, per questa notizia che mi ha condotto a approfondire l’argomento sull’articolo originale del gruppo di ricerca cino-americano.

Bethany Halford

Prima di diventare senior correspondent di C&EN, Helford è stata un chimico organico di sintesi, diceva di essere una scultrice su scala molto piccola. Ora scolpisce storie, particolarmente quelle più strane.

Bibliografia

[1] B. Halford, Rubik’s cube with a chemical twist., C&EN news, August 9, 2019.

[2] Xiaofan Ji et al, A Functioning Macroscopic “Rubik’s Cube” Assembled via Controllable Dynamic Covalent Interactions., Adv. Mater. 2019, DOI: 10.1002/adma.201902365

 

[1] Ernő Rubik (1944-) architetto e scultore ungherese, insegna all’Istituto Universitario d’Arte e Design di Budapest.

[2] Jonathan Sessler (1956-), statunitense, è professore di chimica all’Università del Texas ad Austin. È noto per il suo lavoro pionieristico sulle porfirine espanse e le loro applicazioni in biologia e medicina.

[3] Philip Alan Gale (1969-), chimico britannico, è attualmente direttore della School of Chemistry dell’Università di Sydney. È noto per il suo lavoro sulla chimica supramolecolare degli anioni.

[4] Ben Zon Tang, direttore del Dipartimento di Chimica, The Hong Kong University of Science and Tecnology, esperto di polimeri funzionali e di Aggregate-Induced Emission. Il suo gruppo è costituito da 26 ricercatori.

Numeri di ossidazione: fra topologia e meccanica quantistica.

In evidenza

Claudio Della Volpe

Faccio la mia solita premessa; non sono uno specialista del tema di cui vi parlo oggi; sono solo un lettore curioso; potrei commettere errori; e dunque mi aspetto delle “generose” correzioni; diciamo che se ci fossero più colleghi disposti a fare divulgazione ci sarebbero meno errori. Avrei è vero potuto chiedere una intervista ai due colleghi di cui parlo, ma la questione base è il linguaggio da usare; la topologia è astrusa per i fisici, e ancor più per noi chimici. Questo è un tentativo di parlarne a partire da quello che ne sa un povero chimico.

In un recente articolo pubblicato su Nature Physics i due colleghi della SISSA, Federico Grasselli e Stefano Baroni hanno dimostrato che i numeri di ossidazione che usiamo tutti i giorni e che insegniamo agli studenti fin dalla scuola secondaria sono una della grandezze basilari della meccanica quantistica ed hanno natura topologica, sono quantità legate alla topologia del sistema. 

Non temete di trovare quasi incomprensibile perfino l’abstract del lavoro; il nostro linguaggio è diverso da quello dei fisici teorici; cercherò di renderlo più amichevole sia per i meno esperti che per il grande pubblico.

Ad un primo esame potrebbe sembrare che i numeri di ossidazione siano solo l’ennesimo strumento euristico che la Chimica si è inventato e che ne rende possibile una relativa indipendenza dalla Meccanica Quantistica; molti colleghi sottolineano spesso questo aspetto base della Chimica. Ed hanno ragione. La Chimica che conosciamo, che studiamo dalla scuola secondaria e i cui principi base si possono studiare anche alle elementari (il nostro post più letto scritto dalla sempreverde Silvana Saiello: https://ilblogdellasci.wordpress.com/2013/06/06/chimica-alle-elementari/) è uno strumento euristico potentissimo; tuttavia è altrettanto vero che faticosamente la Scienza riscopre che questo strumento euristico è nondimeno profondamente preciso: è la Chimica, bellezza!!

Questo è appunto il caso dei numeri di ossidazione. Ovviamente la Meccanica Quantistica (MQ) è in grado di andare al di là e vedremo quali sono le rivoluzionarie conclusioni dell’articolo di Grasselli e Baroni.

Non temiate di immergevi in queste acque oscure.

Il numero di ossidazione (NO) o di ossidoriduzione ha una definizione empirica: è la differenza tra il numero di elettroni di valenza dell’atomo considerato e il numero di elettroni che ad esso rimangono dopo aver assegnato tutti gli elettroni di legame all’atomo più elettronegativo di ogni coppia. Non esisteva fino a questo punto una definizione ottenibile da principi primi.

Esiste una definizione formale nel Goldbook (http://goldbook.iupac.org/terms/view/O04365), ma si tratta comunque di una definizione empirica che non discende da principi primi:

OS of an atom is the charge of this atom after ionic approximation of its heteronuclear bonds.

Esistono una serie di lavori pubblicati negli ultimi anni che cercano di rispondere al problema se il NO sia una grandezza che possa andare al di là della definizione empirica datane nel GoldBook. Per esempio Inorg. Chem. 2011, 50, 10259–10267 oppure A.J. Webster et al., Polyhedron (2015), http://dx.doi.org/10.1016/j.poly.2015.11.018

In entrambi i casi si usa il concetto dell’occupazione di orbitale; nel secondo lavoro la cosiddetta matrice di occupazione consente di ottenere un autovalore che corrisponderebbe al NO. Nel primo si cerca addirittura di definire un operatore corrispondente ma sempre a partire dalla matrice di occupazione; si tratta comunque di proposte finora non condivise o comunque di proposte che cercano appunto di dare al NO la dignità di quantità basica della MQ. Un altro lavoro che vale la pena di citare per chi se la sente di approfondire e di Jiang e coll. PHYSICAL REVIEW LETTERS 108, 166403 (2012) in cui si affronta il problema di una definizione formale a partire da principi primi del NO ma solo per lo stato solido, mentre il lavoro dei colleghi della SISSA è più generale.

Il lavoro di Grasselli e Baroni scoprendo la natura teorica di questa grandezza fa passare la scoperta euristica ad un livello di concetto teorico.

Per arrivare a capire un po’ la cosa dobbiamo partire dalla topologia, un argomento di cui ci siamo già occupati in altri post (https://ilblogdellasci.wordpress.com/2016/06/13/dai-quadrati-magici-alla-topologia-molecolare-parte-3-wiener/)

 

La topologia o studio dei luoghi (dal greco τόπος, tópos, “luogo”, e λόγος, lógos, “studio”) è lo studio delle proprietà delle figure e delle forme che non cambiano quando viene effettuata una deformazione senza “strappi”, “sovrapposizioni” o “incollature”. (da wikipedia)

Per la topologia una sfera o un cubo sono figure equivalenti o come si dice tecnicamente omeomorfe. Così anche una tazza del caffè ed una ciambella. Una tazza a due manici è equivalente ad una pentolona a due manici od anche ad un otto, mentre un brezel, comune dalle mie parti, equivarebbe ad un mastello a tre manici.

 

Oggetti come una sfera o un cubo sono topologicamente “triviali” mentre non lo sono quelli come una tazza o un brezel. Gli oggetti omeomorfi , cioè che possono essere ridotti l’uno all’altro con modifiche continue si corrispondono in modo “intero”, hanno una caratteristica intera che è loro specifica, per esempio il numero di “buchi” che posseggono; questo numero non può essere modificato in modo graduale, ma solo discontinuo, costituisce una sorta di transizione di fase da un tipo di oggetto all’altro, una transizione topologica (sottolineata nell’immagine sopra dal termine POW). Il numero di buchi può essere definito in modo formale e si chiama genere della superficie.

La topologia non è un astruso argomento matematico, come abbiamo visto per esempio nei post dedicati alla topologia molecolare, la forma delle molecole, l’uso dei grafi nella previsione delle proprietà delle molecole.

La topologia è un argomento che negli ultimi anni è stata ripetutamente presente nelle presentazioni dei Nobel; oltre quella dei Fisici del 2016, possiamo ricordare la presentazione del Chimico Premio Nobel Jean Pierre Sauvage sempre nel 2016 che si intitolava: From Chemical Topology to Molecular Machines

Ma dirò di più. La topologia è una disciplina che applichiamo costantemente ma spesso senza accorgercene; riconoscere il suo ruolo quotidiano provoca un effetto di straniamento.

Per esempio la topologia è lo strumento quando scegliamo un percorso su una mappa della metro, dove non compaiono le informazioni metriche, le distanze, scegliamo un colore che corrisponde ad una certa forma, una certa topologia.

Fare un nodo alle scarpe è un processo topologico in cui le misure esatte non contano, la metrica non conta ma il modo di avvolgere le cose sì.

Molti esseri viventi, compresi noi, hanno la medesima topologia, un tubo digerente, sostanzialmente un toro, non dissimili da un verme che è una delle forme di vita più antiche che si conoscano, ma diverse da una singola cellula.

L’albero dell’evoluzione è una struttura topologica, non metrica.

Passare dalla descrizione della Terra come piatta ad una come sfera è una scelta topologica, o se volete una scoperta topologica.

Colorare le carte geografiche con colori diversi è un problema di topologia (il teorema dei 4 colori).

Dunque la topologia non è una cosa astratta, affatto; comunque non più dell’algebra o di altre parti della matematica.

Entriamo nell’argomento definendo in modo più approfondito un numero quantico topologico: qualunque quantità che prende uno solo di un set finito di valori sulla base di considerazioni topologiche legate al sistema in studio, anche non in casi legati alla meccanica quantistica. Possono essere per esempio numeri che compaiono nelle soluzioni di equazioni del sistema anche differenziali la cui forma dipenda da considerazioni topologiche.

La scoperta e l’analisi di queste quantità ha significato la assegnazione del premio Nobel per la Fisica 2016 a Thouless, Haldane e Kosterlitz.

Si tratta di quantità che a differenza dei comuni numeri quantici NON dipendono dalla simmetria del sistema, sono insensibili a tale simmetria; la simmetria è un fatto “metrico”, dipende dalle misure esatte dell’oggetto, mentre la topologia no. I numeri quantici che conosciamo dipendono dalla simmetria, quelli topologici no.

Quanto sia importante l’approccio topologico si comprende da lavori precedenti quello di cui stiamo parlando per esempio Topological quantum chemistry di Bradlyn e coll, Nature 547, 298 (2017) che tenta di classificare la natura topologica della struttura in bande (di conduzione essenzialmente) di tutti i materiali conosciuti in questo campo (oltre 200.000) suddivisi nei 230 gruppi di simmetria.

Il problema dunque è che i fisici teorici ci stanno indicando una strada (apparentemente) nuova: quanto è importante la topologia nella chimica? E’ un argomento che come blog abbiamo già sfiorato in precedenti post e abbiamo visto che certi aspetti come la previsione di proprietà sono ben consolidati. Qua ne stiamo allargando il ruolo. Personalmente ritengo che la topologia dovrebbe diventare un argomento comune di studio per i neochimici.

Dice Davide Castelvecchi su Le Scienze di qualche anno fa (traducendo un articolo da Scientific American)

Alcune delle proprietà fondamentali delle particelle subatomiche sono intrinsecamente topologiche. Prendiamo, per esempio, lo spin dell’elettrone, che può puntare verso l’alto o verso il basso. Capovolgiamo un elettrone dall’alto verso il basso, e poi ancora verso l’alto: si potrebbe pensare che questa rotazione di 360° riporti la particella al suo stato originale. Ma non è così.

Nello strano mondo della fisica quantistica, un elettrone può essere rappresentato anche come una funzione d’onda che codifica informazioni sulla particella, come la probabilità di trovarla in un determinato stato di spin. In modo controintuitivo, una rotazione di 360° sfasa la funzione d’onda, in modo che le creste e gli avvallamenti si scambiano. Ci vuole un’altra rotazione di 360° per portare finalmente l’elettrone e la sua funzione d’onda ai loro stati iniziali.

Questo è esattamente ciò che accade in una delle stranezze topologiche preferite dai matematici: il nastro di Möbius, che si realizza dando una singola torsione a un nastro e poi incollando tra loro le sue estremità. Se una formica, camminando sul nastro, facesse un giro completo, si troverebbe sul lato opposto rispetto al punto in cui ha cominciato. Deve fare un altro giro completo prima di poter tornare alla sua posizione iniziale.

La situazione della formica non è solo un’analogia per ciò che accade alla funzione d’onda dell’elettrone: si verifica veramente all’interno di uno spazio geometrico astratto fatto di onde quantistiche. È come se ogni elettrone contenesse un minuscolo nastro di Möbius che porta con sé un po’ di topologia interessante. Tutti i tipi di particelle che condividono questa proprietà, quark e neutrini compresi, sono conosciuti come fermioni; quelli che non la condividono, come i fotoni, sono classificati come bosoni.

Torniamo al nostro argomento. L’esempio dello spin chiarisce che le proprietà topologiche possono appartenere allo spazio a cui le funzioni che descrivono il comportamento del sistema si riferiscono, lo spazio delle configurazioni in cui tali funzioni sono definite. E’ un modo di ragionare poco intuitivo ma molto efficiente. Dobbiamo immaginare lo spazio multidimensionale in cui le funzioni d’onda sono definite e considerarne le caratteristiche topologiche, una cosa non banale assolutamente.

Nella parte centrale del lavoro Grasselli e Baroni fanno esattamente questo, ossia analizzano le proprietà dello spazio delle configurazioni delle funzioni d’onda

Quando si studiano sistemi come un sale fuso si usa fare dinamica molecolare di particelle alle quali poi si applica la meccanica quantistica; data la difficoltà di analizzare sistemi con grandi numeri di particelle si usa un trucco contabile che è la periodicità, ossia si usano celle di opportuna dimensione con la proprietà che le traiettorie delle particelle che escono da una parte rientrano dalla parte opposta; ora facendo questo lo spazio fisico studiato è quello euclideo normale, ma lo spazio delle configurazioni delle variabili non lo è; come rappresentato in figura tale spazio delle configuazioni è invece non banale, come quello di un toro (vedi figura). In queste condizioni essi calcolano la conducibilità cosiddetta adiabatica, ossia con trasformazioni che seguono il cosiddetto teorema di Born e Fock che recita (più o meno):

Un sistema quanto meccanico soggetto a condizioni esterne che cambiano gradualmente adatta la sua forma funzionale, ma quando soggetto a condizioni rapidamente variabili e non ha il tempo di adattarsi la densità spaziale di probabilità rimane invariata.

Essi ottengono una espressione (per la cronaca la eq. 11 del lavoro) da cui si conclude che

La conducibilità elettrica adiabatica di un liquido può essere ottenuta esattamente sostituendo nella definizione di conducibilità (ossia la derivata rispetto al tempo del vettore polarizzazione macroscopica del sistema, andatevi a riguardare gli appunti di chimica –fisica 2!!) al cosiddetto tensore di Born o carica di Born di ciascun atomo (che è un numero reale dipendente dal tempo) una carica topologica scalare, che è un intero non dipendente dal tempo, ma solo dalla specie atomica considerata.

Nella seconda parte del lavoro gli autori dimostrano mediante esperimenti numerici che questa carica topologica è equivalente al numero di ossidazione dell’atomo in questione.

E questa ammetterete che è una conclusione eccezionale; senza saperlo noi chimici abbiamo usato la topologia del sistema per valutarne il comportamento e lo abbiamo fatto a partire da un approccio euristico che chiamiamo chimica! Oggi la MQ i dimostra che quel numero è una delle “costanti del moto” di quegli atomi!

Le conclusioni del lavoro sono abbastanza interessanti anche dal punto di vista pratico, dato che in questo modo si risparmia molto tempo di calcolo, non dovendosi più calcolare i tensori di Born; ma lo sono anche per i fenomeni che prevedono.

In particolare, scrivono Grasselli e Baroni (vi lascio la frase intera anche per gustare il modo di scrivere dei fisici teorici):

Our analysis shows that the coexistence of different oxidation states for the same element in the same system may be due to the exis- tence of zero-gap domains in the atomic configuration space that would be crossed by any atomic paths interchanging the positions of two identical ions in different oxidation states. While this sce- nario is probably the most common to occur, a different, more exotic, one cannot be excluded on purely topological grounds and its existence is worth exploring. In fact, when strong adiabaticity breaks, it is possible that two loops with the same winding num- bers could not be distorted into one another without closing the electronic gap, and they may thus transport different, yet integer, charges. While in the first scenario closing the electronic gap while swapping two like atoms would simply determine the chemically acceptable inequivalence of the oxidation numbers of two iden- tical atoms in different local environments, the second scenario would imply the chemically wicked situation where two different oxidation states can be attached to the same atom in the same local environment. As a consequence, one could observe a non-vanishing adiabatic charge transport without a net mass transport (see the discussion in ref. 33)

(sottolineatura mia)

A proposito dell’ultima frase tuttavia devo dire che da chimico che insegna elettrochimica da molti anni questo fenomeno di trasportare carica senza trasportare massa mi sembra ben conosciuto: mi ricorda molto da vicino il meccanismo “al salto” proposto per spiegare la conducibilità di protoni e ioni idrossido in acqua, chiamato spesso meccanismo di Grotthus. In sostanza la struttura elettronica si riarrangia lungo catene di diverse molecole di acqua legate da legami idrogeno e il protone non si sposta ma la sua carica si. Un altro esempio (di cui sono debitore a Vincenzo Balzani) è nella reazione chetoenolica dove succede una cosa analoga: nel 2° step della catalisi acida, la carica si attacca e migra poi da un legame all’altro, questa volta dentro un certa molecola , ma sempre senza spostamento di massa.

Se è così forse la chimica “euristica” ha ancora qualcosa da raccontare alla fisica teorica: chimica e topologia…. (ovviamente a patto di mettersi a studiare).Il meccanismo di Grotthus, notate come la carica migri senza spostamento di massa anche su catene lunghe di molecole di acqua legate da legami idrogeno (se non vedete in azione l’immagine, cliccateci sopra).

Ringrazio Vincenzo Balzani e mia figlia Daniela per gli utili suggerimenti.

Riferimenti:

https://www.lescienze.it/news/2019/07/01/news/spiegazione_quantistica_numero_ossidazione_sissa-4465208/

https://www.reccom.org/2019/05/23/materia-topologica-nuova-fisica/

http://www.lescienze.it/news/2017/07/22/news/strana_topologia_plasma_fisica-3610402/

https://www.nature.com/articles/nature23268

http://www-dft.ts.infn.it/~resta/gtse/draft.pdf   di Raffaele Resta, Questo è un testo ottimo! Ve lo consiglio.

Author(s): Erica Flapan  Series: Outlooks Publisher: Cambridge University Press, Year: 2000  ISBN: 0521664829,9780521664820  When Topology meets Chemistry

Biopiattaforma

In evidenza

Mauro Icardi

Con il nome di “biopiattaforma” è stato dato il via ad un progetto che vede coinvolte le società CAP di Milano (Gestore del servizio idrico integrato nelle province di Milano, Monza-Brianza, Varese e Como) e la CORE Spa che gestiva l’inceneritore di Sesto San Giovanni. Quest’ultimo, giunto al termine del suo periodo operativo, verrà convertito in un impianto di trattamento dei fanghi di depurazione di tutti gli impianti gestiti dal gruppo CAP. Il quantitativo di fanghi trattati sarà di 65.000 tonnellate/anno di fanghi umidi pari a 14.100 tonnellate/anno di fanghi essiccati. Da essi si ricaveranno 11.120 MWh/anno di calore per il teleriscaldamento e fosforo come fertilizzante. Il 75 % dei fanghi verrà convertito in calore, e dal restante 25% sarà ricavato fosforo per il riutilizzo agricolo come fertilizzante. Verrà realizzato anche un impianto per il trattamento della frazione umida dei rifiuti urbani (FORSU) che potrà alimentare i digestori anaerobici che verranno realizzati nell’area dell’ex inceneritore.

Questa linea potrà trattare 30.000 tonnellate/anno di rifiuti umidi (FORSU) per la produzione di biometano. Nell’impianto sarà trattata la FORSU proveniente dai comuni di Sesto San Giovanni, Pioltello, Cormano, Segrate, Cologno Monzese, cioè i cinque comuni lombardi che sono soci di CORE. Il progetto prende spunto da quanto venne già indicato dall’European Enviroment Agency (Agenzia Europea per la protezione ambientale) nel 2011. I rifiuti biodegradabili conferiti in discarica producono metano quando il materiale organico si decompone anaerobicamente. Anche se questo gas serra viene captato e utilizzato per generare energia, gran parte di esso fuoriesce nell’atmosfera dove ha un potente effetto di forzatura climatica. La riduzione della quantità di rifiuti destinati alle discariche è quindi un obiettivo importante delle politiche dell’UE in materia di rifiuti. Tuttavia, il volume dei rifiuti continua ad aumentare in tutta l’UE. Il cittadino medio dell’UE ha prodotto in media 468 kg di rifiuti solidi urbani nel 1995, che sono saliti a 524 kg nel 2008. Tale cifra potrebbe salire a 558 kg pro capite entro il 2020, a meno che non vengano messe in atto politiche efficaci per ridurre la produzione di rifiuti.

L’intera operazione che è al momento giunta alla fase di inizio lavori, è stata condivisa con la cittadinanza dei comuni interessati, e comunque aperta alle considerazioni ed osservazioni tramite un’apposita piattaforma dove si sono potuti esprimere sia i singoli cittadini che le associazioni.

I fanghi con un tenore di secco pari al 22- 27% con un tenore massimo del 40% saranno stoccati in appositi silos. Successivamente avviati verso un pre-essicatore. Il principio di funzionamento è quello di fare aderire un sottile strato di fango disidratato a contatto con una parete metallica molto calda (es. riscaldata sull’altro lato da vapore oppure olio diatermico). In questo modo la parte di acqua ancora contenuta nei fanghi disidratati evapora molto rapidamente ed il tempo di contatto del fango con la parete calda determina la percentuale di acqua evaporata. Una parte del calore utilizzato per il pre-essiccamento dei fanghi potrà essere recuperato condensando i vapori generati dal processo di essiccamento dei fanghi stessi.

I vapori di processo derivanti dal pre-essiccamento del fango verranno avviati verso un trattamento di deodorizzazione, passando attraverso una torre di lavaggio, che ha il compito di abbattere tutte le sostanze incondensabili ancora presenti nei vapori stessi e responsabili dei cattivi odori. Solo dopo questa fase i vapori saranno scaricati in atmosfera. Il trattamento termico dei fanghi sarà effettuato con impianto a letto fluido. La parte superiore dell’impianto costituisce la camera di post- trattamento, nella quale, in condizioni altamente turbolente, ha luogo la completa ossidazione delle componenti organiche del fango da trattare. Una volta abbandonata la camera di post- trattamento, i fumi verranno raffreddati in una prima sezione di recupero energetico, destinata al preriscaldamento dell’aria di trattamento. Dopo questa prima sezione di recupero energetico il calore ancora contenuto nei fumi verrà recuperato in una seconda sezione di recupero termico, dove sarà utilizzato per produrre vapore. A valle di questa sezione sarà costruita la sezione di trattamento fumi, composta da varie fasi di trattamento. I fumi di combustione attraverseranno un ciclone, dove verrà realizzato il trattamento di depolverizzazione grossolana. Successivamente un reattore dove si realizzerà la desolforazione, e l’abbattimento dei microinquinanti attraverso il passaggio su carboni attivi. I passaggi successivi del trattamento dei fumi saranno il passaggio attraverso filtri a maniche, e l’abbattimento degli ossidi di azoto su un catalizzatore (Ossido di titanio o di vanadio).

Da questa linea di trattamento dei fanghi sarà ceduto calore al sistema di teleriscaldamento del comune di Sesto San Giovanni.

Per quanto riguarda il trattamento della FORSU si effettuerà un pretrattamento dei rifiuti, che consisterà nella rimozione di materiale estraneo ( es (plastiche, sabbie, vetri, ossa) e la massa sarà omogenizzata fino a produrre un materiale adatto all’alimentazione dei due digestori anaerobici. La cosiddetta “polpa”, cioè la frazione umida omogeneizzata verrà stoccata in serbatoi polmone, per alimentare in continuo i digestori. Questa continuità di alimentazione è uno dei fattori più importanti per la conduzione corretta del processo di digestione. Il biogas prodotto sarà purificato dalla CO2 e dell’H2S tramite adsorbimento fisico (setacci molecolari). In sostanza il biogas pressurizzato a 4-7 bar viene introdotto in una unità di adsorbimento dove il setaccio molecolare, generalmente costituito da carbonio o zeolite, adsorbe i gas di scarico. Avendo il biometano un grado di adsorbimento inferiore agli altri gas contenuti nel biogas, la maggior parte di quest’ultimo supera il setaccio molecolare e viene avviato allo stoccaggio. Una parte del biometano prodotto verrà immesso nella rete di distribuzione locale, mentre la rimanente parte verrà compressa ed utilizzata per il rifornimento degli automezzi di servizio. Importante ricordare che il biometano purificato dai composti odorigeni presenti normalmente in esso quali composti organici volatili, aldeidi e chetoni, dovrà essere nuovamente odorizzato, con tetraidrotiofene o miscele di mercaptani. Sembra un controsenso, ma è necessario visto che sarà immesso nelle reti di distribuzione, essendo il metano puro completamente inodore.

La strategia come si vede è quella di trasformare gli impianti di depurazione in strutture a maggior complessità tecnica, ma dalle quali si possano recuperare nutrienti e materia dai residui di valorizzazione dei fanghi e della frazione organica dei rifiuti. In questo modo si potranno recuperare prodotti quali fosforo principalmente ma anche bio-polimeri, cellulosa ed azoto. In modo da trasformare i depuratori urbani in impianti di recupero, con forti impatti positivi economici e sociali, oltre che ambientali.

Negli anni mi sono molto appassionato al tema. E vedo questo progetto in corso di realizzazione come un notevole passo in avanti verso la realizzazione di filiere di economia circolare. Altrimenti sarebbe un’intollerabile spreco di risorse che ancora si possono recuperare dagli impianti di trattamento acque.

Link di approfondimento

http://www.biopiattaformalab.it/progetto-di-simbiosi-industriale/#materiali

https://www.eea.europa.eu/highlights/big-potential-of-cutting-greenhouse?&utm_campaign=big-potential-of-cutting-greenhouse&utm_medium=email&utm_source=EEASubscriptions

https://ilblogdellasci.wordpress.com/2017/05/19/un-tema-emergente-depuratori-come-bioraffinerie/

Elementi della tavola periodica: Silicio, Si.

In evidenza

Rinaldo Cervellati

Silicio (Silicon)*

*Silicon è la versione inglese del termine Silicio. La sua assonanza con la parola “silicone” ha dato luogo a numerose, talvolta divertenti “bufale” mediatiche, sintomo purtroppo di ignoranza chimica dei giornalisti nostrani. Ne ho parlato nel post Silicio, siliconi e dintorni del 12/09/2016

Il Silicio è l’elemento n. 14 della Tavola periodica, ed è il secondo elemento per abbondanza (27,7%) nella crosta terrestre. Nella Tavola si trova collocato sotto il Carbonio con il quale condivide diverse analogie come la tetravalenza (numero di ossidazione +4) e la possibilità di formare lunghe catene, ad esempio:

Ciò ha quasi certamente influenzato gli scrittori di fantascienza che hanno immaginato pianeti basati sul silicio al posto del carbonio, ed esseri extraterrestri con organismi al silicio. Tuttavia oggi si ritiene praticamente impossibile o quantomeno pochissimo probabile un tale evento (v. nota in corsivo).

Invece è quasi certo che il nome silicio derivi dal latino silex o silicis che letteralmente si traduce in selce. Il silicio non si trova in natura libero, ma si presenta principalmente come diossido (SiO2) e come silicati.

Sabbia, quarzo, cristallo di rocca, ametista, agata, pietra, diaspro, opale, ecc. sono alcune delle forme in cui appare il diossido (o biossido) di silicio. Alcune di esse, in forma cristallina, sono classificate pietre semipreziose. Da sinistra a destra: sabbia, quarzo, ametista, opale (lavorato)

I silicati sono la classe di minerali caratterizzati dalla presenza del gruppo tetraedrico (SiO4)4−:

Struttura dell’unità tetraedrica dei silicati.

Ossigeno e silicio sono gli elementi più abbondanti della crosta terrestre, il che rende i silicati i minerali più diffusi sul nostro pianeta. Si trovano all’interno di rocce magmatiche (es. granito), metamorfiche (es. vesuvianite) e sedimentarie (es. argillite).

Il granito è un insieme dei minerali quarzo (SiO2), feldspati e miche (silicati di potassio, sodio, calcio e altri).

La vesuvianite è un sorosilicato costituito da silicati di calcio, magnesio e alluminio.

L’argillite è costituita da caolinite, montmorillonite, silicati idrati di alluminio.

Differiscono sia per il numero di unità tetraedriche e per il modo in cui queste sono legate fra loro, il che ne determina la struttura.

Da sinistra a destra: granito, vesuvianite e argillite

Quando la cella elementare contiene solo l’unità tetraedrica SiO24- ripetuta n volte il minerale corrispondente è l’olivina (silicato di ferro e magnesio (Mg, Fe)2SiO4).

Olivina

Il silicio è anche il componente principale di una classe di meteoriti noti come “aeroliti” ed è pure componente della tectite, un vetro naturale di origine incerta.

Humphry Davy[1] nel 1800 fu il primo a ritenere che la silice fosse un composto e non un elemento. Più tardi, nel 1811, Gay Lussac[2] e Thenard[3] probabilmente prepararono il silicio amorfo impuro riscaldando il potassio con tetrafluoruro di silicio. La sua scoperta è generalmente attribuita a Berzelius: nel 1824 riuscì a preparare il silicio amorfo con lo stesso metodo usato dai due chimici francesi, ma purificò il prodotto rimuovendo i fluorosilicati mediante ripetuti lavaggi.

Nel 1884 Deville[4] ottenne per la prima volta silicio cristallino, la seconda forma allotropica di questo elemento.

Silicio cristallino e amorfo: immagini (sopra) e strutture (sotto)

Il silicio è un non metallo, nella sua forma cristallina ha un colore grigio e lucentezza metallica, ma il colore può variare. È relativamente inerte, reagisce con gli alogeni (fluoro, cloro) e con gli alcali. Non è attaccato dagli acidi, tranne che dall’acido fluoridrico. È un ottimo semiconduttore.

Il silicio è preparato commercialmente per riscaldamento della silice a elevato grado di purezza, in una fornace elettrica usando elettrodi di carbonio. A temperature superiori a 1900 °C il carbonio riduce la silice a silicio (in linguaggio chimico: SiO2 + C ® Si + CO2). Il silicio liquido si raccoglie sul fondo della fornace, viene quindi prelevato e raffreddato. Il silicio prodotto con questo processo è chiamato silicio di grado metallurgico ed è puro al 98%.

Per ottenere un più elevato grado di purezza, necessario ad es. per dispositivi elettronici a semiconduttore, è necessario praticare un’ulteriore purificazione, ad esempio con il metodo Siemens, che consiste nel far reagire il silicio metallurgico con acido cloridrico, chimicamente:

Si + 3HCl –> SiHCl3 + H2 (1)

Il composto ottenuto, un gas chiamato triclorosilano, viene fatto condensare e successivamente distillato accuratamente. A questo punto viene fatta la reazione inversa della (1):

SiHCl3 + H2 –> Si + 3HCl (2)

Il silicio policristallino che si ottiene dalla reazione (2) può raggiungere una purezza maggiore del 99,99%.

Per ottenere monocristalli ancora più puri, si ricorre al processo Czochralski[5], una tecnica che permette di ottenere la crescita di monocristalli di estrema purezza, oggi impiegata principalmente nella crescita di blocchi monocristallini di silicio che si ottengono sottoforma di pani cilindrici che raggiungono la purezza del  99.9999999%.

La principale applicazione odierna del silicio dipende dalla sua proprietà di semiconduttore intrinseco o puro. Per aumentarne questa caratteristica viene “drogato” con piccole quantità di arsenico, fosforo, gallio o boro. Viene utilizzato in transistor, pannelli o celle solari, praticamente in tutte le apparecchiature a semiconduttori, utilizzate in elettronica e nelle altre applicazioni a alta tecnologia.

Diodo LED (a sinistra), pannello solare (a destra)

Poiché il silicio è il principale semiconduttore di tutta l’industria elettronica, la regione Silicon Valley, California, USA, nota per le numerose aziende di informatica ed elettronica, prende il suo nome da questo elemento: Valle del Silicio in italiano.

Il silicio è inoltre un costituente di alcuni tipi di acciai; il suo limite di concentrazione è del 5%, poiché oltre si ha un notevole abbassamento della resilienza a causa del potenziale di accrescimento della grana cristallina. Rende inoltre possibile separare la grafite negli acciai anche già a partire da concentrazioni di carbonio maggiori di 0,50%. All’1-2% è presente negli acciai per molle, dove ne accresce il limite elastico, avvicinandolo a quello di rottura.

Acciaio al silicio

Il biossido di silicio, nelle sue forme di sabbia (granuli da 0.06 a 2 mm) e di argilla (sedimento non solidificato con granuli inferiori a 2 μm), è impiegato da tempi immemorabili come materiale per l’edilizia. Il componente principale del cemento Portland è la silice della sabbia, che è anche il componente principale del vetro.

In forma di pietra lavorata (selce) è un’importantissima testimonianza dei primi insediamenti umani. Le tecniche lavorative, in particolare la scheggiatura, consentono di individuare diversi periodi della preistoria. L’uso è continuato fino a periodi relativamente recenti. Nel XVII secolo era ancora adoperata, specialmente presso i popoli delle Americhe, per fabbricare coltelli e punte di frecce. La selce, come pietra focaia, è stata fondamentale anche per il funzionamento degli acciarini manuali almeno dall’alto medioevo e, dal XVII al XIX secolo, anche per far scintillare i meccanismi di accensione delle armi da fuoco, fino all’avvento delle armi a percussione.

Silice e silicati sono la base dei materiali refrattari usati nei forni e fornaci per elevate temperature, i silicati sono impiegati anche nella fabbricazione di terraglie e smalti.

Il composto binario fra silicio e carbonio, carburo di silicio (SiC), chiamato carborundum, è usato come potente abrasivo.

Anche se, come già ricordato, dei siliconi ho parlato in un precedente post, vale la pena ricordarli di nuovo per l’importanza che hanno anche nella nostra vita quotidiana.

I siliconi, noti anche come polisilossani, sono polimeri che includono qualsiasi composto sintetico costituito da unità ripetitive di silossano, che è una catena di atomi di silicio alternati ad atomi di ossigeno (⋯–Si–O–Si–O–Si–O–⋯) combinata con carbonio, idrogeno e talvolta altri elementi. Sono in genere resistenti al calore, liquidi o gommosi, e sono utilizzati in sigillanti, adesivi, lubrificanti, utensili da cucina e come isolanti termici ed elettrici. Alcune forme comuni includono olio di silicone, grasso al silicone, gomma siliconica, resina siliconica e mastice siliconico.

Molteplici usi dei siliconi

Per la sua elevata biocompatibilità il silicone, nella sua forma gel, è utilizzata in bende e medicazioni, protesi mammarie, impianti testicolari, protesi pettorali, lenti a contatto e una varietà di altri usi medici. Tuttavia occorre ricordare che iniezioni di silicone prive di stretto controllo medico o addirittura illecite inducono sempre una diffusione cronica e definitiva nel sangue con complicazioni dermatologiche che provocano gravi effetti collaterali.

La gestione del fine vita dei pannelli fotovoltaici al silicio

I rifiuti di celle solari sono destinati ad aumentare drasticamente nei prossimi decenni a causa dei milioni di pannelli solari installati ogni anno, ciascuno con una durata limitata di circa 25 anni. Alla luce di ciò, la direttiva sui rifiuti di apparecchiature elettriche ed elettroniche (RAEE) impone il riciclaggio ai produttori di pannelli solari. La fabbricazione di nuovi pannelli utilizzando componenti riciclati non solo manterrà la credibilità del settore dell’energia solare, ma ne ridurrà anche il costo in modo significativo.

Molte tecnologie attuali per riciclare il silicio delle celle solari implicano la rimozione degli strati sottili di silicio dal pannello. Una volta rimossi questi strati sono trattati con acido fluoridrico per eliminarne le impurezze. Oltre ad essere dannoso per l’ambiente, l’acido fluoridrico lo è per i lavoratori perché può penetrare nei tessuti umani causando gravi ustioni che possono portare anche alla morte.

Recentemente un gruppo di ricercatori sud coreani ha proposto un metodo eco sostenibile per il riciclaggio degli strati di silicio dai moduli fotovoltaici a fine vita senza l’impiego di acido fluoridrico [1]. In breve, dopo il recupero dello strato sottile di Si non danneggiato, l’eliminazione delle impurità procede nelle seguenti tre fasi: (i) recupero dell’elettrodo d’argento utilizzando acido nitrico (HNO3); (ii) rimozione meccanica del rivestimento antiriflesso, dello strato di emettitore e della giunzione p-n simultaneamente; (iii) rimozione dell’elettrodo di alluminio usando idrossido di potassio (KOH). In dettaglio, ecco lo schema del processo:

Schema del processo proposto in [1]

I ricercatori coreani affermano che gli strati sottili di Si così rigenerati mostrano proprietà quasi identiche a quelle degli strati vergini commerciali, e che le celle fabbricate con gli strati rigenerati mostrano un’efficienza equivalente a quella delle celle iniziali.

Un recentissimo report sulle tecniche di riciclaggio dei moduli fotovoltaici è stato pubblicato dall’International Energy Agency IEA [2].

Riciclo materiali siliconici

Esistono oggi diverse ditte specializzate nel riciclo di materiali siliconici, dagli oli, gel e schiume alle gomme indurite e molli, a stampi esauriti, prodotti divenuti obsoleti come tubi, nastri e tessuti trattati con silicone. Tutti i processi messi in atto per il riciclo terminano con la depolimerizzazione per recuperare i monomeri dei siliconi. Questi monomeri recuperati sono poi utilizzati per ottenere nuovi prodotti.

Negli Stati Uniti, la ECO U.S.A. è il principale riciclatore al mondo di siliconi come gomma siliconica. I suoi impianti di riciclaggio trasformano i rifiuti di gomme siliconiche in silicone fluido che è riciclato per fabbricare nuovi prodotti.

In breve, le fasi del processo ECO USA sono: 1. Raccolta dei rifiuti da produttori e consumatori; 2. Frantumazione dei rifiuti in piccoli pezzi da 10-15 mm.; 3. Riscaldamento a temperature elevate del granulato in opportune camere di reazione su vasta scala dove i vapori di silicone sono raccolti e filtrati, ottenendo il monomero dimetilcicloossisilano (DMC); 4. Il DMC passa attraverso un complesso processo di filtrazione e raffinazione chimica che produce un fluido siliconico di elevata purezza pronto per essere riciclato.

Ruolo Biologico

Sebbene il silicio sia facilmente disponibile sotto forma di silicati, pochissimi organismi lo usano direttamente. Le diatomee, i radiolari e le spugne silicee usano la silice biogenica come materiale strutturale per i loro scheletri. Nelle piante più avanzate, i fitoliti di silice (phytoliths opalici) sono corpi microscopici rigidi presenti nelle loro cellule. Alcune piante, ad esempio il riso, hanno bisogno di silicio per la loro crescita. È stato infatti dimostrato che il silicio migliora la resistenza delle pareti cellulari vegetali e l’integrità strutturale in alcune piante.

Vi sono anche alcune prove del fatto che il silicio è importante per il corpo umano, ad es. per unghie, capelli, ossa e tessuti cutanei. L’organismo umano ne contiene in totale una quantità stimata sui 250 milligrammi.  Studi clinici hanno dimostrato che l’assunzione di silicio dietetico aumenta la densità ossea nelle donne in premenopausa e che l’integrazione con silicio può aumentare il volume e la densità ossea nei pazienti con osteoporosi.

Integratore al silicio per ossa, unghie e capelli

Il silicio è necessario per la sintesi di elastina e collagene, contenuti in gran quantità nell’arteria aorta. Ciononostante, è difficile stabilire la sua essenzialità, perché il silicio è molto comune, e quindi i sintomi di carenza sono difficili da riprodurre. Un eccesso di silicio può invece causare emolisi dei globuli rossi e alterazioni cellulari come conseguenza diretta. La medicina erboristica, comunque, non raccomanda una fitoterapia a base di piante troppo remineralizzanti (in particolare quelle ricche di silicio) quando sono presenti lesioni ossee di tipo degenerativo (ad esempio artrosi). Assumere i silicati “organici” tramite la dieta non è tuttavia difficile. Il silicio è abbondante nell’acqua potabile, nelle cipolle, nei cavolfiori, nei fagioli, nei piselli, nelle mele e nelle fragole.

Ciclo Biogeochimico

In figura è rappresentato un diagramma di tale ciclo, tratto da [3].

Ciclo biogeochimico del silicio

Il diagramma è diviso in cinque parti: al centro la biosfera, circondata da atmosfera (in alto), litosfera e idrosfera ai lati sinistro e destro rispettivamente. La quantità totale del silicio in una sfera (ad es. litosfera) è data in kg e il numero è sottolineato. La velocità di trasferimento (flusso o tasso di scorrimento) da una sfera a un’altra è riportata in termini di kg l’anno (kg/y) e il valore è inserito in una freccia che mostra la direzione del flusso. Sono anche indicati i nomi dei principali composti o minerali coinvolti nei flussi. Poiché le attività umane (antropogeniche) oggi trasferiscono quantità di silicio a tassi significativi, questi trasferimenti antropogenici sono evidenziati da una linea tratteggiata attraverso la biosfera.

I dati quantitativi riportati sono stime basate su dati noti relativi alla composizione elementare di acqua di fiume, acqua di mare, di alcuni organismi rappresentativi (in questo caso diatomee, radiolari spugne) e le quantità totali nella crosta terrestre, nell’acqua di mare, nella biosfera, ecc.

Tali dati possono essere considerati accurati entro più o meno un ordine di grandezza [3].

Desidero infine precisare che poiché l’impatto delle attività antropogeniche può alterarli, lo studio dei cicli biogeochimici degli elementi è oggetto di continui aggiornamenti e revisioni.

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-28-29

https://en.wikipedia.org/wiki/Silicon

https://it.wikipedia.org/wiki/Silicio

Bibliografia

[1] J. Park et al., An eco-friendly method for reclaimed silicon wafers from a photovoltaic module: from separation to cell fabrication., Green Chem., 2016, 18, 1706-1714.

[2] IEA, End of Life Management of Photovoltaic Panels: Trends in PV Module Recycling Technologies, pdf scaricabile al link http://www.iea-pvps.org/index.php?id=459

[3] V. Cilek (a cura di), Earth System: History and Natural Variability – Volume IV, UNESCO-EOLSS, 2009, pp. 230-232.

[1] Sir Humphry Davy (1778 – 1829) è stato un chimico della Cornovaglia (Inghilterra), noto per aver isolato, usando l’elettricità, una serie di elementi per la prima volta: potassio e sodio nel 1807; calcio, stronzio, bario, magnesio e boro l’anno successivo, oltre a scoprire la natura elementare del cloro e dello iodio. Ha anche studiato le forze coinvolte in queste separazioni, gettando le basi dell’elettrochimica. Scoprì anche le proprietà anestetiche del protossido d’azoto (ossido di diazoto N2O) usato poi come anestetico in chirurgia.

[2] Joseph Louis Gay-Lussac (1778 – 1850) fisico e chimico francese, conosciuto sopratutto per le leggi sul comportamento dei gas (Prima e Seconda legge di Gay-Lussac). Compì diversi esperimenti sulla composizione chimica dell’atmosfera terrestre e sulle variazioni nel campo magnetico terrestre con alcuni aerostati riempiti di idrogeno.

[3] Louis Jacques Thénard (1777-1857), chimico francese. Le sue ricerche spaziarono dai composti di arsenico e antimonio con ossigeno e zolfo agli eteri, acidi sebacici e alla bile. Nel 1818 scoprì il perossido di idrogeno. Nel 1810 ottenne la cattedra di chimica all’Ecole Polytechnique e alla Faculté des Sciences. Thénard era un eccellente insegnante; come lui stesso disse: il professore, gli assistenti, il laboratorio: tutto deve essere sacrificato agli studenti. Come la maggior parte dei grandi maestri pubblicò un libro di testo, il Traité de chimie élémentaire, théorique et pratique (4 voll., Parigi, 1813-16), che è servito come modello per un quarto di secolo. Il suo nome è uno dei 72 iscritti nella Torre Eiffel.

[4] Henri Étienne Sainte-Claire Deville (1818 – 1881) è stato un chimico francese, allievo di Thénard, è noto per le sue importanti ricerche sull’alluminio.

[5] Il processo prende il nome dal chimico polacco Jan Czochralski (1885-1953) che lo mise a punto nel 1916.

Regolare le nanoparticelle.

In evidenza

Luigi Campanella, già Presidente SCI

La strada da percorrere per una gestione sicura dei nanomateriali è ancora molto lunga: La commissione europea, tuttavia, grazie al regolamento REACH pone i primi paletti per poter raccogliere quanti più dati scientifici possibili intorno a questa nuova tipologia di sostanze. Le aziende europee sono chiamate, infatti, già dal 1 gennaio 2020, ad attivarsi per poter rispondere a questo nuovo obbligo di legge.

E. Boscaro, L.Barbiero, G. Stocco (Normachem) su Ambiente & Sicurezza sul lavoro n. 3 / 2 0 1 9 (https://www.insic.it/Salute-e-sicurezza/Notizie/Su-AmbienteSicurezza-sul-Lavoro-n3-2019-si-parla-di/196f8ca4-01a9-405b-92cc-c239f0cc48a2) affrontano l’inquadramento legale delle “nanoforme”, analizzano i riferimenti ai nanomateriali all’interno del Testo Unico di Sicurezza e soprattutto le difficoltà, i limiti e le sfide per i valutatori del rischio e per i datori di lavoro, cercando di fornire alcune indicazioni pratiche su come gestire il rischio correlato all’uso di nanomateriali e di conseguenza come definire le misure di gestione del rischio più corrette per tutelare la salute e la sicurezza dei lavoratori.

Negli ultimi decenni, grazie all’enorme progresso scientifico, si sono fatti sempre più largo prodotti contenenti “nanoforme” e “nanotecnologie”. Sul mercato europeo sono già presenti numerosi prodotti conteneti nanomateriali (ad esempio farmaci, batterie, rivestimenti, indumenti antibatterici, cosmetici e prodotti alimentari). La presenza di particelle nanostrutturate conferisce molto spesso al prodotto finito caratteristiche di alta prestazione con risultati a volte “strabilianti”. Però, come spesso succede in questi casi, l’aspetto commerciale ha di gran lunga preceduto la valutazione di quale potrebbe essere l’effetto di queste sostanze sull’uomo e sull’ambiente.Immagini al microscopio elettronico TEM (a, b, e c) di particelle di silice mesoporosa con diametro esterno medio: (a) 20nm, (b) 45nm, e (c) 80nm. Immagine (d) dal microscopio elettronico SEM corrispondente a (b). Gli inserti ad alto ingrandimento sono di una particella di silice mesoporosa da https://it.wikipedia.org/wiki/Nanoparticella

Per capire però di cosa stiamo trattando, bisogna andare a leggere la definizione di nanomateriale.
L’unica definizione legalmente riconosciuta a livello nazionale ed europeo è quella prevista dalla raccomandazione europea la quale recita al punto 2.

Con “nanomateriale” s’intende un materiale naturale, derivato o fabbricato contenente par ticelle allo stato libero, aggregato o agglomerato, e in cui, per almeno il 50% delle particelle nella distribuzione dimensionale numerica, una o più dimensioni esterne siano comprese fra 1 nm e 100 nm.

In deroga al punto 2 i fullereni, i fiocchi di grafene e i nanotubi di carbonio a parete singola con una o più dimensioni esterne inferiori a 1nm dovrebbero essere considerati nanomateriali.
Diversamente dai prodotti chimici a cui il mondo scientifico e produttivo è sempre stato abituato, i nanomateriali hanno rivoluzionato il modo di pensare in quanto le proprietà chimiche che dimostrano, a causa delle loro estreme dimensioni, sono spesso diverse o addirittura diametralmente opposte a quelle previste dai rispettivi materiali “in forma massiva”.https://www.puntosicuro.it/sicurezza-sul-lavoro-C-1/tipologie-di-contenuto-C-6/valutazione-dei-rischi-C-59/nanomateriali-cosa-deve-includere-la-valutazione-dei-rischi-AR-18981/

 

Elementi della tavola periodica: Ferro, Fe. 2. L’uomo d’acciaio.

In evidenza

Claudio Della Volpe

(la prima parte di questo post è qui)

Il ferro e l’acciaio, due materiali che hanno cambiato la nostra storia, che hanno dato il nome a personaggi della fantasia e della politica: Iron man e l’uomo d’acciaio (Superman) oppure Stalin (in russo Stahl (сталь) vuol dire acciaio) e la frase di Bismarck, “Eisen und Blut”, ferro e sangue, sui destini della Prussia e della Germania*, prodromo della guerra franco-tedesca e della supremazia della Germania in Europa.

Il ferro è anche un protagonista letterario; ricordo qui un romanzo poco conosciuto di uno dei grandi scrittori americani, Jack London; noi tutti lo conosciamo per i romanzi d’avventura del grande Nord, ma (dato che mio padre era un suo estimatore, lo conosco meglio della media) per me Jack London, di idee socialiste fu anche uno scrittore oggi si direbbe di fantascienza, science fiction, descrivendo mondi distopici del futuro in cui lo scontro sociale si sviluppa ai massimi livelli, come in Il tallone di ferro (The Iron Heel) un romanzo sulla lotta sociale portata all’estremo della rivoluzione mondiale.

Ma potrei ricordare La maschera di ferro di Alessandro Dumas, il poema Cold Iron di Rudyard Kipling (l’autore de Il libro della Jungla) o la poesia italiana dal Dante che cuce le palpebre degli invidiosi col filo di ferro (Dante Alighieri canto XIII Purgatorio)

E come a li orbi non approda il sole,
così a l’ombre quivi, ond’io parlo ora,
luce del ciel di sé largir non vole;

ché a tutti un fil di ferro i cigli fóra
e cusce sì, come a sparvier selvaggio
si fa però che queto non dimora.

a Salvatore Quasimodo:

……..
E il vento s’è levato leggero ogni mattina
e il tempo colore di pioggia e di ferro
è passato sulle pietre,
sul nostro chiuso ronzio di maledetti.
Ancora la verità è lontana.
…..

(da Colore di pioggia e ferro, 1949).

Ricordo anche da ragazzo che a Napoli conoscevo “o’ scemo e’ fierro”; non sapete cosa è lo scemo di ferro?

Beh la prima ferrovia italiana fu la Napoli-Portici e negli anni seguenti ci furono molte altre ferrovie nella Campania ottocentesca; la società che costruì molte delle altre ferrovie campane era “Compagnie des Chemins de Fer du Midi de l’Italie”; e dunque nella fertile lingua napoletana, o’ scemo e’ fierro, divenne il nome del treno.

Insomma il ferro è presente fortemente nel nostro immaginario

Come raccontato altrove, si suppone oggi che i primi manufatti in ferro risalgano a 5000 anni fa, 3000 aC, ma si trattava di ferro prevalentemente meteoritico; occorrerà aspettare altri 2000 anni perchè il ferro divenga un bene relativamente comune ed estratto dai suoi minerali.

Abbiamo detto nella prima parte del post che il ferro, a causa della crisi dell’ossigeno di un paio di miliardi di anni fa, si ritrova nella crosta in forma ossidata e dunque la tecnologia di estrazione consiste in una riduzione (si veda la nota in fondo).

La tecnologia della riduzione arrivò in Europa dall’esterno; era diffusa nel 1200aC già in India e nell’Africa sub-sahariana e solo successivamente fu importata nel Mediterraneo dove il bronzo dominava ancora.

Data l’importanza della lega ferro-carbonio diamo un’occhio al diagramma di fase di questa lega:

Da questo grafico vediamo che l’ossido di ferro diventa ferro metallico a temperature molto più basse della fusione che avviene a 1539 °C . Dato che una temperatura così alta è stata a lungo impossibile da raggiungere con i mezzi disponibili il ferro si è ottenuto allo stato solido in forma di spugna porosa, spesso ricca di impurità.

La linea verticale tratteggiata più a sinistra (0.8%) separa il cosiddetto ferro dolce dall’acciaio, che rimane tale fino alla successiva (circa 2%); oltre abbiamo la ghisa con una elevata percentuale di carbonio. Quest’ultimo materiale è fragile e non resisterebbe ai trattamenti che si usavano per purificare il ferro, che consistevano essenzialmente di martellature. L’acciaio mostra proprietà intermedie, è più resiliente e soprattutto si può temprare a caldo, dote ideale per ottenere il bordo affilato, caratteristica primaria di uno strumento da taglio efficace. La tempratura consiste nella brusca riduzione della temperatura che inibendo la diffusione trasferisce a temperature inferiori la struttura caratteristica di quelle superiori.

Il trattamento per martellatura dà il nome al materiale, wrought iron, da una deformazione di “worked” lavorato, in italiano ferro battuto, una massa semifusa di ferro con una bassissima percentuale di carbonio, meno dello 0.1%, ma con una più consistente di impurezze di silice, calcio ed alluminio (fino al 2%) che si rendono visibili meglio al punto di rottura e che vengono espulse tramite azioni meccaniche da forze umane o animali o nei grandi mulini a vento o ad acqua finchè il ferro è ancora caldo (come dice il proverbio: batti il ferro finché è caldo, e dunque può essere purificato, dopo quando la temperatura scende non riesci più ad ottenere il medesimo effetto da cui il senso agisci in tempo finchè puoi). Produrre il ferro era una attività delicata e complessa.

La fornace che parte da minerali di ferro e li mescola con carbone di varia origine viene portata in temperatura mediante l’azione di mantici che soffiano aria, producendo la parziale ossidazione del carbonio ad ossido di carbonio, CO, che è un potente agente riducente gassoso che penetra in una massa compatta contenuta di solito in una materiale resistente alla temperatura, come l’argilla a sua volta almeno parzialmente immersa nel terreno da cui il nome comune di “basso fuoco”..

http://astratto.info/archeometallurgia-e-produzione-metallurgica-nella-storia.html?page=2

https://www.vitantica.net/2017/10/23/siderurgia-antica-i-forni-dell-eta-del-ferro/

Struttura di un “basso fuoco”.

Con l’espressione cast iron invece si indica la lega di Fe-C fra il 2 e il 4% con sempre una certa quantità di silicio; i primi esemplari di questa lega si trovano in Cina nello Jiang-tse e risalgono al 5 secolo aC; erano già allora usati per oggetti che non devono sopportare urti, per esempio nelle costruzioni; di cast-iron cioè di ghisa era fatto il primo ponte europeo in ferro, costruito nel 1770 da Abraham Darby III.

Ironbridge, sul fiume Severn, il più lungo fiume inglese, vicino a Coalbrookdale.

La tecnologia di produzione del ferro e dell’acciaio si è costantemente perfezionata fino allo stadio moderno che risulta notevolmente sofisticato.

Il classico modo di produrre l’acciaio che è il prodotto più interessante dal punto di vista applicativo usa una forno di dimensioni molto grandi, un altoforno, contrapposto al basso fuoco.

Alcuni degli aspetti di questa tecnologia sono stati già ampiamente analizzati in post passati da Fabio Olmi e dal compianto Giorgio Nebbia. In particolare Olmi ha analizzato gli aspetti legati alla tecnologia attuale e Nebbia alla storia dello sviluppo dell’altoforno, perfezionato in parte dal padre di Abraham Darby III, cioè Abraham Darby II. Ma anche da Cowper e poi da Bessemer. Per cui non ripeterò qui quelle storie.

In sintesi l’altoforno estrae il ferro dall’ossido ma al prezzo di introdurvi una notevole quantità di carbonio mentre l’operazione introdotta da Bessemer sulla base delle scoperte di Reamur, che mise a punto il diagramma di fase Fe-C consente di eliminare la quota di C necessaria a trasformare la ghisa in acciaio introducendovi ossigeno gassoso in opportuna quantità. I vari procedimenti che si sono susseguiti nel tempo Bessemer, Thomas, Martin-Siemens sono ormai un ricordo; nel 1948 l’ingegnere svizzero Robert Durrer del tutto fuori dall’ambiente tradizionale del “big steel” introdusse il processo Linz-Donawitz (LD) e ridusse sin dall’inizio i costi degli impianti e tempi di forgiatura, e aumentò considerevolmente la produttività. Sono reazioni che avvengono tutte ad altissima temperatura con notevole rischio per gli addetti.

Questa procedura costituisce il nerbo dell’industria siderurgica mondiale con enormi impianti integrati che collegano altoforni ed acciaierie.

Hanno consentito all’umanità di usare il ferro per le sue costruzioni quotidiane: case, ponti, infrastrutture accumulando una enorme quantità di ferro.

L’evoluzione della produzione dell’acciaio è espressa dal grafico seguente:

Vedete l’incremento eccezionale soprattutto negli ultimi 20 anni, dovuto essenzialmente alla Cina; siamo ormai a 1.8 miliardi di ton nel 2018 di cui la Cina ne ha prodotto poco più del 50%; se consideriamo la produzione procapite si chiarisce ancor più la situazione:

https://www.worldsteel.org/en/dam/jcr:96d7a585-e6b2-4d63-b943-4cd9ab621a91/World%2520Steel%2520in%2520Figures%25202019.pdf

Scrivono Roland Döhrn and Karoline Krätschell

Our analysis confirms that there seems to be an increase of steel demand in an initial stage of economic development and a decline after economies have reached a certain level of per capita income.

http://www.rwi-essen.de/media/content/pages/publikationen/ruhr-economic-papers/REP_13_415.pdf

In sostanza la maggior parte degli autori collega il reddito e la produzione di acciaio; durante la storia dello sviluppo economico la maggior parte dei paesi sembra correlare il proprio sviluppo economico con il consumo di acciaio usato per molteplici beni durevoli: case, auto, oggetti per la casa, ma anche armi e impianti industriali.

Con la continuazione della crescita lo stock di acciaio si stabilizza e si passa ad altri beni, per esempio aumenta il consumo di alluminio o di rame o di altri elementi, ma l’acciaio e dunque il ferro costituiscono lo stadio basilare dello sviluppo economico.

Questo processo fa cambiare anche il modo di produrre l’acciaio, perché in molti dei paesi “maturi” cresce l’importanza dell’acciaio prodotto per via elettrica, ossia senza passare per la ghisa degli impianti tradizionali ma per il rottame proveniente dal riciclo. Attualmente a livello mondiale circa un 30% dell’acciaio viene da questa fonte. Questa è anche la storia dell’acciaio italiano, dove i grandi impianti storici come Bagnoli o Piombino sono scomparsi lasciando spazio solo a Taranto, mentre l’acciaio elettrico, il tondino del cemento armato ha fatto sviluppare una miriade di piccole e medie imprese soprattutto al Nord, fra Brescia e Bergamo, ricordiamo la Dalmine fra tutte.

Ma c’è ancora un altra cosa da considerare ossia che entrano in gioco altri metodi di produzione diversi da quelli tradizionali, per esempio la cosiddetta riduzione diretta del minerale di ferro, consistente nella sostituzione del carbone come riducente con altri mezzi riducenti

Sono state sviluppate diverse tecnologie di riduzione/fusione diretta in cui il minerale viene ridotto senza fusione con gas riducenti e inviato a un forno di fusione con carbon fossile e ossigeno. Nel forno si sviluppano i gas riducenti che vengono usati per ridurre altro minerale.

Questi metodi oggi riguardano una percentuale ancora piccola del minerale ma la loro importanza è destinata a crescere nel tempo.

Un ultimo aspetto che vorrei citare è quello della corrosione del ferro; la ruggine, come stadio finale della vita del ferro è spesso usata come simbolo della morte, del disfacimento, ma è anche considerata una condizione inevitabile. L’aspetto scientifico è anche molto interessante e merita un post a se; ha stimolato lo sviluppo di materiali come l’acciaio inossidabile, una lega di ferro e cromo che resiste bene alla corrosione in quasi tutti gli ambienti.

Eppure esiste la prova storica e inamovibile che il ferro prodotto in modo opportuno resiste bene alla corrosione. Si tratta della cosidetta colonna di ferro, un monumento indiano del V sec dC a Dehli.

La colonna di ferro di Dehli, 400 dC. mostra una ottima resistenza alla corrosione dovuta allo strato superficiale di fosfato di ferro idrato.

Pesante circa 6 ton si pensa sia stata prodotta in India ad Udayagiri e poi riusata a Dehli dai re Gupta. Essa ha attratto l’attenzione degli archeologi e degli scienziati per la sua elevata resistenza alla corrosione che si pensa venga dalla costituzione superficiale , un fosfato di ferro idrato formatosi su un minerale ad elevata percentuale di fosforo.

Questa colona è l’antenata di un più moderno materiale che è entrato nella industria delle costruzioni col nome di acciaio patinabile (weathering steel), o più comunemente COR-TEN.

Il COR-TEN (da corrosion resistant e tensile stength, dunque forte e resistente) è oggi usato nella costruzione di ponti e altri manufatti durevoli e deve la sua resistenza alla corrosione ad una struttura analoga a quella della colonna di Dehli. Si autoprotegge dalla corrosione tramite una patina degli ossidi dei suoi elementi di lega. Tale strato si forma in un tempo relativamente lungo di mesi per

  • esposizione all’atmosfera;
  • alternanza di cicli di bagnamento-asciugamento;
  • assenza di ristagni e/o contatti permanenti con acqua.

Si tratta di un materiale molto interessante anche se al momento non può essere usato nel cemento armato.

Il ferro ha un grande passato ma anche un notevole futuro e la sua abbondanza lo rende un elemento chiave nella nostra strategia tecnologica per un futuro sostenibile.

Ponte Amedeo IX il beato a Torino. Fotografia di Fabrizio Diciotti, 2012  IL nuovo ponte strallato sulla Dora ha una luce di 43 metri ed è costituito di acciaio COR-TEN

Nota dell’autore.

Dal punto di vista chimico la metallurgia umana è la fortunata applicazione dei criteri e dati esprimibili dalla tabella qua sotto:

https://chem.libretexts.org/Bookshelves/General_Chemistry/Book%3A_ChemPRIME_(Moore_et_al.)/22Metals/22.04%3A_Reduction_of_Metals

L’ossidazione del carbonio (anche se comunemente in forma di monossido) fornisce l’energia libera per la riduzione degli ossidi metallici; come si vede dalla tabella a t ambiente sarebbe possibile solo per argento e mercurio; ma dato che al crescere della temperatura l’energia libera di riduzione del metallo diminuisce (essenzialmente perché l’entropia connessa con la formazione dell’ossigeno aumenta!!! e ricordiamo ΔG=ΔH-TΔS) anche il ferro e lo stagno diventano accessibili; invece l’alluminio o il magnesio non possono essere ridotti in questo modo e dunque si ricorre a reazioni elettrochimiche in cui l’energia elettrica fornita aiuta a superare il gap termodinamico.

*«La posizione della Prussia in Germania non sarà determinata dal suo liberalismo ma dalla sua potenza […] La Prussia deve concentrare la sua forza e tenerla per il momento favorevole, che è già venuto e andato diverse volte. Sin dai trattati di Vienna, le nostre frontiere sono state mal designate a favore di un corpo politico sano. Non con discorsi, né con le delibere della maggioranza si risolvono i grandi problemi della nostra epoca – questo fu il grande errore del 1848 e del 1849 – ma col ferro e col sangue (Eisen und Blut).»
(Otto von Bismarck nel settembre 1862 per far approvare le spese militari del nuovo regno)

Giorno di ferie

In evidenza

Mauro Icardi

Oggi sono in ferie. Un giorno solo, ma la mia destinazione per trascorrere la giornata è particolare. Me ne vado in biblioteca. Sono sempre stato un topo di biblioteca. Proprio ieri, io Dario ed Emanuele eravamo a fare il nostro solito briefing alla trattoria Campigli. Sono ormai passati quasi sei mesi, da quando abbiamo cominciato a lavorare su un progetto. Forse troppo ambizioso, ma insomma ci crediamo. Ci siamo messi in testa di lavorare sugli inquinanti emergenti. E magari di trovare il modo per eliminarli. O per meglio dire per cercare di ridurne gli effetti nocivi. Dario ed Emanuele sono due amici. In gamba. Sono anni che mi chiamano, per avere consigli e informazioni. Mi chiamano il Professore. Il Professore della depurazione. E la cosa mi fa invariabilmente sorridere. Abbiamo discusso davanti ad un piatto di pasta al pomodoro, e ad un bicchiere di bianco, su quali saranno le nostre prossime mosse. Utilizzare un sistema di ossidazione avanzata. Se l’ossigeno liquido ad alte pressioni, seguito dalla cavitazione idrodinamica non ci darà i risultati sperati, passeremo all’ozono, magari in combinazione col perossido di idrogeno. Insomma l’acqua ossigenata. Loro sono Ingegneri. Io il loro chimico di riferimento. In fondo l’esame di stato per l’iscrizione all’ordine l’ho dato anche per questo. Per fare il consulente. Per approfondire. Per placare le mie inesauste curiosità. Loro qualche anno fa si sono trovati in una situazione critica. Lo studio di Ingegneria che li aveva assunti viveva delle iniziative del titolare e fondatore. Alla sua morte, il figlio li aveva rassicurati: “Niente paura, l’attività la mandiamo avanti, con il vostro aiuto”. Due mesi dopo invece lo stop. Brusco e inaspettato. E nemmeno per una ragione di crisi, finanziaria o di ordinativi. Gli impianti di trattamento di reflui rognosi, come quelli zootecnici o tessili erano disseminati non solo in Italia, ma in buona parte del mondo. Anche nella rampante ed emergente Cina. Ma il figlio e gli altri fratelli avevano semplicemente deciso di dedicarsi al marketing pubblicitario. Emanuele dopo qualche insistenza, ma con molta caparbietà era riuscito a convincere Dario. Lo studio alla fine lo avevano rilevato loro. E piano piano avevano rassicurato i vecchi clienti, che avevano necessità di essere seguiti nella manutenzione e nell’addestramento per la gestione degli impianti installati. Ma non si erano fermati, e ne avevano costruiti e progettati di nuovi. Ormai sono una decina di anni che collaboro con loro. Sono in gamba e se lo meritano.

Io però devo chiarirmi le idee su come eventualmente procedere. Servirebbe un protocollo per le prove sull’impianto pilota, e uno per le analisi da fare. E per questa seconda attività ci serve un laboratorio molto attrezzato. Ed è per questo che voglio andare in biblioteca. A Varese nella sala studio ci sono almeno tre monumentali enciclopedie di chimica industriale. Non sono oggetti di modernariato, come qualcuno potrebbe pensare. Sono invece un tesoro di informazioni preziose. E io ancora provo quella inebriante sensazione che attiene al sentimento, più che alla razionalità, del piacere di sfogliare le pagine di un libro. Di prendere appunti (non sottolineare, ovvio i libri della biblioteca vanno rispettati), e di immergermi nello studio.

Le previsioni meteo mi hanno avvisato. Farà caldo. L’ennesima ondata di caldo africano. Il nuovo che avanza a livello climatico. Oggi non posso usare la bici, seppure a malincuore. Userò il treno che mi è sempre stato amico. Una passione per i mezzi che viaggiano su rotaia che risale all’infanzia. E molti mi prendono benevolmente in giro, citando una battuta di Renato Pozzetto: “Eh, il treno è sempre il treno”. Ma non è un gran tragitto. Sono pochi chilometri, ed in soli sette minuti arrivo a Varese. E l’auto resta a casa. Chi mi conosce bene lo sa. Io cerco di fare la mia parte, come il colibrì della favola che cercava di spegnere l’incendio della foresta con una goccia d’acqua che portava nel becco, mentre tutti gli animali fuggivano dalle fiamme.

Sono davanti all’ingresso della biblioteca in anticipo di quindici minuti. Controllo le mail sullo smartphone. Ho resistito per anni. Non volevo comprarne uno, ero irremovibile. Mi venivano sempre in mente i bambini del Congo infilati in piccoli e terrificanti pozzi, a scavare per estrarre il Coltan. Per permetterci di buttare via il modello funzionante e utilizzabile, ma ormai fuori moda. Ho ceduto le armi perché la banca mi ha volontariamente obbligato a procurarmene uno. Altrimenti mi sarei scordato l’internet banking. Ho borbottato parecchio, ma ho placato i sensi di colpa. Lo smartphone era quello di Alessia, la mia bambina. Vent’anni compiuti da pochissimi, ma è sempre la mia bambina. Lo smartphone è stato riutilizzato. Magari in futuro lo riciclerò. Piccola economia circolare domestica.

Mi sento chiamare: “Signore, scusi signore”. Alzo la testa. Di fronte ho un uomo di mezza età. Nemmeno troppo male in arnese. “Mi offrirebbe un caffè?”. Sono sorpreso, penso di alzarmi e accompagnarlo al bar più vicino, ma cambio idea. Estraggo due euro dal portamonete. Lui li prende, mi ringrazia, e se ne va borbottando. Mi dice che qualcuno glieli ha rifiutati con scortesia. Si chiede perché, forse perché sono persone cattive. Ci penso anche io, forse è vero. Ma non trovo una risposta. Nel frattempo la biblioteca ha aperto le porte. Mi infilo e salgo in sala consultazione.

Non c’è molta gente. Mi siedo in un tavolo d’angolo. L’enciclopedia di chimica industriale, mi assorbe per un paio d’ore. Mi immergo nello studio e mi si crea intorno come una bolla. Non c’è il solito rumore, il solito caos dell’emeroteca, dove alcuni arzilli pensionati ignorano i cartelli che invitano a non disturbare. Discutono di tasse, di calcio, di donne. Come fossero al bar. Sono un gruppo di quattro o cinque frequentatori abituali. Non mi sono mai permesso di dirgli di abbassare il tono di voce. Né io, né gli addetti della biblioteca. Ma in sala consultazione trascorro due ore di pace. Riesco a studiare con profitto. Oggi leggere è complicato. Non si riesce più a farlo in santa pace per esempio nei viaggi in treno. La babele cacofonica delle telefonate insulse lo rende impossibile. Leggere in treno è ormai un’attività piacevole, ma di fatto ormai impossibile. I lettori sono pochi, dispersi nella massa dei messaggiatori compulsivi, e dei chiacchieroni instancabili. Ma qui una strategia per le prossime prove l’ho trovata. Partiremo con l’ossigeno ad alta pressione. Poi con l’ozono, modificando l’impianto pilota e magari recuperando un generatore che lo produca. Si, direi che sono soddisfatto. Anche di aver ripreso in mano i libri che avevo consumato mentre preparavo l’esame per iscrivermi all’Ordine. E la memoria mi porta anche più indietro. Fino a farmi ricordare che ho perso, e che vorrei ritrovare i normografi che usavo per il disegno di impianti chimici. Indimenticabili. Le mitiche mascherine Unichim. Altro che CAD-CAM. Il fascino di disegnare impianti col normografo in pochi lo conoscono. Normografi con i simboli di pompe, serbatoi e valvole. Mi viene quasi la malinconia…

Mi accingo ad uscire, ma varcata la porta il caldo esterno mi mozza quasi il fiato. Siamo a Varese, a pochi metri ci sono i giardini estensi. Ma se chiudessi gli occhi potrei pensare di essere in Africa.

Ho deciso di mangiare nel solito self service, dove vado in pausa pranzo quando lavoro. Ci arrivo in autobus. Il parcheggio è pieno di auto ed è assolato. Ci sono pochi alberi che da anni crescono molto stentatamente. Entro nell’atrio del centro commerciale, mentre ne sta uscendo, piuttosto trafelato un signore che spinge un condizionatore portatile. La temperatura sta salendo verso i 35° C. Cerca di uguagliare il record di 37 della fine di Giugno. Andando verso la fermata dell’autobus ho capito anche perfettamente, sulla mia pelle, cosa sia l’isola di calore urbana. Lo scopro anche quando pedalo, e i camion mi regalano il caldo degli scappamenti mentre pedalo, e cerco anche di non farmi investire.

Ritorno verso il centro della città. Ho una sete tremenda. Vengo avvicinato da un altro questuante, anche lui simile a quello precedente. Non me la sento di fare distinzione. E due euro ci sono anche per lui. Arrivo alla mia fontanella, quella dei giardini estensi. Bevo, mi bagno i polsi e i capelli. Che meraviglia! Mi siedo su una panchina vicina e lascio andare i pensieri. Osservo le persone intorno a me con la mentalità del chimico. Mi chiedo che cosa potrebbe succedere se cominciassi a rivolgere la parola a qualcuno di loro. Sono persone le più diverse. Mamme o nonni con i bambini. Impiegati, netturbini che lavorano sotto un caldo che toglie il fiato. Le mamme che si lamentano del caldo. Chissà se cominciassi a parlar loro di CO2, magari a raccontare che già Svanthe Arrhenius aveva capito che bruciando i combustibili fossili ci saremmo trovati nei guai. Se provassi ad accennare all’impossibilità di sfuggire alle leggi fisiche. Probabilmente mi troverei in difficoltà. Forse isolato. Destino di chi cerca di guardare la realtà con gli strumenti della sua professione e della sua formazione. Non solo quelli di laboratorio, ma anche quelli della filosofia della professione. Probabilmente sarei isolato due volte. Sono un chimico, quello a cui i colleghi chiedono di mettersi a produrre la metanfetamina.

Quello a cui continuano a chiedere quando bisogna buttare il sale nella pasta. E nonostante continui a ripetere che si deve buttare dopo, e non prima dell’ebollizione, quando si fa una spaghettata tra amici continuano imperterriti a fare il contrario. Se mi mettessi a far lezione per strada, quasi un filosofo nell’agorà forse rischierei non dico il linciaggio, ma forse un certo ostracismo. Alla fontanella sono stato l’unico a bere. Intorno a me vedo bottigliette di ogni tipo di liquido. Gassose, tè, energy drynk, qualche birra e molte bottigliette di acqua che ha fatto molta strada per arrivare fin qui, a Varese. Ha viaggiato in autostrada. Potrei spiegare che si impiega dell’energia per trasportare l’acqua, e che qui la fontanella è disponibile per placare la sete. Potrei tentare di far capire che è un controsenso bruciare petrolio per bere l’acqua di montagna imbottigliata nel PET. Che c’è dell’energia dispersa che va in entropia e caos, e del petrolio bruciato che produce la CO2 che contribuisce alla nostra sofferenza odierna. Sospiro e rinuncio. Mi alzo dalla panchina per dirigermi in stazione. Sentendomi un poco escluso. Una cassandra come mi sono definito. Vado a casa bisogna che metta giù una procedura per le nostre prove. Poi ne parlerò con Dario ed Emanuele. Per il resto so che fare il colibrì è faticoso. Ma sono nato tondo, e non morirò quadrato. Domani torno al lavoro, e la bici mi sta aspettando.

Origine dell’oro

In evidenza

Diego Tesauro

L’oro ha avuto origine come tutti gli elementi pesanti della tavola periodica, in particolare quelli della terza serie di transizione, da processi di accrescimento dei nuclei atomici più leggeri con acquisizioni di neutroni secondo due modalità: una rapida, processo r, (https://it.wikipedia.org/wiki/Processo_r), l’altra lenta processo s ((https://it.wikipedia.org/wiki/Processo_s).

I due processi si verificano entrambi nelle fasi finali dell’evoluzione stellare. In particolare il processo r avviene in pochi secondi nelle esplosioni di supernove di stelle massicce (superiori alle 8 masse solari). Oggi si ritiene però che gli elementi pesanti si ottengono soprattutto nella fusione di sistemi binari di stelle di neutroni, cioè di stelle dalle dimensioni ridotte con diametro di circa 20 chilometri, ma con una massa compresa tra 1.4 e 3.0 masse solari, quindi estremamente dense, di densità uguale a quella del nucleo dell’atomo. Un fenomeno del genere è stato osservato di recente con gli esperimenti Virgo e Ligo che hanno consentito per la prima volta di rilevare le onde gravitazionali [1]. Il processo S si verifica invece nelle stelle giganti rosse AGB ed è appunto più lento avendo una durata di migliaia di anni. Questo processo produce gli elementi più pesanti dell’ittrio fino al piombo in stelle giganti a bassa contenuto di elementi diversi da idrogeno ed elio e di piccola mass

In entrambi i casi, lo spazio e le nebulose, da cui si generano le stelle, risulteranno contaminate da elementi pesanti, tra i quali l’oro, che quindi entrano nella formazione dei nuovi sistemi planetari. Così è avvenuto anche per il nostro sistema solare. L’oro, come anche il platino e gli altri elementi di transizione della terza serie, pertanto è presente, come in tutti i pianeti, nel nucleo della Terra. In effetti, nel nucleo ci sono metalli preziosi in quantità sufficiente da coprire l’intera superficie della Terra con uno strato spesso quattro metri. Tuttavia, l’oro è presente nel mantello e nella crosta. Nel mantello è decine o migliaia di volte più abbondante del previsto. Ed anche la presenza sulla crosta terrestre è più alta di quella proposta dai modelli. L’oro infatti pur essendo un elemento raro, lo dovrebbe essere ancora di più rispetto a quei 1.3 g per 1000 tonnellate di materiale della crosta. Questa anomalia venne spiegata a favore di una provenienza meteorica dovuta all’intenso bombardamento che ha subito la Terra oltre 200 milioni di anni dopo la sua formazione. Questa teoria era stata avvalorata dalle missioni Apollo sulla Luna. Infatti la presenza dell’oro in maggior misura nella crosta del satellite, rispetto al mantello, avvaloravano l’ipotesi relativa ad una provenienza esterna. Una conferma di questa teoria è venuta nel 2011 [2]. L’ analisi di rocce, presenti in Groenlandia molto antiche e risalenti ad un’epoca precedente il bombardamento meteorico, ha rilevato una composizione diversa rispetto a quella delle rocce moderne relativamente agli isotopi del tungsteno altro elemento molto raro e della medesima origine dell’oro. In particolare è stata rilevata una diminuzione di 15 parti per milione nella abbondanza relativa dell’isotopo 182W rispetto alle rocce moderne. Questo dato è una conferma che la superficie terrestre è stata arricchita di elementi pesanti solo successivamente alla sua formazione.

[1] B. P. Abbott et al. (LIGO Scientific Collaboration and Virgo Collaboration) GW170817: Observation of Gravitational Waves from a Binary Neutron Star Inspiral Phys. Rev. Lett. 2017 119, 161101

[2] Matthias Willbold, Tim Elliott & Stephen Moorbath The tungsten isotopic composition of the Earth’s mantle before the terminal bombardment Nature 2011 477, 195–198 .

Elementi della tavola periodica, Oro, Au. (2a parte)

In evidenza

Rinaldo Cervellati

“All’idea di quel metallo portentoso onnipossente

un vulcano la mia mente incomincia a diventar…”

(da: Il barbiere di Siviglia, di Gioacchino Rossini)

la prima parte di questo post è qui.

Uso in gioielleria

Poiché l’oro puro è troppo tenero, in gioielleria è utilizzato in lega con altri metalli, principalmente rame, argento, palladio e nickel. I gioielli più comuni sono generalmente costituiti da oro, argento e rame. Le carature più frequenti sono 22 k e 18 k. La quantità di rame determina il colore della lega. L’oro giallo a 18 k contiene dal 12-7% di argento e dal 13-18% di rame. L’oro rosso alla stessa finezza contiene il 4,5% d’argento e il 20,5% di rame. L’oro bianco, sempre a 12k, è composto al 75% da oro, e al 25% da nickel, argento e palladio[1]. Il nickel è allergenico e il suo contenuto nell’oro bianco è regolato dalla legislazione europea. Le leghe di oro-argento-palladio sono ovviamente più costose di quelle che usano il nickel.

Gioielleria in oro

Una particolare lega d’oro è utilizzata per unire i componenti di gioielli d’oro con saldature ad alta temperatura. Per un lavoro di qualità, la lega d’oro da saldatura deve corrispondere alla finezza del lavoro, sono quindi prodotte leghe adatte ad abbinare i colori dei gioielli da unire. La lega per saldatura aurea è solitamente prodotta in almeno tre intervalli di punto di fusione.

L’oro può anche essere ridotto in fili sottili, usati nel ricamo per impreziosire stoffe e capi di abbigliamento.

Uso in elettronica

L’impiego attualmente più importante per l’oro è la fabbricazione di connettori elettrici non corrodibili nei computer e in altri dispositivi elettronici. Secondo il World Gold Council[2], un tipico cellulare può contenere 50 mg di oro, del valore di circa 50 centesimi. Ma dal momento che ogni anno viene prodotto circa un miliardo di telefoni cellulari, si arriva a un valore in oro di circa 500 milioni di dollari solo da questa applicazione.

Scheda elettronica con piste dorate

Sebbene l’oro sia attaccato dal cloro libero, la sua buona conduttività e la generale resistenza all’ossidazione e alla corrosione in altri ambienti (compresa la resistenza agli acidi) ha portato al suo uso industriale diffuso nell’era elettronica come uno strato sottile per il rivestimento di connettori elettrici ed elettronici, che assicurano così una sicura e resistente connessione ad es. dei cavi audio, video e USB. È stato discusso il vantaggio dell’utilizzo dell’oro in queste applicazioni rispetto a altri metalli connettori come lo stagno; i connettori d’oro sono spesso criticati dagli esperti di audiovisivi come troppo costosi per le apparecchiature di largo consumo. Tuttavia, l’uso dell’oro in contatti elettronici di apparecchiature più delicate e molto costose che operano in atmosfere molto umide o corrosive (ad es. particolari computer, strumenti per comunicazioni, motori di aerei a reazione, veicoli spaziali) è ampiamente giustificato.

L’oro viene anche utilizzato nei contatti elettrici grazie alla sua resistenza alla corrosione, alla conduttività elettrica, alla duttilità e alla mancanza di tossicità. I contatti degli interruttori sono generalmente soggetti a uno stress da corrosione più intenso rispetto ai contatti a scorrimento.

Si stima che il 16% dell’oro mondiale sia contenuto nella tecnologia elettronica del Giappone.

Uso in medicina

L’oro e le sue leghe metalliche sono state a lungo utilizzate a scopo medicinale. L’oro, solitamente metallo, è forse la medicina più anticamente somministrata e nota a Dioscoride[3]. Nel Medioevo, l’oro era spesso considerato benefico per la salute, nella convinzione che qualcosa di così raro e bello non potesse essere altro che salutare.

Nel diciannovesimo secolo l’oro aveva la reputazione di essere “nervino”, poteva costituire cioè una terapia per i disturbi nervosi. Veniva usato come trattamento per depressione, epilessia, emicrania, problemi ghiandolari e alcolismo. L’apparente paradosso con la sua tossicità[4] è stato causa di gravi incomprensioni sulla possibile azione dell’oro in fisiologia. Solo i sali e i radioisotopi dell’oro esercitano una qualche azione farmacologica, poiché l’oro metallico elementare è inerte per tutte le sostanze chimiche che incontra all’interno del corpo. Alcuni sali d’oro hanno proprietà anti-infiammatorie e attualmente due di essi (aurotiomalato di sodio e auranofina) sono ancora usati come farmaci nel trattamento dell’artrite e di altre condizioni simili negli Stati Uniti .

Le leghe d’oro sono utilizzate nell’odontoiatria restaurativa, specialmente nei restauri dei denti, come corone e ponti permanenti. La malleabilità delle leghe d’oro facilita la formazione di una superficie di accoppiamento dei molari superiori con altri denti e fornisce corone più soddisfacenti di quelle in porcellana. Le preparazioni di oro colloidale (sospensioni di nanoparticelle d’oro) in acqua sono intensamente colorate di rosso e possono essere ottenute con particelle strettamente controllate fino a poche decine di nanometri attraverso la riduzione del cloruro d’oro con ioni citrato o ascorbato. Oltre le applicazioni odontoiatriche, l’oro colloidale è utilizzato in ricerche in medicina, biologia e scienza dei materiali. Ad esempio, particelle d’oro colloidale rivestite con anticorpi specifici possono essere utilizzate come sonde per la presenza e la posizione di antigeni sulle superfici cellulari.

L’oro, o leghe di oro e palladio, sono usate per la preparazione di campioni biologici utilizzati nella microscopia a scansione elettronica.

L’isotopo oro-198 è usato in medicina nucleare, in alcuni trattamenti contro il cancro e per curare patologie affini.

Nel 2001 l’oro metallico fu indicato “Allergene dell’anno” dall’American Contact Dermatitis Society, in seguito a riscontrati casi di allergie da contatto Nonostante questo, l’oro è un allergene da contatto poco potente, rispetto per esempio al nickel.

Altri usi dell’oro e dei suoi composti.

Opportunamente trattati oro e derivati sono impiegati come catalizzatori nell’industria e nei laboratori di ricerca. L’acido cloroaurico è utilizzato in fotografia per modificare le immagini prodotte dai sali d’argento, in astronautica nei visori delle tute spaziali per la protezione dalla luce solare assicurando la schermatura necessaria non solo alla luce visibile e ultravioletta ma anche all’infrarosso.

Riciclaggio [1]

Il sondaggio 2014 dell’agenzia Thomson Reuters per il GFMS (Gold Fields Mineral Service) ha stimato che alla fine del 2013 il quantitativo di oro “fuori terra” ammontava a 176.000 tonnellate. Questo stock comprende gioielli, partecipazioni statali, investimenti privati e fabbricazione industriale. Una piccola quantità si è usurata nel tempo e quindi non è stata considerata. Poiché l’oro non si appanna o decompone, tutto questo quantitativo è in teoria disponibile per il riciclaggio. In realtà, nel 2009 il riciclaggio dell’oro ammontava a solo l’1 % dell’intero stock. La maggior parte potrebbe non tornare mai sul mercato, per i seguenti motivi: per molte persone, i gioielli hanno un valore sentimentale ed evoca forti emozioni, quindi non vogliono separarsene; il rapporto di molti individui con l’oro è di natura religiosa o mistica quindi da considerare sacro; molti investitori considerano l’oro come un bene rifugio, da trasmettere attraverso le famiglie piuttosto che venderlo; le banche centrali reputano l’oro un’importante risorsa di riserva e le attuali tendenze suggeriscono che è più probabile che comprino piuttosto che vendere oro; molte persone non sono ancora consapevoli del valore dell’oro nei loro dispositivi elettronici (telefonini, personal computer, ecc.), è pertanto presumibile che gran parte dell’oro nell’elettronica degli anni ’80 e ’90 sia finito in discarica.

Tuttavia, grazie alle sue proprietà uniche, l’oro si presta bene al riciclaggio, tanto che l’oro riciclato ha rappresentato, in media, dal 1995 al 2014, circa un terzo delle scorte totali.

L’industria del riciclaggio dell’oro comprende due fonti:

(i) oro riciclato ad alto valore che ne rappresenta circa il 90%. Sebbene questo segmento sia principalmente costituito da gioielli, talvolta sono riciclati anche lingotti d’oro e monete;

(ii) oro riciclato da scarti industriale che costituisce il restante 10 %[5]. È costituito principalmente da oro trovato nei rifiuti di apparecchiature elettriche ed elettroniche (RAEE).

Le due fonti di oro da riciclo

Le tecniche di riciclaggio sono ovviamente diverse per le due fonti. I materiali ad alto valore per il riciclaggio contengono una percentuale significativa di oro legato con uno o più metalli. Separare questi metalli l’uno dall’altro è relativamente semplice e i processi disponibili per i raffinatori sono tutte procedure di separazione chimica e fisica ben consolidate. Alcuni raffinatori separano i metalli semplicemente riscaldando e fondendo una lega. I gioiellieri possono farlo da soli su piccola scala perché sono richieste attrezzature o conoscenze specialistiche ridotte.

Tuttavia, tali semplici procedure non sono adeguate per la raffinazione ai più alti livelli di purezza spesso richiesti dall’industria. Per raggiungere questa purezza, sono state sviluppate procedure più complesse come quelle già riportate nel paragrafo riguardante la raffinazione, ad es. il processo Wohlwill, che consente la rimozione di tutti i metalli residui del gruppo del platino e quindi di oro riciclato estremamente puro.

Il recupero del metallo dai RAEE è notevolmente più complicato rispetto a quello delle fonti di alto valore. L’oro è usato nell’industria elettronica principalmente nella forma di fili sottili e come metallo di placcatura. Ma i RAEE possono contenere fino a 60 materiali diversi e numerosi prodotti chimici complessi e spesso pericolosi. La plastica e l’acciaio tendono a dominare in peso, ma l’oro e altri metalli preziosi dominano in valore. Ad esempio, nel 2010, oro, palladio e argento costituivano circa il 93% del valore di un telefono cellulare fuori uso. L’estrazione di metalli preziosi da questi materiali in modo sicuro ed efficiente è difficile. Ma se gestiti in modo efficace, il materiale RAEE può dare un contributo positivo a una “economia circolare” in cui i prodotti e le risorse di valore vengono riutilizzati e riciclati.

Alcune aziende hanno sviluppato operazioni di recupero all’avanguardia per superare la sfida di estrarre oro e altri metalli dai RAEE. Ad esempio, lo stabilimento di Umicore a Hoboken, in Belgio, recupera 17 metalli ad alto rendimento da una vasta gamma di rifiuti, come convertitori catalitici usati e catalizzatori chimici, materiali industriali e vari altri rifiuti di produzione. La struttura utilizza un processo di eco-efficienza in cui quasi nessuna produzione va sprecata. Anche le scorie sono utilizzate come aggregato e l’acido solforico (un sottoprodotto di lavorazione) è recuperato e riutilizzato.

Tuttavia, non tutte le operazioni di riciclaggio sono eseguite con standard così elevati. L’attrazione della miniera urbana, combinata con i prezzi elevati dei metalli preziosi, ha incrementato la crescita del recupero non regolamentato dei metalli dai RAEE. La lisciviazione chimica che coinvolge cianuro e acqua regia è talvolta utilizzata senza adeguate protezioni per la salute, in particolare nei paesi in via di sviluppo.

Numerose agenzie e aziende hanno lavorato per risolvere questo problema stabilendo opportune partnership. Grazie a ciò, numerosi paesi africani praticano attualmente un riciclo sostenibile. A tutt’oggi, queste operazioni hanno collettivamente trattato oltre 1.000 tonnellate di RAEE, inviando più di 25 tonnellate di circuiti stampati in siti di riciclaggio di alto livello.[1]

Ciclo biogeochimico dell’oro

L’indagine sui processi che contribuiscono al ciclo biogeochimico dell’oro in condizioni ambientali vicine alla superficie terrestre (regolite[6]) è stata intrapresa da Frank Reith, School of Earth and Environmental Sciences, University of Adelaide (Australia) e dai suoi collaboratori [2,3].

Prof. Frank Reith

In breve il ciclo biogeochimico dell’oro, ovvero la sua solubilizzazione, trasporto e precipitazione, che porta alla trasformazione finale in granuli e pepite è mediata da colonie di microorganismi protoobatteri e attinobatteri, in particolare Cupriavidus metallidurans e Delftia acidovorans.

In figura sono schematizzati questi processi:

Figura. Ciclo biogeochimico dell’oro (schema): oro submicroscopico nella regolite, solubilizzazione via microbica e trasporto, bioaccumulazione e biomineralizzazione, formazione secondaria visibile dei granuli.

Questo ciclo è stato verificato in ambienti temperati, subtropicali, semi-aridi, subartici e molto recentemente anche in un ambiente artico, come quello della Finlandia [4].

Gli studi sul ciclo biogeochimico hanno ispirato ricerche sulla possibilità di un bioriciclaggio del metallo. Ad esempio un gruppo di ricercatori di Heidelberg ha pubblicato sul web un articolo secondo il quale la delfibactina, un peptide non ribosomiale prodotto dal batterio Delftia acidovorans, sarebbe in grado di far precipitare l’oro da soluzioni acide permettendone un recupero efficiente dai rifiuti elettronici [5].

 

Opere consultate

CRC, Handbook of Chemistry and Physics, 85th, p. 4-13-14

https://en.wikipedia.org/wiki/Gold

https://it.wikipedia.org/wiki/Oro

Bibliografia

[1] A. Hewitt, T. Keel, M. Tauber, T. Le-Fiedler, The Ups and Downs of Gold Recycling.

https://www.bcg.com/publications/2015/metals-mining-cost-efficiency-ups-and-downs-of-gold-recycling.aspx

[2] F. Reith et al., Geobiological Cycling of Gold: From Fundamental Process Understanding to Exploration Solutions., Minerals, 2013, 3, 367-394.

[3] M.A. Rea, C.M. Rammit, F. Reith, Bacterial biofilms on gold grains—implications for geomicrobial transformations of gold., FEMS Microbiology Ecology, 2016, 92, 1-12.

[4] F. Reith et al., Biogeochemical cycling of gold: Transforming gold particles from arctic Finland., Chemical Geology, 2018, 483, 511-529.

[5] AA.VV. Gold Recycling. Using Delftibactin to Recycle Gold from Electronic Waste.

http://2013.igem.org/wiki/index.php?title=Team:Heidelberg/Project/Delftibactin&oldid=361555

 

[1] Il palladio è l’elemento chimico numero 46 della Tavola periodica e il suo simbolo è Pd. È un metallo raro, di aspetto bianco-argenteo, del gruppo del platino cui somiglia anche chimicamente.

[2] Il World Gold Council, creato nel 1987, è un’associazione industriale delle principali aziende minerarie aurifere. Il suo scopo è quello di stimolare la domanda di oro da parte dell’industria, dei consumatori e degli investitori.

[3] Pedanius Dioscorides (40-90 d.C. ca.) è stato un medico, farmacologo, botanico greco. Autore del De Materia Medica, enciclopedia in cinque volumi sulla medicina erboristica e sulle relative sostanze medicinali, ampiamente utilizzata per oltre 1.500 anni. Fu medico nell’esercito romano.

[4] L’oro metallico puro non è tossico e non è irritante se ingerito e talvolta viene usato come decorazione alimentare sotto forma di sottilissimi fogli d’oro. L’oro metallico è approvato come additivo alimentare dall’EFSA (European Food Safety Administration). Sebbene i sali di oro (es. cloruri di oro) siano tossici, l’accettazione dell’oro metallico come additivo alimentare è dovuta alla sua inerzia chimica e alla resistenza ad essere corroso o trasformato in sali solubili da qualsiasi processo chimico noto che nell’organismo umano.

[5] Risultato notevole se confrontato con il circa 5% di dieci anni fa (2004).

[6] La regolite è uno strato di materiale di granulometria eterogenea che ricopre uno strato di roccia compatta usualmente chiamata roccia madre. Sulla Terra è quella parte di litosfera più direttamente compenetrata con atmosfera, idrosfera e con la vita vegetale e animale.

Il poliedrico Primo Levi

In evidenza

Mauro Icardi

Renato Portesi, collaboratore di Primo Levi nella fabbrica di vernici Siva di Settimo Torinese, nel saggio di chiusura del volume “Cucire parole, cucire molecole”, edito dall’Accademia delle Scienze di Torino, ricorda Levi con queste parole. “Era un chimico che amava dello stesso amore la scienza pura, la ricerca sofisticata e le operazioni manuali, che non faceva differenza di rango tra l’attività del ricercatore e quella del tecnico.   Il suo contributo alla crescita dell’azienda è stato decisivo: per le conoscenze scientifiche e tecniche che ha messo a disposizione, per il rigore logico con il quale insegnava ad affrontare i problemi e per aver contribuito a formare collaboratori eclettici, capaci di passare da una disciplina all’altra con notevole facilità”.

Questo ritratto di Primo Levi nella veste di chimico, e in seguito di direttore tecnico di un’azienda di produzione di vernici, mi ha molto colpito. Perché in primo luogo conferma il valore dell’uomo e del tecnico. E anche il suo eclettismo entusiastico e contagioso. Levi non amava essere definito scienziato, preferendo la definizione di tecnico. A mio parere, leggendo non solo le sue opere, ma anche le biografie e i saggi scritti da moltissimi altri autori (Belpoliti e Jesurum tra i tanti), ne viene fuori invece la figura di uno scienziato umanista. Dedito alla gestione della quotidianità aziendale, ma capace di idee innovative e originali. E non ultima dote quella di essere un uomo capace di trasmettere il suo entusiasmo ai collaboratori. Strano che Levi non amasse essere definito scienziato. Il suo saggio intitolato “L’asimmetria e la vita” usato poi per dare il titolo ad un volume uscito postumo nel 2002, è un esempio perfetto della sua indubbia capacità di divulgazione scientifica. E non si può dimenticare che la prestigiosa Royal Institution inglese ha sanzionato nel 2006 la vittoria de “Il sistema periodico” come miglior libro di divulgazione scientifica di tutti i tempi. Giova ricordare tra i libri concorrenti vi erano tra gli altri “L’anello di Re Salomone” di Konrad Lorenz, e “Il gene egoista” di Richard Dawkins.

Ma l’autore torinese rimane un esempio di poliedricità. Perché in lui si possono riscontrare diverse anime, che vanno anche oltre a quella duplice del centauro, come amava definirsi. Non solo la dualità chimico-scrittore. C’è un Levi razionalista. Il Levi che definisce il suo stile di scrittore redigendo i rapporti tecnici di fabbrica, oppure descrivendo con lucida memoria, e rigore scientifico e documentale, la precaria situazione igienico –sanitaria del Lager, nel rapporto medico su Auschwitz scritto insieme a Leonardo De Benedetti.

C’è un Levi naturalista che osserva fenomeni naturali o curiosi, e li descrive con il suo consueto stile letterario, essenziale, chiaro e mai ridondante. Questo paradossalmente nel suo libro meno venduto e meno conosciuto, ma che rappresenta a mio parere l’appendice o una sorta di continuazione ideale del “Sistema periodico”, cioè “L’altrui mestiere”.

Libro che meriterebbe decisamente una riscoperta ed una rilettura.

C’è poi il Levi tecnico, il Levi che passa il tempo a risolvere problemi pratici, piccoli intoppi quotidiani del proprio lavoro. E lo ricorda spesso con una vena di malinconia. Il Levi che si districa tra il Nichel da estrarre nella miniera poco distante da Torino, dove è costretto a vivere da apolide, fino al Levi che imparerà sul campo il mestiere di far vernici subito dopo l’esperienza del Lager, e quella del picaresco ed avventuroso ritorno in Italia narrato ne “La tregua”.

Queste pagine di Levi, sono quelle che personalmente riescono sempre a farmi gioire e sorridere. Perché quello che lo scrittore narra e descrive, è patrimonio comune di molti. Piccole vittorie, grane da risolvere in ambito lavorativo. E soprattutto un’atmosfera che si comprende pienamente quando si è stati in un laboratorio chimico, o nei reparti di un’azienda. Levi ammetteva di essere legato ad una pratica di laboratorio di analisi che è riduttivo e ingiusto definire anacronistica, cioè quella dell’analisi sistematica, confessando di preferirla a quella strumentale, di esservi certamente molto legato. Quel metodo di analisi e di lavoro in laboratorio viene narrato nel “Sistema periodico”, e ne è una componente importante. Costituisce la struttura del libro, e dello stile narrativo. Intrecciata ai ricordi legati alla sua esperienza di ebreo italiano, prima discriminato, e successivamente precipitato nell’”anus mundi” del Lager.

Quest’anno ricorrono due anniversari. Che in qualche modo si intrecciano. Il primo è certamente quello del centenario della nascita di Levi. Il secondo è quello dello sbarco sulla Luna, di cui ricorre il cinquantesimo anniversario, e su cui Levi scrisse un articolo intitolato “ La luna e noi”.

Levi con un’intuizione quasi profetica percepiva il crescente disincanto che già permeava di la società italiana. Quasi una profezia di questi nostri tempi. Desiderava il ritorno della capacità di meravigliarsi

E questo brano dove lo scrittore mostra il suo entusiasmo per l’impresa degli astronauti che per primi hanno toccato il suolo lunare, diventa un pezzo di rara bellezza.

Noi molti, noi pubblico, siamo ormai assuefatti, come bambini viziati: il rapido susseguirsi dei portenti spaziali sta spegnendo in noi la facoltà di meravigliarci, che pure è propria dell’uomo, indispensabile per sentirci vivi.

La poliedricità, la grandezza di Primo Levi si possono cogliere nella loro interezza anche in queste poche righe. E ulteriori studi sulla vita e l’opera dello scrittore potranno darci altre opportunità per riscoprire questa facoltà dimenticata. Oltre al piacere di leggere e rileggere le pagine delle sue opere.

Elementi della tavola periodica, Oro, Au. 1 parte.

In evidenza

Rinaldo Cervellati

 

“All’idea di quel metallo portentoso onnipossente

un vulcano la mia mente incomincia a diventar…”

(da: Il barbiere di Siviglia, di Gioacchino Rossini)   

Forse per il suo colore giallo brillante, forse perché è uno dei pochi metalli che si trova libero in natura o per la sua inalterabilità, l’oro ha sollecitato, nel bene e nel male, tutte le fantasie umane fin dalla preistoria.

È l’elemento n 79 della Tavola periodica, simbolo Au (dal latino aurum[1]), raro ma non il più raro essendo la sua abbondanza nella crosta terrestre mediamente 0,03 g/tonnellata e negli oceani circa 1,3 mg/tonnellata acqua marina.

Un poco di storia

In inglese oro si traduce gold, come pure in tedesco, etimologicamente affine a parole derivate dal proto-germanico (gulþą) e dal proto-indoeuropeo (ǵʰelh₃- ) che significano brillante, giallo.

Sembra proprio che l’oro sia stato il primo metallo utilizzato dall’uomo, infatti piccole quantità di oro naturale sono state trovate in grotte spagnole utilizzate durante il tardo Paleolitico, 40.000 a.C. ca. Manufatti d’oro fecero la loro prima apparizione all’inizio del periodo pre-dinastico in Egitto, fine quinto- inizio quarto millennio a.C., e la fusione fu sviluppata nel corso del IV millennio.

Monile egizio in oro e pietre preziose

Manufatti d’oro compaiono in Mesopotamia all’inizio del IV millennio, come pure nei Balcani. Dal 1990 gli archeologi hanno trovano manufatti d’oro nelle necropoli ipogee di Nahal Qana in Palestina, datati IV millennio a.C. Manufatti d’oro come copricapo e dischi apparvero nell’Europa centrale dall’età del bronzo, II millennio a.C.

La più antica mappa conosciuta di una miniera d’oro fu disegnata durante la XIX dinastia dell’antico Egitto (1320-1200 a.C.), mentre il primo riferimento scritto all’oro fu registrato nella dodicesima dinastia verso il 1900 a.C.

Mappa egizia

I geroglifici risalenti al 2600 a.C. descrivono l’oro come molto abbondante in Egitto. In Egitto e in particolare nella regione della Nubia (dall’antico egizio Nwb, che significa appunto oro) vi erano molte miniere d’oro e gli egizi possedevano la tecnologia per estrarlo e lavorarlo, tanto che la Nubia divenne un’importante area di produzione aurifera per gran parte della storia successiva. La mappa dei papiri conservata al Museo Egizio di Torino mostra il piano di una miniera d’oro in Nubia, insieme a indicazioni sulla geologia del luogo.

L’oro è menzionato frequentemente nell’Antico Testamento, dalla storia del vitello d’oro a quella dell’altare d’oro. Nel Nuovo Testamento è incluso nei doni dei magi a Gesù; il libro dell’Apocalisse descrive la città di Gerusalemme come se avesse strade “fatte di oro puro, chiare come cristallo”.

Lo sfruttamento dell’oro nell’angolo sud-est del Mar Nero pare risalga al tempo di Re Mida, e fu importante per datare quello che probabilmente è stato il primo conio in oro, avvenuto in Lydia, regione dell’Asia minore, attorno al 610 a.C.

Nella metallurgia romana furono sviluppati nuovi metodi per estrarre oro su larga scala, in particolare in Spagna dal 25 a.C. e in Dacia (attuali Romania e Moldavia) a partire dal 106 d.C.

Moneta in oro di Adriano 125-128 d.C.

Una delle più grandi miniere era a Las Medulas a León, dove sette lunghi acquedotti consentivano di isolare la maggior parte di un grande deposito alluvionale. I vari metodi usati sono ben descritti da Plinio il Vecchio nella sua enciclopedia Naturalis Historia, scritta verso la fine del I secolo d.C.

Uno degli obiettivi principali degli alchimisti medievali era produrre oro da altre sostanze, come il piombo, presumibilmente dall’interazione con una sostanza mitica chiamata pietra filosofale. Sebbene non siano mai riusciti in questo tentativo[2], gli alchimisti hanno perfezionato alcuni procedimenti come ad es. la calcinazione, la distillazione e la sublimazione, poi divenute di uso comune in chimica. Il simbolo alchemico per l’oro era il cerchio con un punto al centro, che era anche il simbolo astrologico e l’antico carattere cinese per il Sole.

Simbolo alchemico per l’oro

L’esplorazione europea delle Americhe (dal 1492) è incentivata dai resoconti dei primi esploratori circa la gran quantità di gioielli d’oro indossati dalle popolazioni native in America Centrale, Perù e Colombia.

Nel XIX secolo fu scoperta una serie di bacini auriferi in Nord America, soprattutto in California, Colorado, Black Hills e Klondike (Alaska).

Anche se dal punto di vista geologico l’oro nell’antichità era facile da ottenere, il 75% dell’oro prodotto è stato estratto dopo il 1910.

Estrazione e raffinamento

A causa della sua notevole inalterabilità (elevata inerzia chimica) l’oro si trova principalmente allo stato nativo o legato ad altri metalli (argento e rame). Spesso si presenta in forma di granuli e pagliuzze, a volte si trovano anche agglomerati piuttosto grossi, detti pepite. I granelli appaiono inclusi in minerali o sulle superfici di separazione tra cristalli di minerali. Si trova anche nei depositi alluvionali sul fondo dei fiumi.

Pepita d’oro (a sinistra), scaglie d’oro alluvionale (a destra)

L’oro si trova anche associato al quarzo, spesso in filoni, e a solfuri minerali (pirite, calcopirite, galena, arsenopirite).

Filone d’oro in quarzo

Fino dal 1880 il Sudafrica è stato la fonte di circa due terzi dell’oro estratto nel mondo. La città di Johannesburg è stata costruita alla sommità di uno dei più grandi giacimenti mondiali. Tuttavia, dal 2007, la posizione di predominio del Sudafrica è stata superata dalla Cina, la cui produzione nel 2008 è giunta fino a 260 tonnellate di oro, con un incremento del 59% dal 2001. Tra gli altri maggiori produttori figurano gli Stati Uniti (principalmente in Alaska, in Dakota e in Nevada), l’Australia occidentale, il Perù e la Russia.

La seguente mappa mostra la distribuzione mondiale dell’oro.

Mappa della distribuzione mondiale di oro

In Italia l’oro si trova in quantità ponderabili in alcuni fiumi (Po, Ticino). All’interno del Monte Rosa si trova un giacimento più ricco di quelli attualmente presenti in Sudafrica. Tuttavia, a causa di problemi ambientali, di sicurezza e di costi, tale oro non è sfruttato.

La quantità totale di oro presente negli oceani è tutt’altro che trascurabile, ma la bassissima concentrazione rende per il momento antieconomica l’estrazione dall’acqua marina.

L’oro si estrae quindi dalle miniere e, in misura minore, dai depositi alluvionali.

Dopo averlo estratto, l’oro ha bisogno di essere raffinato per aumentarne la purezza. Il metodo più utilizzato è quello ideato e realizzato da Francis Bowyer Miller[3] che lo brevettò nel 1867.

Il processo Miller è un procedimento chimico su scala industriale utilizzato per raffinare l’oro a un grado di purezza del 99,95%. Consiste nell’insufflare una corrente di gas cloro puro sopra e attraverso un crogiolo contenente l’oro fuso da purificare. Poiché quasi tutte le impurezze metalliche degli altri elementi formano cloruri prima dell’oro, possono essere rimosse essendo questi sali insolubili nel metallo fuso. L’oro risultante è puro al 99,95%.

Quando si rende necessaria una purezza ancora maggiore viene utilizzato il metodo Wohlwill[4] che consiste nell’elettrolisi di una soluzione di acido cloroaurico. L’oro che si deposita sul catodo raggiunge una purezza del 99,99%.

A livello mondiale, l’oro prodotto è impiegato per circa il 50% in gioielleria, il 40% in investimenti e il 10% nell’industria.

Dal 1998 l’Italia è il maggiore trasformatore di oro al mondo, con una media di 450-500 tonnellate lavorate ogni anno.

Caratteristiche chimico-fisiche

L’oro è il metallo più duttile e malleabile: un grammo d’oro può essere battuto in lamine di area pari a un metro quadrato. Questi sottilissimi fogli d’oro puro sono usati per decorare cornici di quadri, specchi, ecc. È un metallo tenero e per conferirgli una maggiore resistenza meccanica è lavorato in lega con altri metalli.

L’oro non è intaccato né dall’aria né dall’umidità né dalla maggior parte dei reagenti chimici. Non è solubile negli acidi forti (cloridrico, nitrico e solforico) e negli alcali caustici, invece può essere ossidato dall’acqua regia (una miscela di acido nitrico e cloridrico in rapporto 1:3) o con soluzioni acquose contenenti cianuro di sodio o potassio in presenza di ossigeno o perossido di idrogeno. Nell’acqua regia forma l’acido tetracloroaurico (HAuCl4). A contatto con il mercurio si scioglie in esso formando una lega detta amalgama.

L’oro si lega con molti altri metalli: le leghe col rame sono rossastre, con il ferro verdi, con l’alluminio violacee, col platino bianche, col bismuto e l’argento nerastre.

Gli stati di ossidazione più frequenti dell’oro sono +1 e +3. Gli ioni dell’oro sono facilmente ridotti per aggiunta di qualsiasi altro metallo. Il metallo aggiunto si ossida e si scioglie facendo precipitare l’oro metallico.

È un eccellente conduttore di elettricità, il migliore tra i metalli dopo l’argento e il rame.

Uso nella monetazione

L’oro è stato ampiamente usato in tutto il mondo come denaro sia per rendere efficienti gli scambi sia per immagazzinare ricchezza. Ai fini degli scambi, le zecche producevano monete e lingotti d’oro standardizzati in peso e purezza.

Monete (a sinistra) e lingotti (a destra)

Le prime monete conosciute contenenti oro furono coniate in Asia Minore, attorno al 600 a.C.

La moneta talento d’oro in uso durante l’epoca greca pesava tra 8,42 e 8,75 grammi.

Dopo una iniziale preferenza all’uso dell’argento, le economie europee ristabilirono la coniazione dell’oro come moneta durante il tredicesimo e il quattordicesimo secolo.

I certificati di possesso e le valute cartacee (convertibili in monete d’oro presso la banca emittente) si aggiunsero alle monete circolanti in oro nella maggior parte delle economie industriali del diciannovesimo secolo. Durante la prima guerra mondiale, le nazioni belligeranti gonfiarono le loro valute cartacee per finanziare lo sforzo bellico. Dopo la guerra, i paesi vittoriosi, in particolare la Gran Bretagna, ripristinarono gradualmente la convertibilità dell’oro, e i flussi internazionali di oro tramite cambiali rimasero sotto embargo; le transazioni internazionali venivano effettuate esclusivamente attraverso scambi bilaterali.

Nel secondo dopoguerra l’oro fu sostituito da un sistema di valute nominalmente convertibili legate da tassi di cambio fissi secondo il sistema di Bretton Woods[5]. Nel 1971 gli Stati Uniti rifiutarono di riscattare i propri dollari in oro pertanto la convertibilità diretta delle monete d’oro fu abbandonata da quasi tutti i governi mondiali. La Svizzera è stata l’ultima nazione a legare la sua moneta all’oro; sostenne il 40% del suo valore fino a quando gli svizzeri non aderirono al Fondo monetario internazionale nel 1999.

Le banche centrali continuano a mantenere una parte delle loro riserve liquide in oro. Le riserve auree mondiali e la loro negoziazione sono diventate una piccola parte di tutti i mercati, il tasso di cambio fisso è stato sostituito da prezzi variabili. Sebbene lo stock d’oro cresca solo dell’1%-2% all’anno, una lievissima quantità del metallo viene irrimediabilmente persa.

La percentuale di oro (finezza) nelle leghe è misurata dal carato[6] (k). L’oro puro (commercialmente chiamato oro zecchino) è designato a 24 carati (24k). Le monete d’oro inglesi destinate alla circolazione dal 1526 agli anni ’30 del secolo scorso erano tipicamente costituite da una lega standard di 22k denominata corona.

Sebbene i prezzi di alcuni metalli del gruppo del platino siano molto più alti, l’oro è ancora considerato il più desiderabile dei metalli preziosi.

Molti detentori di oro lo conservano sotto forma di lingotti o di monete come bene rifugio contro l’inflazione o le crisi economiche, sebbene la sua efficacia in quanto tale sia stata messa in dubbio. Le moderne monete di metallo prezioso per scopi di investimento o di collezione non richiedono buone proprietà di usura meccanica; sono in genere oro fino a 24k, sebbene l’American Gold Eagle e le sovrane britanniche continuino ad essere coniati in metallo 22k (0.92) come da tradizione..

Sterlina in oro 22k

(continua)

[1] Secondo la simbologia introdotta da J. J. Berzelius nel 1814, tuttora in uso.

[2] La trasmutazione degli elementi chimici è divenuta possibile nel XX secolo tramite la fisica nucleare. La prima sintesi dell’oro fu effettuata dal fisico giapponese Hantaro Nagaoka nel 1924, che sintetizzò l’oro bombardando il mercurio con neutroni. Un gruppo di fisici americani condusse lo stesso esperimento nel 1941, ottenendo lo stesso risultato e dimostrando che gli isotopi d’oro prodotti in questo modo erano tutti radioattivi. L’oro può attualmente essere prodotto in un reattore nucleare mediante irradiazione neutronica di platino o mercurio.

[3] Francis Bowyer Miller (1828-1887), inglese, saggiatore di metalli, artista e fotografo. Il suo maggior successo scientifico è stato lo sviluppo di un processo di raffinazione e tempra dell’oro che porta il suo nome. Brevettò questo processo a Londra nel 1867. Dodici mesi dopo, l’articolo che descriveva il processo fu presentato alla Chemical Society di Londra. Poco dopo il suo metodo fu applicato con successo dalla Zecca di Sydney e dalla Bank of New Zealand ad Auckland, in Nuova Zelanda.

[4] Wolf Emil Wohlwill (1835 –1912), ingegnere elettrochimico tedesco-ebraico ha inventato il processo di purificazione dell’oro che porta il suo nome nel 1874.

[5] Il sistema di Bretton Woods stabilì le regole per le relazioni commerciali e finanziarie tra Stati Uniti, Canada, Paesi dell’Europa occidentale, Australia e infine Giappone dopo gli accordi del 1944. Fu il primo esempio di una gestione pienamente negoziata allo scopo di governare le relazioni monetarie tra stati indipendenti.

[6] Il carato è principalmente utilizzato in oreficeria e metallurgia sia come unità di misura della massa di materiali preziosi, sia come indicatore di purezza delle leghe auree. Il suo nome deriva dai semi di carruba che pesano tutti circa 200 mg. Nel 1907 la IV Conférence générale des poids et mesures adottò come valore del carato (detto carato metrico) una unità di massa pari esattamente a 200 mg (0,2).

 

Elementi della tavola periodica: Ferro, Fe. 1. La biogeochimica del ferro.

In evidenza

Claudio Della Volpe

The world is moral still you know
and Nature’s wheels do grind

Put ferric P into the sea
and a rose someday you’ll find

Cycle of P, di R.M. Garrels

I colleghi mi scuseranno se torno sul ferro, sul quale ci sono stati già parecchi post qui, qui e qui, di cui uno molto recente, ma l’importanza di questo elemento non può essere sottovalutata in nessun contesto; solo che presenterò il mio punto di vista rovesciando l’approccio tradizionale: prima la biogeochimica e poi l’industria siderurgica. Cosa come vedremo ampiamente giustificata.

Il ferro è l’elemento metallico più abbondante del pianeta Terra, ma la sua abbondanza decresce dal centro verso la periferia; infatti mentre in totale l’abbondanza è del 16%, quella della sola crosta è del 4.75. Nella crosta viene dunque superato dall’Alluminio e dal Calcio. Nel nucleo invece l’abbondanza raggiunge il 20% o superiore.

Si tratta di un elemento fondamentale nell’Universo, il più pesante prodotto dalla nucleosintesi stellare delle stelle massicce e si ipotizza che l’Universo nel futuro sarà fatto di ferro; queste due cose discendono dal fatto che l’isotopo 56 del ferro è il nucleo con la maggiore energia di legame, dunque il più stabile.

Ne consegue che la prima riflessione da fare è che il ferro che troviamo sulla Terra o altrove è già stato nel cuore di qualche stella, è un elemento che ne ha viste di caldissime e grandissime un vero elemento del nucleo, in ogni senso.

Il nome del ferro ha una origine complessa; la parola ferro è una parola tardolatina medioevale e viene probabilmente da fer, portare; o da una radice indoeuropea comune phars, essere rigido, mentre la parola siderurgia viene direttamente dal greco σιδηρο-, forma compositiva di σίδηρος «ferro», che ci riporta al fatto che il primo ferro conosciuto dagli uomini viene dal cielo, dalle meteoriti che cadevano dal cielo ed era ritenuto un metallo degli dei.

Il che, per tutto quel che abbiamo detto, è sorprendentemente corretto.

Come raccontato altrove, il ferro lo usiamo da almeno 5000 anni, ma la capacità di estrarlo dai minerali la abbiamo acquisita con lunghe prove e la possediamo da soli 3500 anni circa; quando imparammo a farlo, data la capacità del ferro di essere fra i più duri e resilienti materiali che avevamo a disposizione cambiò la vita di tutti e la loro organizzazione sociale. L’età del ferro è stata certo un’eta di rivoluzioni e scontri, dal 2000 aC in poi; al principio del I millennio aC il ferro era entrato ormai nella cultura e nell’uso comuni, sbaragliando il bronzo e le armi costruite con esso.

Le armi di Omero, le armi degli Achei dagli occhi cerulei, erano di bronzo, (anche se le tattiche militari sembrano quelle più tarde dell’età del ferro) ma quelle dei Romani erano di ferro. Questo è un argomento che meriterebbe più spazio, ma lo riprenderò nella seconda parte del post.

Si dice raramente che il Ferro presenta quattro allotropi: α, β, γ e δ, per cui il suo diagramma di fase è il seguente:

 il ferro alfa esiste a temperature inferiori a 768 °C; magnetico.
il ferro beta esiste a temperature comprese tra 768/770 °C e 910 °C; presenta una perdita delle caratteristiche magnetiche e alta duttilità.
il ferro gamma esiste a temperature comprese tra 910 °C e 1 394 °C; scioglie carbonio.
il ferro delta esiste a temperature comprese tra 1 394 °C e 1 538 °C.

Il ferro ha quattro isotopi stabili il già nominato 56, il più abbondante, 54, 57, 58. Presente in genere come ossido nella crosta, può avere comunque numeri di ossidazione +2, +3, +4, +6.

Dal ciclo globale rappresentato qui sopra , estratto sempre dal classico lavoro di Rauch e Pacyna, più volte citato sul blog, si evince che il ferro è principalmente un metallo presente in Natura e i cui flussi e depositi naturali sono dominanti su quelli umani; dunque la mia scelta di privilegiare il ciclo biogeochimico è ragionevole. Comunque questi dati sono del 2000 e vedremo nella seconda parte del post che il flusso del ferro nella società umana è raddoppiato e che dunque oggi il flusso indicato fra Production e Fabrication è passato da 850 a 1700 milioni di ton, mentre tutti gli altri flussi in figura sono rimasti costanti. Notate come lo stock umano è simile come dimensioni a quello presente in tutte le acque dolci, decine di miliardi di ton e che questo a sua volta è maggiore di quello presente nell’oceano.

Data la complessità del ciclo lo ripresento in modo più qualitativo in quest’altra immagine tratta da Wikipedia e nella quale risulta chiaro che il ferro è presente sia a livello liquido e solido che in atmosfera, non certo perchè esistano composti gassosi del ferro, ma perchè il ferro domina la composizione della polvere e delle ceneri vulcaniche. Tramite questa forma il ferro penetra nell’Oceano. Tuttavia data la condizione ossidante dell’oceano il ferro come tale è uno dei metalli meno concentrati, al contrario dell’alluminio. Una volta ossidato infatti esso formando ossidi ed idrossidi precipita nello stock del fondo.

La maggioranza dei minerali di ferro, dei depositi di ferro sono ossidi e vengono dall’ultima tragedia biologica veramente grande, ossia l’invasione dell’ossigeno.

https://geology.com/rocks/iron-ore.shtml

Ematite di ferro oolitica.

Quasi tutti i maggiori depositi di ferro sono in rocce che si formarono oltre 1.8 miliardi di anni fa. A quell’epoca gli oceani della Terra contenevano ferro disciolto in abbondanza e quasi niente ossigeno. I depositi di ferro si iniziarono a formare quando i primi organismi capaci di fotosintesi cominciarono a rilasciare ossigeno nell’acqua. Questo ossigeno immediatamente si combinò con il ferro ivi disciolto in abbondanza per produrre ematite o magnetite. Questi minerali si depositarono sul fondo oceanico in grande quantità formando quelle che sono chiamate “formazioni di ferro a bande”. Le rocce con le bande sono costituite da depositi di minerali di ferro depositato in bande alternate con silice e a volte materiali organici trasformati in petrolio o gas. Le bande sono probabilmente il risultato dell’attività stagionale degli organismi viventi.

Il ferro è rimasto un elemento chiave per la crescita e lo sviluppo degli organismi viventi, ma la sua concentrazione oceanica è grandemente diminuita; in questo senso si parla di micronutriente e di elemento limitante; questo concetto fu proposto per la prima volta da Joseph Hart negli anni 30 del secolo scorso; egli notò che ci sono ampie zone marine in cui la vita è assente anche se i macronutrienti sono presenti e ne dedusse che mancava qualcosa (si tratta delle cosiddette zone HNLC, ossia High Nutrient-Low Chlorophyll). Il discorso fu ripreso negli anni 80 e poi riapprofondito usando tecniche satellitari.

Oggi si pensa che il micronutriente mancante sia proprio il ferro, tanto che si sono fatti vari esperimenti per dimostrare che aggiungendo ferro all’oceano in forma di microparticelle, come quelle che si depositerebbero naturalmente da eruzioni vulcaniche, si ha uno sviluppo esplosivo di organismi viventi fotosintetici con potenziale enorme assorbimento di biossido di carbonio. Ovviamente l’idea viene vista anche come una possibile soluzione al problema del global warming, ma in realtà la cosa non è ancora del tutto chiara, proprio perchè i cicli biogeochimici non sono ancora ben compresi in tutta la loro eccezionale complessità, per cui dati i molteplici effetti di retroazione possibili, questa rimane una ipotesi, sia pure robusta. (https://www.niwa.co.nz/iron-fertilisation). Recentemente si è ipotizzato che anche altri micronutrienti come lo Zinco siano necessari per lo sviluppo del fitoplancton.

Il ferro arriva nell’oceano dalle ceneri vulcaniche e dalla polvere, dalle acque dei ghiacciai e dalle sorgenti idrotermali lungo i margini delle zolle continentali. Parecchio ferro è in forma complessa, non come ione +2 o +3.

Il ferro è un bioelemento essenziale per la maggior parte delle forme di vita dai batteri ai mammiferi. La sua importanza nasce dall’abilità di mediare il trasferimento di elettroni.

Nello stato ferroso, Fe+2, esso agisce come un donatore di elettroni mentre in quello ferrico, Fe+3, come un accettore. Per questo motivo esso gioca un ruolo vitale nella catalisi delle reazioni enzimatiche che coinvolgano un trasferimento di elettroni, cioè nelle reazioni di ossidoriduzione. Le proteine possono contenere il ferro come parte di diversi cofattori, come per esempio i clusters Fe-S e nei gruppi eme; in queste forme il ferro è coinvolto in un numero incredibile di reazioni essenziali della cellula (pensiamo solo alla nostra emoglobina che ci serve a respirare).

In un certo senso il ferro esemplifica il comportamento contraddittorio e dialettico di molte sostanze nel complesso delle reazioni biologiche; da una parte è essenziale per il motivo che abbiamo appena detto, ma d’altra parte ha la potenzialità di diventare deleterio.

Al pH e alla pressione parziale di ossigeno considerate fisiologiche Fe(II) è facilmente ossidato a Fe(III), che a sua volta si trasforma rapidamente nelle forme polimeriche insolubili di Fe(OH)3.

https://geoweb.princeton.edu/research/geochemistry/research/aqueous-polymers.html

Inoltre, se non appropriatamente chelato a causa della sua azione catalitica nelle reazioni redox ad un elettrone, il ferro gioca un ruolo nella formazione dei radicali ossigeno che costituiscono la causa del danno perossidativo per la cellula.

Dunque gli organismi sono obbligati a risolvere questo paradosso; da una parte mantenere il ferro libero al più basso livello possibile ma dall’altra comunque ad un livello tale da supportare la sintesi adeguata di emoproteine e altre proteine contenenti ferro.

Per fare questo gli organismi viventi hanno sviluppato molecole specializzate per acquisire, trasportare e stoccare il ferro in una forma contemporaneamente solubile ma non tossica. E naturalmente questo traffico del ferro abbisogna di un meccanismo sofisticato di controllo.

Ecco in poche parole raccontato il ruolo del ferro nella biosfera e nell’organismo, prima che nella nostra società, argomento al quale sarà dedicata la seconda parte di questo post.

Riferimenti

Earth’s global Ag, Al, Cr, Cu, Fe, Ni, Pb, and Zn cycles Jason N. Rauch and Jozef M. Pacyna 
 GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 23, GB2001, doi:10.1029/2008GB003376, 2009

http://www.homepages.ed.ac.uk/shs/Climatechange/Carbon%20sequestration/Martin%20iron.htm

https://www.sciencedirect.com/science/article/pii/S0085253815462301

Kidney International

Volume 55, Supplement 69, March 1999, Pages S2-S11

Cellular iron metabolism di Prem Ponka

(continua)

Nuovi pannelli solari ad alto rendimento

In evidenza

Rinaldo Cervellati

 

Ricercatori del MIT (Massachusetts Institute of Technology) hanno recentemente sostenuto che con un particolare accorgimento si possono realizzare celle solari al silicio con un rendimento più alto che quello teorico raggiungibile con quelle attuali.

La notizia è stata data da Katherine Bourzac sul numero del 10 luglio di C&EN newsletter on-line [1].

Le attuali celle solari in silicio (mostrate in figura) hanno un limite teorico di efficienza del 29%.

Il gruppo di ricerca, guidato dal Prof. Marc A. Baldo, direttore del Research Laboratory of Electronics del MIT, ha riportato che celle solari in silicio a strato singolo possono convertire fino al 35% dell’energia solare in energia utile, un aumento notevole rispetto all’attuale limite [2]. L’accorgimento è consistito nel trovare la giusta combinazione di materiali che consentisse di sfruttare un fenomeno previsto circa 40 anni fa.

Prof. Marc A. Baldo (classe1973)

I semiconduttori come il silicio sono ottimi nel convertire alcune, ma non tutte, le lunghezze d’onda della luce in elettricità. La gamma di lunghezze d’onda che un semiconduttore può utilizzare per trasformarla in energia elettrica dipende da una proprietà elettrica intrinseca del materiale, chiamata bandgap[1]. Quando questi materiali assorbono lunghezze d’onda di luce con energia superiore alla loro specifica gamma, questa extraenergia, si perde sotto forma di calore.

Dice Marc Baldo:

Le celle solari potrebbero funzionare in modo più efficiente e convertire più elettricità se si potesse espandere quella gamma di lunghezze d’onda. Ci sono accorgimenti per farlo, ma nessuno di quelli messi in opera finora ha avuto una buona applicazione pratica ed economica. Un approccio è la cella solare tandem, che accumula più celle composte da diversi semiconduttori che si specializzano nell’assorbire una particolare banda dello spettro solare. Questi sono costosi e hanno cablaggi complessi e inefficienze interne. Il nostro gruppo ha cercato invece di trovare un modo per far funzionare meglio una normale cella solare.

Per fare ciò il gruppo ha riflettuto sui fondamenti di ciò che accade in una cella solare. Quando un fotone colpisce una cella solare al silicio eccita una coppia di cariche, un elettrone e un “buco”. Questa coppia di cariche è una quasiparticella chiamata eccitone. Nel silicio gli eccitoni si separano rapidamente quando gli elettroni si uniscono nel flusso di corrente.

Ma in altri materiali, come il tetracene, un semiconduttore organico a quattro anelli, gli eccitoni danno luogo a un fenomeno più esotico. Attraverso un processo chiamato fissione di eccitone, un eccitone con un particolare spin quantico può dividersi in due eccitoni di energia inferiore con spin diversi. Ciascun eccitone figlia possiede la metà dell’energia del genitore.

Struttura del tetracene

Questa fissione di eccitoni potrebbe aiutare a espandere la gamma di lunghezze d’onda che una cella solare al silicio può utilizzare per convertirla in elettricità, poiché il modo in cui il tetracene divide gli eccitoni è in perfetta corrispondenza con le proprietà semiconduttrici del silicio. Gli eccitoni figlie della molecola organica hanno livelli energetici compatibili con la banda di conduzione del silicio. Quindi il tetracene potrebbe assorbire la luce che il silicio non può convertire, eccitarsi e quindi donare quell’energia al silicio sotto forma di eccitoni figlie. Questa donazione permetterebbe al silicio di convertirla in energia elettrica.

Il tetracene come aiuto per migliorare le prestazioni del silicio fu proposto per la prima volta nel 1979 dal chimico David Dexter [3]. Spiega Baldo: a quel tempo, non era chiaro cosa fare con questo: non esisteva la tecnologia per costruire una cella al silicio progettata per questo processo.

Il laboratorio di Baldo ha cercato la soluzione giusta fino dal 2009. Tetracene e silicio possono funzionare solo insieme a un mediatore; la sfida è stata trovare quello giusto. La superficie del silicio è una foresta di legami che deve essere rivestita con uno strato protettivo. Tale protezione, denominata ‘livello di passivazione’, non può essere eliminata. Ma questi strati protettivi in ​​genere interrompono il flusso di cariche tra silicio e tetracene. Baldo dice che il suo gruppo non ha trovato molte indicazioni dalla teoria, quindi hanno dovuto provare un gran numero di combinazioni di materiali prima che arrivassero a quello giusto.

Dopo anni di lavoro, hanno scoperto che un film di afnio ossinitruro[2] di circa 8 Å di spessore (appena sotto un nanometro) passiva il silicio ma lascia passare le cariche attraverso uno strato di tetracene. Ora, il gruppo di Baldo ha dimostrato che questi tre materiali possono accoppiarsi in una cella solare funzionale. Sulla base dei calcoli, i ricercatori hanno stimato che una cella solare contenente tetracene potrebbe avere un limite di efficienza teorica del 35%.

I risultati dei ricercatori del MIT sono così clamorosi che ho chiesto il parere di due esperti del fotovoltaico: il Prof. emerito Vincenzo Balzani, che fa anche parte della redazione di questo blog, e la Prof. Paola Ceroni, del Dipartimento di Chimica dell’Università di Bologna, che ha recentemente partecipato a una Conferenza internazionale di Fotochimica a Boston. Ecco cosa mi hanno detto.

Balzani. Il tema descritto è di grande interesse scientifico, e ha a che fare con la possibilità che un singoletto eccitato si scinda (in inglese: fission) in due tripletti, ciascuno capace di generare un elettrone quando l’eccitazione giunge a un semiconduttore. Di questo fenomeno e della possibilità di usarlo per aumentare l’efficienza delle celle fotovoltaiche se ne parla da molto tempo. È trattato anche nel nostro libro Photochemistry and Photophysics (Balzani, Ceroni, Juris, p. 449-452), in cui vengono discussi i motivi per cui è difficile utilizzare la singlet fission per aumentare l’efficienza delle celle fotovoltaiche. Anzitutto, il singoletto deve avere energia superiore a quella di due tripletti, cosa che accade solo in certi tipi di molecole organiche. Fra i problemi più ardui da risolvere c’é poi la difficoltà di creare un solido in cui le distanze fra i componenti (composto organico e semiconduttore) permetta ai tripletti “figli” di separarsi e trasferire la loro energia al semiconduttore, prima che avvenga la triplet-triplet annihilation o il loro decadimento.  Il sistema più efficiente fino ad allora (2014) era una cella pentacene/PbSe, con efficienza 4,7% (ricordiamo che i  pannelli commerciali al silicio hanno già un’efficienza del 20% per conto loro).

La novità nel lavoro di cui Chem. Eng. News fa un highlight  sembra proprio sia, come giustamente sottolineato da Rinaldo, nell’aver trovato un materiale (hafnium oxynitride) che  “media” fra tetracene e silicio in modo da permettere ai tripletti  del tetracene  di passare la loro energia al semiconduttore. È vero che questo sistema permetterebbe di raggiungere un’efficienza teorica del 35%, rispetto al 29%, sempre teorico, del silicio. Il fatto però è che il silicio, come già ricordato, ha già un’efficienza reale del 20%, mentre in questo nuovo sistema l’efficienza combinata fra scissione del singoletto del tetracene in due tripletti (teoricamente dovrebbe essere 200%) e efficienza di energy transfer al silicio (teoricamente 100%) è 123% . In altre parole, se il fotone assorbito dal tetracene fosse lasciato al silicio il sistema avrebbe efficienza 20%, facendoli assorbire tutti (impossibile) dal tetracene l’efficienza diventerebbe 24,6%. Salvo il fatto che il tetracene ha una soglia maggiore del silicio, per cui bisognerebbe anche calcolare quanto ci si rimette usando solo i fotoni assorbiti dal tetracene.

Insomma, non mi sembra che le parole con cui concludono il riassunto ( the potential of singlet exciton fission to increase the efficiencies of silicon solar cells and reduce the cost of the energy that they generate) siano appropriate: che ci fosse “potenzialmente” la possibilità di aumentare l’efficienza con la singlet fission già si sapeva, quanto alla possibilità di ridurre i costi complicando i pannelli al silicio, che vanno già così bene, mettendoci dentro un altro materiale, mi sembra un wishful thinking, come succede a tutti noi ricercatori, molto innamorati delle nostre idee e dei risultati, non sempre brillanti, a cui portano.

In conclusione: i pannelli fotovoltaici al silicio vanno più che bene così come sono: efficienza reale (su un massimo teorico 29%) di circa 20%, 100 volte maggiore dell’efficienza del processo di fotosintesi clorofilliana; durata 30  anni; niente manutenzione; niente consumo di suolo utile; basso prezzo, sempre in diminuzione; materiali quasi totalmente riciclabili. I pannelli fotovoltaici al silicio sono già un miracolo! Non credo sarà facile creare qualcosa che sia al tempo stesso più efficiente, più robusto e che costi meno. Anche se, mai dire mai …

Ceroni (via Balzani). Ho ritenuto opportuno sottoporre questo commento alla mia collega Paola Ceroni che è a Boston per un congresso di Fotochimica. Mi ha detto che, guarda caso, il giorno prima aveva parlato al congresso Joseph Michl, un esperto proprio sul tema singlet fission che studia da anni. Michl ha sottolineato che la reale applicazione è lontana nel tempo, anche perché il tetracene si degrada molto velocemente sotto luce. Ha concluso la sua conferenza dicendo che negli ultimi dieci anni sono stati fatti notevoli passi avanti nella comprensione di questo fenomeno di singlet fission, ma che, a suo parere, la speranza che questa tecnica possa essere applicata per aumentare le prestazioni dei pannelli fotovoltaici è salita dal 5% di 10 anni fa al … 6% di oggi!

Bibliografia

[1] K. Bourzac, Supercharging the silicon solar cell, https://cen.acs.org/energy/solar-power/Supercharging-silicon-solar-cell/97/web/2019/07?utm_source=NonMember&utm_medium=Newsletter&utm_campaign=CEN

[2] M. Einzinger et al., Sensitization of silicon by singlet exciton fission in tetracene., Nature, 2019, 571, 90-94.

[3] D.L. Dexter, Two Ideas on Energy Transfer Phenomena: Ion-Pair Effects Involving the OH Stretching Mode, and Sensitization of Photovoltaic Cells., Journal of Luminescence, 1979, 18/19, 779-784.

[1] La bandgap o banda proibita di un semiconduttore è l’intervallo di energia interdetto agli elettroni.

[2] L’ossinitruro di afnio è un composto dell’elemento afnio con azoto e ossigeno di composizione chimica variabile: HfOxNy.

Un ricordo di Giorgio Nebbia.

In evidenza

Claudio Della Volpe

Questo post è basato in piccola parte sui miei ricordi ma soprattutto sulla formidabile intervista fatta a Giorgio Nebbia nel 2016 da Luigi Piccioni e riportata qui; dura quasi tre ore e se avete pazienza è molto interessante, quasi un archivio della cultura e della vita italiana del 900 attraverso gli occhi di un protagonista.

Come tutti i lettori sanno Giorgio è stato redattore anche di questo blog, una delle tante attività che ha svolto nel suo quasi-secolo di vita attivissima. Dunque questo breve ricordo gli è dovuto. Se volete cercare gli articoli con i quali ha contribuito al nostro blog basta che mettiate “Nebbia” nella finestrella in alto a destra, ne troverete decine. Giorgio era stato nominato socio onorario della SCI, su mia proposta, prima del 2010.

Giorgio Nebbia nasce a Bologna nell’aprile 1926, da una famiglia che era però metà toscana e in Toscana rimarrà un pezzo di cuore fra Livorno e Massa, dove il padre aveva costruito, a Poveromo, una casetta delle vacanze, in via delle Macchie.

Ma il sogno piccolo borghese della famiglia impiegatizia di Giorgio dura poco, perché la crisi del 29 fa perdere il lavoro al padre; e segue dunque un periodo di ristrettezze che culmina poi durante la guerra con la morte del padre e il ritorno a Bologna, che era la patria della mamma.

Qui si inizia il percorso universitario di Giorgio, nel primissimo dopoguerra; in un primo momento iscritto a ingegneria e studente lavoratore, conosce per caso colui che diventerà suo mentore, Walter Ciusa, allora associato di merceologia a Bologna, che lo assume come collaboratore del suo lavoro accademico. Giorgio aveva conoscenza dell’inglese, disegnava bene e questo lo rende già un buon collaboratore; in questo periodo Giorgio incontra la chimica analitica e si scopre un buon analista; Ciusa più tardi gli consiglia di lasciare ingegneria ed iscriversi a Chimica; Giorgio si iscrive a Chimica a Bari, dove pensava di riuscire a laurearsi prima e infatti si laurea nel 1949. In un articolo del 2011 lui stesso ci racconta il contenuto della tesi di laurea.

Nei primi del Novecento i perfezionamenti dei metodi di analisi chimica consentirono di separare e caratterizzare numerose sostanze che si rivelarono cancerogene. Si trattava in gran parte di idrocarburi aromatici policiclici, contenenti diecine di atomi di carbonio e idrogeno uniti fra loro in “anelli”. La svolta fondamentale si ebbe con le ricerche condotte negli anni trenta del Novecento da James Wilfred Cook (1900-1975) che preparò per sintesi numerosi idrocarburi policiclici ad alto grado di purezza con cui fu possibile riconoscere il vario grado di cancerogenicità di ciascuno. Il più tossico si rivelò appunto il 3,4-benzopirene, generalmente indicato come benzo(a)pirene per distinguerlo dal benzo(e)pirene (4,5-benzopirene) che ha lo stesso numero di atomi di carbonio e idrogeno, ma disposti diversamente. Negli anni 40 fu possibile anche identificare a quali strutture molecolari era maggiormente associata l’attività cancerogena. Per inciso è stato l’argomento della mia tesi di laurea in chimica nel 1949 nell’Università di Bari e di un successivo libro.”

Il libro è Maria Prato e G. Nebbia, “Le sostanze cancerogene”, Bari, Leonardo da Vinci Editore, 1950, 151 pp.

A questo punto quello che lui stesso descrive come un colpo di fortuna; Ciusa diventa ordinario di Merceologia e lo chiama come assistente a Bologna, a soli 5 giorni dalla laurea. Per la prima volta Giorgio ha un vero lavoro pagato dallo Stato, come lui stesso dice orgogliosamente. Questo ruolo di assistente alla cattedra di merceologia Giorgio lo manterrà per dieci anni fino al 1959.

La merceologia nell’idea di Nebbia è “il racconto di come si fanno le cose”, ereditato da un Ciusa che era a sua volta molto interessato alla storia delle merci ed alla loro evoluzione. Nebbia dunque raccoglie insieme l’eredità culturale del mondo chimico ma anche di quello umanistico , una impostazione a cui rimarrà sempre fedele.

In questi anni il grosso della sua attività di ricerca è dedicato ai metodi della chimica analitica e pubblica anche in tedesco.

Nel 1959 viene chiamato a coprire la cattedra di merceologia a Bari.

Giorgio Nebbia, secondo da sinistra a Bari negli anni 60, con alcuni collaboratori ed un distillatore solare sul tetto dell’università.

Questo segna un cambiamento nell’indirizzo delle sue ricerche; quelle che gli erano state rimproverate a volte come le “curiosità” o perfino capricci da Ciusa o da altri, entrano con maggiore peso nella sua attività di ricerca; entrano in gioco, l’energia, l’acqua, l’ambiente; rimane l’interesse per le merci e la loro storia tanto che si sobbarca un corso di Storia delle merci provenienti da paesi asiatici, ma la sensibilità per l’acqua, che dopo tutto è una merce basica, per l’energia che è anche una merce (e che merce!) crescono. Di questo periodo mi fa piacere ricordare un articolo brevissimo con cui corresse un altro breve articolo su Journal Chemical Education , 1969, e che riporto qui sotto integralmente. Si tratta di un argomento affascinante e di grande impatto didattico e culturale: chi è più efficiente la Volkswagen o il colibrì?

Nebbia trova un errore nell’ultimo conticino di Gerlach che ne inverte radicalmente il senso.

Come potete vedere la sua conclusione ha un impatto che oserei definire filosofico; l’”unità termodinamica del mondo”; un concetto che condivido totalmente e che sarebbe utile far condividere ai nostri politici più illustri ed ai loro “esperti” che di solito la termodinamica non se la filano molto.

Giorgio Nebbia fine anni 70, era consigliere comunale a Massa e presidente della Società degli Amici di Ronchi e Poveromo. Erano gli anni in cui partecipò alle mobilitazioni contro l’inquinamento generato dalla Farmoplant.

 

Inizia con gli anni 70 la fase che potremmo definire ambientalista di Nebbia. Gli impegni sui temi dell’acqua, dell’energia, della dissalazione, dei rifiuti si saldano con una visione che di base è cattolica, ma che vira rapidamente verso sinistra.

Dunque di questi anni è l’impegno nella costruzione di associazioni ambientaliste grandi e piccole, di una divulgazione che ha prodotto nel tempo migliaia di articoli che sono conservati con tutto l’archivio dei libri e dati presso la Fondazione Micheletti.

Gli articoli di Giorgio assommano ad oltre 2000; di questi una rapida ricerca su Google Scholar ne fa trovare 450 dei quali articoli di tipo scientifico sono oltre 130. Purtroppo non riuscite a metterli in ordine temporale perchè probabilmente Giorgio non si era mai iscritto a Google Scholar che d’altronde è nato DOPO che lui era andato in pensione; comunque è una lettura utile a scandire la varietà di interessi che si sono susseguiti nel tempo.

Durante gli anni 80 viene eletto due volte in Parlamento per la Sinistra Indipendente prima come deputato nella IX legislatura (1983-87) e poi come senatore nella X (1987-92). Sono gli anni in cui si discute del nucleare e si vota il primo referendum antinucleare (1987) nel quale Giorgio costituisce un punto di riferimento degli antinuclearisti. D’altronde rimarrà tale anche nel corso del secondo referendum , quello del 2011. Quello fu un periodo eccezionale per la chimica italiana ripetto alla politica; erano in parlamento parecchi chimici fra i quali oltre Giorgio vale la pena di ricordare Enzo Tiezzi.

Nel 1995 va in pensione, ma continua la sua attività pubblicistica sia con libri che che sui quotidiani e sulle riviste.

Era stato nominato professore emerito, ed ottenne le lauree honoris causa in scienze economiche e sociali dall’Università del Molise e in economia e commercio dagli atenei di Bari e Foggia.

Personalmente ho conosciuto Giorgio in questa più recente fase della sua vita, perché era iscritto alla lista di discussione sulla merce regina, il petrolio, una lista che era stata messa su da Ugo Bardi quando aveva fondato l’associazione ASPO-Italia, per studiare il picco del petrolio. Non ci siamo mai incontrati di persona ma ci siamo sentiti varie volte; ovviamente non mi era sconosciuto, anzi avevo già letto molte cose scritte da lui fin da studente e mi sentivo un po’ imbarazzato a parlargli così come se fosse uno qualunque.

Giorgio come altri “grandi” che ho conosciuto era di una semplicità disarmante, rispondeva personalmente alle chiamate ed alle mails, non c’era alcun filtro col pubblico.

Aveva scoperto da solo che avevo un mio blog personale, sul quale esponevo le mie idee sullle cose del mondo e ovviamente le nostre idee politiche erano molto consonanti; subito mi propose di conservarne copia; era uno che conservava tutto, faceva copia di tutto; sembra che conservasse anche i biglietti del tram.

Mi battei con successo per farlo nominare socio onorario della SCI e gli proposi di collaborare col nascente blog della SCI; lui aderì con entusiasmo e fece subito varie proposte di successo, come la serie di articoli: Chi gli ha dato il nome? Dedicata a strumenti o dispositivi di laboratorio di cui ricostruì la storia; ed anche un’altra serie di post di successo è stata quella dedicata alla economia circolare; nei quali l’idea di base era che l’economia circolare non è una invenzione recente ma la riscoperta di qualcosa che l’industria chimica ha nel suo DNA.

Era poi una continua risorsa per la ricostruzione della Storia della Chimica nei suoi più disparati aspetti. A partire dalla storia del Parlamento italiano ovviamente e del ruolo che vi avevano avuto chimici come Avogadro e Cannizzaro.

Quando compì 90 anni ebbe una festa par suo, dunque condita di pubblicazioni varie ; la più interessante delle quali è la raccolta di suoi scritti

Un quaderno speciale di Altro900 con scritti di Giorgio si può scaricare da: http://www.fondazionemicheletti.eu/altronovecento/quaderni/4/AltroNovecento-4_Nebbia-Piccioni_Scritti-di-storia-dell-ambiente.pdf

Il testamento di Giorgio:

http://www.fondazionemicheletti.it/nebbia/sm-4014-lettera-dal-2100-2018/

Giorgio ci ha anche lasciato un testamento ed è un testamento particolare, uno scritto che è una sorta di piccolo romanzo di fantascienza ma anche scritto politico, ma anche novella breve ma anche lettera, una lettera dal futuro, la lettera dal 2100 in cui immagina di ricevere una lettera da chi ha vissuto e ormai digerito le gigantesche trasformazioni che stiamo vivendo. Scritta nel 2018 e pubblicata da Pier Paolo Poggio (a cura di), “Comunismo eretico e pensiero critico”, volume V, JacaBook e Fondazione Luigi Micheletti, p. 47-60, ottobre 2018, ve ne accludo qualche brano.

La crisi economica e ambientale dell’inizio del ventesimo secolo è dovuta e esacerbata dalle regole, ormai globalmente adottate, della società capitalistica basata sulla proprietà privata dei mezzi di produzione e sul dogma dell’aumento del possesso e dei consumi dei beni materiali. E’ possibile prevedere — come ci scrivono dall’inizio del XXII secolo — la trasformazione della società attuale in una società postcapitalistica comunitaria in grado di soddisfare, con le risorse naturali esistenti, una popolazione terrestre di dieci miliardi di persone con minore impoverimento delle risorse naturali e con minori inquinamenti e danni ambientali. …….. Nella società comunitaria i bisogni di ciascuna persona vengono soddisfatti con il lavoro a cui ciascuna persona è tenuto, nell’ambito delle sue capacità, nell’agricoltura, nelle industrie e nei servizi….

La inaccettabile differenza fra la ricchezza dei vari paesi, misurata in arbitrarie unità monetarie, che caratterizzava il mondo all’inizio del 2000 ha portato all’attuale revisione delle forme di pagamento delle merci e del lavoro, su scala internazionale, in unità fisiche, legate al consumo di energia, e al numero di ore di lavoro necessarie per ottenere ciascuna merce e servizio. Queste unità sono regolate su scala internazionale da una banca centrale comunitaria……

La transizione ha comportato una grande modifica della struttura dell’agricoltura e delle foreste, la principale fonte degli alimenti e di molti materiali da costruzione….

Ogni persona ogni anno, in media, ha bisogno di alimenti costituiti da circa 300 kg di sostanze nutritive (carboidrati, grassi, proteine animali e vegetali, grassi, eccetera) ottenibili con la produzione di circa 1000 kg/anno, circa 10 miliardi di tonnellate all’anno, di prodotti vegetali e animali. La coltivazione intensiva dei suoli, con forti apporti di concimi e pesticidi, è stata sostituita da coltivazioni di superfici di suolo adatte a fornire principalmente alimenti alle comunità vicine, con la prevalente partecipazione al lavoro dei membri di ciascuna comunità. Venuta meno la proprietà privata dei terreni agricoli si è visto che la superficie disponibile era largamente sufficiente a soddisfare i fabbisogni alimentari mondiali……

L’altra grande materia naturale essenziale per soddisfare i bisogni elementari umani è costituita dall’acqua: sul pianeta Terra, fra oceani e continenti, si trova una riserva, uno stock, di circa 1.400 milioni di chilometri cubi di acqua; la maggior parte è nei mari e negli oceani sotto forma di acqua salina, inutilizzabile dagli esseri umani; solo il 3 per cento di tutta l’acqua del pianeta è presente sotto forma di acqua dolce, priva o povera di sali, e la maggior parte di questa è allo stato solido, come ghiaccio, nei ghiacciai polari e di montagna; resta una frazione (circa 10 milioni di km3) di acqua dolce liquida che si trova nel sottosuolo, nei laghi, nei fiumi……

Una parte di questo fabbisogno è soddisfatto con l’acqua recuperata dal trattamento e depurazione delle acque usate, sia domestiche, sia zootecniche, grazie ai progressi in tali tecniche che permettono di ottenere acqua usabile in agricoltura e in attività non domestiche; si ottengono anche fanghi di depurazione dai quali è possibile ottenere per fermentazione metano usato come combustibile (contabilizzato come energia dalla biomassa)……

Operazioni che erano difficili quando grandi masse di persone abitavano grandi città lontane dalle attività agricole e che ora sono rese possibili della diffusione di piccole comunità urbane integrate nei terreni agricoli…….

Non ci sono dati sui consumi di acqua nelle varie attività industriali, alcune delle quali usano l’acqua soltanto a fini di raffreddamento e la restituiscono nei corpi naturali da cui l’hanno prelevata (fiumi, laghi) nella stessa quantità e soltanto con una più elevata temperatura (inquinamento termico)……

In particolari casi di emergenza acqua dolce viene ricavata anche dal mare con processi di dissalazione che usano elettricità, come i processi di osmosi inversa.

Dopo il cibo e l’acqua il principale bisogno delle società umane è rappresentato dall’energia che è indispensabile, sotto forma di calore e di elettricità, per produrre le merci, consente gli spostamenti, contribuisce alla diffusione delle conoscenze e dell’informazione e permette di difendersi dal freddo…….

Il programma delle nuove comunità è stato basato sul principio di graduale eliminazione del ricorso ai combustibili fossili, il cui uso è limitato alla produzione di alcuni combustibili liquidi e di alcune materie prime industriali in alcune produzioni metallurgiche, e nella chimica, e di contemporanea chiusura di tutte le centrali nucleari……

L’energia necessaria per le attività umane, 600 EJ/anno è principalmente derivata direttamente o indirettamente dal Sole.

Oggi è stato possibile contenere il fabbisogno di energia dei 10 miliardi abitanti del pianeta a 600 GJ/anno, con una disponibilità media di circa 60 GJ/anno.persona (equivalente a circa 18.000 kWh/anno.persona e ad una potenza di circa 2000 watt), e oscillazioni fra 50 e 80 GJ/anno.persona a seconda del clima e delle condizioni produttive. Questo significa che i paesi con più alti consumi e sprechi sono stati costretti a contenere tali consumi agli usi più essenziali, in modo da assicurare ai paesi più poveri una disponibilità di energia sufficiente ad una vita decente.

Una “società a 2000 watt” era stata auspicata già cento anni fa come risposta al pericolo di esaurimento delle riserve di combustibili fossili e alle crescenti emissioni di gas serra nell’atmosfera…….

Ai fini dell’utilizzazione “umana” dell’energia solare va notato subito che l’intensità della radiazione solare è maggiore nei paesi meno abitati; molti dei paesi che un secolo fa erano arretrati, hanno potuto uscire dalla miseria proprio grazie all’uso dell’energia solare; la società comunitaria ha così potuto contribuire a ristabilire una forma di giustizia distributiva energetica fra i diversi paesi della Terra, realizzando la profezia formulata due secoli fa dal professore italiano Giacomo Ciamician, “i paesi tropicali ospiterebbero di nuovo la civiltà che in questo modo tornerebbe ai suoi luoghi di origine“……..

La struttura economica della società comunitaria richiede molti macchinari e oggetti e strumenti che devono essere fabbricati con processi industriali. Questi sono diffusi nel territorio integrati con le attività agricole e le abitazioni; la loro localizzazione è pianificata in modo da ridurre le necessità di trasporto delle materie prime e dei prodotti a grandi distanze e da ridurre il pendolarismo dei lavoratori fra fabbriche e miniere e abitazioni……

Macchine e merci sono prodotte con criteri di standardizzazione che assicurano una lunga durata e limitata manutenzione. I processi industriali richiedono minerali, metalli, materie estratte dalla biomassa, prodotti chimici, e inevitabilmente sono fonti di rifiuti e scorie.

L’abolizione degli eserciti ha portato ad un graduale declino e poi estinzione delle fabbriche di armi ed esplosivi.

Mentre nella società capitalistica l’unico criterio che stava alla base della produzione industriale era la massimizzazione del profitto degli imprenditori, e tale obiettivo era raggiunto spingendo i cittadini ad acquistare sempre nuove merci progettate per una breve durata, tale da assicurare la sostituzione con nuovi modelli, nella società comunitaria la progettazione dei prodotti industriali è basata su una elevata standardizzazione e su una lunga durata di ciascun oggetto…….

Nella società comunitaria odierna la mobilità di persone e merci è assicurata in gran parte da trasporti ferroviari elettrici, con una ristrutturazione delle linee ferroviarie dando priorità alla mobilità richiesta dalle persone che vanno al lavoro e alle scuole.

Oggi è praticamente eliminato il possesso privato di autoveicoli e il trasporto di persone è assicurato dalle comunità sia mediante efficaci mezzi di trasporto collettivo elettrici, sia mediante prestito di autoveicoli di proprietà collettiva per il tempo necessario alla mobilità richiesta……..

Siamo alle soglie del XXII secolo; ci lasciamo alle spalle un secolo di grandi rivoluzionarie transizioni, un mondo a lungo violento, dominato dal potere economico e finanziario, sostenuto da eserciti sempre più potenti e armi sempre più devastanti. L’umanità è stata più volte, nel secolo passato, alle soglie di conflitti fra paesi e popoli che avrebbero potuto spazzare via la vita umana e vasti territori della biosfera, vittima della paura e del sospetto, è stata esposta ad eventi meteorologici che si sono manifestati con tempeste, alluvioni, siccità.

Fino a quando le “grandi paure” hanno spinto a riconoscere che alla radice dei guasti e delle disuguaglianze stava dell’ideologia capitalistica del “di più”, dell’avidità di alcune classi e popoli nei confronti dei beni della natura da accumulare sottraendoli ad altre persone e popoli.

Con fatica abbiamo così realizzato un mondo in cui le unità comunitarie sono state costruite sulla base dell’affinità fra popoli, in cui città diffuse nel territorio sono integrate con attività agricole, in cui l’agricoltura è stata di nuovo riconosciuta come la fonte primaria di lavoro, di cibo e di materie prime, un mondo di popoli solidali e indipendenti, in cui la circolazione di beni e di persone non è più dominata dal denaro, ma dal dritto di ciascuna persona ad una vita dignitosa e decente.

Questo è il sogno è il lascito di Giorgio.

Giorgio, grazie di essere stato con noi; questo augurio che ci fai, a noi che restiamo piace; non ti dimenticheremo; che la terra ti sia lieve!

Bibiliografia essenziale.

http://www.fondazionemicheletti.it/nebbia/

Il Ferro nello spazio

In evidenza

Diego Tesauro

Il ferro, l’elemento numero 26 della tavola periodica, è oggetto di studio per tutte le discipline dello scibile sia umanistiche che scientifiche.

Gioca infatti un ruolo centrale nella storia dell’evoluzione della società umana tanto da caratterizzare un’età millenaria (https://ilblogdellasci.wordpress.com/brevissime/il-ferro-ha-5000-anni/) della preistoria; è perno dell’economia, essendo la metallurgia, ancora oggi nell’era dei nuovi materiali, un importante settore strategico per l’industria manifatturiera.

La sua presenza ed i composti che forma con gli altri elementi della tavola periodica a maggior ragione coinvolgono tutte le discipline scientifiche dalla geologia, alla biologia, all’astronomia.

Questa centralità è sicuramente dovuta, oltre alle sue peculiari proprietà chimico-fisiche, all’abbondanza sulla Terra, costituisce infatti il 16% della massa del nostro pianeta (la maggior parte concentrata nel nucleo), e il 5% della crosta terrestre. Ma la presenza di questo elemento così elevata sulla Terra trova riscontro anche in una notevole abbondanza nello spazio essendo il settimo fra tutti gli elementi della tavola periodica. Come si spiega questa elevata quantità in un universo dove invece, abbondano i nuclei leggeri come l’idrogeno e l’elio?

Innanzitutto occorre ricordare che nei processi di fusione nucleare nei nuclei delle stelle con emissione di energia i nuclei degli atomi più leggeri fondono per generare elementi più pesanti. Le stelle di massa come il Sole o poco maggiore terminano la loro evoluzione generando elementi come il carbonio e l’ossigeno, mentre le stelle di grande massa (dalle 8 masse solari in su) terminano i loro processi di nucleosintesi proprio con il ferro, in particolare con l’isotopo 56. I processi di nucleosintesi, quindi, hanno come elemento terminale il ferro. Il ferro viene successivamente disperso nello spazio dalle esplosioni di supernova con le quali implodono le stelle quando hanno termine i processi di produzione di energia per fusione nucleare, rendendone ubiquitaria la sua presenza.

Nelle stelle, compreso il Sole, viene ritrovato dall’ ”impronta” lasciata nelle righe di assorbimento degli spettri elettromagnetici delle fotosfere. Nel sistema solare è abbondante negli asteroidi chiamati sideriti, oltre che nei pianeti rocciosi come appunto la Terra, Marte e Venere, dove la presenza è stata confermata con la spettroscopia Mössbauer. Più complessa è la possibilità di rilevare il ferro nello spazio interstellare (ISM). Rispetto a quanto previsto dai modelli, la quantità di ferro gassoso è particolarmente bassa. Evidentemente il ferro non si trova allo stato gassoso, ma in clusters o in composti di tipo molecolare. Clusters metallici di Fe di tutte le dimensioni <1 nm e nanoparticelle di dimensioni> 1 nm sono presenti nella polvere interstellare, ma sono stati rilevati in misura inferiore rispetto alle quantità di ferro previste dai modelli. I clusters svolgono una funzione importantissima nello spazio interstellare. Essi infatti tendono a legare atomi e strutture molecolari ricche di elettroni. Questa proprietà potrebbe giocare un ruolo importante nella sintesi di molecole organiche complesse a cominciare dagli idrocarburi policiclici aromatici (IPA) di cui ci siamo occupati In precedente intervento (https://ilblogdellasci.wordpress.com/2018/01/22/gli-idrocarburi-policiclici-aromatici-ipa-nello-spazio-qual-e-la-loro-origine/ ). In laboratorio, i clusters di Ferro sono noti per catalizzare la formazione di idrocarburi aromatici da acetilene (C2H2) a basse pressioni [1], suggerendo che potrebbero fare lo stesso nell’ISM reagendo con l’acetilene e formando catene di carbonio più lunghe. Le catene lunghe di carbonio, in particolare i poliini, (CnH2) per n >10 sono termodinamicamente instabili, e quelli contenenti più di nove carbonio non sono stati osservati nelle regioni di gas circumstellare o interstellare. Come possono allora stabilizzarsi per dar luogo a molecole organiche complesse?

Recentemente le ipotesi avanzate per una loro maggiore stabilità assegnano ai clusters di ferro questa capacità formando dei pseudocarbini Ferro la cui struttura è riportato nella figura [2].

Potrebbero quindi costituire quel anello mancante che possa giustificare il passaggio da catene di atomi di carbonio a molecole organiche complesse che sono state ritrovate nel mezzo interstellare come gli IPA ed il fullerene. Le ipotesi andrebbero suffragate da osservazioni. Un modello teorico, messo punto ultimamente, ha permesso di dimostrare che spettri infrarossi di molecole di poliini legate ai cluster di ferro non risultano modificati sensibilmente, ma cambiati solo nell’intesità. Pertanto il ferro potrebbe nascondersi nei gas circumstellari delle stelle AGB (https://it.wikipedia.org/wiki/Ramo_asintotico_delle_giganti); infatti un singolo atomo di ferro aggiunto a catene contenenti nove atomi di carbonio esaurirebbe l’abbondanza di Ferro in fase gas del 95%.. L’esaurimento del ferro sarebbe maggiore qualora le catene di carbonio fossero più corte o contenessero altri atomi di ferro. Pertanto il ferro sarebbe presente in modo elusivo e giocherebbe un ruolo fondamentale anche nello spazio interstellare per la chimica organica. In questo modo si affiancherebbe a quello già ipotizzato nella chimica pre-biotica, ad esempio nella formazione di molecole organiche come l’acetato e il piruvato a partire dal biossido di carbonio [3] o nel folding e nella catalisi della molecola di RNA nelle fasi primordiali della vita sulla Terra [4].

La Catena di carbonio e idrogeno collegata ad un cluster di Fe13 (gli atomi di ferro sono rappresentati in colore bruno-rossastro, il carbonio in grigio, l’idrogeno in grigio chiaro).

[1] P., Schnabel K. G, Weil, M.P. Irion. Proof of the Catalytic Activity of a Naked Metal Cluster in the Gas Phase Angewandte Chemie International Edition in English 1992, 31, 636-638. https://doi.org/10.1002/anie.199206361

[2] P. Tarakeshwar , P. R. Buseck, F. X. Timmes. On the Structure, Magnetic Properties, and Infrared Spectra of Iron Pseudocarbynes in the Interstellar Medium The Astrophysical Journal 2019, 879(2) (8pp) https://doi.org/10.3847/1538-4357/ab22b7

[3] S.J. Varma, K.B. Muchowska, P. Chatelain, J. Moran Native iron reduces CO2 to intermediates and end-products of the acetyl CoA pathway. Nature Ecology & Evolution 2018, 2, 1019–1024. https://doi.org/10.1038/s41559-018-0542-2

[4] S.S. Athavale, A.S. Petrov, C. Hsiao, D. Watkins, C.D. Prickett, J.J. Gossett, L. Lie, J.C. Bowman, E. O’Neill, C.R. Bernier, N.V. Hud, R.M. Wartell, S.C. Harvey, L.D. Williams. RNA Folding and Catalysis Mediated by Iron (II) PLOS 2012, 7(5) , e38024.https://doi.org/10.1371/journal.pone.0038024

Agricoltura urbana e ambiente delle città.

In evidenza

Luigi Campanella, già Presidente SCI

Il boom dell’agricoltura urbana è uno dei processi in atto nella nostra società moderna. Il Brooklyn Grange di New York è l’orto urbano più grande del mondo con fattorie urbane sui tetti dei palazzi in un ex cantiere navale della marina militare, ma anche in Italia ci sono importanti casi di orto urbano.

Brooklyn Grange, a one acre urban farm on top of industrial 6 story industrial building in the Long Island City neighborhood of Queens.

Da Bologna da considerare la prima città italiana in materia, a Palermo dove terreni coltivabili vengono affittati per allenarsi all’agricoltura biologica; da Venezia dove l’orto urbano è alla base di un progetto di rigenerazione del sito industriale di Marghera, a Torino dove nel quartiere Mirafiori Sud, ex Fiat, si è creato uno spazio per chi voglia dedicarsi all’agricoltura urbana e nell’area industriale del Parco Mennea sono stati messi a dimora 300 alberi,un orto collettivo ed una vigna; da Milano che ha riqualificato gli spazi degli scali ferroviari dismessi fino a Roma.

Quali gli stimoli a questa nuova tendenza?

Innanzitutto il recupero di aree potenzialmente contaminate, ex siti industriali, poi la voglia di verde nelle nostre città, dove questo colore spesso manca, ancora la convinzione che i processi naturali, come la crescita di vegetazione, siano correttivi dell’ambiente inquinato, infine la possibilità di disporre di matrici alimentari preziose e di qualità a portata di mano, a Km zero come oggi si dice, senza cioè i costi e l’inquinamento che il trasporto dai siti di produzione a quelli di consumo comporta. Diffusi ovunque dal centro alla periferia gli orti nascono in zone urbane e periurbane per consentire alle famiglie di dedicarsi ad essi in nome dell ‘autoproduzione e dell’autosufficienza.

https://www.architetturaecosostenibile.it/green-life/curiosita-ecosostenibili/coltivare-citta-orti-urbani-italia-551

Ci sono però anche valutazioni negative rispetto a questo tipo di interventi, prima fra tutte quella che considera l’orto urbano un parassita competitore e predatore dell’ambiente rurale. C’è poi il problema dell’inquinamento urbano che può divenire un pericolo per la qualità delle produzioni da parte di orti urbani. Da qui deriva l’esigenza di scegliere il sito di collocamento dell’orto e soprattutto la sua gestione quanto più bio possibile. Una riflessione riguarda il ruolo dei politici: che non pensino di risolvere con gli orti urbani il problema della qualità dell’aria urbana!

Se è vero che l’attività foto sintetica delle piante in luoghi inquinati migliora l’assorbimento di CO2 e che un albero può ridurre il particolato disperso nell’aria che lo circonda in una percentuale che va dal 7 al 24%, sarebbe però sbagliato demandare agli orti urbani l’intero problema, magari puntando sul fatto che camminare in città attraverso strade e piazze circondate da vegetazione lussureggiante modifichi il nostro umore in meglio, alzando il livello di criticità ed abbassando quello di criticismo.

Depuratore? No, bioparco!

In evidenza

Mauro Icardi

Generalmente le persone che non li conoscono, si fanno spesso idee particolari sugli impianti di depurazione. La più diffusa, come ho avuto modo di scrivere in passato, è quella che al termine del processo di trattamento l’acqua di uscita sia pronta per essere destinata all’uso potabile. Altre persone sono convinte che nei depuratori sia convogliata l’acqua dei fiumi, e non invece come avviene nella realtà quella degli scarichi fognari. Ma c’è una realtà inconsueta e particolare che voglio raccontare. Cioè la coabitazione tra addetti all’impianto, e comunità di animali di vario genere. Che è un aspetto che personalmente trovo molto interessante.

L’impianto dove lavoro si trova in una zona periferica di Varese, e nelle vicinanze vi sono diverse aree boschive. E anche l’area interna dell’impianto è piantumata, cosa che favorisce questo tipo di fenomeno.

Per iniziare partirei dai gabbiani. Nel periodo invernale, generalmente da Febbraio ad Aprile inoltrato, una colonia piuttosto numerosa di gabbiani reali si stabilisce in impianto.

In Italia la specie è sedentaria e nidificante. Uccelli che normalmente possiamo trovare in Sardegna, Sicilia, isole minori e coste dell’Alto Adriatico, dagli anni 70 ha colonizzato i grandi laghi interni, e tra questi il Lago Maggiore che da Varese dista pochi chilometri. Il gabbiano reale si nutre prevalentemente di pesce, ratti, animali morti e scarti dell’alimentazione umana. Da alcuni decenni i gabbiani reali hanno imparato a trovare cibo nelle discariche urbane, ma prelevano i rifiuti anche direttamente dai cassonetti dell’immondizia. Tra le loro prede vi sono anche altri uccelli, come storni e rondoni, che catturano in volo, o che prelevano dai nidi. Nidificano a terra su isolotti e anche su manufatti, in particolare sui tetti in città, dove trovano grandi quantità di cibo e assenza di predatori. Quindi in impianto possono svolgere egregiamente il loro ruolo di “netturbini”. In effetti lo stormo si posiziona quasi sempre nella zona di sedimentazione primaria.

Sopra la nostra testa volteggiano spesso anche diversi esemplari di poiane. Normalmente circa sei esemplari. E nel mese di febbraio vi è un visibile ed evidente affollamento di volatili. Gabbiani e poiane si dividono il territorio e le prede.

Restando in tema ornitologico un nutrito gruppo di rondini staziona invece nella zona della vasca di disinfezione. Occupandosi di liberarci dagli insetti. Svolgono il loro servizio di disinfestazione con molta costanza. Rivederle ogni anno ritornare è per me motivo di gioia.

In impianto ci sono vaste aree di prato. Ed è per questa ragione che per esempio spesso fanno capolino i fagiani. In questa foto un esemplare di femmina.

Non ho rinvenuto né nido né uova, ma l’animale si è trovato a proprio agio. I fagiani, hanno abitudini stanziali e sono soliti vagare per campi, prati e pianure fertili; difficilmente si inoltrano all’interno di foreste.

Per chiudere la parte dedicata ai volatili un altro uccello che vediamo piuttosto frequentemente è l’airone cenerino.

In effetti è possibile oramai vedere esemplari di Airone cenerino anche lungo le autostrade. Soprattutto al nord, lungo i fiumi della Pianura Padana, dove sono concentrate molte delle sue colonie, ma anche tra le risaie del Piemonte e della Lombardia. Il nostro esemplare qui è ritratto nella zona di ricezione delle acque reflue, ma molto spesso si appollaia con aria regale su un albero di pino domestico che è vicino al cancello d’ingresso principale. La nostra esperienza di ornitologi amatoriali ci ha consentito negli anni di recuperare, e di portare nel centro di recupero della fauna selvatica gestito dal WWF nell’oasi di Vanzago, due esemplari di uccelli molto belli e particolari. Uno svasso maggiore, e un albanella minore. Entrambi feriti sono stati recuperati e rimessi in libertà. Cosa che ci ha fatto davvero molto piacere.

Veniamo ora ai conigli selvatici. In impianto sono molto comuni.

Sono come delle mascotte. I colleghi che si occupano della manutenzione esterna, quando sono impegnati nel taglio erba sono sempre molto attenti a non disturbare gli animali, nell’epoca in cui ci sono le nidiate.

La precauzione è di fatto inutile. Il coniglio selvatico ha un alto tasso di natalità, anche se nel nostro caso non ne siamo invasi. Rinveniamo spesso le entrate dei cunicoli che le bestiole scavano. A volte questi cunicoli sono sistemi estesi e complessi, ma nel nostro caso la coabitazione è serena. Per altro i conigli aiutano la gestione del taglio erba! Ne possono trovare in abbondanza.

Nella foto si intravede la coda bianca dell’esemplare. Una conferma del fatto che si tratti di coniglio selvatico autoctono. E pur vero che in provincia di Varese, come del resto in tutta Italia, questa specie competa con quella della minilepre (silvilago orientale) di origine Nordamericana. La minilepre venne introdotta a scopo venatorio. E come molte altre specie alloctone può dare luogo a pesanti squilibri nell’equilibrio ecologico locale.

A proposito di specie alloctone, presso un impianto di depurazione più piccolo, situato in prossimità del Lago di Varese ho avuto un incontro con il famigerato Gambero della Louisiana.

Questi animali sono piuttosto comuni in questa zona. Purtroppo anche a causa della loro introduzione, insieme alla diminuzione della qualità ecologica di alcune acque superficiali, stanno soppiantando il gambero di fiume autoctono. In Italia, attualmente, il gambero di fiume è in forte rarefazione e rimane confinato in zone limitate; in genere si tratta di zone poco o per nulla antropizzate, dalle acque pulite e ben ossigenate. In Italia la sua presenza è stata recentemente segnalata in alcuni torrenti abruzzesi e nel bacino del Bussento, in provincia di Salerno. Il gambero d’acqua dolce ha sostenuto per secoli, almeno in parte, molte comunità contadine. Soprattutto in alcune aree del Veneto, era considerato “cibo povero, buono, per ingannare la fame e non per saziarla“.
Era talmente numeroso che anche i più piccoli riuscivano facilmente a catturarlo senza difficoltà. Qualsiasi attrezzo era adatto per catturarlo, un barattolo, un catino, un pezzo di rete. Di gamberi di fiume mi raccontava anche mio padre, che era solito catturarli nei piccoli rii della zona del basso Monferrato. Nel 1859 – 1860 in Lombardia, venne descritta per la prima volta la “peste del gambero“, associata al fungo Aphanomyces astasci, importato involontariamente dal nord America insieme al gambero Orconectes limosus (Rafinesque, 1871). Quest’ultimo, resistente all’infezione, trasferì come portatore sano la malattia alla specie italica, che venne immediatamente decimata. Il gambero della Louisiana venne importato anche per sopperire a questa decimazione, in quanto si riproduce facilmente, ed altrettanto facilmente può essere allevato. Introdotto a scopo commerciale in Toscana è sfuggito al controllo degli allevamenti, diffondendosi velocemente anche nella zona del Varesotto. E non a caso proprio l’immagine di un gambero della Louisiana è stata utilizzata per il manifesto di una mostra naturalistica allestita lo scorso anno in primavera presso i Musei Civici di Villa Mirabello a Varese. La mostra si occupava proprio della proliferazione di specie alloctone in Italia.

Per chiudere questa rassegna, non certamente esaustiva, in quanto si potrebbe parlare di altri animali che sono diventati “inquilini” dell’impianto e che sono utili (mi riferisco alla biscia d’acqua ), è arrivato il momento di parlare degli anfibi.

Mi sono molto appassionato a questa specie di animali. Le specie appartenenti agli anfibi sono tra le più minacciate. Si calcola che delle 85 specie europee il 60% circa sia in rapido declino come numero di esemplari e la situazione italiana sarebbe tra le più gravi dal momento che l’Italia ospita un maggior numero di specie complessivo. Sono animali in pericolo per una serie di ragioni (tra le quali la bonifica delle zone acquatiche, la deforestazione, l’inquinamento diffuso.) Quando ci siamo resi conto che vi erano degli esemplari di rana italica in alcune vasche non utilizzate dell’impianto, abbiamo cercato di creare per loro un habitat dove potessero trovarsi a loro agio.

Questa foto ritrae un esemplare posizionato sopra un asse di legno. L’asse permette alla rana di fuoriuscire da una vasca di contenimento non più utilizzata che si è riempita di acqua, per poi potervi fare ritorno se necessario.

Allo stesso modo, in una vasca di accumulo che si utilizza in caso di forti precipitazioni piovose (evento tutt’altro che raro di questi tempi), abbiamo creato delle isole artificiali per questi simpatici anfibi, per fare in modo che vi si possano issare per riposarsi.

Come si può vedere, il depuratore dove lavoro si è trasformato in una specie di oasi per alcuni animali. O in una specie di bioparco.

Ho sempre pensato che sia importante proteggere la biodiversità. E la foto che segue è una di quelle che sono riuscito a scattare con molta pazienza, ma che mi ha dato molta soddisfazione.

E’ scattata all’interno della vasca di contenimento, quella in cui abbiamo predisposto la via di uscita. Mi sono sentito per un attimo come un fotografo del National Geographic. Per altro sono anche l’addetto al salvataggio delle lucertole che incautamente riescono ad entrare nell’ufficio del Laboratorio. Le recupero su un foglio di carta da filtro, poi delicatamente le libero nel prato adiacente. E invariabilmente mi viene in mente l’operazione che Primo Levi faceva con i ragni, descritta in “Fosforo” ne “Il sistema periodico”.

Mi chiamava ad espellere un ragnetto dal suo banco di lavoro (non dovevo però ammazzarlo, ma metterlo in un pesafiltri e portarlo fuori nell’aiuola), e questo mi faceva sentire virtuoso e forte come Ercole davanti all’Idra di Lerna, ed insieme tentato, perché percepivo la intensa carica femminile della richiesta.

Da Fosforo, Primo Levi

Tutto questo non è in conflitto con quello che faccio, anzi il contrario. Prendersi cura di questi animali è uno stimolo maggiore per occuparsi di depurazione con impegno e passione. E questi “inquilini” me lo ricordano ogni giorno.

Elementi della tavola periodica: Manganese, Mn.

In evidenza

Rinaldo Cervellati

 

Il manganese (Mn) è l’elemento n. 25 della Tavola Periodica. Non si trova libero in natura ma combinato in alcuni minerali, il più importante dei quali è la pirolusite, costituita essenzialmente da biossido di manganese (MnO2). Importante è anche la romanechite (ossidi di manganese e idrossido di bario), costituente principale dello psilomelano, che è un insieme di minerali.

Altri minerali di manganese economicamente importanti mostrano solitamente una stretta associazione con minerali di ferro.

Pirolusite

Diversi ossidi di manganese, ad esempio la pirolusite, abbondante in natura, furono usati come pigmenti sin dall’età della pietra. Le pitture rupestri di Lascaux (Francia), datate fra 30.000 e 24.000 anni fa, contengono pigmenti a base di manganese.

Pitture rupestri a Lascaux (Francia)

L’origine del nome manganese è alquanto complessa. Nell’antichità, due minerali neri provenienti dalla regione detta Magnesia (oggi situata in Grecia) erano entrambi chiamati magnes dal loro luogo di origine, ma avevano caratteristiche e proprietà molto diverse. Il magnes definito maschile di colore grigio scuro con venature rossastre attirava il ferro (si trattava del minerale di ferro ora noto come calamita o magnetite, da cui probabilmente l’origine del termine magnete). Il magnes detto femminile di colore nero non attraeva il ferro, ma era usato per colorare il vetro. Questo magnes femminile era la pirolusite. Né questo minerale né il manganese elementare sono magnetici.

Composti di manganese sono stati usati da vetrai egiziani e romani, sia per aggiungere sia per rimuovere il colore dal vetro. L’uso di questi composti come “sapone per vetrai” è proseguito nel Medioevo fino ai tempi moderni ed è evidente nel vetro trecentesco di Venezia.

Nel 16° secolo la pirolusite era chiamata manganesum dai vetrai, forse come concatenazione di due parole, poiché alchimisti e vetrai dovevano differenziare fra magnesia nigra (il minerale nero) e magnesia alba[1] (un minerale bianco, proveniente anche esso dalla Magnesia, utile anche nella produzione del vetro). Michele Mercati[2] chiamò manganesa la magnesia nigra, in seguito il metallo isolato da essa divenne noto come manganese (in tedesco: Mangan).

Nel 18° secolo diversi chimici, fra i quali Carl Wilhelm Scheele, identificarono importanti composti del manganese, come ad es. il permanganato di potassio, usato come antisettico, e scoprirono che facendo reagire il biossido di manganese con l’acido muriatico (acido cloridrico) si otteneva il cloro. Tutto ciò fece supporre che i composti del manganese dovessero contenere un nuovo elemento, ma il merito di averlo isolato per primo va allo svedese Johan Gottlieb Gahn[3] che lo ottenne arrostendo la pirolusite con carbone (in termini chimici riducendo il biossido di manganese con carbonio: MnO2 + C ® Mn +CO2).

Manganese metallico

Il manganese con le sue 1000 ppm (0.1% ca.) occupa il 12° posto per abbondanza fra gli elementi chimici nella crosta terrestre. Il suolo contiene 7-9000 ppm di manganese con una media di 440 ppm. L’acqua di mare ha solo 10 ppm di manganese e l’atmosfera ne contiene 0,01 μg/m3.

Le risorse terrestri sono grandi ma distribuite in modo irregolare. Circa l’80% delle riserve di manganese conosciute nel mondo si trovano in Sud Africa; altri importanti depositi sono in Ucraina, Australia, India, Cina, Gabon e Brasile.

Distribuzione delle risorse di manganese (minerali), 2006

Secondo la stima del 1978, il fondo oceanico conterrebbe 500 miliardi di tonnellate di noduli di manganese. I tentativi di trovare metodi economicamente validi per la raccolta di questi noduli furono abbandonati negli anni ’70.

In Sud Africa la maggior parte dei depositi identificati si trova vicino a Hotazel nella Provincia di Northern Cape, con una stima (2011) di 15 miliardi di tonnellate. Nel 2011 il Sudafrica ha prodotto 3,4 milioni di tonnellate di manganese, superando tutte le altre nazioni.

Il manganese metallico si ottiene ancor oggi per riduzione del suo diossido. Come riducente però non si usa più il carbone ma una miscela di gas idrogeno e monossido di carbonio che fornisce sia il calore necessario (il processo avviene a 850 °C) sia l’opportuno riducente. Il diossido di manganese si riduce a monossido (MnO), che viene raffreddato e opportunamente frantumato. Questo composto viene poi inviato a un reattore che riduce ulteriormente il monossido di manganese a manganese metallico per reazione con solfato ferroso in ambiente acido. Il rendimento del processo è del 92%.

Il metallo può essere ulteriormente purificato per via elettrolitica.

Il manganese è essenziale per la produzione di ferro e acciaio per le sue proprietà desolforanti, deossigenanti e leganti.

La produzione dell’acciaio e altre leghe ferrose assorbe attualmente dall’85% al 90% della produzione mondiale di manganese: fra le altre cose, il manganese è un componente chiave per gli acciai inossidabili a basso costo e per alcune leghe di alluminio di largo impiego.

Piatti e lastre in manganese sono utilizzati durante la costruzione o riparazione di un tipo di impianti di sabbiatura chiamati granigliatrici, dotati di motori elettrici collegati a speciali turbine che sparano graniglia metallica ad alta velocità sabbiando il pezzo. Il manganese è più resistente del ferro durante il processo di sabbiatura e risulta essenziale per la longevità dell’impianto.

Il manganese può assumere tutti gli stati di ossidazione da +1 a +7 sebbene i più comuni siano +2, +3, +4, +6 e +7. Agli stati di ossidazione più bassi funziona chimicamente come metallo formando ossidi basici (es. MnO), a quelli più alti funziona da non metallo fornendo ossidi acidi, come nei permanganati del cui sale di potassio si è già detto.

Il biossido di manganese (MnO2) è stato ampiamente utilizzato nelle batterie “a secco” zinco-carbone[4]. Lo stesso materiale funziona anche nelle più recenti batterie alcaline, che utilizzano la stessa reazione di base, ma una diversa miscela di elettroliti. Nel 2002 sono state utilizzate più di 230.000 tonnellate di biossido di manganese per questo scopo e sono attualmente in continuo aumento causa lo sviluppo delle auto elettriche.

Il monossido di manganese (MnO) è un pigmento marrone che si usa per vernici e si trova nelle terre naturali (ad esempio nella terra di Siena e nella terra di Siena bruciata ).

Composti del manganese si usano anche per togliere la tinta verdastra conferita al vetro dalle impurezze di ferro; a concentrazioni molto alte donano al vetro un colore violetto.

In chimica organica sono utilizzati come catalizzatori in molte sintesi.

Il riciclo degli scarti degli acciai e delle altre leghe non ferrose contenenti manganese procede come descritto nei precedenti post sul nickel e il cobalto, il metallo riciclato è riutilizzato nell’industria siderurgica. Per coloro particolarmente interessati ai dettagli del riciclaggio dei metalli dagli scarti di tale industria si rimanda al volume curato da Scott Sibley [1].

Il riciclo del manganese dalle batterie alcaline al litio per auto elettriche è più complicato perché lo si deve separare da litio, nickel e cobalto. Illustriamo qui il procedimento messo a punto da una nota fabbrica tedesca di automobili [2]. Con riferimento alla figura:

Riciclaggio manganese da batterie al litio

da ciascun elemento del sistema di batterie si tolgono dapprima i cavi elettronici da cui vengono separati alluminio e rame dall’acciaio, il corpo del modulo viene invece flottato e triturato poi asciugato e infine setacciato fino a ottenere una polvere nera contenente il manganese insieme a litio, nickel e cobalto. Questi metalli vengono poi separati singolarmente con un procedimento idrometallurgico.

In vista della costante diminuzione delle risorse minerarie e del contemporaneo aumento del consumo globale di manganese, lo sviluppo di tecnologie rispettose dell’ambiente per la ricerca di fonti alternative di Mn ha acquisito grande importanza. Il recupero dai residui minerari o metallici utilizzando gli approcci convenzionali è poco remunerativo a causa degli elevati costi di gestione e di energia coinvolti. Il recupero di Mn mediante biolisciviazione con diversi microrganismi può quindi diventare una valida alternativa verde alle attuali tecniche pirometallurgiche. La biolisciviazione è un complesso di operazioni che si compiono su materiali misti, contenenti metalli e altro materiale, al fine di portare in soluzione i metalli, lasciando come residuo indisciolto la porzione non metallica. La trasformazione è lenta se si usano reagenti inorganici (ad es. acidi), mentre è fortemente accelerata se alla soluzione acida si aggiungono particolari organismi, battéri o funghi. La biolisciviazione batterica è principalmente dovuta a influenza enzimatica, mentre quella fungina non è enzimatica.

Schema del meccanismo generale della biotrasformazione batterica intracellulare di Mn [3]

Una rassegna su questa interessante prospettiva “verde” per lo sfruttamento degli scarti di miniera e il riciclo del manganese è stata pubblicata da S. Gosh et al. [3].

Il manganese è un elemento essenziale per l’organismo umano. È presente come coenzima in diversi processi biologici, tra cui il metabolismo dei macronutrienti, la formazione delle ossa e i sistemi di difesa dai radicali liberi. È un componente fondamentale in dozzine di proteine ed enzimi. Il corpo umano contiene circa 12 mg di manganese, principalmente nelle ossa, il rimanente è concentrato nel fegato e nei reni. Nel cervello umano il manganese è legato a metalloproteine, in particolare la glutammina sintetasi negli astrociti[5].

L’enzima Mn-Superossido dismutasi (Mn-SOD) è il tipo di SOD presente nei mitocondri delle cellule eucariote, ma anche nella maggior parte dei batteri. Questo enzima è probabilmente uno dei più antichi, poiché quasi tutti gli organismi che vivono in presenza di ossigeno lo usano per affrontare gli effetti tossici del superossido (O2), formato dalla riduzione del normale ossigeno molecolare (O2).

Cioccolato fondente, riso, noci, pasta e farina contengono discrete quantità del minerale, ma anche tutta una serie di aromi, dallo zafferano al prezzemolo, al basilico [4].

Negli Stati Uniti le dosi giornaliere raccomandate variano dai 1,2 ai 2,3 mg/giorno per i maschi ai 1,2 – 1,8 mg/giorno per le femmine a seconda dell’età. Per le donne incinte e i lattanti le dosi sono aumentate a 2 e 2,6 mg/giorno di manganese. In Europa la dose media raccomandata per individui maggiori di 15 anni è di 3,0 mg/giorno, che è pure quella consigliata per le donne incinte. Per bambini e ragazzi da 1 a 14 anni le dosi vanno da 0,5 a 2,0 mg/giorno.

Casi di deficienza da manganese sono comunque molto rari.

I composti di manganese sono meno tossici di quelli di altri metalli come il nickel e il rame.  Tuttavia, l’esposizione a polveri e fumi di manganese non deve superare il valore massimo di 5 mg/m 3 anche per brevi periodi a causa del suo livello di tossicità. L’avvelenamento con manganese è stato associato a compromissione delle capacità motorie e a disturbi cognitivi.

A livelli di 500 mg/m3 il manganese diventa molto pericoloso per la salute e la vita.

Il manganese è importante anche nell’evoluzione fotosintetica dell’ossigeno nei cloroplasti delle piante. Per soddisfare il fabbisogno, la maggior parte dei fertilizzanti vegetali ad ampio spettro contiene manganese.

Infine un accenno al ciclo biochimico, ricordando anzitutto che con questo termine, tipico delle Scienze della Vita e della Terra e dell’Ecologia, si intende il percorso attraverso il quale una sostanza chimica si muove attraverso compartimenti biotici (biosfera) e abiotici (litosfera, atmosfera e idrosfera) della Terra. Nella figura è mostrata parte del ciclo dei macronutrienti e dei micronutrienti (oligoelementi) che comprende anche il manganese.

Ciclo biogeochimico schematico di macro e micronutrienti

Come ricordato più volte in questo blog molti cicli biogeochimici sono attualmente studiati per la prima volta poiché i cambiamenti climatici e l’impatto delle attività umane stanno cambiando drasticamente la velocità, l’intensità e l’equilibrio di questi cicli relativamente poco conosciuti.

Per chi volesse saperne di più, rimando alla citazione [5].

Opere consultate

https://en.wikipedia.org/wiki/Manganese

Bibliografia

[1] S. F. Sibley (Ed.), Flow Studies for Recycling Metal Commodities in the United States., U.S. Geological Survey, Reston, Virginia, 2004.

[2] https://www.volkswagen-newsroom.com/en/stories/lithium-to-lithium-manganese-to-manganese-4662

[3] S. Gosh et al., A greener approach for resource recycling: Manganese bioleaching., Chemosphere, 2016, 154, 628-639.

[4] http://www.dietabit.it/alimenti/manganese/

[5] V. Cilek (a cura di), Earth System: History and Natural Variability – Volume IV, UNESCO-EOLSS, 2009, pp. 229-249.

[1] Il nome magnesia fu infine usato per riferirsi solo alla bianca magnesia alba (ossido di magnesio), che fornì il nome di magnesio per l’elemento libero quando fu isolato più di trenta anni dopo, precisamente nel 1808 da Humphrey Davy.

[2] Michele Mercati (1541 – 1593) medico italiano, fu sovrintendente dell’Orto Botanico Vaticano sotto i papi Pio V, Gregorio XIII, Sisto V e Clemente VIII. Fu uno dei primi studiosi a riconoscere gli strumenti di pietra preistorici come oggetti creati dall’uomo piuttosto che pietre naturali o mitologiche.

[3] Johan Gottlieb Gahn (1745 – 1818), chimico e metallurgista svedese, isolò il manganese metallico nel 1774. Dieci anni dopo fu nominato membro dell’Accademia Reale Svedese delle Scienze.

[4] Dette anche pile Leclanché, dal nome del loro inventore nel 1866. Il biossido di manganese impastato con cloruro d’ammonio funge da accettore di idrogeno nelle reazioni che avvengono al catodo di zinco. La barretta di carbone funge unicamente come trasportatore di elettroni.

[5] Gli Astrociti sono caratteristiche cellule a forma di stella presenti nel cervello e nel midollo spinale. Svolgono molte funzioni, tra cui il supporto biochimico alle cellule endoteliali che formano la barriera emato-encefalica, la fornitura di sostanze nutritive al tessuto nervoso, il mantenimento dell’equilibrio degli ioni extracellulari e un ruolo nel processo di riparazione e cicatrizzazione del cervello e del midollo spinale dopo trauma o lesioni.

Dalle forze di van der Waals all’adesione.2. Perchè il ghiaccio è scivoloso?

In evidenza

Claudio Della Volpe

Nella prima parte di questo post abbiamo affrontato il tema di esprimere le forze di van der Waals fra molecole di gas reali nel contesto quantistico e soprattutto tenendo conto della velocità finita con cui i campi si propagano; questo ci ha fatto concludere che le forze di van der Waals in questo contesto sono definibili come forze di Casimir-Polder e il loro comportamento ha a che fare con la natura più intima della materia e dello spazio-tempo (l’energia di punto zero).

In questa seconda parte introdurremo un secondo punto di vista quello macroscopico; ossia invece di ragionare a partire dall’interazione fra due molecole o atomi ragioneremo sull’interazione fra corpi macroscopici, cosa che ha enorme importanza nei casi concreti.

Già Casimir aveva introdotto questo punto di vista col suo effetto, noi ripartiremo dalle forze non ritardate, ossia nella versione vdW. E cercheremo conferme macroscopiche di questi effetti e di queste forze.

Introduciamo qui un’idea molto produttiva che è quella della cosiddetta pressione interna.

La equazione di van der Waals è come detto la seguente:

il termine additivo sulla pressione, +a/V2 che la riconduce ad un comportamento ideale, quanto vale in un caso comune?

Ricordate che la pressione interna è la quantità da aggiungere al valore sperimentale, che si oppone a quella “tradizionale”, che ne riduce il valore “ideale” dunque è una pressione in effetti negativa.

Usando i valori tabulati che sono espressi in kPa L2 e considerando di avere 1 mole di vapor d’acqua a c.n. con un volume dunque di 22.4 litri circa, il risultato sarà dell’ordine di 1000 Pa (per la precisione 1102Pa), dunque l’1% della pressione totale (1atm = 101.325Pa).

Stimiamo la stessa quantità nell’acqua liquida o nel ghiaccio, ossia in fase condensata.

Qui potremmo usare una delle più belle equazioni della termodinamica classica.

Partendo dal primo principio:

dU=TdS-pdV

deriviamo contro il V a T costante

(dU/dV)T=T(dS/dV)T-p

ed infine ricordando le famose relazioni di Maxwell (le relazioni fra derivate seconde) sostituiamo la derivata a destra ottenendo

(dU/dV)T =pressione interna=T(dp/dT)V-p

Questa quantità si trova tabulata in letteratura (J. Chem. Phys. 13, 493 (1945); doi: 10.1063/1.1723984 ) ed ha un valore che si aggira per la maggior parte dei liquidi attorno a 0.2-0.7 GPa, circa 1 milione di volte più alta che nei gas.

E questa è già una bella osservazione che è espressa nel grafico qui sotto estratto da un classico della teoria cinetica

lNTRODUCTlON TO THERMODYNAMicS AND KlNETlC THEORY O f MATTER: Second Edition A. I. Burshstein Copyright@ 2005 WILEY-VCH

A sinistra il confronto fra pressione mozionale o traslazionale ed interna in un gas e a destra in un solido o liquido. La differenza fra la pressione traslazionale o mozionale e quella interna è uguale alla pressione sperimentale. In un gas la pressione traslazionale è poco più grande di quella interna, ed entrambe sono piccole; in una fase condensata invece, a destra entrambe sono grandi e quella traslazionale è ancora di poco più grande di quella interna. I valori finali di p sperimentale sono uguali ma sono il risultato di due differenze molto “diverse” tra loro, due numeri piccoli nei gas e due numeri grandi in fase condensata.

Questa grandezza, la pressione interna, correla bene, linearmente con altre quantità; per esempio se mettiamo in grafico la pressione interna e la tensione superficiale dei liquidi troviamo un ottimo accordo:

La pressione interna “strizza” il liquido o il solido comprimendone la superficie, che dall’altro lato non ha molecole che bilancino la pressione interna e ne ispessisce la superficie esterna, costruendo una sorta di membrana, che dà luogo all’effetto di tensione superficiale. Questa membrana era stata immaginata già da Thomas Young nel 1804.

E’ la membrana che appare visibile quando un insetto come l’idrometra (Hydrometra stagnorum) “schettina “ sull’acqua.

Nel grafico di pressione interna e tensione superfciale, come si vede, l’acqua costituisce un’eccezione, un outlier, è fuori linea, poi vedremo perchè.

Prima però ragioniamo sulle conseguenze degli effetti di questa pressione interna. Se consideriamo il diagramma di fase dell’acqua, vediamo che a questo valore di pressione (0.17GPa) e alla temperatura attorno allo zero, fino a quasi -38°C, l’acqua è liquida (la protuberanza a becco verde fra i ghiacci II, III, V e VI).

Questo fa capire una conseguenza importante; la pressione interna esercitata dal bulk dell’acqua nei confronti della propria superficie, la altera profondamente. Il ghiaccio (che ha una densità minore dell’acqua liquida) non resiste a questa pressione così elevata e fonde assumendo una distribuzione molecolare a maggiore densità, come mostrato nel grafico seguente, ottenuto per via numerica e confermato da varie misure sperimentali.

Quindi la superficie del ghiaccio o della neve fra 0 e -38°C possiede un sottile strato di acqua liquida; questo strato ha uno spessore variabile, decrescente con la temperatura; questo strato, che esiste si badi bene senza effetto di pressione esterna, è quello che permette di sciare, pattinare, schettinare o fare curling. Quando esso scompare, sotto -38°C il ghiaccio aumenta bruscamente il suo attrito e non si riesce più a sciare.

La comune interpretazione che sciare o pattinare si può grazie all’effetto del peso del pattinatore sui pattini funzionerebbe solo a 1°C sotto zero, ma non più giù, perchè nessun pattinatore o sciatore pesa abbastanza da esercitare una pressione sufficiente, le forze di attrazione intermolecolari si.

Prendete un pattinatore da 80 kg e mettetelo su un paio di pattini con un coltello da 5cm2 (25cm per 2mm di spessore), la pressione sarebbe di 8000N/0.001m2=8MPa solamente.

Per verificare se bastano usiamo la equazione di Clausius Clapeyron che ci da l’aumento di temperatura di fusione per un certo aumento di pressione.

la variazione fra il volume del ghiaccio e dell’acqua per un kg è 0.0905 litri (d=0.917) il calore latente di fusione è 3.33×105 J/kg.

273x-0.0905×10-3 x 8000000 /3.33×105 = -0.59°C. Quindi fino a -0.59°C bastano e poi?

E a t più basse? No non si pattina o si scia per questo effetto, come si crede comunemente.

http://physicspages.com/pdf/Schroeder/Schroeder%20Problems%2005.32.pdf

In questo bell’articolo (Why ice is slippery,2005 Physics today, p.50) una serie di approfondimenti (https://physicstoday.scitation.org/doi/full/10.1063/1.2169444 )

Il fatto che la superficie del ghiaccio possedesse un film di acqua era stato notato da Faraday (M. Faraday, Experimental Researches in Chemistry and Physics, Taylor and Francis, London (1859), p. 372. 
) con un esperimento elegantissimo che faceva attaccare due sfere di ghiaccio al semplice contatto (regelation)

Questo fenomeno costituì oggetto di discussione fra Faraday, J.J. Thomson, quello del plum-pudding model dell’atomo e che non ci credeva e perfino Gibbs, che ci credeva. Ed è stato poi confermato varie volte, per esempio in questo bel lavoro del 1954 di Nakaja e Matsumoto che riproducono l’esperimento di Faraday.

O in quest’altro di Hosler o in molte analisi fatte con i raggi X sulla lunghezza di legame nelle molecole di superficie.

Hosler, R. E. Hallgren, Discuss. Faraday Soc. 30, 200 (1961); C. L. Hosler, D. C. Jensen, L. Goldshlak, J. Meteorol. 14, 415 (1957).

Questo effetto che si potrebbe definire “fusione superficiale”, surface melting, è presente anche in altre sostanze: J. W. M. Frenken, J. F. van der Veen, Phys. Rev. Lett. 54, 134

(1985) e produce in esse una superficie intrinsecamente scivolosa.

Finisco il post notando che la formula usata prima per calcolare la pressione interna dà comunque un risultato che fa pensare, in quanto l’acqua, nella quale la tensione superficiale è più forte, ma nella quale la correlazione con la pressione interna viene meno, in questo si assomiglia ad altri liquidi con legami idrogeno e ci dà l’indicazione che qualcosa non torna.

Questa osservazione l’aveva fatta alcuni anni fa il compianto H.S. Frank (famoso per la bibbia sull’acqua, Water in 7 voll) (J. Chem. Phys. 13, 493 (1945); doi: 10.1063/1.1723984 ); l’acqua ed in genere le molecole lontane da una forma “ideale” semplice, sferica sono situazioni in cui una parte dell’energia libera del sistema è catturata da gradi di libertà “non manifesti”. Se usate questa stima della pressione interna l’acqua sembra peggio del pentano per esempio, il che è strano davvero. Molecole come gli idrocarburi senza forti interazioni specifiche sembrano avere la stessa pressione interna dell’acqua e dunque le stesse forze di interazione. Fatto che fa sorgere dubbi.

Per questo motivo la grandezza in questione, la pressione interna di un liquido si potrebbe stimare altrimenti, usando un’altra quantità: la energia di coesione o densità di energia di coesione (ced), ossia l’entalpia di vaporizzazione (oppure la somma di entalpia di vaporizzazione e fusione)per unità di volume. Il confronto fra i due tipi di dato è fatto per esempio da Y. Marcus (Internal Pressure of Liquids and Solutions, Yizhak Marcus, 2013 Chem. Rev.)

Una energia per unità di volume è equivalente dimensionalmente ad una forza per unità di superficie e dunque ad una pressione!!

U/V=Fxl /(lxS) dunque dividendo per l entrambi, numeratore e denominatore si ha una pressione! Per i liquidi “normali” diciamo senza legami idrogeno, le due quantità sono molto simili, ma in quelli con legami idrogeno, no; i legami idrogeno non sono forze di van der Waals e hanno effetti diversi. Ricordatelo, ci servirà per i prossimi post.

Per l’acqua questo valore è di circa 2.3 GPa, allo stato liquido (mentre la pressione interna calcolata nell’altro modo è di soli 0.17GPa); di poco superiore sarebbe quella del ghiaccio, appena sopra i 2.5GPa. Questo è dunque l’ordine di grandezza della pressione che si esercita anche all’interfaccia e che giustifica un comportamento dell’acqua molto particolare.

A questo punto nel diagramma di fase l’acqua si sposterebbe verso altre forme di ghiaccio piuttosto che verso uno stato disordinato più vicino al liquido.

A questo stadio della nostra riflessione la questione rimane irrisolta, ma si può pensare che l’effetto di strizzatura superficiale, distruggendo la struttura regolare impedisca la formazione di legami idrogeno e riconduca le interazioni molecolari nel più semplice stato di interazioni di vdW.

Nel prossimo post analizzeremo il caso delle interazioni fra oggetti macroscopici in modo più formale, andando a scoprire chi erano Hamaker e Lifshitz, due giganti della chimica e della fisica.

(continua).

Un composto stabile dell’elio: l’eliuro di sodio

In evidenza

Rinaldo Cervellati

Nel febbraio 2017, Stefano Parisini diede sull’INAF (Notiziario on-line dell’Istituto Nazional e di Astrofisica) la notizia della scoperta di un composto stabile del gas nobile elio con il sodio, con stechiometria Na2He*.

Scrive Parisini che l’articolo definitivo su questa importante scoperta è stato pubblicato su Nature Chemistry [1] dopo una lunga gestazione. Ho voluto ripercorrerne la storia, poiché l’ho trovata molto istruttiva.

Una prima versione fu sottoposta il 16 settembre 2013 e una seconda il giorno dopo [2]. In queste versioni i sei autori, cinque cinesi (fra i quali Hui-Tian Wang[1]) e il russo Artem Oganov[2], riportano la previsione teorica dell’esistenza e della struttura cristallina cubica (tipo fluorite) del composto fra l’elio e il sodio, stabile a pressioni maggiori di 160 GPa (ca. 1,6´106 atm). Essi razionalizzano anche la stabilità di questo composto in termini di teoria degli orbitali. Queste versioni non furono pubblicate.

Struttura cristallina di Na2He [1]

Il 10 luglio 2014 fu sottoposta una terza versione della ricerca [3]. Ai sei autori delle versioni precedenti se ne aggiunsero diversi altri, fra cui l’italiano Carlo Gatti[3]. In questa versione sono riportati calcoli più accurati che danno la molecola Na2He termodinamicamente stabile sopra 113 GPa (ca. 1,12´106 atm) e la previsione di un nuovo composto dell’elio con stechiometria Na2HeO, stabile da 13 GPa. Anche questa versione non fu pubblicata.

I ricercatori decisero comunque di presentare una comunicazione al XXIII Congresso dell’International Union of Crystallography, svoltosi a Montreal (Canada) dal 5 al 12 agosto 2014. Il testo della comunicazione fu pubblicato da Acta Crystallografica negli Abstracts of XXIII IUCr [4].

Artem Oganov (a sinistra) Carlo Gatti (a destra)

Ma il gruppo internazionale di scienziati (cinesi, russi, italiani, greci, americani) dovrà aspettare più di due anni per vedere pubblicata la ricerca, cioè non prima di aver provato la reale esistenza di Na2He, oggi chiamato eliuro di sodio (IUPAC: disodio eliuro).

Anzitutto ulteriori più raffinati calcoli su possibili altri elementi che potrebbero formare composti con l’elio (O, F, Na, K, Mg, Li, Rb, Cs, ecc.) mostrarono che solo il sodio avrebbe potuto facilmente formare un composto stabile con He alle pressioni accessibili a esperimenti statici.

Per ottenere Na2He, gli scienziati hanno utilizzato uno strumento particolare, una cella a incudini di diamante, un’apparecchiatura che permette di generare pressioni altissime e di studiare la struttura tramite diffrattometria a raggi X, simile a quella di cui abbiamo parlato nel post sul ghiaccio superionico[4].

Cella a incudini di diamante: schema (a sinistra) apparecchiatura (a destra)

Il composto Na2He è stato ottenuto a una pressione pari a circa 1,1 milioni di volte quella dell’atmosfera terrestre, in accordo con il valore calcolato, e resta stabile anche a pressioni circa 10 volte superiori.

Carlo Gatti, intervistato da Parisini, dice:

Questa scoperta dimostra che l’elio non è completamente inerte come si pensava. In certe condizioni può formare dei composti stabili e addirittura assumere una carica negativa. Di fatto, quello che capita è la creazione di coppie elettroniche che occupano alternativamente le posizioni dell’elio.

E aggiunge:

Na2He appartiene infatti alla categoria dei cosiddetti elettruri, materiali cristallini simili a sali, essendo costituito da un reticolo di ioni sodio carichi positivamente all’interno del quale si trova un sottoreticolo carico negativamente formato da coppie di elettroni localizzate.

Tali coppie di elettroni isolati hanno una topologia della densità elettronica che assomiglia a quella di un atomo, per cui possiamo vedere in questo composto la presenza di sodio depauperato di elettroni, elio leggerissimamente carico negativamente, e queste coppie elettroniche, che formano una struttura ordinata tipo fluorite [fluoruro di calcio CaF2].

Funzione di localizzazione elettronica tracciata in un piano cristallino [1]

Il nuovo composto, qualunque nome avrà, difficilmente troverà applicazioni pratiche, nel caso si potesse mai produrre su scala industriale. È tuttavia di grande interesse per l’astrofisica, vista l’abbondanza dell’elio nel cosmo e la presenza di pressioni e temperature più estreme di quelle ottenute in laboratorio.

*S. Parisini, L’elio non è più solo: sotto pressione si combina, Media INAF, 7 Febbraio 2017 https://www.media.inaf.it/2017/02/07/lelio-non-e-piu-solo-sotto-pressione-si-combina/

Bibliografia

[1] Xiao Dong et al., A stable compound of helium and sodium at high pressure., Nature Chemistry, 2017, 9, 440-445.

[2] Xiao Dong et al., Stable Compound of Helium and Sodium at High Pressure., September 17, 2013, arXiv:1309.3827v2 [cond-mat.mtrl-sci], https://arxiv.org/abs/1309.3827v2

[3] Xiao Dong et al., Stable Compound of Helium and Sodium at High Pressure., July 10, 2014, arXiv:1309.3827v3 [cond-mat.mtrl-sci], https://arxiv.org/abs/1309.3827v3

[4] G. Saleh et al. Stable Compound of Helium and Sodium at High Pressure., Acta Cryst. 2014, A70, C617.

[1] Hui-Tian Wang, Nankai University, Tianjin, China and National Laboratory of Solid State Microstructures, Nanjing University, China

[2] Artem R. Oganov (1975-) è un cristallografo teorico russo, mineralogista, chimico, fisico e scienziato dei materiali. È conosciuto soprattutto per i suoi lavori sulla previsione computazionale di nuovi materiali e sulla loro struttura cristallina.

[3] Carlo Gatti, ricercatore senior dell’Istituto di Scienze e Tecnologie Molecolari del CNR di Milano, esperto in teoria del legame chimico, si occupa delle proprietà chimico fisiche dei materiali e della loro modellizzazione teorica.

[4] https://ilblogdellasci.wordpress.com/2019/06/10/ghiaccio-superionico-ottenuto-in-laboratorio/

Intervista al teorico del ghiaccio nero.

In evidenza

a cura di Claudio Della Volpe

Qualche giorno fa abbiamo pubblicato un post riguardante la conferma sperimentale dell’esistenza del cosiddetto ghiaccio superionico, ottenuta in laboratorio da un gruppo italo francese .

L’ipotesi di esistenza di questo materiale, nero, conduttore e caldissimo, che potrebbe essere la forma più comune dell’ acqua nel sistema solare e forse nell’Universo è stata formulata oltre trent’anni fa da un chimico italiano, Pierfranco Demontis, oggi all’Università di Sassari. Laurea in Chimica, Università di Sassari, 16 Marzo 1979. Oggi professore ordinario di Chimica Fisica. Si occupa di chimica teorica, automi cellulari, simulazioni numeriche su liquidi e solidi con applicazioni alla scienza dei materiali, ed in particolare materiali microporosi (zeoliti).

Ci ha colpito il fatto che questa ipotesi, fatta tanti anni fa usando la potenza di calcolo di allora e le conoscenze teoriche di allora, abbia necessitato tanti anni per essere confermata; che in effetti il lavoro originale di Demontis et al.( New high-pressure phases of ice. Phys. Rev. Lett. 60, 2284–2287 (1988).) sia stato citato relativamente poche volte in letteratura e che invece la conferma sperimentale abbia avuto uno spazio enorme sui siti e sui giornali; ed infine che quasi nessuno abbia ricordato chi ha fatto l’ipotesi e soprattutto cosa pensa, chi l’ipotesi aveva fatto, di questa conferma sperimentale che apre una quantità enorme di speculazioni sulla costituzione dei pianeti giganti, sulla loro struttura sui dettagli del loro campo magnetico, insomma c’è da lavorare per anni.

C’è anche l’aspetto della capacità previsionale sui materiali, sembra che si possa prevedere tutto teoricamente. Ma è così?

Infine gli italiani ci fanno un figurone; la teoria e la pratica di laboratorio dei nostri scienziati, le nostre collaborazioni internazionali sembrano al top in entrambi i casi, una tradizione che rivoluziona l’ipotesi che spesso fanno i giornali che l’Italia sia la cenerentola della ricerca; manco per idea.Abbiamo dunque deciso di intervistare Pierfranco Demontis che ha cortesemente acconsentito.

D. Prof. Demontis oggi operi in una Università che si sente nominare poco, in una regione fra le più difficili d’Italia, che va alla ribalta quasi solo per cose negative; mentre oltre alle bellezze naturali ha evidentemente una tradizione culturale di tutto rispetto; parlaci di te e della tua carriera; di cosa ti occupi oggi? hai studiato in Sardegna, hai avuto esperienze all’estero ma poi sei tornato. Perché? Come mai non sei un “cervello in fuga”?

R. Sono nato in Sardegna, a Sassari, dove ho completato i miei studi laureandomi in chimica nel 1979. Dopo avere passato quattro anni come assistente volontario (cioè senza borsa) nel gruppo del Prof. Aldo Gamba, nel 1983 ho vinto un concorso per Ricercatore Universitario, ruolo allora istituito di recente con la legge 382 del 1980. Nel 1987 fui invitato a trascorrere un anno sabbatico all’Università della Pennsylvania nel gruppo di Mike Klein. Il progetto che avevamo discusso riguardava lo studio delle proprietà di trasporto di carica dei conduttori superionici, e il loro comportamento quando sottoposti ad altissime pressioni. Cominciai sviluppando i codici di calcolo per simulare alcuni di questi materiali per poi trasferirli sul nostro vero obiettivo: lo studio dell’acqua, il cui diagramma di fase era oggetto di speculazioni teoriche e d’indagini sperimentali. Il risultato fu sorprendente: era possibile immaginare una nuova fase del ghiaccio con proprietà da conduttore superionico. Spedimmo il lavoro, fatto in collaborazione con Mike e Richard LeSar, che all’epoca lavorava nei laboratori di Los Alamos, nel dicembre del 1987 e fu accettato e pubblicato su Physical Review Letters nel maggio del 1988, dopo un attento esame da parte dei “referees”. Nel corso degli anni, sull’argomento, sono state fatte altre simulazioni con metodi sempre più sofisticati e sempre con l’obiettivo di spiegare il comportamento dell’acqua sottoposta ad altissime pressioni. Trent’anni dopo, il 14 Febbraio 2018, ho avuto da Mike la notizia che la nostra previsione era stata verificata sperimentalmente e che i risultati sarebbero stati pubblicati su Nature Physics. Ho incontrato Mike a Febbraio di quest’anno a Bangalore (India) ad un congresso e abbiamo parlato di quegli anni, dove con mezzi all’epoca all’avanguardia, oggi relativamente modesti, fummo capaci di fare una previsione così inaspettata.

Rientrato in Italia nel 1988 continuai ad occuparmi principalmente di simulazioni di proprietà strutturali e dinamiche di molecole adsorbite in materiali microporosi, . Nel corso degli anni abbiamo cercato di affrontare problemi metodologici finalizzati all’integrazione di diverse tecniche di simulazione al calcolatore per studiare le interazioni e il comportamento diffusivo delle specie molecolari assorbite all’interno di materiali microporosi ad alta tecnologia, inserite in un contesto teorico-computazionale multi-scala.

Questa è in breve la mia storia scientifica. Sono tornato in Italia, e pur avendo la possibilità di restare, per ragioni familiari ho preferito rientrare. D’altra parte avevo già una posizione permanente, quindi non mi considero un “cervello in fuga” sebbene debba riconoscere che all’estero, e in particolare negli Stati Uniti vi siano molte più risorse e opportunità che in Italia.

D. Trent’anni fa eri al Dipartimento di Chimica all’Università di Pennsylvania e collaboravi con figure di prestigio; quale era all’epoca il ruolo del calcolo e della relativa conferma sperimentale, come arrivaste a formulare l’ipotesi del ghiaccio superionico? E come si è evoluta da allora la previsione teorica sulle proprietà dei materiali?

R. All’epoca, come oggi, la comunità dei simulatori crede che una simulazione ben fatta o esperimento “in silico”, dove le relazioni (leggi fisiche) tra gli oggetti (nel nostro caso atomi e molecole) che lo compongono siano trasformate in algoritmi di calcolo, abbia la capacità di avvicinarsi a prevederne le proprietà ed eventualmente la dinamica spazio-temporale. Tutto questo sarà verificato con le misure sperimentali disponibili o da realizzarsi, come nel caso del ghiaccio superionico. La moderna scienza dei materiali oggi fa largo uso di simulazioni inserite in un contesto teorico-computazionale, multi-scala; ossia, poiché i materiali d’interesse saranno da utilizzarsi in processi su scala macroscopica, ovvero la scala degli oggetti visibili, ed essendo però la loro relativa efficienza determinata dalle loro caratteristiche microscopiche, ovvero la scala delle proprietà atomiche, tutti i sistemi oggetto d’indagine passano attraverso una sequenza di fasi di studio diversificate nelle relative scale di spazio e tempo e nel grado di dettaglio appropriato per ciascuna scala. Più specificatamente, la sequenza delle simulazioni è caratterizzata da un’estensione delle scale di spazio e tempo crescente e nel contempo da un livello di dettaglio, nella rappresentazione digitale, necessariamente decrescente. Grazie alla continua evoluzione dei calcolatori elettronici e al continuo aumentare delle loro prestazioni, le tecniche di simulazione numerica rappresentano oggi una valida alternativa a basso costo rispetto alle procedure di sintesi e analisi in laboratorio per la progettazione e lo studio di materiali ad alta tecnologia altamente specifici e dei processi chimico-fisici che, al loro interno, coinvolgano una o più specie molecolari. In generale il protocollo per l’indagine di un sistema fisico comincia con la simulazione a principi primi (laddove la materia è descritta dalla meccanica quantistica, utilizzando le tecniche proprie della chimica quantistica) di piccole porzioni dello stesso. I risultati ottenuti sono quindi elaborati e il grado di dettaglio nella rappresentazione è ridotto allo scopo di ottenere i parametri adatti a descrivere, stavolta secondo le leggi della meccanica classica, porzioni molto più ampie di sistema seppur mantenendo un grado di accuratezza elevato; tale parametrizzazione sarà impiegata in simulazioni di Dinamica Molecolare classica (Molecular Dynamics, MD), in cui il sistema è rappresentato su scala microscopica nella sua evoluzione temporale, e di Monte Carlo (MC) classico, in cui le proprietà statiche del sistema vengono determinate attraverso metodi probabilistici basati sui principi della meccanica statistica. L’indagine si sposta poi dalla scala microscopica a quella mesoscopica, ovvero intermedia tra quella macroscopica e quella microscopica, compresa in genere tra i 5 e 100 nanometri: il sistema simulato attraverso metodi classici è partizionato in porzioni ampie, e le mutue interazioni tra porzioni diverse sono analizzate e riprodotte attraverso simulazioni ad hoc basate su algoritmi semplificati ad altissima efficienza come gli Automi Cellulari (Cellular Automata, CA), il Monte Carlo Cinetico (Kinetic Monte Carlo, KMC) e le Reti Neurali (Neural Networks, NN). Il comportamento su scala mesoscopica delle proprietà d’interesse sarà poi fatto confluire all’interno di equazioni di stato appositamente concepite che permetteranno il definitivo passaggio alla scala macroscopica, quella per cui è previsto il reale utilizzo dei materiali.

D. All’epoca concludevate:

Se potessi rifare quel lavoro oggi lo rifaresti diversamente?

R. Oggi è possibile studiare il sistema con mezzi teorici molto più sofisticati, in particolare gli effetti quantistici possono essere trattati in modo assai più accurato. Direi però che manterrei inizialmente il nostro approccio semplificato per poi passare a metodi più precisi. Una consuetudine quando si comincia ad affrontare un problema nuovo.

D. Conosci i colleghi che hanno confermato la tua ipotesi? In che rapporti è oggi il teorico con il lavoro di laboratorio? Secondo te si può dedurre che con gli strumenti attuali la previsione teorica può effettivamente costituire una sorta di strumento progettuale per i materiali o credi invece che l’esperimento abbia la prevalenza sempre e comunque? Fra l’altro vediamo che ti occupi anche di materia oscura; quale è la situazione al momento su questo tema?

R. Non conosco i colleghi che hanno confermato l’esistenza del ghiaccio superionico. Le simulazioni a volte precedono e a volte inseguono il risultato sperimentale per arricchirlo con proprietà non immediatamente misurabili. C’è comunque una stretta interazione.

Partecipo al progetto DarkSide come chimico computazionale con l’idea di progettare materiali più efficienti per la separazione delle miscele isotopiche. Non sono un fisico delle particelle elementari e quindi non saprei entrare nel dettaglio della situazione attuale della ricerca in questo campo.

D. Ho una curiosità personale; vedo che nelle immagini degli interni planetari il ghiaccio superionico viene rappresentato nero anche se in effetti si tratta di un materiale che si trova ad alta temperatura; è corretta una rappresentazione del genere? E più in dettaglio cosa pensi del modo in cui le riviste divulgative hanno riportato l’argomento?

R. A mio parere l’interesse su questo argomento di “nicchia” è dovuto al fatto che questa forma del ghiaccio potrebbe essere la più comune nel nostro sistema solare e forse nell’universo. Le proprietà magnetiche di Nettuno e Urano e degli esopianeti sono meno comprensibili al grande pubblico mentre invece l’esistenza di un ghiaccio nero e caldo fa “notizia”.

D. Cosa consigli ai giovani brillanti; fuga o ritorno? La situazione della ricerca italiana come è vista da Sassari? E quali prospettive vedi per il settore della Chimica Fisica oggi, specie nel contesto così vicino e quasi sovrapposto alla Fisica di cui ti occupi?

R. Diverse ragioni spingono un giovane brillante a partire, anzitutto credo il desiderio di imparare in un ambiente diverso e confrontarsi con altri giovani che hanno maturato esperienze diverse. Rientrare in Italia purtroppo non è facile. La nostra struttura accademica è molto “conservativa”, con poche opportunità e poche risorse, è spesso chi ha trovato una posizione permanente all’estero preferisce tornare in Italia in vacanza. L’interazione tra Fisica e Chimica Fisica è fortissima, le collaborazioni sono numerose e molti dei nostri chimico fisici provengono dal mondo della fisica.

D. Un tuo famoso conterraneo, Antonio Gramsci parlando di scienza denunciava la superficialità anche di parte dell’accademia del suo tempo la cosiddetta “superficiale infatuazione per la scienza”, come anche la necessità di una socialità della scienza contrapposta alla semplice universalità della medesima; tu cosa ne pensi? La scienza di oggi è abbastanza socializzata?

R. Sono d’accordo con Gramsci. L’idea che ciò che viene definito scientifico è “vero” è molto radicata anche tra gli scienziati, come anche l’idea che la scienza possa risolvere qualunque problema. In realtà società molto evolute scientificamente e tecnologicamente non hanno risolto forti disparità interne di accesso alle risorse economiche e culturali e a livello globale nel mondo ancora milioni di persone soffrono per denutrizione e malattie facilmente curabili.

L’importanza della molecola-ione H3+ in astrochimica

In evidenza

Rinaldo Cervellati

Come riporta Janet Pelley in uno speciale* di Chemistry & Engineering newsletter dell’8 giugno scorso, la molecola più semplice a 3 atomi sta rivoluzionando le osservazioni dello spazio interstellare e facendo nuova luce sulla formazione del legame chimico.

La molecola ione H3+ fu scoperta da J. J. Thomson[1] attorno al 1911 mentre stava studiando le specie risultanti da scariche elettriche nel plasma usando una prima versione di spettrometro di massa. Egli notò la grande abbondanza di uno ione molecolare con un rapporto massa/carica di 3, che assegnò correttamente alla specie H3+ [1].

H3+ (o anche idrogeno molecolare protonato) è un catione costituito da tre nuclei di idrogeno (protoni) che condividono due elettroni. È la specie triatomica più semplice, perché i suoi due elettroni sono gli unici elettroni di valenza nel sistema. È anche l’esempio più elementare di un sistema di legame a tre centri e due elettroni[2] (citato in un recente post).

Strutture per H3+

Fin dagli anni ’60 del secolo scorso gli scienziati ipotizzarono che H3+ potesse trovarsi nello spazio, ma occorre aspettare il 1989 prima che i ricercatori riuscissero ad individuare il suo segnale caratteristico proveniente da Giove.

La scoperta di H3+ nello spazio dipendeva infatti dalla descrizione dello spettro della molecola, parti del quale erano state osservate nel 1980 da Takeshi Oka dell’Università di Chicago [2].

La molecola ione emette luce infrarossa (IR) a lunghezze d’onda caratteristiche che possono attraversare le vaste distanze dello spazio, arrivando fino ai rivelatori sulla Terra. Va sottolineato che le emissioni più forti di H3+ si trovano in un insieme di lunghezze d’onda raramente emesso da altre molecole, rendendolo relativamente facile da individuare, anche a distanza di anni luce.

Giove ha spettacolari aurore, dovute a nuvole colorate di gas carichi, ma negli anni ’80 si sapeva poco della loro chimica, dice Steve Miller, scienziato studioso dei pianeti all’University College di Londra. Così Pierre Drossart dell’Osservatorio di Parigi, lo stesso Miller, e i loro colleghi puntarono un telescopio a infrarossi sulle aurore che si libravano sopra i poli di Giove. Con un moderno spettrometro sensibile collegato al telescopio si aspettavano di osservare la presenza di gas idrogeno, H2, la molecola più abbondante sul gigante gassoso. Ma lo spettrometro rilevò anche un altro insieme di lunghezze d’onda IR impreviste. Miller e collaboratori si resero subito conto che il loro spettro IR calcolato per H3+, che avevano costruito in base al lavoro di Oka, coincideva perfettamente con le misteriose emissioni provenienti da Giove [3].

Il pianeta Giove

La scoperta inaspettata per la prima volta di H3+ nello spazio convinse gli scienziati a cercare anche altrove nell’universo.

Negli ultimi 30 anni, i ricercatori hanno trovato H3+ quasi ovunque nello spazio che hanno esplorato. La sua presenza ha dato loro uno strumento per osservare direttamente i processi nello spazio che in precedenza erano stati solo ipotizzati teoricamente.

Dice James O’ Donoghue dell’Agenzia Giapponese per l’Esplorazione dello Spazio: “Non è soltanto il fatto che possiamo osservare H3+ nelle atmosfere superiori di pianeti come Giove, Saturno e Urano, ma possiamo derivare proprietà come la temperatura e la densità di H3+”.

I modelli possono anche prevedere la quantità di luce che una singola molecola di H3+ dovrebbe emettere a varie temperature. La capacità di misurare l’intensità della luce che raggiunge i loro rivelatori consente ai ricercatori di ricavare la concentrazione di H3+ sopra le superfici dei pianeti.

Questo tipo di misurazioni ha permesso a O’Donoghue e colleghi di confermare un’ipotesi di lunga data sugli anelli di Saturno. Gli anelli sono costituiti da pezzi e particelle di ghiaccio, tenuti in orbita dall’equilibrio tra la gravità del pianeta e la forza centrifuga degli anelli rotanti. Gli scienziati sospettavano da tempo che a volte queste particelle piovessero sul pianeta. Hanno proposto che le particelle di ghiaccio possano essere caricate da collisioni con micrometeoriti che si muovono nello spazio o dalla luce ultravioletta proveniente dal Sole. Gli scienziati ipotizzarono che queste particelle cariche potessero quindi essere catturate dal campo magnetico di Saturno ed essere attirate nell’atmosfera superiore del pianeta, dove sarebbero sublimate in vapore acqueo gassoso neutro. L’acqua neutra riduce la densità di elettroni nell’atmosfera, che a sua volta prolunga la durata di vita di H3+, quindi le aree del pianeta che ricevono tale pioggia di anelli dovrebbero avere densità più alte di H3+.

Il pianeta Saturno

Gli studi sulle emissioni H3+ di Saturno hanno rilevato alte concentrazioni della molecola nell’atmosfera che circonda il pianeta proprio dove il ghiaccio dovrebbe uscire dagli anelli e precipitare nell’atmosfera. Ma mancava un’analisi dettagliata della temperatura e della densità a diverse latitudini, dice O’Donoghue. Dopo aver condotto tali analisi, lui e il suo team non solo hanno confermato la presenza di H3+ in modelli che sostenevano la teoria della pioggia dall’anello, ma hanno anche calcolato che l’intero sistema di anelli dovrebbe scomparire in almeno 300 milioni di anni, un battito di ciglia in confronto ai tempi cosmologici [4].

Lo ione H3+ ha anche contribuito a risolvere un mistero sull’atmosfera superiore di Giove. Giove è cinque volte più lontano dal Sole della Terra, quindi la parte superiore della sua atmosfera dovrebbe essere estremamente fredda. Eppure gli scienziati hanno misurato che essa è tanto calda quanto quella della Terra. Perché?

Studi modellistici precedenti avevano suggerito che le onde sonore provenienti dalla superficie di Giove potessero riscaldare la parte superiore della sua atmosfera. È infatti noto che le onde acustiche prodotte sopra i temporali viaggiano verso l’alto e riscaldano l’atmosfera terrestre. La famosa Grande Macchia Rossa di Giove è la più grande tempesta del nostro sistema solare, con venti che arrivano a oltre 600 km/h, quindi sarebbe ragionevole pensare che possa contribuire a riscaldare l’atmosfera del pianeta.

La Grande Macchia Rossa di Giove emette calore

Utilizzando le lunghezze d’onda emesse da H3+, O’Donoghue e il suo gruppo nel 2016 hanno mappato per la prima volta le temperature nell’atmosfera superiore di Giove, trovando che le massime si trovano proprio sopra la Grande Macchia Rossa. Il gruppo ha quindi dedotto che questo dato è coerente con l’ipotesi secondo cui le onde sonore provenienti dalla Grande Macchia Rossa stanno riscaldando l’atmosfera superiore del pianeta. Le onde sonore viaggiano verso l’alto, frangendosi sullo strato esterno dell’atmosfera come le onde su una spiaggia, causando eccitazione vibrazionale e rotazionale di H3+ e di altre molecole. Questo incremento di energia cinetica provoca il riscaldamento [5].

Questi risultati hanno aiutato gli scienziati a comprendere anche altre questioni terrestri. Basandosi su questi, Bowman e Lees hanno suggerito che il suono a bassa frequenza delle onde oceaniche che si infrangono l’una con l’altra potrebbe riscaldare l’atmosfera superiore della Terra [6].

Particolarmente interessante è che la molecola-ione H3+ in una sua forma particolare[3] può anche agire come un orologio chimico, aiutando gli astrofisici a studiare processi che vanno ben oltre il nostro sistema solare.

A quattrocento anni luce dalla Terra, nella costellazione di Ofiuco, fluttuano nubi di polvere interstellare. Questi insiemi relativamente densi di molecole e particelle possiedono le caratteristiche per diventare due future stelle, si potrebbe quindi trattare di due stelle in formazione. Costituite principalmente da idrogeno gassoso, le nuvole contengono anche elio e granelli di polvere congelata di carbonio e silicio talvolta rivestiti di ghiaccio. Questo elenco di “ingredienti” contiene anche H3+.

Le nubi di gas e polvere nella costellazione di Ofiuco

La temperatura delle nuvole è di poche decine di gradi sopra lo zero assoluto (−273.16 °C). In questo ambiente, gli atomi e le molecole si scontrano occasionalmente per poi rimbalzare immutati perché non hanno abbastanza energia per reagire. L’H3+ altamente reattivo, tuttavia, è pronto a donare un protone a qualsiasi cosa in cui si imbatte. La piccola molecola arricchisce la chimica della nuvola lanciando catene di reazioni che producono molecole più grandi e diversificate che coinvolgono principalmente carbonio, idrogeno e ossigeno.

Gli scienziati sono molto interessati al tempo necessario per la formazione di una stella, stimato tra i 100000 e oltre il milione di anni per cui non può essere seguito con gli orologi convenzionali. Gli astrofisici hanno valutato la possibilità di utilizzare la molecola-ione triidrogeno.

Olli Sipilä, un astrochimico del Max Planck Institute for Extraterrestrial Physics, particolarmente interessato alle nubi nella costellazione di Ofiuco, dice però che sebbene H3+ sia facile da rivelare non è di per se un buon orologio chimico. Tuttavia, aggiunge Sipilä, nel freddo spazio interstellare, H3+ a volte sostituisce uno ione deuterio (isotopo dell’idrogeno con un protone e un neutrone nel nucleo) a uno ione idrogeno, formando H2D+. Le due forme orto- e para- di H2D+ (v nota 3) emettono luce IR a differenti lunghezze d’onda. Tuttavia mentre la luce emessa dalla forma orto- riesce a raggiungere i rivelatori sulla Terra, quella emessa dalla forma para- è bloccata dall’atmosfera terrestre. Solo recentemente il nuovo telescopio montato a bordo di un aereo che vola a 14 km sopra la Terra[4], ha consentito ai ricercatori di misurare la luce IR emessa dal para-H2D+.

Utilizzando queste misure, Sipilä e collaboratori hanno potuto stimare in un milione di anni l’età del nucleo delle protostelle in Ofiuco [7].

Protostelle in formazione

Infine queste ricerche hanno ovviamente attratto l’attenzione dei chimici verso le proprietà e le reazioni cui il catione H3+ può dar luogo in laboratorio. Chi fosse particolarmente interessato a questi aspetti, oltre all’articolo di Janet Pelley, può consultare il lavoro di N. Ekanayake et al. Mechanisms and time-resolved dynamics for trihydrogen cation (H3+) formation from organic molecules in strong laser fields, Scientific Reports, 2017, scaricabile al sito https://www.nature.com/articles/s41598-017-04666-w.pdf

*Lo speciale per C&EN è tratto da un articolo per ACS Central Science (2019, 5, 741-744) di Janet Pelley, scrittrice freelance con sede a Victoria, nella British Columbia. L’articolo è scaricabile dal sito: cenm.ag/trihydrogen

Bibliografia

[1] J. J. Thomson, Rays of Positive Electricity., Proceedings of the Royal Society A, 191389 1–20.

[2] T. Oka, Observation of the Infrared Spectrum of H3+., Phys. Rev. Lett., 1980, 45, 531.

[3] P. Drossart et al., Detection of H3+ on Jupiter., Nature, 1989, 340, 539–541.

[4] J. O’Donoghue et al., Observations of the chemical and thermal response of ‘ring rain’ on

Saturno’s ionosphere., Icarus, 2018, DOI: 10.1016/j.icarus.2018.10.027

[5] J. O’Donoghue et al., Heating of Jupiter’s upper atmosphere above the Great Red Spot., Nature, 2016536,190–192.

[6] D.C. Bowman, J.M. Lees, Upper Atmosphere Heating From Ocean Generated Acoustic Wave Energy., Geophys. Res. Letters, 2018, DOI:10.1029/2018gl077737

[7] S. Brunken, O. Sipilä et al., H2D+ observations give an age of at least one million years for a cloud core forming Sun-like stars., Nature, 2014, 516, 219-221.

[1] Sir Joseph John Thomson (1856-1940), fisico inglese, premio Nobel per la fisica nel 1906 per i suoi studi sulla conduzione dell’elettricità nei gas, è accreditato per la scoperta e l’identificazione dell’elettrone, la prima particella subatomica a essere scoperta. Con una prima versione dello spettrometro di massa fornì la prova dell’esistenza degli isotopi di un elemento stabile. È anche conosciuto per il suo modello di atomo, noto come “modello a panettone”.

[2] Un legame 3-centri 2-elettroni (3c-2e) è un legame chimico carente di elettroni in cui tre atomi condividono due elettroni. La combinazione di tre orbitali atomici forma tre orbitali molecolari: uno di legame, uno di non legame e uno di anti-legame. I due elettroni entrano nell’orbitale di legame, determinando un effetto di legame netto e costituendo un legame chimico tra tutti e tre gli atomi. In molti legami comuni di questo tipo, l’orbitale di legame viene spostato verso due dei tre atomi anziché essere distribuito equamente tra tutti e tre. Questo tipo di legame è anche chiamato legame a banana.

[3] Così come la molecola di idrogeno H2 possiede due isomeri, rispettivamente orto- e para-idrogeno, anche H3+ possiede gli isomeri orto- e para. Le due forme differiscono per il diverso orientamento del momento magnetico del nucleo (spin nucleare).

[4] Di questo telescopio montato su un Boeing 747SP opportunamente adattato ho parlato in un precedente post:

https://ilblogdellasci.wordpress.com/2019/05/13/le-prime-molecole-delluniverso-finalmente-trovate-nello-spazio/

L’acqua si perde!

In evidenza

Luigi Campanella, già Presidente SCI

I nostri acquedotti sono ormai un colabrodo, perdiamo in alcuni punti fino a 75 gocce su cento. “Per di più, quando piove, l’acqua incontra terreni così induriti che non riesce a filtrarsi, scorre sulla superficie e magari fa disastri”, spiega Vito Felice Uricchio, direttore dell’Irsa, Istituto di ricerca sulle acque del CNR. Con situazioni come questa si comprende come al timone dei cambiamenti climatici si aggiungano gli errori,e talora orrori, del nostro modo di gestire i problemi: la rete nazionale di distribuzione dell’acqua potabile (quindi pregiata, trattata e depurata) perde oltre 6.5 milioni di litri al minuto, pari al 41,9 per cento di quella immessa nelle tubature. Dati in costante rialzo: eravamo al 35 per cento nel 2012, al 38 nel 2015. Ci sono zone, come Frosinone, in cui le perdite raggiungono il terrificante primato del 75 per cento. Lo stesso tipo di dati per la Germania fornisce per la Germania perdite pari al 6,5% e per la Francia pari al 20,9%.In realtà, oggi esistono tecnologie che permettono di localizzare e aggiustare il punto esatto della perdita a costi minimi, in modo rapido e tutto sommato economico. “Noi dell’Università a Milano Bicocca, per esempio, abbiamo inventato un software che, attraverso piccolo sensori, registra cali di pressione e portata dove il tubo ha una falla”, spiega Antonio Candelieri.Con tale metodo ci sono impianti che hanno ottenuto una riduzione delle perdite fino al 30 per cento.

C’è poi discorso della prevenzione, sempre meglio della cura. All’IRSA CNR sono 40 anni che invitano lo Stato a costruire gli invasi sotterranei di raccolta dell’acqua piovana: costano un quinto di quelli all’aperto, non hanno il problema dell’evaporazione.“Noi proponiamo di incentivare con l’aiuto pubblico anche la costruzione di microinvasi condominiali, che possano rendere i palazzi più autonomi”, dice Uricchio.

Siamo il Paese con uno dei consumi d’acqua domestica più alti (circa 240 litri al giorno pro capite, contro i 180 della media europea) e in compenso siamo la terza nazione al mondo per consumo di acqua in bottiglia. L’acqua del rubinetto è perfettamente sana, dovremmo imparare a consumarne di meno e soprattutto bisognerebbe creare sistemi per recuperarla (per esempio, dopo una doccia) e riutilizzarla in giardino o per altri usi meno pregiati.E’ tempo di lanciare la cosiddetta microirrigazione nei campi, in modo che alle piante arrivino giusto le gocce di cui hanno davvero bisogno.

La discussione di questo tema è entrata in Parlamento lo scorso ottobre 2018, con un progetto di legge in materia di “Gestione pubblica e partecipativa del ciclo integrale delle acque” che si muove in continuità con un disegno di legge già presentato nella precedente legislatura e che a breve approderà in aula della Camera dei Deputati. Difatti, come riportato nella bozza del DEF 2019: “E ‘obiettivo del Governo garantire l’accesso all’acqua quale bene comune e diritto umano universale, anche avvalendosi degli strumenti normativi europei. Sarà rafforzata la tutela quali-quantitativa della risorsa e si incentiverà l’uso di sistemi per ridurre gli sprechi e le dispersioni con l’introduzione e la diffusione di nuove tecnologie e si incrementeranno gli investimenti di natura pubblica sul servizio idrico integrato.

Al riguardo, un progetto di legge in materia di gestione pubblica e partecipativa del ciclo integrale delle acque (A.C. n.773) è all’esame della Camera dei Deputati.

Da una prima lettura del progetto di legge emergono questioni di grande importanza che potranno creare forti criticità nella struttura del settore idrico a livello nazionale. In particolare, secondo la Federazione nazionale degli ordini dei chimici e dei fisici (Fncf) alcune proposte previste nel progetto di legge meritano un confronto approfondito, come ad esempio:

  • Il principio di “unitarietà” della gestione, in luogo dell’”unicità”, all’interno di bacini idrografici;
  • L’adesione facoltativa alla gestione unitaria del servizio idrico integrato per i Comuni con popolazione fino a 5 mila abitanti situati in territori di comunità montane o di unioni di comuni.
  • Il restringimento degli affidamenti, consentiti in ambiti territoriali non superiori alle province o alle città metropolitane;
  • Il ritorno delle competenze in materia di regolazione al Ministero dell’Ambiente. Così era sino al 2011, cioè prima del mandato conferito a un’autorità indipendente, l’Autorità per l’energia, le reti e l’ambiente denominata Area.

In merito al deficit da dati della Fncf risulta che il 4% della popolazione è ancora priva di adeguati impianti acquedottistici, mentre il 7% di un collegamento alla rete fognaria. Sul versante della depurazione delle acque emerge un ritardo drammatico con il 15% della popolazione sprovvista di impianti di trattamento

Gli investimenti nel settore idrico, dopo uno scenario decennale inerziale (30 euro/abitante/anno), hanno avuto qualche miglioramento con evidente ripresa (45 euro/abitante/anno) e con previsioni di crescita (in media oltre 50 euro/abitante/anno). Tuttavia, si è ancora molto lontani dal fabbisogno di 80 euro/abitante/anno). Serve quindi uno scenario più forte e di ripresa degli investimenti: da 3,2Mld€/anno (oltre 50 €/abitante/anno a 4,8 Mld€/anno (circa 80 €/abitante/anno). Attualmente, tali risorse sono, a livello regionale, reperite all’interno della tariffa a carico del consumatore.

Immagini dal bell’articolo di Milena Gabanelli:

https://www.corriere.it/dataroom-milena-gabanelli/acqua-potabile-rete-colabrodo-si-perdono-274mila-litri-minuto/886100ba-5841-11e8-9f2b-7afb418fb0c0-va.shtml

 

Elementi della tavola periodica: Cobalto, Co.

In evidenza

Rinaldo Cervellati

 Il cobalto (Co) è l’elemento n. 27 della Tavola Periodica. Non si trova libero in natura (fatta eccezione per leghe di origine meteorica) ma combinato in alcuni minerali come l’heterogenite (ossido idrato di Co), la cobaltite (solfoarseniuro di Co), l’eritrite (arseniato idrato di Co), la skutterudite (arseniuro di Co) e il glaucodoto (solfo arseniuro di ferro e cobalto). La sua abbondanza in natura è valutata fra 20 e 30 ppm (parti per milione).

Heterogenite                                                               Cobaltite

Composti del cobalto sono stati usati per secoli per conferire un vivido colore blu a oggetti di vetro, ceramica e a smalti. Sali di cobalto sono stati individuati nella gioielleria persiana del terzo millennio a.C., in sculture egiziane (1550-1292 a.C.), nelle rovine di Pompei, e in oggetti cinesi, risalenti alle dinastie Tang (618-907 d.C.) e Ming (1368-1644 d.C.).

Manufatti in vetro colorato al cobalto

Il nome cobalto potrebbe derivare dal greco kobalos o dal tedesco kobalt, con il significato di “diavoletto”, usato dai minatori tedeschi che incolpavano i diavoletti di fargli trovare un minerale di scarso valore anziché oro.

L’isolamento del cobalto metallico è attribuito al chimico e mineralogista Georg Brandt (1694-1768) che, attorno al 1741 scrisse:

Dato che ci sono sei tipi di metalli, come ho dimostrato con esperimenti affidabili, ci devono anche essere sei tipi di semi-metalli: ho ricavato un nuovo semi-metallo, che ho chiamato cobalt regulus[1] [1]

Brandt fu anche in grado di dimostrare che il cobalto era la fonte del colore blu nel vetro, in precedenza attribuita al bismuto (presente insieme al cobalto).

Oggi, solo una parte di cobalto viene estratta per fusione e riduzione dai suoi minerali, la maggior parte del metallo viene ottenuta come sottoprodotto dell’estrazione di rame e nickel. I principali produttori di cobalto sono la Repubblica democratica del Congo (RDC), la Russia, l’Australia, il Canada e lo Zambia. Nel 2016 la sola RDC ha rappresentato circa il 60% della produzione mondiale di cobalto (123.000 tonnellate) [2].

Paesi produttori di cobalto

Dal 10 al 25% della produzione nella RDC proviene da miniere artigianali, dove i minatori scavano con attrezzi manuali per decine di metri con scarsa pianificazione e ancora meno sicurezza. La mancanza di precauzioni è causa frequente di lesioni o morte. L’estrazione mineraria inquina l’ambiente circostante esponendo la fauna locale e le comunità indigene a metalli tossici che si ritiene causino malformazioni alla nascita e difficoltà respiratorie (rapporto di funzionari dell’OMS). Gli attivisti per i diritti umani hanno asserito, e il giornalismo investigativo ne ha data conferma, che il lavoro infantile viene utilizzato nelle miniere artigianali africane. Questa rivelazione ha spinto la produttrice di cellulari Apple Inc., il 3 marzo 2017, a smettere di acquistare minerali da fonti che provengono dalle zone incriminate della RDC, utilizzando solo fornitori verificati per soddisfare il proprio fabbisogno di cobalto [2].Il cobalto metallico è fragile e duro, il suo aspetto è simile a quello del ferro e del nickel. Possiede una permeabilità magnetica pari a circa due terzi di quella del ferro. Il cobalto tende a esistere come una miscela di due forme allotropiche in un ampio intervallo di temperatura; la forma β predomina sotto i 400 °C, la forma α sopra questa temperatura. La trasformazione è lenta il che rende in parte conto dell’ampia variazione dei dati riportati sulle proprietà fisiche del metallo. Il cobalto ha due principali stati di ossidazione: +2 e +3.

Cobalto metallico

Storicamente la maggior parte del cobalto prodotto è stata utilizzata per la produzione di superleghe. La stabilità alla temperatura di queste leghe le rende adatte per le pale di turbine a gas. Le leghe sono anche resistenti alla corrosione e all’usura, sono quindi utilizzate per realizzare impianti ortopedici che non si consumano nel tempo. Speciali leghe di cobalto-cromo-molibdeno come il Vitallium sono utilizzate nelle protesi dell’anca e del ginocchio. Le leghe di cobalto sono anche usate per protesi dentali come conveniente sostituto del nickel, che può essere allergenico. Alcuni acciai speciali contendono anche cobalto per aumentarne la resistenza al calore e all’usura. Le leghe speciali di alluminio, nichel, cobalto e ferro, note come Alnico, sono utilizzate nella costruzione di magneti permanenti. La lega con il 95% di platino, particolarmente adatta per la microfusione, è molto usata in gioielleria.

L’ossido di litio e cobalto (LiCoO2) è ampiamente utilizzato nei catodi delle batterie agli ioni di litio. Il materiale è composto di strati di ossido di cobalto intercalati con il litio. Durante la scarica della batteria, il litio viene rilasciato come ioni di litio (Li+). Le batterie al nichel-cadmio (NiCd) e nickel-idruro metallico (NiMH) includono anche cobalto per migliorare l’ossidazione del nichel nella batteria.

Sebbene nel 2018 la maggior parte delle batterie al litio-cobalto siano state utilizzate nei telefoni cellulari, un’applicazione più recente è costituita da batterie ricaricabili per auto elettriche. In questo settore la richiesta di cobalto è quintuplicata. Si prevede che la domanda continui a crescere con l’aumento della diffusione dei veicoli elettrici. Ciò rende urgente trovare nuove materie prime contenenti cobalto in aree più stabili del mondo.

                  Vano batterie di un’auto elettrica           Batteria di uno smartphone

Diversi composti del cobalto sono utilizzati come catalizzatori in chimica organica sia in laboratorio sia nell’industria. L’idrodesolforazione del petrolio, ad esempio, il processo industriale che serve a eliminare le impurezze di zolfo nei combustibili liquidi, utilizza catalizzatori contenenti cobalto e molibdeno.

Composti del cobalto continuano a essere usati come pigmenti e coloranti in vari rami dell’arte e dei tessuti. Prima del XIX secolo, il cobalto era usato prevalentemente come pigmento. Il pigmento, di un intenso colore blu, era prodotto fin dal Medioevo fondendo una miscela del minerale smaltite (una varietà di skutterudite) con potassa (carbonato di potassio), raffreddata e poi finemente macinata. Rifusa insieme a silice o silicati produceva un vetro di colore blu. Il pigmento era ampiamente utilizzato anche nei dipinti. Nel 1802 Louis Jacques Thénard[2] scaldando una miscela di fosfato o arsenato di cobalto e allumina (ossido di alluminio) scoprì l’alluminato di cobalto che prese il nome di blu cobalto. Questo pigmento presentò grandi vantaggi per i pittori dell’epoca poiché era molto stabile e facilitava l’asciugatura della pittura a olio. Ancora oggi il blu cobalto è ottenuto con un procedimento simile a quello di Thénard.

Altri pigmenti al cobalto come blu ceruleo (stannato di cobalto (II)), varie tonalità di verde cobalto (miscele di ossido di cobalto (II) e ossido di zinco), cobalto viola (fosfato di cobalto) vengono utilizzati come pigmenti dagli artisti per la loro elevata stabilità cromatica.

Blu cobalto pigmento

Il cobalto è un oligoelemento appartenente secondo alcuni alla categoria dei microelementi [4], secondo altri a quella degli ultratracce [5]. Il cobalto, tossico allo stato ionico, viene assunto in forma organica tramite l’apporto di vitamina B12.

La vitamina B12, nota anche come cobalamina, è una vitamina idrosolubile coinvolta nel metabolismo di ogni cellula del corpo umano: è un cofattore nella sintesi del DNA e nel metabolismo degli acidi grassi e degli aminoacidi. È particolarmente importante nel normale funzionamento del sistema nervoso attraverso il suo ruolo nella sintesi della mielina e nella maturazione dello sviluppo di globuli rossi nel midollo osseo.

La maggior parte delle persone onnivore nei paesi sviluppati ottiene abbastanza vitamina B12 dal consumo di prodotti animali tra cui carne, pesce, uova e latte. Le fonti vegane di cibo contenente vitamina B12 sono molto rare, i vegani sono quindi particolarmente esposti a sindromi da deficienza da vitamina B12.

L’americana FDA suggerisce una RDA (recommended daily allowance) di 2,4 μg/giorno per gli adulti e gli adolescenti, l’europea EFSA l’ha aumentata a 4,0 μg/giorno.

Sintomi da deficienza di vitamina B12 possono essere gastrite, anemia, disturbi intestinali e del sistema immunitario. Nei casi accertati, il trattamento consiste nell’aumentare la dieta con alimenti ricchi della vitamina e nell’utilizzo di opportuni integratori.

I batteri nello stomaco degli animali ruminanti convertono i sali di cobalto in vitamina B12. Una presenza minima di minerali di cobalto nel suolo assicura la salute degli animali al pascolo. Poiché questa è l’unica fonte di vitamina B12 per i ruminanti, è raccomandata un’assunzione di 0,20 mg/kg al giorno.

La dose letale di cobalto è stata valutata in 140-500 mg/kg di peso corporeo [6].

Il cobalto ha diversi isotopi, tutti radioattivi il più noto dei quali è il cobalto-60 (o 60Co), artificiale, sorgente di raggi gamma, usato in radioterapia e per la sterilizzazione di strumenti chirurgici.

Il riciclo degli scarti degli acciai e delle altre leghe non ferrose al cobalto procede come descritto nel precedente post sul nickel, e il prodotto riciclato viene riutilizzato nell’industria siderurgica. Negli ultimi anni, lo sviluppo delle batterie al nickel-litio e litio-cobalto ha determinato una sempre maggiore necessità di mettere punto efficaci processi di riciclaggio dei prodotti esausti.

Molto recentemente il gruppo di ricerca guidato dal professor Pulickel Ajayan della Rice University di Houston (TX) ha messo a punto un metodo più sostenibile per recuperare metalli come il cobalto dai loro ossidi comunemente usati come catodi nelle batterie agli ioni di litio (M.K. Tran et al., Deep Eutectic Solvents for Cathode Recycling of Li-Ion Batteries, Nature Energy, 2019, 4(4): 339-345.)

Pulickel Ajayan

Il metodo utilizza una miscela di due solventi: cloruro di colina[3] (un integratore per alimenti animali) e glicole etilenico (il comune antigelo). La miscela è eutettica, cioè congela a una temperatura più bassa di quella dei due componenti singolarmente. La dottoranda Mai Kim Tran, collaboratrice di Ajayan dice: L’aspetto interessante di questo solvente è che può sciogliere una grande varietà di ossidi metallici. Inoltre può essere considerato un solvente “verde”, composto da un integratore di mangimi per polli e dal precursore del polietilene, che, miscelati a temperatura ambiente, formano una soluzione limpida, relativamente poco tossica con efficaci proprietà solvatanti.

Durante i test con polvere di ossido di litio-cobalto, il solvente trasparente ha prodotto un ampio spettro di colori blu-verde, una indicazione della presenza di cobalto disciolto. Più brillante diventava il colore, più cobalto veniva catturato. Per l’estrazione del metallo dall’ossido di litio-cobalto (III), sono state ottenute efficienze ≥90% sia per il cobalto sia per il litio.

Mai K. Tran

Tran afferma: Nell’usuale recupero dei metalli si usano acidi che sebbene siano efficaci, sono corrosivi e non ecologici. Nel complesso, riciclare i componenti delle batterie agli ioni di litio è in generale costoso e rappresenta un rischio per i lavoratori.

Il professor Ajayan sostiene che i rifiuti di batterie ricaricabili diventeranno “una sfida ambientale sempre più incombente a causa della crescente domanda di veicoli elettrici e relativi accessori. È molto importante recuperare metalli strategici come il cobalto che sono fondamentali per le prestazioni di questi dispositivi di accumulo di energia e potrebbero un domani avere una fornitura limitata. Dalla situazione attuale dei rifiuti di plastica dovremmo imparare che è arrivato il momento giusto per porre in atto una strategia globale per riciclare il crescente volume di rifiuti delle batterie”.

Infine, anche per quanto detto sulla capacità degli animali ruminanti di sintetizzare la vitamina B12, il ciclo biogeochimico del cobalto riveste particolare importanza. Poiché non è riportato nell’articolo citato nel post sui cicli biogeochimici degli elementi, si può fare riferimento allo schema semplificato della Figura 7 del più recente articolo di G. Dulaquais et al: Contrasting biogeochemical cycles of cobalt in the surface western Atlantic Ocean, Global Biogeochemical Cycles, 2014, 28, 1387-1314. Scaricabile al link:

https://agupubs.onlinelibrary.wiley.com/doi/epdf/10.1002/2014GB004903

Bibliografia

[1] E.M. Gusenius, Beginnings of Greatness in Swedish Chemistry Georg Brandt, (1694-1768), Trans. Kansas Acad. Sci., 1967, 70(4), 413-425.

[2] https://en.wikipedia.org/wiki/Cobalt

[3] H. Chisholm, Hugh, ed. (1911). Thénard, Louis Jacques, Enciclpaedia Britannica26 (11th ed.), Cambridge University Press.

[4] https://it.wikipedia.org/wiki/Oligoelementi

[5] https://www.nutritionalhq.com/what-is-cobalt/

[6] https://www.mineravita.com/eng/cobalt_rda.php

[1] Regulus era il nome usato dai chimici al tempo di Brandt per indicare la massa più o meno impura di metallo formatosi durante la fusione e riduzione dei minerali. Georg Brandt è considerato il fondatore della chimica svedese.

[2] Louis Jacques Thénard (1777-1857), chimico francese. Le sue ricerche hanno spaziato dai composti di arsenico e antimonio con ossigeno e zolfo agli eteri, acidi sebacici e alla bile. Nel 1818 scoprì il perossido di idrogeno. Nel 1810 ottenne la cattedra di chimica all’Ecole Polytechnique e alla Faculté des Sciences. Thénard era un eccellente insegnante; come lui stesso disse: il professore, gli assistenti, il laboratorio: tutto deve essere sacrificato agli studenti [3]. Come la maggior parte dei grandi maestri pubblicò un libro di testo, il Traité de chimie élémentaire, théorique et pratique (4 voll., Parigi, 1813-16), che è servito come modello per un quarto di secolo. Il suo nome è uno dei 72 iscritti nella Torre Eiffel.

[3] La colina (che deriva dal greco kolè, “bile”) è una sostanza organica classificata come nutriente essenziale, per l’esattezza si tratta di 2-idrossi-N,N,N-trimetiletanammonio. Viene denominata anche vitamina J e talvolta è accostata (non a caso) alle vitamine del Gruppo B. È un costituente dei fosfolipidi che compongono la membrana cellulare e del neurotrasmettitore acetilcolina.

Dalle forze di van der Waals all’adesione.1. L’effetto Casimir.

In evidenza

Claudio Della Volpe

In un libro (THE CASIMIR EFFECT Physical Manifestations of Zero-Point Energy

2001, WSP) dedicato al tema dell’effetto Casimir, l’autore K. Milton scrive

It might seem to the reader that the Casimir effect is an esoteric aspect of quantum mechanics of interest only to specialists. That this is not the case should be apparent from the duality of this effect with van der Waals forces between molecules. The structure of gross matter is therefore intimately tied to the Casimir effect.

In altri termini quelle che i chimici hanno sempre chiamato forze di van der Waals, sono di fatto al cuore della meccanica quantistica più sofisticata e sarebbe più giusto chiamarle forze di Casimir-Polder.

Hendrik Casimir, 1909-2000

Vediamo di darci un’occhiata.

C’era una volta l’equazione di stato dei gas ideali, una delle prime e più conosciute leggi di comportamento della materia, basata sia sull’esperienza sperimentale che sulla teoria cinetica dei gas. Credo non ci sia relazione più conosciuta e studiata da chi si avvicina alla chimica.

PV=nRT

Fu proposta nel 1834 da Émile Clapeyron, come summa sperimentale e teorica di secoli di studio del comportamento della materia in fase gassosa.

Nel 1873 J. D. van der Waals ne propose una modifica importante Over de Continuïteit van den Gas – en Vloeistoftoestand, Sulla continuità dello stato liquido e gassoso); per la formulazione di questa legge lo studioso fu insignito del Premio Nobel per la fisica nel 1910.

L’articolo fu tradotto e commentato in inglese su Nature nel 1874 da J. Clerk-Maxwell.

Questa modifica introduceva una nuova equazione:

I due parametri a sinistra nell’equazione sono un’assoluta novità; b è il covolume, ossia il volume occupato dalle molecole o dagli atomi in fase gassosa, che bisogna sottrarre al volume totale del recipiente per avere il volume libero a disposizione delle molecole in movimento. van der Waals pone questo valore pari a 4 volte il volume delle molecole come tali; si tratta, come nota Maxwell, di una idea che in qualche modo ha basi empiriche; oggi diremmo che le molecole non sono oggetti rigidi come li immaginiamo a volte.

Per esempio, il valore oggi accettato per il covolume dell’acqua è 30cm3/mole, mentre il volume molare dell’acqua liquida è solo 18cm3/mole; le molecole allo stato liquido sono “compresse” rispetto allo stato gassoso: le molecole e gli atomi sono oggetti soffici, non sfere dure.

Ma la parte più interessante è l’altro parametro; che esprime di quanto dobbiamo aumentare numericamente la pressione del gas per rispettare un comportamento ideale. Questo equivale a dire che fra di esse si esercita una sorta di pressione negativa, una pressione interna, direbbe oggi la teoria cinetica, che si oppone alla pressione traslazionale o mozionale (come la chiamano alcuni), che riduce la pressione che il gas esercita sulle pareti esterne. Ci sono dunque delle forze agenti fra le molecole che, pur incapaci di tenerle insieme quando sono allo stato gassoso, ne riducono le capacità di muoversi, ne riducono la pressione esercitata; c’è fra di loro una forza di attrazione come fra i pianeti del sistema solare e il Sole.

Dal punto di vista sperimentale i parametri di van der Waals sono legati alle condizioni critiche, ossia alle condizioni in cui la funzione di van der Waals ha un flesso e che delimita il confine oltre il quale il gas entra in equilibrio con la fase liquida.

Dal punto di vista teorico come si affronta la cosa? Come sono correlati i parametri con il potenziale di interazione?

Devo dire che c’è una certa ambiguità nelle definizioni che si trovano in giro; ma in questo post chiameremo forze di van der Waals tutte le forze che dipendono da interazioni dipolari sia che coinvolgano dipoli fissi, come una molecola d’acqua o di monossido di carbonio, che dipoli indotti, come un atomo di elio sottoposto ad un campo elettrico di qualunque origine; dunque le tre combinazioni dipolo-dipolo (forze di Keesom), dipolo-dipolo indotto (forze di Debye) e dipolo indotto-dipolo indotto (forze di London) saranno tutte considerate nell’insieme denominato forze di van der Waals o forze di dispersione.

Le energie di interazione fra atomi conseguenti alle forze di van der Waals variano con l’inverso della sesta potenza della distanza: W=-A/r6, dove A è una costante.

Se volete una dimostrazione esatta di come si arrivi a questa conclusione potete guardarvi questo link.

In sostanza questo tipo di interazione è la componente attrattiva nella rappresentazione che spesso viene data della interazione biatomica, definita curva di Lennard-Jones. Ovviamente se la energia di interazione o potenziale di interazione (il potenziale ricordiamo che è una energia per unità di “carica” del campo di interazione) varia con l’inverso della sesta potenza della distanza, allora la forza varierà con l’inverso della settima potenza poiché F=dV/dr (dove F è la forza).

Un aspetto di cui si parla poco è che le forze di van der Waals possono essere anche repulsive, dipendono dalla combinazione fra tutte le attrazioni e le repulsioni; nel grafico seguente la cosa è correlata esplicitamente ai parametri macroscopici, meglio di quanto non possa fare la curva di Lennard-Jones fra due atomi.

Questa rappresentazione è la base di molti dei discorsi e delle descrizioni semplificate che si fanno e c’è un errore a cui voglio accennare: questa descrizione vale nell’interazione fra DUE particelle, come appunto avviene in un un gas di van der Waals in cui la distanza fra le molecole è grande. Ora usare questo tipo di analisi in fase condensata è sbagliato. In fase condensata dove le distanze fra le particelle sono molto inferiori avviene che non si possa più usare un modello di calcolo “ a coppie” di particelle, in cui il minimo è ben definito.

Succede una cosa che potremmo esemplificare con questa immagine e che significa che l’uso del termine “interazioni polari” è spesso un abuso concettuale.

Ma di questo argomento e delle sue conseguenze sulle interazioni in fase condensata parleremo in un altro prossimo post. Anche perchè un aspetto qui non considerato con precisione è quello delle variazioni dei potenziali conseguenti al considerare forze fra oggetti macroscopici in generale. Altrove potete trovare una definizione più precisa: forze di Lifshitz-van der Waals, a seguire ad un fondamentale articolo di Lifshitz sul tema delle interazioni dipolari fra corpi macroscopici in genere, successivo a quello di cui parlamo oggi qui (E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Zh. Exsp. Teor. Fiz. 29, 83-94 (1955)

e E.M. Lifshitz, The theory of molecular attractive forces between solid bodies, Sov. Phys. JETP 2, 73-83 (1956)).

Ma ne riparleremo.

Torniamo alle forze di van der Waals.

Le forze di van der Waals per come sono state introdotte ed analizzate e per come sono conosciute mediamente dal chimico, sono una forma semplificata della situazione effettiva.

Hendrik Casimir è stato un fisico olandese (1909-2000) che ha lavorato presso il laboratorio Philips ad Eindhoven, uno dei più prestigiosi laboratori di fisica del mondo; pur lavorando presso una azienda privata, Casimir ha sviluppato concezioni teoriche generali e fondamentali. Nel 1947 Hendrik Casimir e Dirk Polder proposero l’esistenza di una forza fra due atomi polarizzabili e fra un’atomo di questo tipo ed una piastra conduttrice chiamata forza di Casimir–Polder. Voi mi direte ma questa è roba vecchia, la conosciamo già, è la forza di London!

Può essere interessante capire la differenza fra le forze di London ipotizzate già nel 1937 fra due atomi e il punto di vista di Casimir-Polder.

La differenza come vedete già dai titoli è che London considera piccole distanze e non tiene conto dell’effetto del campo e della sua dinamica nel tempo; il campo è ritardato, si espande a velocità finita ed i suoi effetti si propagano a velocità finita; dunque mentre London ragiona come in una azione a distanza, Casimir accetta il fatto basilare che il campo elettromagnetico viaggi e si modifichi a velocità finita, quella della luce. Questa impostazione che “ritarda” la trasmissione del segnale è appunto chiamata “ritardo”, retardation in inglese.

Questa è certamente una correzione di secondo ordine per così dire ma non così piccola come si può immaginare. Il titolo del lavoro di Casimir e Polder ha a che fare proprio con la differenza di cui parliamo.

La conclusione di Casimir e Polder è la seguente:

Dunque come vedete, a piccole distanze le cose non cambiano, l’approssimazione di London è accettabile, ma quando si considerano distanze più grandi le interazioni variano più velocemente.

A questo punto interviene l’imponderabile. Dopo una conversazione fra Casimir e Bohr sul lavoro pubblicato, Bohr suggerisce che il fenomeno previsto da Casimir e Polder abbia a che fare con la cosiddetta energia di punto zero e questo catalizza un secondo lavoro a nome del solo Casimir che gli dà fama perenne. (http://www.dwc.knaw.nl/DL/publications/PU00018547.pdf) Come vedete il lavoro effettivo (più vecchio di qualche settimana) è citato in questo mostrato in figura, ma non sono riuscito a scaricarlo; il suggerimento di Bohr è riportato in varie cronache ma non corrisponde a qualcosa di scritto, è tradizione orale che ci sia stato!

Cosa è questa benedetta energia di punto zero? E’ una di quelle cose che i chimici si trovano scodellata dalla fisica teorica e con la quale devono fare i conti: piccola, sottile, imprevedibile e scotta come un laser UV.

Giusto per chiarire se vi andate a leggere il lavoro di London del 1937 l’energia di punto zero è già presente.

Bella questa descrizione qualitativa ma chiarissima: l’energia di punto zero viene dalla natura profonda della MQ: gli oggetti quantistici non stanno mai fermi!

Ora una nota può servire; alcuni presentano questa energia di punto zero come derivante dalla relazione di indeterminazione fra energia e tempo; ma questa è una approssimazione concettuale forte; come dire per brevi istanti di tempo il primo principio può essere violato! Falso! La MQ non prevede la violazione del primo principio.

Se fosse così esisterebbero due operatori quello dell’energia, l’hamiltoniano e quello del tempo che dovrebbero essere nel medesimo rapporto degli altri operatori connessi dalle relazioni di indeterminazione, i due operatori delle relazioni di indeterminazione tecnicamente sono coniugati, ma non commutano (ossia la differenza fra le loro due applicazioni in ordine invertito è pari a iħ).

MA QUESTO E’ FALSO!! Per la buonissima ragione che un operatore tempo non c’è in MQ. Dunque se si scrive che il prodotto ΔExΔt è soggetto alla relazione di indeterminazione si sta forzando la MQ. (ringrazio per questa nota il collega Stefano Siboni del mio dipartimento con cui collaboro da sempre). Il tempo della MQ è un parametro, è un tempo assoluto e questo cari colleghi è uno dei punti deboli della MQ.

Meglio la chiara e generale interpretazione di London. Gli oggetti quantistici non stanno mai fermi e dunque hanno un’energia di punto zero.

Questa situazione mi ricorda molto il caso dell’equilibrio. L’equilibrio per un chimico è un fenomeno dinamico, anche all’equilibrio due fasi si scambiano materia, fra reagenti e prodotti, fra gas e liquido per esempio, ma anche fra un elettrodo e una soluzione anche a corrente netta nulla c’è uno scambio di cariche, misurabile (è la cosiddetta corrente di scambio); questo è in totale contrasto con l’idea dell’equilibrio meccanico. Per la meccanica all’equilibrio non succede nulla, per la chimica succede sempre qualcosa. In una visione classica ad energia zero non succede nulla, in una visione quantistica gli oggetti non stanno mai fermi e l’energia non è esattamente zero.

Dal punto di vista sperimentale l’effetto Casimir inteso come l’attrazione fra piastre metalliche a piccola distanza (qualche nanometro) è difficile da misurare precisamente, ma la misura è stata fatta ripetutamente ed è in perfetto accordo con la teoria. Nel 1997 lo ha misurato Steve K. Lamoreaux del Los Alamos National Laboratory e poi Umar Mohideen e Anushree Roy della Università di California, Riverside. In pratica hanno usato una piastra metalllica ed una superficie sferica con raggio molto grande. Infine nel 2001 un gruppo padovano (Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe Ruoso) ha fatto la prima misura fra microrisonatori e dunque fra lastre piane.

Possiamo interpretare l’effetto in questo modo, ma tenete presente che si tratta sempre di una interpretazione non matematica; il vuoto non è tale a causa dell’energia di punto zero, ossia del principio di indeterminazione; dunque il vuoto dello spazio non è vuoto assoluto, ma è un “vuoto quantistico”, ossia una schiuma effervescente di particelle virtuali in coppie materia-antimateria che si affacciano all’esistenza e scompaiono continuamente; questo materiale è tantissimo nella media statistica ed esercita l’equivalente di una pressione; dato che la probabilità di esistenza o se volete il principio di indeterminazione dipende dai confini del sistema considerato, se limitiamo questi confini riduciamo la probabilità di esistenza di queste coppie “virtuali”; dunque fra due piastre metalliche ci sarà minore probabilità e pressione e le due piastre sperimenteranno una forza netta di attrazione che è pari (a qualche nanometro) ad 1 atmosfera! Pazzesco! L’effetto della pressione del vuoto!

https://physicsworld.com/a/the-casimir-effect-a-force-from-nothing/

Non sto a raccontarvi le altre cose: esiste un effetto Casimir repulsivo, esiste un effetto Casimir dinamico e tutto ciò dipende dalla combinazione fra energia di punto zero, ossia principio di indeterminazione e vuoto. Le forze di Casimir-Polder sono l’equivalente “ritardato” delle forze di van der Waals, e spiegano buona parte dell’adesione fra corpi solidi; ma non tutta. Ne ho parlato altrove e ve ne riparlerò, anche perchè sull’adesione ci ho lavorato anni. E la differenza viene dalla vecchia amica teoria acido-base (versione Lewis).

Potremo mai usare l’effetto Casimir per produrre energia dal “nulla”? Al momento pensiamo di no. Ma la MQ è imprevedibile!! Finchè dura beninteso, dopo tutto è solo una teoria ed ha il difettuccio di usare un tempo assoluto.

Nel frattempo cominciamo a sostituire al termine forze di van der Waals il termine più ampio e preciso: forze di Casimir-Polder (ed in futuro anche forze di Lifshitz-van der Waals, ma prima scriverò un altro post sul tema delle forze di adesione fra corpi macroscopici).

(continua)

http://www.lescienze.it/news/2013/02/16/news/luce_vuoto_quantistico_particelle_virtuali_fotoni_effetto_casimir_dinamico-1511221/

Lamoreaux, S. K. (1997). “Demonstration of the Casimir Force in the 0.6 to 6 μm Range”. Physical Review Letters. 78 (1): 5–8

Mohideen, U.; Roy, Anushree (1998). “Precision Measurement of the Casimir Force from 0.1 to 0.9 µm”. Physical Review Letters. 81 (21): 4549–4552. arXiv:physics/9805038

Bressi, G.; Carugno, G.; Onofrio, R.; Ruoso, G. (2002). “Measurement of the Casimir Force between Parallel Metallic Surfaces”. Physical Review Letters. 88 (4): 041804. arXiv:quant-ph/0203002

La famigerata durezza dell’acqua

In evidenza

Mauro Icardi

Quando parliamo della durezza di un’acqua facciamo riferimento al contenuto di sali di calcio e magnesio, presenti in forma di carbonati, bicarbonati, solfati, cloruri e nitrati. La durezza dipende dall’origine superficiale o profonda delle acque e dalla geologia dell’area di captazione. In funzione dei diversi gradi di durezza, espressa comunemente in equivalenti di carbonato di calcio (mg/L CaCO3 o grado francese °f), si riconoscono diversi tipi di acque con diversa durezza. La durezza si può distinguere in totale, permanente e temporanea.

La durezza totale è la somma della durezza temporanea e di quella permanente. Viene espressa in base al contenuto totale di calcio e magnesio, calcolato come CaCO3 (scala in gradi francesi °f), o come CaO (scala in gradi tedeschi, °t): 1 grado francese = 10 mg/l di CaCO3, 1 grado tedesco = 10 mg/l di CaO .

La durezza permanente è dovuta a sali di calcio e magnesio che non si decompongono per riscaldamento, come i carbonati, solfati e cloruri.

Il termine durezza temporanea si riferisce a quei sali solubili (idrogenocarbonati, HCO3) che per ebollizione dell’acqua si trasformano in sali insolubili (carbonati, CO32-) che precipitano:

Ca(HCO3)2 (aq)   ⇌   CaCO3 (s)   +   CO2(g)   +   H2O (l)

DUREZZA TEMPORANEA = DUREZZA TOTALE – DUREZZA PERMANENTE

Utilizzando la scala di durezza in gradi francesi (quella solitamente di uso più comune) la valutazione della qualità di un acqua si può esprimere con questa tabella.

Una tabella simile a questa normalmente si trova sulle confezioni di detersivo, per determinare il dosaggio ottimale di prodotto.

Le acque dure possono ridurre l’efficacia dell’azione dei saponi e detersivi e causare incrostazioni su elementi idraulici e macchinari, dovute a precipitazione dei sali, rendendo in alcuni casi utile il ricorso a processi di addolcimento delle acque, realizzato con diversi trattamenti tra cui scambio ionico od osmosi inversa.

Esistono vari tipi di resine che vengono utilizzate nei trattamenti delle acque, e a seconda del tipo di ioni che scambiano vengono classificate in: cationiche o anioniche.

 

Le resine a scambio cationico rimuovono dall’acqua gli ioni positivi calcio (Ca++) e magnesio (Mg++) scambiandoli con lo ione sodio (Na+).

Un funzionamento analogo hanno le resine a scambio anionico utilizzate ad esempio per rimuovere il nitrato (NO3), che viene trattenuto dalla resina e scambiato con lo ione cloruro (Cl).

Tornando alla durezza, ed alle incrostazioni calcaree, non è inusuale che caldaie per produzione di acqua calda sanitaria e riscaldamento domestico, risultino ancora perfettamente funzionanti a livello di bruciatore, ma di fatto fortemente ostruite da calcare per quanto riguarda il bollitore di accumulo, oppure i tubi di circolazione dell’acqua.

La determinazione analitica della durezza dell’acqua è ancora un’analisi che si esegue con i mai dimenticati metodi di una volta. Il principio è quello della titolazione complessometrica degli ioni calcio e magnesio, disciolti nel campione di acqua.

Il campione di acqua viene tamponato a pH 10 e successivamente titolato con una soluzione di sale disodico dell’acido etilendiamminotetracetico (EDTA) in presenza di nero eriocromo T come indicatore.

il campione da titolare assume un colore rosso-violetto che al raggiungimento del punto equivalente (quando tutti gli ioni calcio e magnesio sono stati complessati dell’EDTA) vira al blu. Questa tecnica che può sembrare obsoleta, in un immaginario del laboratorio di analisi ormai dominato dalle apparecchiature di analisi strumentale, è invece la metodica di analisi ufficiale emanate dell’Istituto superiore di sanità per le acque destinate al consumo umano.

Nella legislazione in vigore, per il parametro “durezza” viene data solo l’indicazione di un range di valori consigliati, e pertanto il mancato rispetto di questi valori non rappresenta una vera e propria non conformità e dovrà, di volta in volta, essere valutato ai fini dell’emanazione del giudizio di idoneità. La composizione in sali minerali che conducono ad una durezza di 10 – 15 °f rappresenta il miglior contenuto raccomandabile a livello sanitario.

E a proposito di implicazioni a livello sanitario, una pubblicazione del 2007 suggerisce che, un valore adeguato di durezza delle acque destinate al consumo umano, rappresenti un fattore protettivo nei confronti dell’insorgenza di malattie cardiovascolari. Lo studio per altro suggeriva altresì di approfondire il ruolo del parametro durezza, così come quello di altri micronutrienti che si assumono con l’acqua potabile, nella valutazione del rischi cardiovascolare. Che è legato a diversi altri fattori, quali quelli metabolici, genetici, ed allo stile di vita.

Qui il link della pubblicazione.

http://old.iss.it/binary/itti/cont/Notiziario%20ISS%20durezza%20acqua.1179820668.pdf

Per concludere credo che occorra ricordare un principio fondamentale: parametri e i rispettivi limiti parametrici, così come il recepimento nella normativa nazionale, sono basati sulle conoscenze scientifiche disponibili, e tengono conto del principio di precauzione, al fine di garantire che le acque possano essere utilizzate e consumate in condizioni di sicurezza nell’intero arco della vita. In generale, i valori parametrici individuati si fondano sugli orientamenti stabiliti dall’Organizzazione mondiale della Sanità (WHO, o OMS).

(Nota del curatore. Su alcuni siti il grado francese è ancora indicato con la °F maiuscola che è un errore, perchè quello è il simbolo del grado Fahreneit °F; per questa perla si veda il sito Culligan, al quale avevamo segnalato la questione ma senza effetto, https://www.culligan.it/la-durezza-dellacqua/ il simbolo acccettato del grado francese è °f o °fH)

Mary Elvira Weeks (1892-1972)

In evidenza

Rinaldo Cervellati

 

Non sapere cosa sia accaduto nei tempi passati, sarebbe come restare per sempre un bambino  (Cicerone)

Coloro che non ricordano il passato sono condannati a ripeterlo (George Santayana)

Nell’anno dedicato al 150° anniversario della Tavola Periodica mi sembra opportuno ricordare la figura di Mary Elvira Weeks, chimico e storica della chimica che scrisse fra il 1932 e il 1933 la serie di 21 articoli sulla scoperta degli elementi per il Journal of Chemical Education, poi raccolta   nel ponderoso volume Discovery of the Elements che dal 1935 al 1968 ha visto sette edizioni e numerose ristampe.

Mary Elvira nacque il 10 aprile 1892 a Lyons, una cittadina di poche migliaia di abitanti nella Contea di Walworth, Wisconsin. Frequentò il Ripon College, ottenendo il B.A. (Bachelor of Arts) in chimica nel 1913. Si recò quindi all’Università del Wisconsin, dove nel 1914 ottenne il Master in chimica lavorando con J. Howard Mathews[1]. Durante i successivi sette anni ha lavorato come insegnante di chimica in scuole secondarie superiori e analista in laboratori industriali.

Nel 1921 divenne istruttrice di chimica all’Università del Kansas, dove continuò il suo lavoro di ricerca per il dottorato che completò poco tempo dopo. Nel 1927 fu promossa assistant professor e, dieci anni dopo, associate professor. Anche se effettuava alcune ricerche sperimentali oltre ai suoi pesanti doveri di insegnamento, i suoi veri interessi erano storico-linguistici, quindi iniziò a combinare questi talenti spostando i suoi studi dalla ricerca sperimentale a quella in storia della chimica.Mary Elvira Weeks

Alla Kansas University conobbe Frank B. Dains[2] che aveva accumulato una splendida collezione di immagini di chimici famosi. Infatti, dopo aver conseguito il dottorato a Chicago nel 1898, Dains aveva trascorso un anno a Berlino e Friburgo e, com’era consuetudine tra gli studenti americani, aveva visitato numerosi chimici e chiesto foto. Dains continuò a collezionare immagini durante il resto della sua carriera ma a causa di un intenso programma di ricerca in chimica organica non aveva mai pubblicato nulla sulla sua collezione.

Elvira Weeks combinò il suo doppio interesse per la chimica e la linguistica preparando una collezione di articoli sulla scoperta degli elementi, che furono pubblicati come una serie di 21 articoli sul Journal of Chemical Education negli anni 1932-1933. La popolarità di questi articoli incoraggiò la Chemical Education Publishing Company di Easton (Pennsylvania) a raccogliere la serie in un libro: Discovery of the Elements (1° edizione 1934). Gli articoli e il libro furono generosamente illustrati con le immagini della collezione Dains, successivamente integrata da immagini raccolte da Weeks. Il libro infine ha visto sette edizioni; le ultime con la collaborazione di Henry M. Leicester[3].

Discovery of Elements 6th Edition

In realtà Discovery of the Elements è, per molti aspetti, una storia della chimica che si sviluppa attorno al tema principale della scoperta degli elementi. Vi sono lunghe interessanti digressioni su altre ricerche dei chimici che hanno scoperto nuovi elementi.

Nonostante il successo dei suoi scritti, il Dipartimento di Chimica della Kansas University non era disposto a premiarla per la sua “opera letteraria”. Le facoltà di chimica erano inclini a dare premi alle indagini sperimentali di laboratorio piuttosto che a ricerche storiche, a prescindere da quanto fossero accurate[4]. Weeks infatti rimase assistant professor per dieci anni prima della promozione a associate professor. Dopo altri sette anni come professore associato, decise di abbandonare l’insegnamento per sfruttare meglio i suoi interessi storici e linguistici. Nel 1944, Weeks divenne associato di ricerca in letteratura scientifica presso la biblioteca scientifica Kresge-Hooker in fase di sistemazione alla Wayne State University di Detroit. Alla Kresge-Hooker ebbe finalmente l’opportunità di utilizzare al meglio i suoi talenti.

All’avvicinarsi del 75° anniversario della sua fondazione (1876) l’American Chemical Society decise che sarebbe stata un’ottima iniziativa scrivere e pubblicare una storia della Società. Nel 1944 affidò questo incarico a Charles A. Browne, membro dell’ACS fin dagli ultimi anni del diciannovesimo secolo, un chimico con esperienza nel mondo accademico (dottorato a Göttingen, 1901), industriale e governativo e uno dei fondatori della Divisione ACS di Storia della Chimica (HIST). Browne, durante la sua carriera come direttore del New York Sugar Research Laboratory, e successivamente come capo chimico dell’Ufficio USA di Chimica e Suoli, aveva maturato una vivace vocazione per la storia della chimica. Era quindi la persona giusta per scrivere la storia della Società e accettò questo incarico. Browne morì all’inizio del 1947 all’età di 76 anni con l’organizzazione del libro impostata e nove capitoli completati. Diversi mesi prima aveva persuaso Weeks a diventare co-autore. Weeks si trovò dunque responsabile per la maggior parte degli undici capitoli che restavano da scrivere e per la raccolta del materiale supplementare. Il volume A History of the American Chemical Society-Seventy-five Eventful Years, di Charles Albert Browne e Mary Elvira Weeks fu pubblicato nel 1952.

Mary Elvira Weeks si ritirò nel 1954 ma continuò a vivere nella sua casa di Detroit lavorando part-time come traduttrice scientifica. Nel 1967 ricevette il Dexter Award, premio assegnato dall’American Chemical Society in riconoscimento di una straordinaria carriera di contributi in storia della chimica.

Weeks era per natura una persona amichevole ma molto riservata, capace comunque di affrontare impegni di notevole portata. Morì il 20 giugno 1975 dopo diversi mesi in una casa di riposo.

Per la stesura di questo post ho attinto dalle seguenti opere:

A.J. Ihde, A Quarter Century of Dexter Awards, 1981, unpublished manuscript, estratto in

http://acshist.scs.illinois.edu/awards/Dexter%20Papers/WeeksDexterBioJJB1.pdf

A.J, Ihde, The History of The Dexter Awards. Part III: The Second Decade, Bulletin for the History of Chemistry, 1989, 3, 11–12.

[1] Joseph Howard Mathews (1881-1970) chimico fisico americano, professore universitario ed esperto di identificazione delle armi da fuoco. Nel 1914 Mathews aveva da poco completato il dottorato di ricerca in chimica a Harvard sotto la guida di Theodore W. Richards, primo americano a vincere il Premio Nobel “per le sue accurate determinazioni dei pesi atomici”. Mathews è stato preside del Dipartimento di Chimica dell’Università di Wisconsin-Madison per 33 anni, dal 1919 al 1952.

[2] Frank Burnett Dains (1869-1948) chimico organico americano ottenne il B.Sc. nel 1890 e l’M.Sc. nel 1981, entrambi alla Wesleyan University. Nel 1898 ottenne il dottorato di ricerca all’università di Chicago. Entrò nel Dipartimento di Chimica della Kansas University nel 1911, raggiungendo lo status di professore ordinario nel 1914. Si ritirò nel 1942. La collezione dei suoi scritti, foto e disegni è conservata all’University of Kansas Libraries, a Lawrence.

[3] Henry Marshall Leicester (1906 – 1991), statunitense, è stato un biochimico e storico della chimica. Particolarmente interessato alla storia della chimica in Russia, ha pubblicato diverse biografie di chimici russi sul Journal of Chemical Education e in varie enciclopedie. Tradusse anche opere di chimica classica russa, come quelle di Mikhail Vasilyevich Lomonosov (1711-1765) considerato il “Leonardo da Vinci russo”, del quale era considerato un esperto negli Stati Uniti. Dal 1951 al ritiro nel 1971 è stato professore di biochimica presso la Dental School dell’Università del Pacifico.

[4] Le cose sono molto migliorate negli USA, mentre in Italia non è cambiato quasi nulla, resta il micidiale pregiudizio per cui chi si occupa di ricerca in storia (o in didattica) della chimica è un fallito nella ricerca scientifica.

Il chimico e l’intelligenza, un ricordo di H. Christopher Longuet-Higgins

In evidenza

Claudio Della Volpe

Quasi tutti i chimici sanno che c’è stato un famoso musicista che era anche chimico; beh in effetti egli si riteneva un chimico, e fu anche famoso, a contatto con i grandi chimici della sua epoca, ma coltivava la musica come passione. Poi la storia ha deciso che Borodin è stato prima una grande musicista (autore delle Danze Poloviciane e del Principe Igor) e poi un chimico analitico che si occupò delle reazioni delle aldeidi.
Ma oggi voglio parlarvi invece di un altro chimico di cui avete sentito certamente parlare almeno per una delle sue scoperte avvenute addirittura prima della laurea e che al colmo della sua carriera di chimico e fisico teorico abbandonò la chimica per dedicarsi alle “scienze cognitive”, alla musica ed alla percezione visiva, alle applicazioni della nascente intelligenza artificiale al tema della composizione musicale e della visione, un chimico che pubblicò, su riviste famose, sia di argomenti chimici che musicali e percettivi.
Sto parlando di Hugh Christopher Longuet-Higgins. La sua vita e la sua attività scientifica porterebbero a intitolare questo breve ricordo: l’intelligenza di un chimico, visto il carattere poliedrico e profondo delle sue ricerche.
Christopher nacque nella parrocchia di Lenham, nel Kent, secondo dei tre figli di un parroco. La sua famiglia era di origini ugonotte (i protestanti francesi). In realtà fu poi ateo per il resto della vita. Studiò alla Pilgrims’ School e quindi al Winchester College di Winchester.Si trattava di un ambiente prestigioso come attestano i nomi di parecchi dei suoi compagni di studi: Freeman Dyson e Michael Dewar fra gli altri. Insieme con Dyson costruì modelli dei poliedri. Vinse il premio per la matematica nel 1941 in forte concorrenza con Dyson.

Nel 1941 vinse anche una borsa di studio per il Balliol College di Oxford. Seguì il corso di chimica, ma fece anche esami di musica e fu organista al Balliol. Ebbe come insegnante di chimica Ronnie Bell con il quale pubblicò, ancora studente, il lavoro di chimica per cui è più famoso proponendo la struttura corretta del diborano, un composto chimico la cui struttura non era interpretabile con il modello allora in uso del legame di valenza. Si era nel 1943, in piena II guerra mondiale.

Il legame a tre centri (e 2 elettroni), come viene definito, è divenuto un classico della chimica; c’è da dire che la struttura adgeuata (ma senza le finezze della meccanica quantistica) era stata già proposta nel 1921 (W. Dilthey, Über die Konstitution des Wassers, in Angew. Chem., vol. 34, nº 95, 1921, p. 596, DOI:10.1002/ange.19210349509. ma questo sarà un altro post.)Iniziò il PhD e lo completò all’Università di Oxford sotto la supervisione di Charles Coulson, il celeberrimo autore di “Valence bond”. Coulson era un cristiano metodista, mentre Longuet-Higgins era ateo; ne seguirono dibattiti pubblici sul tema della religione cui entrambi parteciparono su sponde opposte. Seguì un’attività di post-dottorato all’Università di Chicago e all’Università di Manchester.

Nel 1947 Longuet-Higgins sviluppò la teoria degli orbitali delle molecole organiche coniugate ottenendo teoricamente risultati che erano stati conosciuti sperimentalmente già da molti decenni. Mostrò come le proprietà dei sistemi coniugati possono essere derivate combinando nella trattazione degli orbitali molecolari il comportamento degli orbitali di non legame. Formulò una teoria che descriveva le proprietà termodinamiche delle miscele che più tardi estese alle soluzioni di polimeri. Fece anche ricerche sulle proprietà ottiche delle molecole ad elica e sui loro spettri elettronici.

Nel 1952 fu nominato professore di fisica teorica al King’s College di Londra; nel 1954 diventò professore di chimica teorica all’Università di Cambridge e membro del Corpus Christi College (Cambridge). In questo periodo diede importanti contributi alla chimica teorica.
Dal 1954, usò tecniche matematiche per predire comportamenti chimici. Per esempio nel 1962 previde che il ciclobutadiene (che non era ancora stato sintetizzato) sarebbe potuto esistere come legando di un atomo di un metallo di transizione; tre anni più tardi, nel 1965, per la prima volta questo composto fu sintetizzato da Rowland Pettit della University of Texas, sebbene egli non riuscisse a isolarlo.
Applicò la teoria dei gruppi per definire gli elementi di simmetria delle molecole non rigide, come nel caso dell’idrazina (N2H4) e così fu capace di classificare i singoli livelli quantici della molecola.
All’inizio degli anni 70 maturò un cambiamento radicale della sua vita. Da affermato chimico teorico si trasformò in un esploratore dell’intelligenza aritificiale e delle sue applicazioni alle arti umane: musica e immagine. Egli era probabilmente arrivato a questo salto sulla base della sua esperienza come utente dei computer dell’epoca; tuttavia non ci considerò mai un ricercatore di AI ma piuttosto di “scienza cognitiva” , un termine che inventò lui stesso, intendendo che si occupava di come l’uomo guarda all’Universo atttorno a lui.
Si spostò prima all’Università di Edinburgo e poi, insieme ad altri scienziati nel 1974, fondò il Centro per le ricerche su Percezione e Cognizione alla Università del Sussex, Brighton. Qui sotto due dei lavori che pubblicò su Nature su temi di scienza cognitiva, sia di musica che di visione.

I suoi contributi al problema della rappresentazione tridimensionale nella visione sono ormai un fatto acquisito in tutte le applicazioni.

In particolare nell’articolo sulla visione egli introduce “il metodo degli otto punti” che serve a ricostruire un oggetto da una sua visione binoculare, dunque una rappresentazione del processo che il nostro cervello compie effettivamente.

Una breve rappresentazione del suo punto di vista sui temi musicaliLonguet-Higgins (1979): —

You’re browsing, let us imagine, in a music shop, and come across a box of faded pianola rolls. One of them bears an illegible title, and you unroll the first foot or two, to see if you can recognize the work from the pattern of holes in the paper. Are there four beats in the bar, or only three? Does the piece begin on the tonic, or some other note? Eventually you decide that the only way of finding out is to buy the roll, take it home, and play it on the pianola. Within seconds your ears have told you what your eyes were quite unable to make out—that you are now the proud possessor of a piano arrangement of “Colonel Bogey“.

Andò in pensione nel 1988 e morì nel 2004. Costituisce un esempio raro di scienziato abile sia nei temi puramente naturalistici che umanistici e di una capacità e visione culturale amplissima, come è difficile trovare oggi attorno a noi. Ai miei occhi il fatto che se ne parli poco è segno della povertà culturale dei nostri tempi, mascherata dalla parossistica preoccupazione per il numero delle pubblicazioni.

Referenze e testi consultati.

https://en.wikipedia.org/wiki/Christopher_Longuet-Higgins   dove si trova anche una lista pressocché completa di lavori; una lista sicuramente completa è su: https://royalsocietypublishing.org/doi/10.1098/rsbm.2006.0012

Gregory, R. L.; Murrell, J. N. (2006). “Hugh Christopher Longuet-Higgins. 11 April 1923 — 27 March 2004: Elected FRS 1958”. Biographical Memoirs of Fellows of the Royal Society. 52: 149–166. doi:10.1098/rsbm.2006.0012.

http://www.quantum-chemistry-history.com/Lo-Hi2Ue.htm

Longuet-Higgins, H. C.; Bell, R. P. (1943). “64. The Structure of the Boron Hydrides”. Journal of the Chemical Society (Resumed). 1943: 250–255. doi:10.1039/JR9430000250.

 Longuet-Higgins, Hugh Christopher (1947). Some problems in theoretical chemistry by the method of molecular orbitals. bodleian.ox.ac.uk (DPhil thesis). University of Oxford.

  Venn Cambridge University database Archived 14 June 2010 at the Wayback Machine

  H. C. Longuet Higgins; U. Öpik; M. H. L. Pryce; R. A. Sack (1958). “Studies of the Jahn-Teller effect .II. The dynamical problem”. Proc. R. Soc. A. 244 (1236): 1–16. Bibcode:1958RSPSA.244….1L. doi:10.1098/rspa.1958.0022.See page 12

  Longuet-Higgins, H. C.; Abrahamson, E. W. (1965). “The Electronic Mechanism of Electrocyclic Reactions”. Journal of the American Chemical Society. 87 (9): 2045. doi:10.1021/ja01087a033.

 Longuet-Higgins, H.C. (1963). “The symmetry groups of non-rigid molecules”. Molecular Physics. 6 (5): 445–460. Bibcode:1963MolPh…6..445L. doi:10.1080/00268976300100501.

Longuet-Higgins, H. C. (1981). “A computer algorithm for reconstructing a scene from two projections”. Nature. 293 (5828): 133–135. Bibcode:1981Natur.293..133L. doi:10.1038/293133a0.