Energia per l’Italia sul PNRR (parte seconda)

In evidenza

ENERGIAPERLITALIA,coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo è pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

la prima parte di questo post è stata pubblicata qui

4. Economia Circolare

Molto contenuto appare la quota di finanziamento destinata all’Economia Circolare (4,5 miliardi di euro)

Occorre realizzare una rete impiantistica tale da rendere autosufficiente ogni regione e provincia italiana per il riciclo dei rifiuti e il riuso dei prodotti dismessi in Centri di preparazione per il riutilizzo.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi industriali per il riciclo dei rifiuti Elettrici ed Elettronici, in un’ottica di Urban Mining per il recupero e riciclo di materie prime seconde preziose e critiche.

Occorre promuovere iniziative di ricerca e sviluppo per nuove tecnologie e processi per la riduzione della produzione di plastiche e di rifiuti di plastica e massimizzarne il riciclo attraverso un’implementazione dell’efficienza soprattutto a livello industriale.

Occorre finanziare impianti di smaltimento rifiuti adeguati in Campania per uscire dalle procedure di infrazione che costano alla comunità centinaia di migliaia di euro al mese.

E’ anche necessario velocizzare le pratiche amministrative nei vari ministeri per le Valutazioni di Impatto ambientale e per le VAS

Istruzione e Ricerca (Missione 4)

Una conoscenza diffusa del metodo scientifico e dei suoi sviluppi contemporanei è necessaria: aiuta a comprendere che i problemi cui ci troviamo di fronte in tanti campi diversi non sono semplici. Occorre colmare questa lacuna, perché oggi viviamo “immersi” in sistemi complessi, con cui dobbiamo interagire in maniera corretta per trovare delle soluzioni efficaci ed eque (come economia globalizzata, diffusione delle pandemie, sistema climatico, web, ecc.)

E’ oggi indispensabile e urgente porre in atto un grande piano di formazione e informazione, principalmente nella scuola, ma anche con interventi extrascolastici di formazione permanente, che permetta di raggiungere un’alfabetizzazione estesa e un avvicinamento ai metodi e ai risultati della scienza da parte dei giovani e di strati i più ampi possibili della cittadinanza.

Questo consentirà un più diffuso apprezzamento della scienza, dei risultati raggiunti e delle incertezze che permangono, e si potranno riconoscere e isolare con più facilità le fake news che sempre più spesso compaiono nei mezzi di informazione.

Insegnamento e corretta comunicazione della scienza sono una priorità del Paese, così come la ricerca e la ricerca scientifica in particolare. In questo senso, come indicato da studi di autorevoli economisti, gli investimenti in ricerca risultano un efficace moltiplicatore di sviluppo. Ma qui, purtroppo, scontiamo gravi carenze: basti pensare che l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, rispettivamente, e che i nostri ricercatori sono solo 75.000 contro i 110.000 della Francia e 160.000 della Germania.

In questa situazione, riteniamo fondamentale investire in istruzione e ricerca, sfruttando anche il PNRR, per raggiungere i futuri obiettivi europei di spesa in questi settori, o almeno per allinearci con la percentuale di PIL dedicata attualmente a questo scopo dai Paesi che maggiormente puntano su un’economia della conoscenza.

Salute (Missione 6)

Assolutamente prioritario è il diritto alla salute pubblica, inteso come pieno benessere e non soltanto come assenza di malattia. E’ necessario il rafforzamento della medicina territoriale e della copertura sanitaria di qualità per tutti.

E’ anche necessaria un’azione capillare di diffusione, con ogni mezzo d’informazione, della cultura e della pratica della evitabilità di molte malattie mediante la conservazione e la difesa dell’ambiente e delle sicurezze logistiche quotidiane, la modalità e la qualità del produrre e consumare, l’adozione di opportuni stili di vita, la scolarizzazione e il contrasto alle diseguaglianze sociali.

Inoltre è importante promuovere la prevenzione primaria (evitabilità delle malattie connesse all’organizzazione sociale, ai sistemi produttivi e di consumo) e quella secondaria (diagnosi precoce) presso la pubblica opinione, le Istituzioni, le sedi della Politica, delle autorità scientifiche, accademiche e scolastiche.

Commento su tre importanti problemi fra loro collegati

1.  CCS (Carbon Capture and Storage)

Come è noto, la CO2, gas generato dalla combustione dei combustibili fossili, immessa nell’atmosfera contribuisce ad aumentare l’effetto serra e il conseguente cambiamento climatico. Secondo gli scienziati dell’IPCC, per frenare il cambiamento climatico, definito dalla conferenza di Parigi del 2015 “il pericolo più grave per l’umanità”, è necessario azzerare le emissioni di CO2 entro il 2050. Questo è quanto prevede l’Accordo di Parigi, al quale hanno aderito praticamente tutte le nazioni del mondo, compresi gli Stati Uniti che poi, con Trump presidente, sono usciti dall’accordo e con Biden vi sono rientrati. Poiché in questi ultimi sei anni le emissioni di CO2 sono aumentate, secondo gli scienziati bisogna agire più rapidamente di quanto fosse stato previsto e azzerare le emissioni entro il 2035.

La strada maestra per raggiungere l’obiettivo dell’azzeramento delle emissioni di CO2 è una graduale transizione dall’uso dei combustibili fossili a quello delle energie rinnovabili (Sole, vento e acqua), che non producono né CO2 né sostanze inquinanti.

Le compagnie petrolifere invece, prima fra tutte ENI, stanno intensificando le estrazioni di combustibili fossili in tutto il mondo e, con il loro grande potere, agiscono a tutti i livelli e con ogni mezzo per evitare che i combustibili fossili vengano messi al bando. Secondo le compagnie petrolifere, infatti, si può continuare ad usare i combustibili fossili, anche ben oltre il 2050, evitando che la CO2 prodotta sia immessa in atmosfera. Questa operazione, indicata con la sigla CCS (Carbon Capture and Sequestration), implica la cattura dell’anidride carbonica dai fumi emessi da impianti industriali, la sua separazione da altri gas, il suo trasporto con gasdotti in un impianto di raccolta e infine il suo deposito in giacimenti di idrocarburi ormai esauriti, dove dovrà rimanere “per sempre”. Nelle intenzioni di Eni, quello di Ravenna sarà il più grande impianto del genere in Europa e un “hub” per il sud Europa e il Mediterraneo.

La strategia basata sul CCS per controllare il cambiamento climatico a nostro parere è irrazionale e impraticabile, come si evince dalle numerose, grandi criticità che si possono riassumere nei seguenti 12 punti:

1)- Produrre CO2 per poi catturarla e immagazzinarla è un procedimento contrario ad ogni logica scientifica ed economica; è molto più semplice ed economico usare, al posto dei combustibili fossili, le energie rinnovabili (fotovoltaico, eolico, idroelettrico) che non producono né CO2, né inquinamento.  

2)- Il CCS è una tecnologia sperimentale ancora in fase di ricerca; studi sugli impianti CCS sono stati finanziati con fondi europei dal 2009 al 2017, ma non hanno portato ad alcun risultato utile (1).

3)- E’ possibile applicare il CCS solo ai grandi impianti emettitori di CO2, come le centrali termo-elettriche. Non è possibile usarlo per catturare le emissioni di mezzi di trasporto, abitazioni e piccole industrie.

4)- La tecnologia CCS è molto dispendiosa perché per catturare CO2 c’è bisogno di energia. Ad esempio, per applicare questa tecnologia a una centrale termoelettrica a carbone è necessario affiancare alla centrale un’unità dedicata, alimentata a gas. Cioè, si brucia gas fossile (senza compensare le relative emissioni) per alimentare l’impianto CCS che poi cattura solo una piccola parte della CO2 emessa dalla centrale. Oltre al costo dell’impianto dedicato, si deve anche considerare che la cattura di CO2 all’interno della centrale riduce le sue prestazioni del 10%-20%.

5)- Un impianto CCS in Norvegia viene utilizzato dalla compagnia petrolifera Equinor per rivitalizzare parzialmente, con l’immissione di CO2, giacimenti petroliferi quasi esauriti (Enhanced Oil Recovery, EOR). Questo, che attualmente è l’unico uso che si può fare della CO2 catturata, potrebbe essere lo scopo nascosto della costruzione di un impianto CCS di Eni a Ravenna. L’Enhanced Oil Recovery, che taluni considerano come un esempio di economia circolare, è semplicemente un artificio per continuate ad estrarre e quindi usare  i combustibili fossili.

 6)- L’unico impianto CCS americano, utilizzato per sequestrare una parte della CO2 emessa dalla centrale a carbone di Petra Nova in Texas, è stato chiuso da pochi mesi a tempo indeterminato perché ritenuto non più sostenibile dal punto di vista economico dal gestore dell’impianto, NRG Energy (2,3). Anche in questo caso la CO2 catturata era trasportata via tubo in giacimenti petroliferi per potenziare l’estrazione (EOR). La performance dell’impianto di Petra Nova era considerato un test per capire se la tecnologia CCS può veramente essere utile nella battaglia contro il cambiamento climatico.  La risposta è chiare: il CCS è economicamente insostenibile.

7)- La cattura della CO2 non elimina l’inquinamento causato da combustibili fossili, che ogni anno causa in Italia 80.000 morti premature; il passaggio dai combustibili fossili alle energie rinnovabili risolverebbe anche questo problema.

8)- La letteratura scientifica è scettica sulla possibilità che si possa immagazzinare permanentemente CO2. La sua fuoriuscita vanificherebbe l’opera intrapresa per combattere il cambiamento climatico; una fuoriuscita improvvisa potrebbe creare danni gravi alla popolazione (soffocamento: CO2, gas pesante, non si allontana dalla superficie della Terra)

9)- Lo stoccaggio di CO2, come hanno dimostrato analoghe attività in altre aree, potrebbe provocare un progressivo incremento della sismicità; cosa molto pericolosa nel territorio ravennate, che già presenta un rischio sismico medio-alto ed è soggetto a significativi fenomeni di subsidenza.

10)– Sviluppare il CCS significa investire miliardi di euro pubblici che sarebbe invece necessario e urgente utilizzare per sviluppare l’uso di energie rinnovabili pienamente collaudate come fotovoltaico ed eolico. A questo proposito è bene notare che Il costo di un kW di fotovoltaico è diminuito di oltre 20 volte negli ultimi 20 anni e che attualmente, con l’eolico, il fotovoltaico è la tecnologia meno costosa per produrre energia elettrica. L’efficienza di conversione della luce in elettricità di un pannello fotovoltaico supera ormai il 20%. Se la paragoniamo alla efficienza della fotosintesi naturale, che è mediamente inferiore all’1%, possiamo capire come il fotovoltaico sia tra le invenzioni più dirompenti del XX secolo.

11)- Il CCS non è stato ancora sviluppato su una scala macroscopica corrispondente alla necessità di evitare l’immissione di significative quantità di CO2 in atmosfera (4).

12)- Una analisi comparativa dimostra inequivocabilmente che l’elettricità prodotta dalle energie rinnovabili ha un ritorno energetico superiore a quello della elettricità da centrali termoelettriche dotate di CCS (5).

Si conclude quindi che il CCS è un disperato tentativo delle compagnie petrolifere per tenere in vita processi produttivi e di approvvigionamento energetico basato sui combustibili fossili. In ogni caso, non è opportuno investire ingenti risorse pubbliche nella realizzazione di un sistema di cattura e stoccaggio di CO2 perché i risultati promessi non sono affatto garantiti, né dal punto di vista della sicurezza, né dal punto di vista climatico.

Le risorse disponibili debbono essere usate per lo sviluppo delle energie rinnovabili, particolarmente fotovoltaico ed eolico, nonché per gli impianti di accumulo di energia elettrica, per l’efficienza energetica degli edifici e delle attività produttive e commerciali; tutti questi settori garantiscono anche una più un’alta intensità di posti di lavoro rispetto al settore dei combustibili fossili.

(1) Corte dei conti Europea, N. 24, 2018, Relazione speciale: … I progressi attesi non sono stati realizzati …

(2) QualEnergia, 5 febbraio 2021: La cattura della CO2 fa un buco nell’acqua negli Usa: il caso di Petra Nova

(3)  Reuters, August 7, 2020: Problems plagued U.S. CO2 capture project before shutdown: document

(4) Energy Environ. Sci, 1062, 11, 2018: Carbon capture and storage (CCS)

(5) Nature Energy, 456, 4, 2019: Comparative net energy analysis of renewable electricity and carbon capture and storage

2. CCS e idrogeno

Quando la produzione di energia elettrica da fonti rinnovabili sarà molto abbondante, diventerà conveniente utilizzarla, in parte, per produrre idrogeno (H2) mediante elettrolisi dell’acqua. L’idrogeno è un gas che può essere usato come combustibile (contenuto energetico molto superiore a quello del metano), oppure può essere riconvertito in energia elettrica mediante pile a combustibile (fuel cells). In entrambi i casi produce solo acqua: niente CO2, nessuna sostanza inquinante. L’idrogeno è un gas incolore. Quello prodotto mediante energia elettrica rinnovabile mediante l’elettrolisi dell’acqua è idrogeno purissimo e viene chiamato significativamente idrogeno verde. La produzione e l’utilizzo di idrogeno verde richiedono vari processi di conversione, che implicano un’efficienza sostanzialmente inferiore rispetto all’utilizzo diretto dell’elettricità. L’idrogeno è quindi una risorsa costosa e preziosa che deve essere utilizzata solo in alcuni settori specifici come il trasporto pesante (es., navi e aerei) e l’industria pesante (es., acciaierie). Il primo passo verso la produzione e l’uso di l’idrogeno verde è l’aumento della potenza elettrica rinnovabile per possederne surplus da immagazzinare sotto forma di idrogeno.

Attualmente l’idrogeno viene usato principalmente per la sintesi dell’ammoniaca (fertilizzanti) o per la raffinazione del petrolio e viene quasi tutto prodotto a partire da metano, petrolio o carbone mediante processi che comportano l’emissione di ingenti quantità di CO2 in atmosfera. Questo idrogeno viene chiamato idrogeno grigio; non è puro, ma oggi costa circa tre volte meno dell’idrogeno verde. Utilizzando impianti basati sull’uso di combustibili fossili abbinati a CCS, la CO2 generata potrebbe venire catturata e intrappolata: questo idrogeno, che non è ancora stato prodotto, viene chiamato idrogeno blu.

Le aziende del petrolio e del gas, in Italia ENI e SNAM, puntano sull’idrogeno blu per poter continuare a estrarre e usare metano. Il principale obiettivo del progetto CCS ENI a Ravenna è proprio diffondere l’idea che si possa produrre idrogeno blu. Ma abbiamo visto che la tecnologia CCS non è economicamente sostenibile e neppure tecnicamente provata, dopo 20 anni di prove. In ogni caso, ENI e le altre compagnie petrolifere cercano di rientrare in gioco per ottenere finanziamenti dal Next Generation EU spacciando per verde la tecnologia CCS perché, in teoria, cattura e sequestra CO2. Accade così che nell’Unione Europea la lobby delle aziende dei fossili, registrata col nome di Hydrogen Europe, preme perché l’idrogeno blu sia incluso nei piani di finanziamento per la transizione energetica. La Re:Common, un’associazione che fa inchieste e campagne contro la corruzione, ha notato con preoccupazione che in effetti “la strategia europea sull’idrogeno varata dalla Commissione Europea nel luglio 2020 è molto vicina alle richieste della lobby”. RE:Common definisce il CCS un inganno che serve all’ENI per dare un parvenza di transizione; è cioè una operazione di green washing, quando in realtà l’azienda continua a puntare su giacimenti di metano e petrolio.

3. Idrogeno e fusione nucleare

Il 16 marzo scorso, nell’illustrare il programma del Ministero della Transizione Ecologica, il ministro Cingolani ha fatto alcune dichiarazioni molto discutibili. Ha citato il nucleare da fusione, che dagli anni Settanta del secolo scorso ci viene ripetutamente promesso come fattibile “entro 30 anni” per risolvere la crisi energetico climatica. In effetti, anche oggi gli esperti ci dicono che la fusione nucleare, nella migliore delle ipotesi, non potrà dare alcun contributo concreto alla produzione di energia elettrica per usi civili prima del 2060, mentre sappiamo che dobbiamo mettere sotto controllo il cambiamento climatico entro i prossimi 15-20 anni.

Il ministro Cingolani è, inspiegabilmente, molto più ottimista: “Io spero che se avremo lavorato bene, fra dieci anni i nostri successori parleranno di come abbassare il prezzo dell’idrogeno verde e di come investire sulla fusione nucleare. Questa è la transizione che ho in testa … L’universo funziona con la fusione nucleare. Quella è la rinnovabile delle rinnovabili. Noi oggi abbiamo il dovere nel PNRR di potenziare il ruolo dell’Italia nei progetti internazionali ITER e MIT sulla fusione. Quello è un treno che non possiamo perdere”. L’idrogeno prodotto per elettrolisi dell’acqua utilizzando energia elettrica proveniente dal nucleare viene chiamato idrogeno viola ed è puro come l’idrogeno verde.

Cingolani ha anche affermato che “Fra dieci anni avremo l’idrogeno verde e le automobili che andranno a celle a combustibile”. Forse ignora che il consumo totale di energia di un’auto a idrogeno è oltre il triplo di quella di un’auto elettrica a causa delle perdite associate alla produzione di idrogeno da rinnovabili, al suo trasporto e stoccaggio e alla ri-conversione dell’idrogeno in elettricità con le celle a combustibile. Quindi, la competizione delle auto a idrogeno con le auto elettriche è persa in partenza per un fattore tre a vantaggio dell’elettrico.

Cingolani ha anche detto “Abbiamo un decennio per rendere la nostra società competitiva sull’idrogeno verde. Al momento non abbiamo gli impianti, non sappiamo come stoccare e come utilizzare l’idrogeno. Ma questa è solo la realtà odierna. Dobbiamo cominciare a lanciare i nostri programmi, dobbiamo creare quel sistema che intorno a quel vettore energetico ci consenta di operare al meglio”. E in più occasioni ha anche parlato di idrogeno blu, il progetto proposto da ENI con impianti CCS. Questo progetto in un primo tempo era stato inserito nel Recovery Plan; scartato nella seconda versione, potrebbe riapparire in quella finale. Insomma, non vorremmo che l’uso dell’idrogeno blu fosse considerato un ponte necessario per passare poi all’idrogeno verde, così come ENI sostiene da anni che l’uso del metano è un ponte necessario per poi passare alle rinnovabili, giudicate non ancora mature.

Infatti, parlando della transizione energetica, Cingolani ha parlato anche, implicitamente, del ruolo del metano: «Sappiamo quale strada dobbiamo fare, dobbiamo partire da A e arrivare a B, più difficile è dire con quale pendenza raggiungere la meta». Il Piano integrato energia e clima del governo Conte prevedeva molto metano e una curva di crescita delle rinnovabili «schiacciata»: 4,5-5 GW di potenza di rinnovabili installata per il 2025. Come abbiamo visto, questo aumento è assolutamente insufficiente. La potenza installata deve essere di almeno 20 GW al 2026 e 40-50 GW al 2030. Con un capacity factor medio del 20% (fotovoltaico e eolico), 50 GW corrispondono a circa 90 TWh, cioè circa un quarto della domanda attuale, che è il minimo per raggiungere l’obiettivo EU di 2/3 di elettricità rinnovabile al 2030. Si tratta di un obiettivo ciclopico che va affrontato con urgenza, incominciando con l’attuare procedure autorizzative serie, ma molto più snelle per sviluppare eolico e fotovoltaico, tecnologie sulle quali si sa già tutto. L’ultimo impianto eolico entrato in funzione ci ha messo otto anni per essere autorizzato.

Invenzioni anticovid.

In evidenza

Luigi Campanella, già Presidente SCI

Dinnanzi al covid19 che rallenta ma non si ferma si moltiplicano le iniziative di “difesa personale”, non tutte scientificamente supportate, ma tutte legate alla speranza di proteggerci dal virus pandemico.

Cominciamo da uno studio dell’Università di Città del Messico secondo cui la pandemia si sconfigge a tavola con una dieta ricca di omega 3 e 6 presenti in molti alimenti a base di pesce: ne deriverebbe un effetto antiinfiammatorio ed un’accresciuta resistenza alla penetrazione del virus nelle nostre cellule.

Un’altra proposta riguarda una mascherina innovativa dotata di un sensore che trasmette i dati della respirazione al cellulare e di un filtro che rileva l’inquinamento: dai due dati si ricavano informazioni preziose sul nostro stato di salute.

Un cerotto da applicare sotto l’ascella funge da termometro e consente di controllare da remoto la temperatura del corpo: questo sistema è stato messo a punto nell’Università di Tor Vergata.

2 mascherine, una Ffp2 sovrapposta ad una chirurgica, vengono consigliate dal consigliere di Joe Biden, Antony Fauci: la protezione totale risulta aumentata, soprattutto rispetto alle miniparticelle di saliva diffuse dai vicini.

L’Universitá della Corea propone un armadio disinfettante per tenere i nostri vestiti sempre privi di carica virale.

Un italiano, Cosimo Scotucci, ha scoperto una fibra funzionale che ti guida, legata al pavimento, verso percorsi più sanificati.

Infine secondo i risultati dello studio clinico Remap-Cap resi pubblici dal Governo Inglese due farmaci impiegati contro l’artrite reumatoide risulterebbero attivi anche contro il covid19.

Tenuto conto della raccomandazione del Ministero della Salute circa le condizioni di idratazione e adeguata nutrizione dei malati covid19 assume importanza, come osservato in più sedi, l’assunzione di vitamina C, principio attivo di molti agrumi. Da qui il moltiplicarsi di studi sugli agrumi. In particolare l’attenzione dei ricercatori è concentrata sulla composizione in flavonoidi considerati preziosi componenti alimentari con possibile attività antivirale, modulatori del sistema immunitario e sentinelle dell’organismo rispetto allo stress ossidativo associato all’infezione.

Particolarmente presente negli agrumi l’esperidina è stata studiata per i suoi effetti benefici nel regolare il metabolismo e la pressione del sangue,nell’accrescere le capacità antiox dell’organismo. Con riferimento specifico al covid 19 sono emerse dagli studi due proprietà, la capacità dell’esperidina a legarsi alla proteina Spike del coronavirus impedendo il legame al recettore e quindi la penetrazione del virus nella cellula e la sua capacitá di inibire l’enzima proteolitico necessario alla replicazione del virus.

Esperidina

Oltre all’esperidina un altro flavonoide che può risultare utile nella lotta al covid 19 è la quercetina, antiossidante ed antiinfiammatorio, contenuto nei capperi, cicoria, piselli e cipolle.Questi composti giovano all’organismo in quanto favoriscono il metabolismo dei carboidrati e dei lipidi migliorando le condizioni di salute ed evitando copatologie che possono aggravare quella dovuta al virus.

Quercetina

Ricerche sono ancora in atto in tutto il mondo e la speranza è quella di acquisire nuove e più profonde conoscenze in materia.

Energia per l’Italia sul PNRR (parte prima)

In evidenza

ENERGIAPERLITALIA, coordinatore Vincenzo Balzani

Ospitiamo volentieri i commenti del gruppo Energia per l’Italia coordinato da Vincenzo Balzani

sul Piano nazionale di ripresa e resilienza (PNRR); il testo sarà pubblicato in due parti.

Esso è comunque recuperabile integralmente da energiaperlitalia,

Bologna, 4 aprile 2021

Hanno contribuito alla stesura di questo documento: Nicola Armaroli, Vincenzo Balzani, Alessandra Bonoli, Sergio Castellari, Marco Cervino, Vittorio Marletto, Leonardo Setti

Riassunto

Il gruppo Energia per l’Italia (http://www.energiaperlitalia.it/) ha esaminato e commentato alcuni aspetti del PNRR (Piano Nazionale di Ripresa e Resilienza), con particolare attenzione ai provvedimenti centrali per una reale transizione energetica e alle azioni efficaci di mitigazione e adattamento ai cambiamenti climatici.

 A nostro parere il Piano non affronta adeguatamente gli obiettivi europei in materia di clima ed energia. Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (inclusa l’energia), non raggiunge la quota prescritta del 37% del totale dei fondi.

Notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente per il passaggio all’energia elettrica prodotta da fonti rinnovabili quale sole vento e acqua per applicazioni nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità pubblica e privata di persone e merci.

L’aumento di energia rinnovabile proposto nel PNRR (4,5-5 GW) è assolutamente insufficiente. La nuova potenza installata deve essere aumentata di un fattore 5x al 2026 (20-25 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono infatti a circa 90 TWh, cioè un quarto della domanda elettrica attuale.

Anche per raggiungere l’obiettivo europeo di -55% emissioni di CO2 al 2030 rispetto al 1990 è necessario nei prossimi 10 anni uno sforzo molte volte superiore rispetto a quello degli ultimi 30 anni, dato che dovremo ridurre le emissioni di almeno 160 milioni di tonnellate di CO2 eq rispetto alle attuali 390 nette.

Per questo è necessario da una parte semplificare ed accelerare molto le procedure di autorizzazione di impianti eolici in mare e in terra e di impianti fv a terra, su aree dismesse o da bonificare, dall’altra sostenere l’autoproduzione di fotovoltaico sui tetti con bonus di almeno il 65% in fattura.

Inutili o dannose invece le proposte PNRR di riportare in Italia la produzione di moduli FV, saldamente in mano alla Cina, o peggio di sostenere il carico di base della rete elettrica con il gas, quando invece la tendenza nel resto dell’occidente è di sfruttare al massimo i pompaggi idrici (oggi largamente inutilizzati) e puntare con decisione all’accumulo in grandi batterie, potenziando la filiera elettrochimica (meccatronica di precisione) in cui l’Italia vanta punte di eccellenza. Vanno abbattuti i costi di realizzazione dei punti di ricarica diffusa dei mezzi elettrici nonché le relative tariffe, mentre l’idrogeno va riservato in via esclusiva a settori specifici come il volo la navigazione e la siderurgia, dato che ogni altra applicazione delineata nel PNRR rasenta la follia energetica (usare 100 W per produrne 10).

Anche il tema cruciale dell’adattamento ai cambiamenti climatici è trattato in modo insufficiente nel Piano, mancando fondi adeguati per le aree urbane, una governance multilivello del tema resilienza che sia partecipata e integrata nell’esistente (es. settore risorse idriche), nonché uno schema di monitoraggio e valutazione delle misure attuate.

Sul tema dell’economia circolare sono scarsi i fondi previsti per gli impianti necessari a rendere autosufficiente ogni regione e provincia italiana per il recupero e riciclo di materie prime seconde. Anche qui le procedure di autorizzazione risultano troppo complesse e lente.

Essenziale puntare su istruzione e ricerca sia per infondere un’adeguata cultura della transizione energetica nella popolazione a partire dai giovani sia per colmare il grande divario che ci separa dagli altri paesi europei (l’Italia investe in ricerca solo 150 Euro annui per ogni cittadino, contro i 250 e i 400 di Francia e Germania, e ha solo 75.000 ricercatori contro i 110.000 della Francia e 160.000 della Germania).

Il gruppo disapprova fermamente l’approccio CCS (Cattura del Carbonio e Stoccaggio) sostenuto nel PNRR, elencando ben 12 ragioni di critica dello stesso tra le quali spicca l’indimostrata applicabilità del metodo alla scala necessaria e la sua efficacia reale, con il rischio di gravi ripercussioni sul territorio. Per gli stessi motivi disapprova sia l’idea di sfruttare il CCS per produrre dal metano il cosiddetto idrogeno blu, sia l’idea ministeriale di considerare imminente l’arrivo di energia illimitata da fusione nucleare, che contrasta con la storia ormai cinquantennale del settore. I fondi attualmente erogati alle fonti fossili vanno invece dirottati su tecnologie perfettamente consolidate come le rinnovabili (sole, vento e acqua) che in pochi mesi dal progetto, se autorizzate, possono produrre l’energia elettrica pulita indispensabile per raggiungere gli obiettivi europei al 2030 e la neutralità climatica al 2050.

Osservazioni su punti specifici del documento

Rivoluzione verde e transizione ecologica (Missione 2)

La transizione ecologica deve basarsi sul concetto di ecologia integrale, ben espresso nel capitolo 4 dell’enciclica “Laudato si’” di papa Francesco: ecologia ambientale, economica, sociale e culturale, per il bene comune e la giustizia tra le generazioni.

Siamo di fronte a un impegno senza precedenti, che appare quasi insormontabile, soprattutto in termini di urgenza. Ma occorre accogliere la sfida e avviare da subito la transizione necessaria.

A nostro parere l’ultima versione del PNRR non affronta in maniera adeguata gli obiettivi in materia di clima e energia delineati nel Quadro 2030 per il clima e l’energia e nel Green Deal Europeo e non considera pienamente i capisaldi delineati nella Guidance Europea (Commission Staff Working Document – Guidance to MS Recovery and Resilience Plans, 17.9.2020). Infatti, considerando le proposte di investimenti in nuove azioni in campo climatico (includendo l’energia), non si raggiunge la quota (come prescritta nelle Guidance Europee) del 37% del totale dei fondi.

Nel PNRR questi fondi sono pianificati principalmente per i seguenti obiettivi: contrasto del dissesto idrogeologico; gestione sostenibile della risorsa idrica; attuazione di un programma di riforestazione; miglioramento della qualità delle acque interne e marine. Sono invece scarsi i fondi assegnati per l’adattamento climatico.

1. Transizione energetica e sviluppo delle rinnovabili

Premessa

La transizione energetica dai fossili alle energie rinnovabili implica il passaggio dai combustibili alla elettricità come energia di uso comune. Produrremo quantità sempre maggiori di energia elettrica con fonti rinnovabili (Sole, vento, acqua). Dovremo estendere l’uso dell’energia elettrica nell’industria, nell’agricoltura, nella climatizzazione degli edifici e ancor più nella mobilità, perché i motori elettrici sono da 3 a 4 volte più efficienti dei motori termici. Dovremo sviluppare prevalentemente trasporti pubblici alimentati dall’elettricità, e quindi usare meno aerei, più treni, tram e autobus elettrici e costruire meno autostrade e più ferrovie. Dovremo smettere di fornire sussidi alle fabbriche di auto, soprattutto se di lusso, con motori a combustione e trasferire alle energie rinnovabili i sussidi di cui ancora oggi godono i combustibili fossili.

Purtroppo, notiamo che nel Piano manca una exit strategy dai combustibili fossili al 2050, cioè manca uno schema con cui agire concretamente.

Fotovoltaico ed eolico oggi sono le due tecnologie che forniscono energia elettrica ai costi più bassi, anche tenendo conto dell’integrazione con sistemi di accumulo. Nel mercato mondiale della nuova potenza elettrica installata hanno raggiunto una quota di circa il 70%, superando nettamente le tecnologie tradizionali basate su carbone, gas e nucleare. Il fotovoltaico converte la luce del Sole in energia elettrica con un’efficienza di circa il 20%, quasi cento volte maggiore dell’efficienza con cui la fotosintesi naturale converte la luce solare in energia chimica.

Sviluppo delle energie rinnovabili

Secondo il PNRR “Gli obiettivi fissati al 2026 sono rappresentati da un aumento di 4,5-5 GW della capacità di rinnovabili installata, al fine di supportare l’obiettivo del PNIEC per il 2025. In combinazione con gli impianti eolici, saranno progettati e installati impianti fotovoltaici galleggianti da 100 MW in un’area ad alto irraggiamento, aumentando così la produzione totale di energia.”

Questo aumento è assolutamente insufficiente. La potenza installata deve essere almeno 5x al 2026 (20-20 GW) e 10x al 2030 (40-50 GW). Con un capacity factor medio del 20% (FV + eolico) 50 GW corrispondono a circa 90 TWh, cioè un quarto della domanda attuale. Questo è il minimo necessario per raggiungere nel 2030 l’obiettivo UE di 2/3 di elettricità rinnovabile sul totale. Bisogna fare, dunque, uno sforzo ciclopico per non rimanere indietro. Il potenziale di eolico in Italia è di 16 GW, 9 dei quali già realizzati per cui ora dobbiamo andare a coprire aree complesse e a bassa accettabilità sociale. Quindi, bisogna sviluppare soprattutto il fotovoltaico. Gli impianti galleggianti per 100 MW previsti dal Piano sono ben poca cosa.

Anche considerando l’obiettivo fissato dall’Unione Europea di abbattere le emissioni del 55% al 2030 si capisce che è necessario un grande sforzo. E’ necessario nei prossimi 10 anni correre 9 volte più veloci di quanto fatto negli ultimi 30 anni nell’abbattimento dei gas climalteranti.

Pertanto bisogna semplificare le procedure per l’approvazione dei progetti di risorse rinnovabili e promuovere e finanziare adeguatamente impianti eolici e fotovoltaici offshore e a terra in aree dismesse o da bonificare (come le ex discariche chiuse e altre aree da riqualificare).

E’ anche necessario promuovere l’autoproduzione domestica e industriale per realizzare una rete capillare di piccoli impianti con benefici per i territori e per le famiglie attraverso la diffusione delle comunità energetiche

Se si considerasse un bonus del 65% sul fotovoltaico domestico, scontato in fattura, non sarebbe difficile rilanciare le installazioni su milioni di tetti, con grande risparmio in bolletta per le famiglie.

Altre osservazioni

–  Il Piano prevede di rilanciare la produzione di moduli fotovoltaici in Italia, una iniziativa inutile poiché il mercato di moduli fotovoltaici è saldamente in mano alla Cina. Questo non significa che tutta la complessa filiera produttiva del FV sia in mano alla Cina, come spesso viene affermato: è una filiera globale e interconnessa, come tutte le grandi filiere industriali (abbiamo visto in questi mesi quanto sia complessa e globale la catena produttiva dei vaccini).

– Nel Piano si parla anche di realizzare sistemi di accumulo termico abbinati a impianti CCGT, cioè turbogas a metano. Questi impianti vengono definiti strategici poiché permettono di avviare le centrali termoelettriche in modo più flessibile, cosa necessaria per sopperire a eventuali buchi di potenza in rete generati dalle rinnovabili. I sistemi di accumulo termico non sono altro, in realtà, che un’altra “invenzione” per mantenere attive le centrali turbogas e chiedere sussidi per garantire la stabilità della rete. A nostro parere il modo più flessibile per gestire questi buchi è quello di usare blocchi di batterie di grande potenza (400 MW), come stanno facendo in California; oppure, tramite pompaggi nelle dighe.

– In tutto il PNRR non c’è neppure un cenno sulla filiera dei sistemi di accumulo in batteria. Tutto il settore elettrochimico è stato trascurato, quando invece potrebbe essere un asse strategico considerato anche che in Italia abbiamo gruppi di ricerca di eccellenza in questo settore. La produzione delle batterie è “meccatronica di precisione” e in questo campo nel nord Italia ci sono eccellenti industrie.

– Sostenere la mobilità elettrica incentivando stazioni di ricarica non è strategico in quanto queste stazioni saranno certamente realizzate anche senza sussidi con l’aumento delle automobili circolanti. Occorre invece incentivare l’allacciamento delle colonnine in modo diffuso. Il 20% del costo di installazione (2500 euro su 14 mila euro, per una colonnina da 22 kW) è dovuto alla richiesta del contatore.

– La strategia sull’idrogeno, di cui si parlerà diffusamente in seguito, deve essere focalizzata soltanto su tre settori: aeronautica, nautica e grandi produzioni industriali. Treni e autoarticolati devono essere alimentati con elettricità implementando la rete di distribuzione per i primi e la rete di ricarica   veloce per i secondi.

– Non è strategico produrre idrogeno verde (con rendimenti non superiori al 30% e l’annesso consumo di acqua) per poi bruciarlo in centrali turbogas in sostituzione del gas metano. Questa è pura “follia” energetica, si avrebbero rendimenti complessivi del solo 10%.

– La produzione di idrogeno è nettamente in contrasto con la “Tutela del territorio e della risorsa idrica” tanto che nel Piano mancano scenari su quello che dovrebbe essere il consumo di suolo legato alla produzione di energia rinnovabile necessaria per produrre l’idrogeno.

2. Mitigazione degli impatti climatici

Il PNRR afferma (pag.13): “La transizione ecologica sarà la base del nuovo modello economico e sociale di sviluppo su scala globale, in linea con l’Agenda 2030 per lo Sviluppo Sostenibile delle Nazioni Unite. Per avviarla sarà necessario, in primo luogo, ridurre drasticamente le emissioni di gas clima-alteranti in linea con gli obiettivi dell’Accordo di Parigi e del Green Deal europeo”. Per raggiungere questo obiettivo sarà necessaria una revisione del PNIEC

A pag.76 del PNRR si riportano le cifre della questione: emissioni nazionali di riferimento (1990) 516 MtCO2eq.; riduzione necessaria al 2030: -55%. Quindi al 2030 le emissioni non dovranno superare 516×0.45=232 MtCO2eq. Questo significa che in questi 10 anni occorre tagliare le emissioni di circa 160 MtCO2eq.

Sempre a pag.76 si evidenzia la grande occasione di finanziare un cambiamento di passo significativo: “Gli investimenti in cui si concretizzano le quattro componenti della missione Rivoluzione verde e transizione ecologica sono distribuiti su diverse linee progettuali per un ammontare complessivo di risorse pari a 68,9 miliardi di euro.” A tale proposito il PNRR rimanda a “ulteriori analisi pertinenti alla capacità di raggiungere con efficacia ed efficienza gli obiettivi PNIEC”. Tuttavia, non si parla del metodo con cui misurare la capacità di realizzazione dei “cantieri” che saranno finanziati.

Va dunque individuato e applicato un metodo capace di:

a) fare lo screening dei progetti (Rilevante/Non Rilevante ai fini dell’obiettivo di riduzione delle emissioni).

b) quantificare per i progetti Rilevanti il bilancio delle emissioni climalteranti dalla data di inizio di cantiere (i cantieri aumentano le emissioni rispetto a far nulla) fino al 2030.

Come apparato tecnico per l’individuazione del metodo di analisi e l’applicazione del metodo agli interventi indicati nel Piano possiamo suggerire SNPA

A margine, notiamo che il dimensionamento dei parchi agrisolari appare incongruente: “si punterà ad ottenere entro il 2026 una superficie coperta con pannelli fotovoltaici pari a 13.250 mq, tale da produrre 1.300-1.400 GWh a regime.”

3. Adattamento alla crisi climatica

A nostro parere i fondi pianificati per l’adattamento ai cambiamenti climatici (finalizzato ad accrescere la resilienza climatica del territorio, includendo i vari settori socio-economici, le infrastrutture e gli ecosistemi) sono veramente pochi

In particolare, è stata data poca attenzione al grande e trasversale tema del “climate proofing” con riguardo alla resilienza climatica e al tema della “perdita di biodiversità e degrado degli ecosistemi”.

Questo è evidenziato anche dagli scarsi fondi pianificati per la sostenibilità delle aree urbane – un tema molto complesso per il territorio Italiano che deve tener conto di sfide non solo ambientali, climatiche, energetiche, urbanistiche, ma anche di preservazione di importanti e unici beni culturali.

A nostro parere c’è il rischio di una non continuità nelle azioni proposte e finanziate dai Recovery fund dopo il 2026, in particolare proprio in merito alle tematiche di lotta ai cambiamenti climatici e alla perdita di biodiversità.

Questo rischio potrà essere amplificato dalla mancanza di una definizione nel PNRR di una governance unica finalizzata alla pianificazione e coordinazione dei progetti.

Questa governance dovrebbe:

a) integrarsi nelle strutture settoriali già esistenti (e.g., gestione risorse idriche);

b) applicare le varie modalità più efficienti di processi partecipativi;

c) fare buon uso di uno schema di monitoraggio/valutazione dell’efficacia nella attuazione delle nuove misure mediante consistenti ed efficaci indicatori.

Occorre infine finanziare tecnologie verdi per la resilienza urbana come strumenti indispensabili all’adattamento delle nostre città ai cambiamenti climatici, come viene fatto per tante città europee.

(continua)

Repliche di primavera.

In evidenza

Mauro Icardi

E’ una triste tradizione quella  cui stiamo assistendo. Vale a dire che ogni inizio anno, con una impressionante regolarità, che è scandita quasi cronometricamente, e purtroppo nell’indifferenza quasi totale si leggono titoli di giornali o agenzie di stampa di questo tenore.

https://www.ansa.it/lombardia/notizie/2021/03/29/ambiente-grande-siccita-po-e-sceso-fino-a-45-portata_e673bfec-e115-4a57-9df3-c757e56abb33.html

Leggendo questa nota di agenzia, quello che maggiormente mi lascia dubbioso è la speranza nell’arrivo di precipitazioni, e l’ennesimo richiamo a interventi concreti che troppo spesso rimangono lettera morta.

 Dato che si parla di pioggia, e che tra le dotazioni dell’impianto dove opero figura un pluviometro dal quale posso acquisire dati, condivido il grafico delle precipitazioni da inizio anno.

L’ultima precipitazione piovosa di una certa importanza risale alla data del sette Febbraio, quando abbiamo rilevato 43 mm di pioggia caduta. Il giorno dieci dello stesso sono stati rilevati 12 mm.  Nel mese di Marzo in totale 7 mm  dovuti  principalmente a nevischio e che nel bilancio totale e nella valutazione degli effetti sono praticamente insignificanti.

Per amore di precisione ho confrontato i dati del pluviometro aziendale, con quelli del bollettino del Centro Geofisico Prealpino di Varese, e con mia grande soddisfazione li ho trovati congruenti.

 Sono quasi due mesi che non piove in maniera importante: basti pensare che in questo intervallo di tempo si sono misurate precipitazioni che sono pari al 15% di quelle che cadono in media in questo periodo dell’anno nella zona compresa tra Varese, Como e il Canton Ticino. Con qualche mese di anticipo, si rischia di dover ricorrere all’irrigazione per salvare le colture, soprattutto quelle orticole. Le maggiori preoccupazioni riguardano gli ortaggi seminati nelle ultime settimane. Molti agricoltori aspettano prima di montare l’impianto di irrigazione, dunque ci si ritrova a ‘rincorrere’ la siccità.

 A questa situazione si aggiunge il problema dello scioglimento dei ghiacciai. Questo fenomeno provoca l’accresciuto rischio di disastri naturali quali inondazioni, colate detritiche e frane. I laghi che si formano all’interno di un ghiacciaio rischiano di riversarsi improvvisamente a valle, spazzando via villaggi e infrastrutture. E con l’assottigliarsi del ghiaccio e dello strato di permafrost, le montagne diventano più instabili. Regolarmente, le immagini del cedimento dei versanti alpini fanno il giro del mondo.

Tutto questo ci pone di fronte alla necessità di una gestione diversa della risorsa idrica, soprattutto per quanto riguarda la gestione delle precipitazioni nevose in quota. Che molto spesso non sono più a carattere nevoso, ma di pioggia, spesse volte concentrata in tempi ristretti (qualche ora) con precipitazioni molto abbondanti.

A valle di tutte queste situazioni, gli impianti di trattamento acque, particolarmente quelli di depurazione sono sottoposti a fenomeni di repentine variazioni di portata, con la possibilità di evidenti fenomeni di wash out (trascinamento veloce e violento di solidi nelle zone terminali di trattamento).

Ormai la maggior parte delle aziende di gestione del ciclo idrico sta predisponendo i “Water safety plan”, e quindi analizza i fattori di rischio in ogni singola fase del trattamento del ciclo idrico. E questa è una garanzia di controllo ed attenzione. Ma occorre un altro passo avanti. Cioè quello di inserire questo tipo di attività, all’interno di una visione più ampia. Cioè la consapevolezza dell’importanza dei beni comuni, e conseguentemente la loro protezione e valorizzazione. Partendo proprio dall’acqua che è forse quello più conosciuto.

Io sono un tecnico di laboratorio del ciclo idrico. E inseguo ancora un progetto personale di sensibilizzazione e educazione idrica. Che non è completo se non si allarga anche alla comprensione di problemi tra loro collegati, per esempio di come il riscaldamento globale stia incidendo in maniera decisamente significativa sulla gestione della risorsa idrica. Ritengo che cittadini e utenti correttamente informati,  possano essere  meno influenzati a rifugiarsi in atteggiamenti irrazionali di negazione e superficialità.

Un complesso del calcio si lega all’azoto

In evidenza

Rinaldo Cervellati

Questa sorprendente notizia è stata riportata da Bethany Halford sul volume 99, numero 9 dell’11 marzo scorso di C&EN news.

Il calcio è uno di quegli elementi che i chimici pensano di conoscere bene. Nella sua forma più comune, lo ione calcio (II), costruisce le ossa. È anche uno degli elementi più abbondanti nella crosta terrestre come calcare (carbonato di calcio CaCO3). Il calcio metallico è molto reattivo cedendo i due elettroni del guscio di valenza 4s. Ma il calcio, a quanto pare, può ancora sorprendere. Infatti, un gruppo di chimici in Germania ha scoperto che un complesso del raro calcio(I) può reagire con il diazoto, una molecola che è tipicamente considerata inerte e richiede catalizzatori di metalli di transizione insieme ad alte temperature o pressioni per reagire. Sjoerd Harder, un chimico inorganico dell’Università Friedrich Alexander (Erlangen-Norimberga), insieme al suo gruppo comprendente due dottorandi (Bastian Rösch e Thomas Gentner), ha sintetizzato un complesso di calcio (I) utilizzando un ingombrante ligando β-dichetiminato per stabilizzare lo ione (LCa-CaL, L = ligando bidentato).

Friedrich-Alexander-Universität Erlangen Nürnberg Department Chemie Professoren Habilitanten

Sjoerd Harder

 Essi hanno incontrato molti problemi: il calcio reagiva con i solventi aromatici che usavano (benzene, toluene e para-xilene). Quindi hanno provato con solventi  meno reattivi, e quando hanno aggiunto tetraidrofurano o tetraidropirano alla reazione, si sono formati immediatamente cristalli bruno-rossastri. L’analisi cristallografica ha rivelato che due degli atomi di calcio complessati avevano legato l’azoto (N2) utilizzato come atmosfera inerte per la reazione, (figura 1).

Figura 1. Struttura cristallina del complesso calcio-diazoto (atomi di H omessi per chiarezza). Credit: adattato da Nature

Il gruppo di Harder è rimasto molto sorpreso da questo risultato. Infatti, che un metallo di blocco s come il calcio, che in genere cede i suoi elettroni esterni, possa attivare N2 a temperature fino a –60 °C era qualcosa che non si era mai previsto sarebbe stato possibile. Harder ha contattato Gernot Frenking, un chimico teorico presso la Philipps University di Marburg, per avere un’interpretazione del fenomeno.

Gernot Frenking

I calcoli di Frenking e suoi colleghi hanno mostrato che gli orbitali d del calcio si legano con N2, suggerendo che il calcio può usare i suoi orbitali d proprio come fanno i metalli di transizione. Frenking e collaboratori sono stati inseriti fra gli autori della pubblicazione [1].

Frenking sostiene di essere sbalordito: “Si è aperta una porta per guardare questo tipo di composti in un modo diverso, e i risultati suggeriscono che il calcio, insieme ai suoi cugini più pesanti stronzio e bario, dovrebbe essere incluso fra i metalli di transizione della tavola periodica”.

Marc-André Légaré della McGill University (Canada), che lavora alla sintesi di catalizzatori da elementi del blocco s afferma: “La scoperta cambierà il modo in cui i chimici vedono gli elementi abbondanti sulla terra sul lato sinistro della tavola periodica, nota come blocco s. Questa è una chiara dimostrazione che il calcio, e probabilmente gli altri alcalino terrosi come il magnesio, hanno da offrire alla chimica molto più di quanto siamo abituati a vedere. Mostra che il calcio può usare i suoi orbitali, e non solo la sua carica, per realizzare una chimica che è difficile anche per i metalli del blocco d che vengono solitamente utilizzati per la catalisi”.

Robert J. Gilliard Jr., che studia chimica dei gruppi principali presso l’Università della Virginia (USA), definisce il risultato rivoluzionario: “Fornisce informazioni su ciò che deve ancora venire per la chimica molecolare degli elementi a bassa valenza del blocco s. Con l’innovazione nella progettazione dei ligandi e nelle strategie di stabilizzazione, potrebbe essere possibile sviluppare una nuova chimica aggiuntiva per gli elementi del blocco s”.

Per quanto riguarda le possibili applicazioni pratiche, Harder afferma che poiché questa chimica del calcio richiede potassio metallico per ridurre il calcio (II) a calcio (I), è troppo poco pratico e costoso sostituire il processo Haber-Bosch[1], che utilizza ferro o altri catalizzatori di metalli di transizione per catturare N2 dall’aria per produrre ammoniaca per fertilizzanti e altri prodotti contenenti azoto. Ma, dice, forse si potrebbe escogitare un percorso elettrochimico per produrre il complesso di calcio(I).

Bibliografia

[1] B. Rösch et al., Dinitrogen complexation and reduction at low-valent calcium. Science  2021, 371,1125-1128; DOI: 10.1126/science.abf2374


[1] Il processo Haber–Bosch, è una reazione di fissazione artificiale dell’azoto ed è oggi il principale procedimento industriale per la produzione di ammoniaca. Prende il nome dai suoi inventori, i chimici tedeschi Fritz Haber (1878-1934) e Carl Bosch (1784-1940), che lo svilupparono nel primo decennio del XX secolo. Il processo converte l’azoto atmosferico (N2) in ammoniaca (NH3) mediante una reazione con l’idrogeno (H2) utilizzando un catalizzatore metallico ad alte temperature e pressioni

Elementi della Tavola Periodica. Calcio, Ca (2 parte)

In evidenza

Rinaldo Cervellati

il primo post di questa serie è qui

Ruolo biologico e patologie da carenza

Il calcio è un elemento essenziale. Lo ione Ca2+ agisce come elettrolita ed è vitale per la salute dei sistemi muscolare, circolatorio e digestivo; è indispensabile per la costruzione delle ossa; supporta la sintesi e la funzione delle cellule del sangue. Ad esempio, regola la contrazione dei muscoli, la conduzione nervosa e la coagulazione del sangue. Di conseguenza, i livelli di calcio intra ed extracellulare sono strettamente regolati dal corpo. Il calcio può svolgere questo ruolo perché lo ione Ca2+ forma complessi di coordinazione stabili con molti composti organici, in particolare le proteine; forma anche composti con un’ampia gamma di solubilità, consentendo la formazione dello scheletro.

Gli ioni calcio possono essere complessati dalle proteine ​​legando i gruppi carbossilici dell’acido glutammico o dei residui dell’acido aspartico; attraverso l’interazione con residui fosforilati di serina, tirosina o treonina; o essendo chelato da residui amminoacidici γ-carbossilati. La tripsina, un enzima digestivo, utilizza il primo metodo; l’osteocalcina, una proteina della matrice ossea, utilizza il terzo. Alcune altre proteine ​​della matrice ossea come l’osteopontina e la sialoproteina ossea utilizzano sia il primo sia il secondo. L’attivazione diretta degli enzimi leganti il calcio è comune; alcuni altri enzimi sono attivati ​​dall’associazione non covalente con enzimi leganti direttamente il ​​calcio. Si lega anche allo strato fosfolipidico della membrana cellulare, ancorando le proteine ​​associate alla superficie cellulare.

Come esempio dell’ampia gamma di solubilità dei composti di calcio, il fosfato monocalcico è molto solubile in acqua, l’85% del calcio extracellulare è come fosfato bicalcico con una solubilità di 2,0 mM e l’idrossiapatite delle ossa in una matrice organica è il fosfato tricalcico a 100 μM.

Nutrizione

Il calcio è un costituente comune degli integratori alimentari multivitaminici, ma la composizione dei complessi di calcio negli integratori può influire sulla sua biodisponibilità che varia secondo la solubilità del sale coinvolto: citrato di calcio, malato e lattato sono altamente biodisponibili, mentre l’ossalato lo è meno. Altre preparazioni includono carbonato di calcio, citrato malato di calcio e gluconato di calcio. L’intestino assorbe circa un terzo del calcio ingerito come ione libero e il suo livello nel plasma viene regolato dai reni.

Regolazione ormonale della formazione ossea e dei livelli sierici

L’ormone paratiroideo e la vitamina D promuovono la formazione delle ossa consentendo e migliorando la deposizione di ioni calcio, consentendo un rapido turnover osseo senza influenzare la massa ossea o il contenuto di minerali. Quando i livelli di calcio plasmatico diminuiscono, i recettori della superficie cellulare vengono attivati ​​e si verifica la secrezione dell’ormone paratiroideo; procede quindi a stimolare l’ingresso di calcio nel pool plasmatico prelevandolo da cellule renali, intestinali e ossee mirate, con l’azione di formazione ossea dell’ormone paratiroideo antagonizzata dalla calcitonina, la cui secrezione aumenta con l’aumentare dei livelli di calcio plasmatico.

Figura 6. Assunzione di calcio nella dieta globale tra gli adulti (mg/giorno).

<400, 400–500, 500–600, 600–700, 700–800, 800–900, 900−1000, >1000

rosso, rosso chiaro, più chiaro — giallo — verde, più chiaro, —–grigio

Livelli sierici anormali

Un consumo eccessivo di calcio può causare ipercalcemia. Tuttavia, poiché viene assorbito in modo piuttosto inefficiente dall’intestino, un alto livello di calcio sierico è più probabilmente causato da un’eccessiva secrezione di ormone paratiroideo (PTH) o forse da un’eccessiva assunzione di vitamina D, che facilitano l’assorbimento del calcio. Tutte queste condizioni provocano il deposito di sali di calcio in eccesso nel cuore, nei vasi sanguigni o nei reni. I sintomi includono anoressia, nausea, vomito, perdita di memoria, confusione, debolezza muscolare, aumento della minzione, disidratazione e malattia metabolica delle ossa. L’ipercalcemia cronica porta tipicamente alla calcificazione dei tessuti molli e alle sue gravi conseguenze: ad esempio, la calcificazione può causare la perdita di elasticità delle pareti vascolari e l’interruzione del flusso sanguigno laminare, e quindi la rottura della placca e la trombosi. Al contrario, un’assunzione inadeguata di calcio o vitamina D può provocare ipocalcemia, spesso causata anche da una secrezione inadeguata dell’ormone paratiroideo o da recettori PTH difettosi nelle cellule. I sintomi includono l’eccitabilità neuromuscolare, che potenzialmente causa tetania e interruzione della conduttività nel tessuto cardiaco.

Calcoli renali

Poiché il calcio è necessario per lo sviluppo osseo, molte malattie ossee possono essere ricondotte alla matrice organica o all’idrossiapatite nella struttura molecolare o nell’organizzazione dell’osso. L’osteoporosi è una riduzione del contenuto di minerali dell’osso per unità di volume e può essere trattata con l’integrazione di calcio, vitamina D e bisfosfonati. Quantità inadeguate di queste sostanze possono provocare un ammorbidimento delle ossa, chiamato osteomalacia.

Cibi ricchi di calcio

Gli alimenti ricchi di calcio includono latticini (come yogurt e formaggi), sardine, salmone, prodotti a base di soia, cavoli e cereali  da colazione fortificati.

Sia l’Istituto di medicina degli Stati Uniti (IOM) che l’Autorità europea per la sicurezza alimentare (EFSA) hanno stabilito i livelli di assunzione superiore tollerabile (UL) per la dieta combinata e gli integratori di calcio. Lo IOM ha stabilito che persone di età compresa tra 9 e 18 anni non devono superare l’assunzione combinata di 3 g/giorno; per età 19–50 2,5 g/giorno; dai 51 anni in su 2 g/giorno. L’EFSA ha fissato l’UL per tutti gli adulti a 2,5 g/giorno, ma ha deciso che le informazioni per bambini e adolescenti non erano sufficienti per determinare l’UL.

Ciclo biogeochimico

Il ciclo del calcio fornisce un collegamento tra tettonica, clima e ciclo del carbonio (figura 7).

Figura 7. Ciclo del calcio e relazione con quello del carbonio

In termini semplici, il sollevamento delle montagne espone le rocce contenenti calcio agli agenti atmosferici chimici (CO2 gas e H2O) e rilascia Ca2+ nelle acque superficiali. Questi ioni vengono trasportati nell’oceano dove reagiscono con la CO2 disciolta per formare calcare (CaCO3), che a sua volta si deposita sul fondo del mare dove viene inglobato in nuove rocce. La CO2 disciolta, insieme agli ioni carbonato e bicarbonato, è definita “carbonio inorganico disciolto” (DIC).

La reazione effettiva è più complicata e coinvolge lo ione bicarbonato (HCO3) che si forma quando la CO2 reagisce con l’acqua al pH dell’acqua marina:

Ca2+ + 2HCO3− ⇌ CaCO3(s) + CO2 + H2O

Al pH dell’acqua di mare, la maggior parte della CO2 viene immediatamente riconvertita in HCO3e la reazione si traduce in un trasporto netto di una molecola di CO2 dall’oceano/atmosfera alla litosfera. Il risultato è che ogni ione Ca2+ rilasciato dagli agenti atmosferici chimici alla fine rimuove una molecola di CO2 dal sistema superficiale (atmosfera, oceano, suolo e organismi viventi), immagazzinandola nelle rocce carbonatiche dove è probabile che rimanga per centinaia di milioni di anni. L’erosione del calcio dalle rocce elimina quindi la CO2 dall’oceano e dall’atmosfera, esercitando un forte effetto a lungo termine sul clima.

Con l’acidificazione degli oceani, l’apporto di anidride carbonica promuove la dissoluzione del carbonato di calcio e danneggia gli organismi marini che dipendono dai loro gusci protettivi di calcite o aragonite. La solubilità del carbonato di calcio aumenta con la pressione e l’anidride carbonica e diminuisce con la temperatura. Pertanto, il carbonato di calcio è più solubile nelle acque profonde rispetto alle acque superficiali a causa della pressione più elevata e della temperatura inferiore. Di conseguenza, la precipitazione del carbonato di calcio è più comune negli oceani meno profondi. La profondità alla quale la velocità di dissoluzione della calcite è uguale alla velocità di precipitazione della calcite è nota come profondità di compensazione della calcite.

L’acidità degli oceani dovuta all’anidride carbonica è già aumentata del 25% dalla rivoluzione industriale. Poiché le emissioni di anidride carbonica aumentano e si accumulano continuamente, ciò influirà negativamente sulla vita di molti ecosistemi marini. Il carbonato di calcio utilizzato per formare gli esoscheletri di molti organismi marini inizierà a degradarsi, lasciando questi animali vulnerabili e incapaci di vivere nei loro habitat. Questo alla fine ha un effetto sui predatori, influenzando ulteriormente la funzione di molte catene alimentari a livello globale.

Data la sua stretta relazione con il ciclo del carbonio e gli effetti dei gas serra, si prevede che i cicli del calcio e del carbonio cambieranno nei prossimi anni. Il monitoraggio degli isotopi del calcio consente la previsione dei cambiamenti ambientali, con molte fonti che suggeriscono un aumento delle temperature sia nell’atmosfera sia nell’ambiente marino. Di conseguenza, questo altererà drasticamente la degradazione della roccia, il pH degli oceani e dei corsi d’acqua e quindi la sedimentazione del calcio, con una serie di implicazioni sul ciclo del calcio. A causa delle complesse interazioni del calcio con molti aspetti della vita, è improbabile che gli effetti delle condizioni ambientali alterate siano noti fino a quando non si verificano. Le previsioni possono tuttavia essere fatte provvisoriamente, sulla base di ricerche basate sull’evidenza [1,2].

Riciclaggio

Dato l’ampio uso dei composti del calcio in diversi settori industriali e agrari, molti articoli hanno proposto metodi per il riciclo di silicati, carbonati e cloruro di calcio. Qui riportiamo un brevetto statunitense per il recupero da prodotti di scarto o materiale calcico naturale contaminato [3]. In sintesi il calcio viene recuperato preparando una sospensione acquosa del materiale contenente calcio da recuperare e abbassando il pH della sospensione a pH <6, o preferibilmente <4, per fornire una sospensione che include una fase liquida acida contenente i composti di calcio in forma solubile. Successivamente il pH del liquido viene portato a pH> 6 o 7, mescolando in esso una base, per precipitare la porzione principale di alluminio; alla fase liquida neutra o basica viene aggiunto carbonato o bicarbonato di sodio (Na2CO3 o NaHCO3), per precipitare i composti di calcio come CaCO3.

Opere consultate

Handbook of Chemistry and Physics, 85th Ed. p. 4-7

https://en.wikipedia.org/wiki/Calcium

https://en.wikipedia.org/wiki/Carbonate-silicate_cycle

Bibliografia

[1] https://www.pmel.noaa.gov/co2

[2] Ocean acidification, Smithsonian,

https://ocean.si.edu/ocean-life/invertebrates/ocean-acidification

[3] Method of recovering calcium from waste material or contaminated natural calcic material.

https://patents.google.com/patent/US6193945

Big data e covid19

In evidenza

Luigi Campanella, già Presidente SCI

La drammatica esperienza che stiamo vivendo ci sta insegnando tante cose: mi é capitato di dirlo più volte!  

Saremo stati buoni scolari?

Uno degli argomenti che più mi hanno affascinato riguarda il patrimonio dati. Quando ero studente disporre di dati era un privilegio di pochi, i computer personali praticamente non esistevano, le banche dati erano appena in formazione.

Eppure oggi il patrimonio di informazione che dietro questi dati si cela è una ricchezza; ma come è vero che il denaro spesso non fa la felicità anche i dati spesso restano informazione, non diventano conoscenza, assumono il ruolo di barriere fra addetti e cittadini, diventano pericolosi superamenti del giusto diritto alla privacy.

Ecco allora che come per i soldi la felicità così per i dati la conoscenza: si possono ottenere ma se si è capaci di gestire il prezioso patrimonio con attenzione ed etica. Questa é la scienza del comportamento, quello di ognuno, che per rispondere a criteri etici deve essere rispettoso della dignità della persona, come singolo e come comunità.

In questi giorni credo non ci sia cittadino che non presti attenzione ai comunicati, alle reprimende, alle raccomandazioni, all’elenco di imposizioni e limitazioni da parte dei vari Comitati Tecnici preposti a regolare la libertà dei cittadini durante la pandemia. Questi esperti svolgono un lavoro prezioso, cercano di giustificare ai cittadini le necessarie riduzioni di libertà. Il problema è che entrano in dialogo diretto con i cittadini senza mediazione politica.

Questo stile di comunicazione è inappropriato: come diceva Weber “la scienza è come una mappa, non ci dice dove andare, ma come andarci“.

Invece circa il dove andare spesso sentiamo critiche alle scelte di governo, per influenzare e governare sulla base di dati che però risultano filtrati. I big data proprio per la loro natura per produrre conoscenza devono essere interpretati, ma la chiave di interpretazione diviene uno strumento selettivo fra conoscenza e chi la può acquisire e non-conoscenza. I politici hanno certamente il dovere di utilizzare la migliore conoscenza che i dati disponibili offrono, ma il bilanciamento fra conoscenza scientifica e altri valori, quali costi psicologici, economici, sociali, disomogeneità di carico fra le differenti situazioni geopolitiche sociali, industriali spettano alla politica.

Un altro punto che prima ricordavo riguarda la privacy. Ogni giorno sui mass media vengono pubblicate notizie di diffusione illecita di dati personali che riguardano anche le Amministrazioni ed i Ministeri. La pandemia ha accelerato il processo di digitalizzazione. Ma questa rivoluzione, in sé preziosa, non può prescindere da quella della ciber-sicurezza e della protezione dati.

D’altra parte fra i due c’è stretta relazione: si pensi alle frodi bancarie, ai furti di account, alla vendita di prodotti inesistenti. Esistono normative importanti a livello europeo e figure obbligatorie in ambito sia pubblico che privato: il responsabile della protezione dati DPO  esiste formalmente dal maggio 2018, ma purtroppo trattasi di figura difficile ad essere formata. Questo ci riporta ad un altro tema più volte sollevato sul blog, cioè alla corrispondenza fra offerta didattica ed esigenze/richieste del mercato. La tradizionale articolazione dell’università a volte fatica a rendersi conto della richiesta di figure che la scavalcano per il taglio interdisciplinare e la combinazione di discipline tecniche con altre più amministrative.

Il DPO può rappresentare uno stimolo a riconsiderare da parte degli atenei queste figure realizzando progetti didattici integrati. La chimica credo sia fra le discipline più interessate ad un approccio olistico verso la conoscenza

Borofene e borofano

In evidenza

Rinaldo Cervellati

Il borofene è un monostrato atomico cristallino di boro, un allotropo bidimensionale del boro, noto anche come foglio di boro. Predetto teoricamente per la prima volta a metà degli anni ’90 [1], diverse strutture di borofene sono state confermate sperimentalmente nel 2015 da un gruppo di ricercatori coordinati da Marc C. Hersam (Nothwestern University, Evaston, IL, USA) e Nathan P. Guisinger (Argonne National Laboratory, IL, USA) [2].

Marc C. Hersam (sopra) e Nathan P. Guisinger (sotto)

Sperimentalmente, strati sottili di borofeni cristallini e a carattere metallico sono stati sintetizzati su superfici metalliche pulite in condizioni di ultra alto vuoto [2]. La loro struttura atomica è costituita da motivi triangolari ed esagonali misti, come mostrato nella Figura 1. La struttura atomica è una conseguenza di un’interazione tra il legame a due centri e quello multicentrico planare, tipico degli elementi carenti di elettroni come il boro.

Figura 1. Strutture cristalline del borofene

Il borofene ha catturato l’attenzione dei ricercatori per le sue proprietà, come l’elevata resistenza meccanica, la flessibilità e la superconduttività. Più forte e flessibile del grafene, un singolo strato atomico di borofene potrebbe rivoluzionare sensori, batterie elettriche e informatica quantistica.

Tuttavia, il borofene si ossida immediatamente all’aria, perdendo le sue proprietà conduttive, quindi non può esistere al di fuori di una camera ad altissimo vuoto. Ciò ha gravemente ostacolato l’esplorazione del borofene e delle sue caratteristiche.

Molto recentemente Mark Hersam[1] e il suo gruppo di ricerca hanno sintetizzato “borofanici”  polimorfi, idrogenando il borofene con idrogeno atomico in ultra alto vuoto [3].

Attraverso l’imaging su scala atomica, metodi spettroscopici e calcoli quantomeccanici, il polimorfo borofano più diffuso ha dimostrato di possedere una combinazione di legami boro-idrogeno a due centri-due elettroni e legami boro-idrogeno-boro tre-centri-due-elettroni (figura 2).

Figura 2. Struttura del borofano, in verde acqua gli atomi di boro, in rosso quelli di idrogeno © Northwestern University

I polimorfi di borofano sono metallici con funzioni lavoro locale modificate, e possono ritornare in modo reversibile al borofene attraverso il desorbimento termico dell’idrogeno. L’idrogenazione fornisce anche la passivazione chimica perché il borofano riduce i tassi di ossidazione di oltre due ordini di grandezza dopo l’esposizione ambientale. Il prodotto idrogenato è stabile nell’aria per giorni e le sue proprietà possono essere indagate perché è stabile al di fuori del vuoto.

Hersam prevede che il suo utilizzo prolifererà rapidamente.

*Largamente ampliato da un breve articolo di Rebecca Trager su Chemistry World del 15 marzo 2021. 

Bibliografia

[1] I. Boustani, New quasi-planar surfaces of bare boron., Surface Science, 1997, 370, 355-363.

[2] A.J. Mannix et al., Synthesis of borophenes: Anisotropic, two-dimensional boron polymorphs., Science, 2015, 350, 1513-1516.

[3] Q. Li et al., Synthesis of borophane polymorphs through hydrogenation of borophene., Science,2021, 371, 1143-1148; DOI: 10.1126/science.abg1874


[1] Nel 2010 Mark C. Hersam fu nominato miglior giovane ricercatore per i materiali nano elettronici (MRS Bulletin, Cambridge University Press, January 2011).

Sicurezza, normativa e Covid-19

In evidenza

Luigi Campanella, già Presidente SCI

Dinnanzi alle emergenze, e di certo covid-19 lo è, si è a volte portati o costretti ad adottare iniziative che possono non corrispondere alle direttive ufficiali: poco male in alcuni casi, molto peggio in altri, quando il mancato rispetto di norme comporta danni ed incidenti. Ecco perchè proprio in corrispondenza di contingenze critiche la normazione  diviene attività di sicurezza per tutti ed i relativi Enti fondamentali garanti della responsabilità  sociale che deve presiedere alla gestione di questi periodi drammatici.

Cosi l’Ente Europeo di normazione ed i nazionali UNI ed ACCREDIA hanno in questo frangente operato per fungere da supporto delle diverse misure di contenimento e gestione dell’emergenza, anche intercettando aspetti di carattere organizzativo e gestionale. Tale supporto vuole trasformare la gestione di un’emergenza in quella di un cambiamento, non programmato, di uno scenario noto, strutturato, gestito secondo flussi, relazioni responsabilità, autorità, ruoli definiti e secondo schemi consolidati che inevitabilmente vengono reinvestiti.I problemi pratici che richiedono l’attenzione dei normatori sono tantissimi e di natura diversa. Le norme sono fondamentali per orientare e portare nel mercato l’innovazione nel settore delle mascherine, dei camici, dei guanti, ma anche del ricambio dell’aria, della disinfezione e sanificazione, delle strumentazioni idonee.

Due punti particolarmente discussi e di rilievo riguardano i rifiuti di nuova generazione legati alla pandemia e la didattica a distanza.

Per quanto riguarda il primo l’elevato consumo di mascherine ne ha fatto un rifiuto quantitativamente molto significativo e per questo molto pericoloso in caso di smaltimento selvaggio (nelle discariche,in mare): di qui la necessità di norme per la gestione di questo rifiuto e di altri ad esso collegati come guanti, camici, residui di gel disinfettanti.

Per quanto riguarda il secondo si tratta di esperienza relativamente nuova e da applicare improvvisamente e su larga scala: sono necessarie norme che garantiscano tutte insieme sicurezza, sostenibilità, qualità dell’insegnamento. Con riferimento all’Ente Nazionale durante l’emergenza UNI è stato un punto di riferimento a livello nazionale, non soltanto in quanto depositario attraverso le norme delle conoscenze tecniche necessarie alla riconversione, ma anche  come snodo di conoscenze e competenze di esperti (funzionari tecnici, industria, università, laboratori di prova, ordini professionali) e per lo sviluppo tempestivo di nuovi riferimenti normativi per colmare le lacune evidenziate dall’emergenza stessa.

L’UNI, Ente italiano di normazione, ha reso liberamente scaricabili le norme tecniche che definiscono i requisiti di sicurezza, di qualità e i metodi di prova dei prodotti indispensabili per la prevenzione del contagio da Covid-19.

Si tratta, in particolare, di maschere filtranti, guanti e occhiali protettivi, indumenti e teli chirurgici le cui caratteristiche tecniche ora sono liberamente accessibili in modo da facilitare le scelte di acquisto da parte delle pubbliche amministrazioni e la riconversione produttiva da parte delle imprese. Ma non solo UNI, anche gli inglesi si sono mossi e l’English Standard Institute BSI con la sua sezione Italia ha ora  resta disponibile una nuova versione delle linee guida “Il lavoro in sicurezza durante la pandemia da COVID-19”.

Il documento offre un approccio completo e pratico, applicabile a tutte le organizzazioni, indipendentemente dal loro settore o dimensioni. Le Linee guida forniscono raccomandazioni, basate sull’esperienza dei lavoratori e sul contributo di esperti, per lavorare in sicurezza durante la fase di ripresa dalla pandemia. La prima versione è stata migliorata ed estesa, sulla base delle informazioni più approfondite e più recenti, per aiutare a prevenire una seconda ondata. Le principali nuove clausole aggiunte sono:

  • Lavorare in sicurezza anche da casa
  • Gestione di casi sospetti o confermati di COVID-19
  • Luoghi di lavoro multipli e postazioni mobili
  • Uso sicuro dei servizi igienici
  • Segnalazione a soggetti esterni
  • Inclusività e accessibilità
  • Salute e benessere psicologico
  • Un aspetto che ancora fa fatica ad imporsi e che è più vicino a noi chimici riguarda i materiali: si preferisce normare e certificare la funzione, ma chi ha vissuto negli anni 80 la rivoluzione della REFERENZIAZIONE Analitica sa che questa scelta può non essere la migliore a garanzia dell’utenza

Elementi della Tavola periodica. Calcio, Ca (parte prima)

In evidenza

Rinaldo Cervellati

Il calcio (ingl. Calcium), simbolo Ca, è l’elemento n. 20 della tavola periodica, metallo alcalino-terroso collocato al 2° Gruppo, 4° Periodo. Con il suo 4,15% è il quinto elemento per abbondanza nella crosta terrestre e il terzo fra i metalli, dopo ferro e alluminio. Le sue proprietà fisiche e chimiche sono molto simili a quelle dei suoi omologhi più pesanti stronzio e bario. Il composto di calcio più comune sulla Terra è il carbonato di calcio, che si trova nel calcare e nei resti fossili della prima vita marina.

I composti del calcio sono noti da millenni, anche se la loro composizione chimica non fu compresa fino al XVII secolo. La calce come materiale da costruzione e come intonaco per statue era usata già intorno al 7000 a.C.

Figura 1.  Statua monumentale scoperta nel sito di Ayn Ghazal in Giordania risalente al periodo neolitico pre-ceramico. Realizzata con un intonaco di sabbia, calcare e acqua.

La prima fornace da calce datata risale al 2500 a.C. ed è stata trovata a Khafajah, in Mesopotamia. Quasi nello stesso periodo, nella Grande Piramide di Giza veniva utilizzato gesso disidratato (CaSO4); questo materiale sarebbe stato successivamente utilizzato per l’intonaco della tomba di Tutankhamon. Gli antichi romani utilizzavano invece malte di calce ottenute mediante riscaldamento di calcare (CaCO3); il nome stesso “calcio” deriva dal latino calx, (calce). L’architetto romano Marco Vitruvio Pollione (80 a.C. – 15 a.C. ca.) notò che la calce risultante era più chiara della pietra calcarea originaria, attribuendola all’ebollizione dell’acqua; nel 1755, il chimico scozzese Joseph Black (1728-1799) dimostrò che ciò era dovuto alla perdita di anidride carbonica, che come gas non era stato riconosciuto dagli antichi romani.

Nel 1787 Antoine Lavoisier (1743-1794) sospettava che la calce potesse essere l’ossido di un elemento chimico fondamentale. Nella sua tabella degli elementi, Lavoisier elencava cinque “terre salificabili” (cioè minerali che potevano essere fatti reagire con acidi per produrre sali): chaux (ossido di calcio), magnésie (magnesia, ossido di magnesio), barite (solfato di bario), allumina ( ossido di alluminio) e silice (biossido di silicio).

Il calcio, insieme ai suoi omologhi magnesio, stronzio e bario, fu isolato per la prima volta da Humphry Davy[1] nel 1808. In seguito al lavoro di Jöns Jakob Berzelius (1779-1848) e Magnus Martin Pontin (1781-1858) sull’elettrolisi, Davy isolò calcio e magnesio mettendo una miscela dei rispettivi ossidi con ossido di mercurio (II) su una piastra di platino usata come anodo, il catodo essendo un filo di platino parzialmente immerso nel mercurio. L’elettrolisi fornì amalgame di calcio-mercurio e magnesio-mercurio, e la distillazione del mercurio diede i metalli.

Figura 2. Sir Humphry Davy

Tuttavia, il calcio puro non può essere preparato economicamente con questo metodo e un processo commerciale per la sua produzione non è stato trovato fino a oltre un secolo dopo.

Il calcio è un metallo argenteo (a volte descritto come giallo pallido) molto duttile le cui proprietà sono simili agli elementi più pesanti nel suo gruppo, stronzio, bario e radio[2]. Come gli altri elementi posti nel gruppo 2 della tavola periodica ha due elettroni di valenza nell’orbitale s più esterno, che si perdono molto facilmente nelle reazioni chimiche per formare uno ione bipositivo con la configurazione elettronica stabile di un gas nobile, in questo caso argon. Quindi, il calcio è quasi sempre bivalente nei suoi composti, che di solito sono ionici[3].

Proprietà fisiche

Il calcio metallico fonde a 842 °C e bolle a 1494 °C; questi valori sono superiori a quelli del magnesio e dello stronzio, i metalli vicini del gruppo 2. Cristallizza nella disposizione cubica a faccia centrata come lo stronzio.

Figura 3. Campione di calcio metallico

Sopra i 450 °C, si trasforma in una disposizione esagonale anisotropica come il magnesio. La sua densità di 1,55 g/cm3 è la più bassa nel suo gruppo. Il calcio è più duro del piombo ma può essere tagliato con un coltello. Mentre il calcio è un conduttore di elettricità più debole del rame o dell’alluminio in volume, è un conduttore migliore in massa di entrambi a causa della sua densità molto bassa. Sebbene non sia utilizzabile come conduttore per la maggior parte delle applicazioni terrestri poiché reagisce rapidamente con l’ossigeno atmosferico, il suo utilizzo come tale è stato considerato nello spazio.

Il calcio naturale è una miscela di cinque isotopi stabili (40Ca, 42Ca, 43Ca, 44Ca e 46Ca) e un isotopo con un’emivita così lunga da poter essere considerato stabile per tutti gli scopi pratici (48Ca, emivita di circa 4,3 × 1019 anni). L’isotopo di gran lunga più comune in natura è il 40Ca, che costituisce il 96,941% di tutto il calcio naturale. Sono noti molti radioisotopi artificiali, che vanno da 35Ca a 60Ca.

Proprietà chimiche

La chimica del calcio è quella di un tipico metallo alcalino terroso pesante. Ad esempio, reagisce spontaneamente con l’acqua più rapidamente del magnesio e meno rapidamente dello stronzio per produrre idrossido di calcio e idrogeno gassoso. Inoltre reagisce con l’ossigeno e l’azoto nell’aria per formare una miscela di ossido di calcio e nitruro di calcio. Quando finemente diviso, brucia spontaneamente all’aria per produrre il nitruro. Compatto, è meno reattivo: forma rapidamente un rivestimento di idratazione nell’aria umida, ma al di sotto del 30% di umidità relativa può essere conservato indefinitamente a temperatura ambiente.

Oltre al semplice ossido CaO, il perossido CaO2 può essere prodotto per ossidazione diretta del calcio metallico sotto un’elevata pressione di ossigeno, ed esiste un superossido giallo Ca(O2)2. L’idrossido di calcio, Ca(OH)2, è una base forte, sebbene non sia forte come gli idrossidi di stronzio, bario o quelli dei metalli alcalini.

Sono noti tutti e quattro i dialogenuri del calcio: CaX2 con X = F, Cl, Br, I. Il carbonato di calcio (CaCO3) e il solfato di calcio (CaSO4) sono minerali particolarmente abbondanti (calcite e gesso rispettivamente).

Come lo stronzio e il bario, così come i metalli alcalini e i lantanidi bivalenti europio e itterbio, il calcio metallico si dissolve direttamente in ammoniaca liquida per dare una soluzione blu scuro.

A causa delle grandi dimensioni dello ione Ca2+, sono comuni numeri di coordinazione elevati, fino a 24 in alcuni composti intermetallici come CaZn13.

Figura 4. Struttura dello ione polimerico [Ca(H2O)6]2+ nel cloruro di calcio idrato, che illustra l’elevato numero di coordinazione tipico dei complessi di calcio.

Il calcio è facilmente complessato dai chelanti all’ossigeno come EDTA e polifosfati, che sono utili in chimica analitica e nella rimozione degli ioni calcio dall’acqua dura. In assenza di impedimento sterico, i cationi del gruppo 2 più piccoli tendono a formare complessi più forti, ma quando sono coinvolti macrocicli polidentati di grandi dimensioni la tendenza è invertita.

Sebbene il calcio appartenga allo stesso gruppo del magnesio e i composti organomagnesici siano comunemente usati in tutta la chimica, i composti organocalcici non sono altrettanto diffusi perché sono più difficili da produrre e più reattivi, sebbene siano stati recentemente studiati come possibili catalizzatori. Questi tendono a essere più simili ai composti organoitterbici a causa dei raggi ionici simili, Yb2+ (102 pm) e Ca2+ (100 pm). La maggior parte di questi composti può essere preparata solo a basse temperature; ligandi voluminosi tendono a favorire la stabilità. Ad esempio, il calcio diciclopentadienile, Ca(C5H5)2, deve essere prodotto facendo reagire direttamente il calcio metallico con il mercurocene (C10H10Hg) o lo stesso ciclopentadiene; sostituire il ligando C5H5 con il più voluminoso ligando C5(CH3)5 d’altra parte aumenta la solubilità, la volatilità e la stabilità cinetica del composto.

Disponibilità e produzione

I depositi sedimentari di carbonato di calcio pervadono la superficie terrestre come resti fossilizzati di vita marina; si presentano in due forme, la calcite romboedrica (più comune) e l’aragonite ortorombica (che si forma nei mari più temperati). I minerali del primo tipo includono calcare, dolomia[4], marmo, gesso e longarone islandese.

Figura 5. Campioni di calcite, dolomite e gesso

Letti di aragonite compongono i bacini delle Bahamas, delle Florida Keys e del Mar Rosso. Coralli, conchiglie e perle sono per lo più costituiti da carbonato di calcio. Tra gli altri importanti minerali del calcio ci sono il gesso (CaSO4·2H2O), l’anidrite (CaSO4), la fluorite (CaF2) e l’apatite ([Ca5(PO4)3F]).

I principali produttori di calcio sono la Cina (da circa 10000 a 12000 tonnellate /anno), la Russia (da circa 6000 a 8000 tonnellate/anno) e gli Stati Uniti (da circa 2000 a 4000 tonnellate/anno). Canada e Francia sono tra i produttori minori. Nel 2005 sono state prodotte circa 24000 tonnellate; circa la metà del calcio estratto nel mondo viene utilizzato dagli Stati Uniti, con quasi l’80% della produzione utilizzata ogni anno. In Russia e in Cina, il metodo elettrolitico di Davy è ancora utilizzato, applicato però al cloruro di calcio fuso. Negli Stati Uniti e in Canada il calcio viene invece prodotto riducendo la calce con alluminio ad alte temperature. Poiché il calcio è meno reattivo dello stronzio o del bario, il rivestimento di ossido e nitruro che si forma in aria è stabile e la lavorazione al tornio e altre tecniche metallurgiche standard sono quindi adatte per il metallo.

Applicazioni

Il principale utilizzo del calcio metallico è nella produzione dell’acciaio, grazie alla sua forte affinità chimica per l’ossigeno e lo zolfo. I suoi ossidi e solfuri, una volta formati, danno alluminato di calcio liquido e inclusioni di solfuro nell’acciaio che galleggiano; al trattamento, queste inclusioni si disperdono nell’acciaio e diventano piccole e sferiche, migliorando la colabilità, la pulizia e le proprietà meccaniche generali. Viene anche utilizzato nelle batterie per autoveicoli che non richiedono manutenzione, in cui l’uso di leghe di calcio e piombo allo 0,1%, invece delle solite leghe di antimonio e piombo, porta a una minore perdita d’acqua e a una minore autoscarica. A causa del rischio di espansione e fessurazione, talvolta anche l’alluminio è incorporato in queste leghe. Queste leghe piombo-calcio sono utilizzate anche nella fusione, in sostituzione delle leghe piombo-antimonio. Il calcio è anche usato per rinforzare le leghe di alluminio usate per i cuscinetti, per il controllo del carbonio grafitico nella ghisa e per rimuovere le impurità di bismuto dal piombo. Il calcio metallico si trova in alcuni detergenti per scarichi, dove funziona per generare calore e idrossido di calcio che saponifica i grassi e liquefa le proteine ​​(ad esempio quelle dei capelli) che bloccano gli scarichi.

Oltre alla metallurgia, la reattività del calcio viene sfruttata per rimuovere l’azoto dal gas argon di elevata purezza e come getter per ossigeno e azoto. Viene anche utilizzato come agente riducente nella produzione di cromo, zirconio, torio e uranio. Può anche essere usato per immagazzinare idrogeno gassoso, poiché reagisce con l’idrogeno per formare idruro di calcio solido, da cui l’idrogeno può essere facilmente riestratto.

Il frazionamento degli isotopi del calcio durante la formazione dei minerali ha portato a diverse applicazioni. In particolare, l’osservazione del 1997 che i minerali di calcio sono isotopicamente più leggeri delle soluzioni da cui precipitano i minerali è alla base di analoghe applicazioni in medicina e nella paleooceanografia. Negli animali con scheletri mineralizzati con calcio, la composizione isotopica del calcio nei tessuti molli riflette la velocità relativa di formazione e dissoluzione del minerale scheletrico. Negli esseri umani, è stato dimostrato che i cambiamenti nella composizione isotopica del calcio delle urine sono correlati ai cambiamenti nell’equilibrio minerale osseo. Quando il tasso di formazione ossea supera il tasso di riassorbimento osseo, il rapporto 44Ca/40Ca nei tessuti molli aumenta e viceversa. Grazie a questa relazione, le misurazioni isotopiche del calcio nelle urine o nel sangue possono essere utili nella diagnosi precoce di malattie metaboliche delle ossa come l’osteoporosi. Un sistema simile esiste nell’acqua di mare, dove il rapporto 44Ca/40Ca tende ad aumentare quando il tasso di rimozione del Ca2+ mediante precipitazione minerale supera l’immissione di nuovo calcio nell’oceano. Nel 1997, è stata presentata la prima prova del cambiamento nell’acqua di mare del rapporto 44Ca/40Ca nel tempo geologico, insieme a una spiegazione teorica di questi cambiamenti. Ricerche più recenti hanno confermato questa osservazione, dimostrando che la concentrazione di Ca2+ nell’acqua di mare non è costante e che l’oceano non è mai in uno “stato stazionario” rispetto all’input e all’output di calcio. Ciò ha importanti implicazioni climatologiche, poiché il ciclo del calcio marino è strettamente legato al ciclo del carbonio.

Molti composti di calcio sono usati negli alimenti, come prodotti farmaceutici e in medicina. Ad esempio, calcio e fosforo sono integrati negli alimenti attraverso l’aggiunta di lattato di calcio, difosfato di calcio e fosfato tricalcico. Quest’ultimo è usato come agente lucidante nel dentifricio e anche negli antiacidi. Il lattobionato di calcio è una polvere bianca che viene utilizzata come agente di sospensione per i prodotti farmaceutici. Nella cottura al forno, il monofosfato di calcio viene utilizzato come agente lievitante. Il solfito di calcio è usato come sbiancante nella fabbricazione della carta e come disinfettante, il silicato di calcio è usato come agente rinforzante nella gomma e l’acetato di calcio è un componente della colofonia calcarea ed è usato per fare saponi metallici e resine sintetiche.

Il calcio è nell’elenco dei medicinali essenziali dell’Organizzazione mondiale della sanità.

Opere consultate

Handbook of Chemistry and Physics, 85th Ed. p. 4-7

https://en.wikipedia.org/wiki/Calcium

https://en.wikipedia.org/wiki/Carbonate-silicate_cycle


[1] Sir Humphry Davy (1778 – 1829), chimico e inventore della Cornovaglia, ricordato per aver isolato, usando l’elettrolisi, una serie di elementi per la prima volta: potassio e sodio nel 1807 e calcio, stronzio, bario, magnesio e boro l’anno successivo, oltre a scoprire la natura elementare del cloro e dello iodio. Davy studiò anche le forze coinvolte in queste separazioni, costruendo il nuovo campo dell’elettrochimica.

[2] Calcio, stronzio, bario e radio sono sempre considerati metalli alcalino terrosi; sono spesso inclusi anche il berillio e il magnesio più leggeri, anch’essi nel gruppo 2 della tavola periodica. Tuttavia, il comportamento fisico e chimico di berillio e magnesio differiscono significativamente dagli altri membri del gruppo: si comportano più come l’alluminio e lo zinco e hanno alcuni dei caratteri metallici dei metalli di post-transizione, per cui la definizione tradizionale del termine “metallo alcalino terroso” li escluderebbe. Questa classificazione è per lo più obsoleta nelle fonti in lingua inglese, ma è ancora utilizzata in molti altri paesi.

[3] Recentemente sono stati sintetizzati complessi di calcio monovalente Ca(I). Ne parleremo in un prossimo post in preparazione.

[4] La dolomia è il particolare tipo di roccia prevalente nella catena montuosa delle Dolomiti, costituita principalmente dal minerale dolomite, un carbonato doppio di calcio e magnesio, CaMg(CO3)2. Tutti questi nomi per ricordare il naturalista francese Deodat de Dolomieu (1750-1801), che per primo studiò il tipo di roccia nella regione.

A proposito di Nutriscore.

In evidenza

Luigi Campanella, già Presidente SCI

273 scienziati europei (19 italiani), su proposta francese, hanno inviato un appello al l’UE per l’introduzione del cosiddetto Nutriscore, un sistema di etichettatura dei cibi a semaforo.

A questo sistema si oppongono alcuni Paesi fra cui l’Italia.Tale opposizione si basa sul fatto che Nutriscore avvantaggerebbe i prodotti alimentari ultra trasformati penalizzando i DOP egli IGP, prodotti di eccellenza mono ingredienti di altissima qualità ,tipici della nostra filiera e produzione agroalimentare come il prosciutto di Parma o il parmigiano reggiano.

Il sistema si basa su cinque colori dal verde al rosso e cinque lettere da A a E. Si vorrebbe guidare il consumatore verso cibi che ne proteggono lo stato di salute.Si tratta di un sistema a punteggio pensato per semplificare l’identificazione dei valori nutrizionali. Il calcolo del punteggio tiene conto di sette diversi parametri :fibre, verdura,frutta e proteine positivi, contenuto calorico, grassi saturi e sodio negativi. L’algoritmo è stato criticato da alcuni governi, fra cui il nostro, da alcuni gruppi industriali e di agricoltori, da nutrizionisti in quanto ha semplificato le informazioni nutrizionali in modo eccessivo e ridotto gli alimenti complessi ai singoli ingredienti. Ne risultano ad esempio vantaggi per i cibi trattati, chiari svantaggi per i grassi sani come l’olio di oliva. Il risultato é che da parte di alcuni Stati si chiede il rinvio dell’applicazione di Nutriscore, da parte di altri la sua variazione:ad esempio il riferimento come quantità di cibo al valore di 100 g è considerato improprio. Credo che l’obiezione a Nutriscore debba basarsi anche e soprattutto su altri aspetti che ho avuto modo di discutere in un altro mio recente post.

La fotosintesi clorofilliana consente di trasformare CO2 ed acqua, l’energia solare  in prodotti ad alto contenuto energetico che l’uomo utilizza quali alimenti. Chiaramente per rendere commestibili i prodotti della fotosintesi l’uomo deve aggiungere altra energia (arare, seminare, mietere, trattare) e così facendo contribuisce ai cambiamenti climatici. Diventa allora importante scegliere un’alimentazione che richieda la minima quantità di energia aggiunta a quella solare, energia oggi in larga parte fornita dai combustibili fossili

Da questi due dati contenuto energetico  ed energia aggiunta non solare per unità di peso o di volume deriva l’efficienza energetica di un alimento. È nostro compito educare a rispettare le esigenze energetiche della vita con alimenti che siano quanto più possibilmente efficienti energeticamente. In questo senso la ben nota dieta mediterranea rappresenta una buona guida rispetto ad un consumo elevato di carne da evitare: la carne è un alimento che richiede mediamente per kg prodotto 7 litri di petrolio e circa 10000 l di acqua. Le emissioni europee di gas serra imputabili alla produzione di carni alimentari hanno superato quelle di tutti gli autoveicoli circolanti nei 28 Stati membri.

L’efficienza energetica degli alimenti sarebbe forse un indice più opportuno di Nutriscore

L’entropia della Terra

In evidenza

Claudio Della Volpe

Negli ultimi anni la presa di coscienza dell’esistenza del riscaldamento globale, causato a sua volta dalla crescita dei gas serra in atmosfera ha reso più diffusa la conoscenza del bilancio energetico terrestre.

Si tratta di un bilancio essenzialmente radiativo legato allo scambio di radiazione fra Sole-Terra e spazio, espresso dal famoso grafico di Trenberth e Kiehl

Bulletin of the American Meteorological Society

Volume 90: Issue 3

Earth’s Global Energy Budget

Kevin E. Trenberth, John T. Fasullo, and Jeffrey Kiehl

Questo è forse diventato uno dei grafici più famosi e illustrati agli studenti del mondo; esso ci dice che c’è una situazione stazionaria, tanta energia arriva dal Sole e tanta riparte verso lo spazio aperto; quella che arriva dal Sole è centrata sul giallo-verde (0.5micron) , nel visibile, mentre quella riemessa verso lo spazio è nell’infrarosso(10micron); questa parte viene assorbita e riflessa/riemessa indietro dall’atmosfera per cui prima di lasciarci incrementa la temperatura dell’atmosfera, il famoso effetto serra.

Però nel complesso l’idea base è: tanta energia entra e tanta ne esce, circa 342 W/m2, in media (meno l’albedo).

Quale è termodinamicamente l’effetto legato al cambio della lunghezza d’onda media? Cioè al fatto che la radiazione entrante è essenzialmente nel visibile mentre quella uscente è nell’infrarosso?

Come chimici sappiamo bene che i fotoni hanno una energia che dipende dalla loro lunghezza d’onda; e che inoltre possono essere considerati un gas di particelle con una loro equazione di stato.

La conclusione dunque è che il numero di fotoni entranti è necessariamente INFERIORE a quello dei fotoni uscenti; i fotoni uscenti hanno in media una lunghezza d’onda circa 20 volte superiore a quella entrante e di conseguenza una energia per fotone 20 volte inferiore; per pareggiare il bilancio energetico complessivo il numero di fotoni uscenti sarà proporzionalmente più alto; per la precisione 22 volte maggiore.

Q. J. R. Meteorol. Soc. (1993), 119,pp. 121-152

Pochi discutono o riflettono sulle conseguenze di questo fenomeno; proviamo a dire solo due o tre cose semplici.

La prima cosa è che il flusso entropico in queste condizioni non si può valutare usando le equazioni dell’equilibrio, sia per l’energia che per l’entropia non si possono usare solo le equazioni che molti conoscono legate all’emissione di corpo nero in equilibrio con la sua radiazione; la Terra non è in equilibrio con la radiazione né ricevuta né emessa (tipo per capirci l’equazione di Stefan-Boltzmann e la corrispondente equazione dell’entropia). E comunque mentre per l’energia si usa il criterio del tanto entra tanto esce, lo stesso ragionamento non si può fare per l’entropia. In questo caso si stabilisce solo un estremo superiore alla entropia positiva prodotta “dentro” il sistema Terra per rimanere sotto la quota di bilancio (che comunque non è di per se obbligata).

Tale quota di bilancio dipende dalla differenza fra l’entropia in ingresso e in uscita a causa della radiazione (deS in uscita è negativa, mentre deS in entrata è positiva).

Alex Kleidon o Peixoto la calcolano dai rapporti fra l’energia libera trasportata dalla radiazione e la sua temperatura assoluta concludendo che:

La radiazione infrarossa dunque esporta (segno negativo) poco meno di 1watt/m2 K mentre quella ricevuta (positiva) è solo 41mW/m2K, e da questo nasce il fatto che a differenza dell’energia l’entropia in uscita è diversa da quella in ingresso.

Questa differenza consente al sistema Terra pur rimanendo al bilancio di entropia (ma non necessariamente) di dissipare al proprio interno fino ad una equivalente quantità di entropia POSITIVA; e come? Degradando enormi quantità di energia libera e costruendo ordine al proprio interno, quel meraviglioso ordine legato a tutte le strutture che ci circondano e che sfrutta almeno in parte il grande flusso solare: nuvole, sistemi di nuvole, cicli di materiali e di elementi, la vita stessa, etc.

Kleidon e Peixoto hanno ricostruito anche i vari flussi di entropia dissipati nella biosfera e questi flussi sono molto più bassi di quanto ci si aspetterebbe come riportato per esempio nello schema qui sotto che è limitato all’atmosfera.

(continua)

Si veda anche 

Entropy budget of the atmosphere

José Pinto Peixoto, Abraham H. Oort , Mário De Almeida , António Tomé

First published: 20 June 1991

https://doi.org/10.1029/91JD00721

oppure:

Phil. Trans. R. Soc. B (2010) 365, 1303–1315 doi:10.1098/rstb.2009.0310

O ancora A.Kleidon R.D.Lorenz (Eds.)  Non-equilibrium Thermodynamics and the Production of Entropy

Life, Earth, and Beyond With a Foreword by Hartmut Grassl  Springer 2005

Strategia italiana sulla riduzione di gas serra.

In evidenza

Luigi Campanella, già Presidente SCI

“Strategia italiana di lungo termine sulla riduzione delle emissioni di gas serra” è il titolo di un documento inviato dal precedente Governo alla Commissione Europea. (https://www.minambiente.it/notizie/cambiamenti-climatici-trasmessa-bruxelles-la-strategia-nazionale-di-lungo-periodo)

Volendo individuare una novità del documento questa va di certo trovata in uno scenario energetico rinnovato con una dritta verso la decarbonizzazione ed un ridotto uso dei combustibili fossili. Quello che la CE aveva richiesto ai Paesi della Comunità era un documento programmatico di adesione alla strategia al 2050 finalizzata al rispetto di Parigi nella COP21 del dicembre 2015.La strategia italiana al 2050 è coerente con quella europea: la decarbonizzazione delinea una drastica riduzione dei combustibili fossili con uno scenario che prevede una consistente diminuizione della domanda di energia,una forte elettrificazione della mobilità e nei trasporti,un aumento elevato della produzione di energia rinnovabile. Il documento con il suo all.to riporta numeri e tecnologie di questo cambiamento.Il confronto fra il bilancio energetico del 2018 e quello delineato del 2050 mostra la scomparsa dell’uso del carbone e del petrolio ed un ridimensionamento nell’uso del gas naturale. Per fare fede a questo programma è necessaria una permeazione con esso di tutte le le politiche pubbliche,in un percorso ampiamente condiviso.E’avvenuto molto spesso che questo percorso già in più sedi reclamato ha trovato nella sua attuazione difficoltà e resistenze che solo si possono superare con un cambio di atteggiamento da parte dei diversi livelli istituzionali,dei cittadini e delle imprese. Sul piano dei contenuti delle scelte al 2050 emerge il ruolo di elettricità ed idrogeno; il che suggerisce di valutare le possibilitá di progressiva riconversione delle infrastrutture gas per il trasporto e la distribuzione. Per la veritá sull’idrogeno stiamo assistendo ad un dibattito. Sia l’UE che il MISE hanno obbiettivi importanti sull’idrogeno: per la prima vanno costruiti elettrolizzatori per produrre 10 milioni di tonnellate di gas entro il 2030,per il secondo l’idrogeno deve penetrare il 20% dei consumi finali di energia entro il 2050.

La filiera dell’idrogeno è tecnicamente matura, ma il quadro legislativo appare poco chiaro e l’input politico non c’e stato, probabilmente per motivi collegati alla convenienza economica, al problema del trasporto ed a quello della materia prima nel caso di produzione elettrolitica ( acqua dolce o acqua di mare). Questo.spiega il modesto valore della quota idrogeno italiana, solo 1%.  che non proviene da fonti rinnovabili. C’é poi un problema ambientale, di certo non secondario. L’idrogeno verde, ottenuto cioè per elettrolisi con energia da fonti rinnovabili potrebbe risultare assai poco verde per l’ingente consumo di risorse idriche, delle quali il Sud del Paese scarseggia (per ogni kilo di idrogeno ci vogliono 9kg di acqua). Circa poi gli utilizzi industriali dell’idrogeno, riducente  in raffineria o per sintetizzare materie prime come ammoniaca e metanolo o anche per produrre polimeri viene spontanea la domanda se abbia senso estrarre il gas per elettrolisi a questi fini. Per arrivare alla neutralità climatica (emissioni nette zero di gas serra) sono necessarie scelte politiche e tecnologie perseguibili soltanto su base europea coordinata, nonché una condivisione internazionale del processo primario di decarbonizzazione.

Ecco un punto importante rispetto a quanto detto sopra circa l’idrogeno: potrebbe il suo utilizzo  trovare uno sviluppo proprio nell’ambito della decarbonizzazione del settore energetico, come alcuni recenti accordi industriali paiono confermare.Nel Piano Nazionale di Ripresa e Resilienza (PNRR),il programma che l’Italia deve inoltrare alla Commissione Europea nell’ambito del Next Generato on EU – -strumento per rispondere alla crisi pandemica provocata dal Covid19 -c’è un capitolo piuttosto breve dedicato al l’idrogeno dove, in via molto generale,si parla di produzione, distribuzione ed utilizzo di idrogeno verde, nonché di realizzazione degli elettrolizzatori.

L’effetto valanga

In evidenza

Mauro Icardi

Capita che a volte le notizie interessanti, o sui cui fare una riflessione, arrivino in maniera del tutto casuale.

Mi è successo recentemente, dopo che un’amica che per lavoro fa l’assistente di laboratorio in un istituto tecnico, mi ha domandato informazioni su un prodotto di uso comune nel trattamento delle acque reflue.

Cioè chi fosse il fornitore di un polimero in emulsione che avevo usato per una dimostrazione mostrando come si utilizzi per addensare i fanghi di depurazione, prima di sottoporli al trattamento di disidratazione, e a cui lei e alcune insegnanti avevano assistito.

Poiché che non mi tornava in mente la sigla commerciale del prodotto, ho telefonato ad un altro amico che conosco da anni e che lavora nell’azienda fornitrice.  E l’ho sentito abbastanza preoccupato e stanco. L‘ho invitato a passare a salutarmi un attimo, cosa che spesso fa vista la decennale conoscenza reciproca, ma ha declinato momentaneamente l’invito dicendomi  era piuttosto impegnato col problema del rialzo dei prezzi delle materie prime.

E,  in effetti ,la sua preoccupazione è decisamente motivata.  Cercando in rete ho scoperto che si sta verificando il fenomeno  della carenza di materie plastiche. Per chi volesse fare una ricerca avviso che il termine usato è shortage, ma per una serie di mie ragioni personali preferisco usare il termine in lingua italiana.

C’è una scarsità di plastica. Non per un ravvedimento green a livello planetario. Anzi, in tempi di pandemia le materie plastiche sono più che mai necessarie. Basterebbe pensare alle siringhe monouso per la vaccinazione anti covid. Ma le imprese oggi faticano ad approvvigionarsi al punto da essere costrette a fermare linee di produzione. 

Il problema è particolarmente critico in Europa. E a partire dal polietilene, quasi tutte le materie prime destinate all’industria di trasformazione della plastica stanno subendo rincari che sono arrivati anche a percentuali molto elevate (per avere un’idea il rincaro di polimeri a bassa densità è arrivato a toccare la percentuale record dell’81% secondo quanto evidenziato dai dati di Standard & Poor’s).

Nel giro di cinque mesi ci sono stati i rialzi di prezzo superiori al 40% anche per il polipropilene (Pp), che oggi costa più di 1.600 euro per tonnellata, e per it Pet delle bottiglie di plastica (polietilene tereftalato), mentre per il polistirene (Pp) il rincaro sfiora il 70%.

Le cause di questa situazione sembrano essere individuate in alcuni casi definiti di forza maggiore. In particolare l’ondata di gelo anomalo che ha colpito il Texas fermando la produzione nelle industrie petrolchimiche. A questo si devono aggiungere i rincari del prezzo del petrolio e dell’energia. Il petrolio in particolare che rispetto allo scorso anno ha subito un incremento di prezzo di oltre il 30%, dovuto ai vincoli imposti all’offerta dall’OPEC e alla domanda in rilancio. Altro problema è quello relativo alla logistica dei trasporti di container.

La disamina di tipo economico finisce qui, non sono un’economista e mi limito a fornire informazioni reperibili. Voglio invece fare qualche riflessione di tipo diverso.

Non è certamente la prima volta che si assiste a un problema simile a questo. Ricordo che nel 2008 si verificò un periodo di scarsità di acetonitrile, solvente tra i più usati per la cromatografia liquida ad alta pressione (HPlC).  L’acetonitrile è il sottoprodotto della sintesi dell’acrilonitrile. Quest’ultimo è un monomero usato per la produzione di vari altri polimeri sintetici, tra cui quelli che si utilizzano nell’industria automobilistica.

Il calo delle vendite di auto finì per ridurre la produzione dell’acrilonitrile, e conseguentemente i rivenditori di prodotti per il laboratorio non riuscivano più a reperire l’acetonitrile destinato ai laboratori chimici.

 Non so ancora se questa situazione “contingente” avrà ripercussioni sul settore del trattamento delle acque.  La preoccupazione del mio amico però mi induce a qualche perplessità. Nel trattamento dei fanghi si fa uso di condizionanti polimerici (polielettoliti).  In caso di carenze di fornitura si prospettano due soluzioni. La prima prevede l’uso di flocculanti di tipo diverso, sostanzialmente calce o cloruro ferrico, che però non otterrebbero lo stesso tipo di efficienza su fanghi  organici come quelli ottenuti dal trattamento delle acque reflue. La seconda opzione è quella più critica. Ridurre gli smaltimenti di fango dagli impianti lavorando con concentrazioni più alte in vasca di ossidazione, situazione che solitamente nel tempo porta ad un peggioramento della qualità delle acque scaricate.

Ovvio che sto facendo solo delle supposizioni. Ma sto riflettendo su almeno due argomenti. Il primo riguarda la chimica propriamente detta. Cioè, per definizione, la scienza che “studia le proprietà, la composizione, l’identificazione, la preparazione e il modo di reagire delle sostanze sia naturali sia artificiali del regno inorganico e di quello organico.”

Parto da questa definizione per toccare un tema spesso trattato in questo blog. Cioè l’avversione alla chimica. Eppure senza la chimica neanche la depurazione potrebbe funzionare correttamente. E la corretta depurazione delle acque ha avuto un impatto fondamentale e spesso non conosciuto sulla decisa riduzione di malattie infettive come il colera. Malattia che è molto legata alle condizioni igienico sanitarie, e che si correla storicamente al degrado sociale. La realizzazione di moderni impianti di trattamento delle acque reflue fu risolutiva per i problemi igienico-ambientali di Londra e Parigi a partire dalla fine del diciannovesimo secolo.

La seconda riflessione è di più ampio respiro. Questa scarsità di monomeri sta preoccupando gli addetti del settore di trasformazione delle materie plastiche per le ricadute immediate, per esempio sull’occupazione e sui tassi di redditività e profitto. Eppure leggendo gli articoli pubblicati che trattano di questa scarsità, non riesco a cogliere collegamenti che ritengo fondamentali.

Il Texas date le dimensioni territoriali ha una notevole variabilità climatica, ma non è certo conosciuto nel nostro immaginario come un paese abituato a tempeste che si potrebbero definire di tipo nord europeo.

Ed è stato messo in ginocchio piuttosto duramente da quest’ anomalia climatica. Passata l’emergenza, rimesse in funzione le linee produttive degli stabilimenti petrolchimici, rientrato il problema del rialzo dei prezzi (che le previsioni degli economisti collocano entro la fine dell’anno) probabilmente tutto sarà dimenticato. In maniera forse inevitabile, o forse colpevole.

Pochi credo riescano a immaginare quale potrebbe essere l’effetto valanga  che si potrebbe innescare, quando le situazioni contingenti  diventeranno a poco a poco stabili e continuative.

Ci sono sfide enormi che ci aspettano. Ma ancora oggi non siamo in grado di prendere decisioni non più rimandabili. Partendo da quelle di base. Che per quanto riguarda il mio orizzonte personale riguardano un nuovo tipo di gestione, un nuovo modo di considerare un impianto di depurazione. La definizione coniata è “bioraffineria”, e su questo blog ne ho scritto. Ma questo tipo di realizzazioni è solo uno dei tanti che occorre implementare. Avremo ancora necessità di polimeri, avremo ancora necessità di trasformare materia. Ma dobbiamo anche modificare profondamente  l’idea di avere a disposizione materie prime come da una fonte inesauribile. Trascurando troppo spesso  una serie di segnali, di diversa origine che ci stanno indicando che stiamo infilandoci  su una strada senza uscita.  E in un prossimo futuro l’effetto valanga potrebbe sorprenderci.  Cosi come narrato in un numero della rivista “Urania”. Forse qualche lettore potrebbe obbiettare che il riferimento ad un romanzo di fantascienza sia poco indicato. Ebbene ci sono centinaia di pubblicazioni più autorevoli che hanno cercato di insegnarci che non è possibile pensare di crescere infinitamente in un pianeta finito e con risorse che vanno gestite con saggezza, primo fra tutti il troppo bistrattato “I limiti dello sviluppo”*.  Ora si tratta di cambiare radicalmente, perché non rimane molto tempo a disposizione.

Christian von Weigel: l’inventore del “condensatore di Liebig” in contro-corrente.

In evidenza

Roberto Poeti

Del complesso dei laboratori chimici di Justus von Liebig a Giessen, trasformati dal 1920 in uno dei più interessanti musei scientifici del mondo, si rimane colpiti dalle dimensioni, dalla ricchezza di strumenti e apparecchiature.  Il museo conserva quasi intatto l’Istituto di Chimica, dove Liebig svolse la sua attività di docente e scienziato dal 1825 al 1852. È una struttura unica, sopravvissuta   fino ai nostri giorni. In quei locali e laboratori   generazioni di chimici provenienti da tutta Europa e perfino dagli Stati Uniti si sono formati sotto la guida di un grande insegnante. Liebig insegnò in seguito anche a Monaco di Baviera. Al Deutsches Museum di questa città gli è stato dedicato uno spazio importante. Vi è ricostruito il suo laboratorio a dimensioni reali. Ma tra i tanti “oggetti” che riempiono lo spazio dei suoi laboratori, in entrambi i musei sono due quelli che il visitatore percepisce i più importanti. Uno è l’apparato per l’analisi delle sostanze organiche, l’altro è l’apparato per la distillazione. In entrambi vi è un particolare che li rende originali. Nel primo è il Kalium-apparat per l’assorbimento della anidride carbonica, nell’altro è il condensatore in controcorrente nella distillazione.

Ma se la paternità del Kalium-apparat è di Liebig, il condensatore, che porta il suo nome, non è una sua invenzione. Il suo merito è di averlo fatto diventare uno strumento di routine, prezioso nell’analisi di laboratorio.

Ma a chi si deve attribuire l’invenzione del condensatore in contro corrente?

È nel 1771 che viene pubblicata una dissertazione di un giovane medico Christian Ehrenfried Weigel, poco più che ventenne, per la sua laurea in medicina. È scritta in latino:

Nel contenuto di poche pagine è la presentazione di un apparecchio per la distillazione con il raffreddamento dei vapori ottenuto mediante un condensatore che opera in controcorrente. È allegato un disegno esplicativo.  Prima di entrare in dettaglio nel capitolo vediamo una breve biografia dell’autore.

                                             La biografia di Christian Ehrenfried Weigel

Christian Ehrenfried Weigel nacque nel 1748 nella Pomerania svedese; benché di lingua e cultura tedesche, era dunque suddito svedese. Il padre era un medico con interessi per la chimica farmaceutica, inventore di un preparato noto come “gocce di Weigel” (un rimedio contro i parassiti intestinali); anche lo zio materno era un medico.

Compì i suoi studi, prima all’università di Greifswald, dove seguì corsi di botanica, chimica e anatomia, poi a Gottinga dove ottenne il dottorato in medicina. Per tutta la sua vita ha coperto la cattedra di chimica e farmacia alla facoltà di medicina all’università di Greifswald, dove fu lettore per molti anni anche del giardino botanico. Scrisse uno dei primi testi di chimica “Cenni di chimica pura e applicata” che era indirizzato ai lettori di tutte le classi. Weigel fece molto anche per i chimici tedeschi favorendo il loro aggiornamento sugli sviluppi della chimica attraverso le sue traduzioni di opere di Wallerius, Guyton de Morveau, Lavoisier e altri. Nel 1806 fu nobilitato dall’imperatore Francesco II e due anni dopo divenne il medico personale della casa reale svedese. Fu membro delle accademie scientifiche di Erfurt e Berlino, nonché dell’Accademia leopoldina e dell’Accademia di Svezia. Ha lasciato anche importanti contributi nel campo della botanica. Era un appassionato naturalista, e ha un intero genere a lui intitolato: Weigela, un tipo di pianta “arbustiva” dell’Asia orientale, della famiglia dei caprifogli.

Christian von Weigel ha scritto oltre 76 libri scientifici in lingua tedesca, l’unico scritto in latino è la sua tesi. È probabile che la tradizione dello studio universitario, essendo questa la dissertazione da lui tenuta per la laurea, richiedesse la lingua latina. Senza dubbio la lingua con cui fu scritto il lavoro di Weigel non favorì la sua diffusione. Inoltre la traduzione dal latino del testo presenta alcune difficoltà, perché questa lingua è stata usata per esprimere contenuti tecnici che non appartenevano al lessico di una lingua antica.

Una interpretazione errata

 È possibile che questa sia anche la ragione che ha portato ad una interpretazione fuorviante, come vedremo di seguito, dell’apparecchio di Weigel da parte del Prof. William B. Jensen docente all’University of Cincinnati.

.

 In un articolo apparso nella prestigiosa rivista Journal of Chemical Education, vol.83, 2006 della Società Chimica Americana dal titolo “The Origin of the Liebig Condenser“ descrive il condensatore di Weigel così:

«Nel progetto originale di Weigel, l’acqua di raffreddamento era confinata tra un tubo interno ed esterno di stagno o zinco e il tubo di distillazione in vetro non entrava in contatto diretto con l’acqua di raffreddamento ma era piuttosto sospeso all’interno del tubo metallico interno… [in grassetto del traduttore]. Nel caso di Liebig, questi [le modifiche N.d.T.] consistevano apparentemente nell’eliminare il tubo metallico interno e restringere la camicia di raffreddamento a ciascuna estremità in modo che il tubo di distillazione in vetro potesse essere sigillato direttamente alla camicia metallica esterna per mezzo di tappi o sezioni di tubo di gomma, consentendo così al tubo di distillazione di entrare in contatto diretto con l’acqua di raffreddamento…»

Purtroppo l’inesattezza del Prof. Jensen si è disseminata. Wikipedia, l’enciclopedia on-line, alla voce” Liebig condenser”, riporta il seguente passaggio:

«Il primo condensatore da laboratorio raffreddato ad acqua fu inventato nel 1771 dal chimico svedese – tedesco Christian Weigel (1748–1831). Il condensatore di Weigel era costituito da due tubi di stagno coassiali, che erano uniti alle loro estremità inferiori, formando una camicia d’acqua, e aperti alle loro estremità superiori. L’acqua fredda è entrata nella giacca attraverso un ingresso nella parte inferiore ed è fuoriuscita dall’estremità superiore aperta della giacca. Un tubo di vetro che trasporta i vapori da un pallone di distillazione è fatto passare attraverso il tubo interno di stagno

Un sito in lingua inglese, che promuove il superalcolico Rum, riporta la biografia di Weigel allineandosi alle interpretazioni precedenti:

«Il condensatore di Weigel era costituito da due tubi di stagno coassiali, che erano uniti alle loro estremità inferiori e aperti alle loro estremità superiori. L’acqua fredda è entrata, attraverso un ingresso, nell’estremità inferiore di questa camicia ed è fuoriuscita dall’estremità superiore aperta della camicia. Un tubo di vetro che trasporta i vapori da un pallone di distillazione è fatto passare attraverso il tubo interno di stagno, non a contatto con l’acqua di raffreddamento

I dubbi sulla interpretazione

Devo dire che l’interpretazione data da Jensen mi ha lasciato qualche dubbio, così ho cercato in rete la dissertazione di Weigel, trovando il libro disponibile. Il grosso ostacolo della lingua è stato superato da due insigni latinisti aretini, che insieme hanno perfezionato la traduzione:

Prof. Claudio Santori, Vice Presidente e Segretario della Classe di Lettere dell’Accademia Petrarca e Don Natale Gabrielli, Priore della Pieve di San Polo e responsabile della Biblioteca antica e dell’Archivio del Seminario Vescovile di Arezzo.

 Le loro traduzioni, di cui riporto i passaggi più significativi, non lasciano dubbi di interpretazione.

 Il contenuto della dissertazione di Wiegel è una lucida e puntuale analisi della tecnica della distillazione impiegata fino allora a cui segue una proposta rivoluzionaria, per il suo aspetto moderno, per superare gli inconvenienti. La padronanza che mostra nel discutere di questa tecnica, malgrado la sua giovane età e la condizione di studente, ci induce a pensare che sia frutto della frequentazione del laboratorio di chimica farmaceutica del padre e dello zio, da cui ricevette l’educazione pre universitaria.  Era necessario riabilitare questo valente scienziato e rimettere il suo pensiero nell’ottica corretta, perché l’interpretazione che fa Jensen dell’apparecchio di Weigel declassa quest’ultimo ad una bizzarra rappresentazione.

                                                              La tesi di laurea

Nella prima parte della sua dissertazione Weigel fa una disamina della tecnica della distillazione allora impiegata, in particolare l’aspetto che riguarda il raffreddamento dei vapori. Come si evince dal suo titolo lo scopo è ottenere alcol a elevato grado di purezza, alcohol fortissimum”, dopo ripetute distillazioni, repetita rectificatione, partendo da liquidi a basso contenuto alcolico, come il vino.

 Individua i problemi che derivano dall’uso dei condotti del vapore lineari o a forma di serpentina:

Potuissem breuiorem tubulum eligere, illumque per vas refrigeratorium ducere, methodo vulgari; sic potuissem destillare absque tanta temporis iactura. Sed Imo Tubuli vulgari methodo, oblique quidem, attamen linea recta, per dolium refrigeratorium ducti, mediocri tantum refrigerant gradu; qui vero serpentino modo per dolia refrigeratoria ducti, non nisi ex cupro parari possunt, nec decenter expurgari ob structuram suam m; unde Spiritus Vini aut venerea labe inficitur aut foetidus facile euadit a partibus impuris antecedentis destillationis.”

(“Avrei potuto scegliere un tubicino più corto, e farlo passare attraverso una botte di raffreddamento, secondo il metodo comune; avrei potuto così distillare in meno tempo. Ma in primo luogo i tubicini fatti passare, secondo il metodo comune, obliquamente, comunque in modo rettilineo, raffreddano lentamente; quelli che usano passare le serpentine attraverso una botte di raffreddamento, possono essere fatte solo di rame e non possono essere pulite in modo appropriato a causa della loro struttura; per cui lo spirito di vino rimane danneggiato o prende facilmente un odore cattivo per via delle impurità delle precedenti distillazioni.)

Gli apparecchi per la distillazione producono perdite di vapori:

  “2do Nec in usu esse solet recipiens vas vitreum tubo applicare et ope vesicae adglutinare, sed solent supponere excipulum, eique imponere infundibulum, quod intrat spiritus ex tubulo profluens, quando ad instar calami straminei profluit. Coguntur ad id faciendum, quia praeuident periculum displofionis vasorum a spiritu non sufficienter refrigerato, alioquin oriundum. Qua vero methodo copiam vaporum spirituosorum in auras auolare vix mentione eget.”

(“In secondo luogo non è abitudine di applicare un vaso di vetro al tubicino (per raccogliere il condensato) e fissarlo, ma è consuetudine collocare sotto al tubicino un recipiente provvisto di imbuto, nel quale entra lo spirito uscente dal tubicino. Si è costretti a fare così in quanto si previene il pericolo della rottura dei vasi di raccolta a causa dello spirito non sufficientemente raffreddato. È evidente che con questo metodo molti vapori di spirito si disperdono nell’aria.”)

Il problema della refrigerazione, lo spazio utilizzato, la quantità di acqua e la manodopera:

3tio Vulgare vas refrigeratorium, scilicet sufficientis capacitatis, magnum occupat spatium, quare in boratoriis minoribus maxime incommodum est instruzmentum. Requiritur insuper saepissime ministri praesentia in laboratorio, cum ad aquam vase refrigeratorio contentam agitandam, eum scilicet in finem, ut superior frigidior cum inferiore calefacta misceatur, tum ad refrigeratorium euacuandum et denuo aqua frigida replendum; unde etiam istud emergit incommodum, quod laboratorium claudere nunquam liceat. Demum notetur, non semper aequalem effectum per vulgare vas refrigeratorium obtineri posse; breui nimirum ante repetitam repletionem aqua refrigeratorii tepida euafit, hinc impotens, quae sufficienti gradu refrigeretur.”

(“In terzo luogo la botte refrigerante comune, cioè di sufficiente capacità, occupa un grande spazio per i piccoli laboratori, è uno strumento di grande incomodo. Si richiede inoltre molto spesso la presenza di un operatore nel laboratorio, sia per muovere l’acqua contenuta nella botte refrigerante perché quella più fredda che sta di sopra sia mescolata con quella più calda che sta di sotto, sia per svuotare il refrigeratorio e successivamente riempirlo con nuova acqua: donde emerge l’altro incomodo di non poter mai chiudere il laboratorio. Va infine notato che con la normale botte refrigerante non è possibile ottenere l’effetto sempre uguale; certamente presto, prima del rinnovato riempimento, l’acqua del refrigeratore risulta tiepida e quindi non possa refrigerare a dovere.)

Dopo questa analisi offre una soluzione.

Bona igitur, rectaque via excogitata ad incommoda adducta remouenda, quam experientia comprobatam exponemus.”

(“È stata dunque concepita una via migliore e corretta, per eliminare gli inconvenienti appena citati, che andiamo ad esporre, convalidata dall’esperienza”.)

La frase convalidata dall’esperienza fa pensare che fosse stata già impiegata la via migliore nel laboratorio di famiglia, condotto dal padre e dallo zio. In un altro passo della dissertazione infatti si esprime:

 “Saepius in Parentis, maxima pietate colendi, laboratorio institui, hanc circa rem, experimenta, instrumentorumque ad hanc rem idoneorum imagines in charta delineaui, …”

(“Spesse volte ho condotto esperimenti su questa materia nel laboratorio del Padre, sempre venerando, e ho tracciato su carta figure di strumenti idonei a questa tecnica …”)

La parte fondamentale della sua proposta è arricchita da una immagine dell’apparecchio, con la sua descrizione.

 “…Cadit aqua in infundibulum c. Infundibulum hoc intrat canalem d. (Fig. 2), cuius subftantia est bractea ferrea stanno obducta, figurae cylindricae, diametri foraminis circiter tres quartas partes digiti transuersi aequantis, longitudinis tantae, ut eius superius orificium, quod intrat infundibulum c. circiter 2, 3, 4 digitos altius sit punctis inter h. et g. possibilibus. Nunc concipias tibi tubum e. f. g. h. eiusdem Figurae tubum a. b. ambientem (Fig. 2). Tubus hic paratus ebractea ferri stanno obducta figurae cylindraceae tantae diametri, ut ubique inter binos memoratos tubos maneat spatium tertiae partis vel dimidii digiti transuersi; longitudinis duorum pedum. Inferne ab e. ad f. clauditur hic capacior tubus per bracteam transuerse afferruminatur, medio duntaxat perforatam, pro transmittendo tubulo a. b. cui quoque firmiter afferruminatur, nulla relicta apertura. Tubuli d. inferius foramen, tubo dicto e. f. g. h. afferruminatum est antea facto foramini in tubulo hoc maiori. Ergo aqua fluens e tubo d. defluet in tubum e. f. g. h., illumque replebit, et tubum a. b. in medio fitum ambiet, quem tamen nunquam intrare valet, sed duntaxat refrigerabit, si fuerit calidus. E tubulo e. f. g.h. aqua perpetuo affluens perpetuo effluit per superius foramen apertum, quia locus inter g. et h. inferius situs quam suprema pars tubi d. …”

(… L’acqua cade nell’imbuto c. Questo imbutoentra nel canale d. (Fig. 2), la cui composizione è lamina di ferro coperta di stagno, di forma cilindrica, col diametro del foro di circa tre quarti di indice, di lunghezza tale che il suo orifizio superiore, dove entra l’imbuto c. sia 2,3, 4 dita più alto rispetto al livello dei punti h. e g.

Ora prendi il tubo e.f.g.h. che nella stessa figura circonda il tubo a.b. Questo tubo, fatto di lamina di ferro, coperta di stagno, di forma cilindrica, sia di diametro tale che tra i due suddetti tubi rimanga lo spazio di un terzo o metà indice; di lunghezza due piedi.

All’estremità da e. a f. questo tubo più grande è chiuso mediante una lamina saldata per traverso, forata nel mezzo, per inserirvi il tubo più piccolo a.b. al quale è fermamente saldata senza che sia lasciata alcuna apertura.

 Il foro inferiore del tubicino d. è saldato al detto tubo e.f.g.h. dopo aver praticato prima un foro in questo tubo più grande.)

La descrizione che ci fa Weigel è chiara. Sono due tubi concentrici. L’ estremità dell’apparecchio è chiusa da una lamina, con un foro che lascia passare il tubo più piccolo. In questa estremità, nella parte superiore del tubo più grande è praticato un foro dove è inserito il gambo dell’imbuto.

Ergo aqua fluens e tubo d. defluet in tubum e.f.g.h., illumque replebit, et tubum a.b. in medio fitum ambiet, quem tamen nunquam intrare valet, sed duntaxat refrigerabit, si fuerit calidus. E tubulo e.f.g.h. aqua perpetuo affluens perpetuo effluit per superius foramen apertum, quia locus inter g. et h. inferius situs quam suprema pars tubi d.

(Dunque l’acqua che fluisce dal tubo d. defluirà nel tubo e.f.g.h. e lo riempirà, e circonderà il tubo a.b. posto nel mezzo, nel quale tuttavia non può entrare ma naturalmente lo raffredderà se sarà caldo. Nel tubo e.f.g.h. l’acqua scorre continuamente, alimentata in modo continuo attraverso il foro aperto sopra, perché la quota di g. e h.  è posta al di sotto della parte più alta del tubo d.)

La descrizione dell’apparecchio in sezione

 “Ut eo melius mentem meam capiat confideret Figuram 4, quae sere vera magnitudine exit faciem extremitatis superioris, tubi capacioris e.f.g.h., ho scilicet quae inter h. et g. continetur, et adspicitur si oculus in b. sit conftitutus. In hac Figura 4, minimus circulus est tubus a.b. (Fig. 2) quasi sectus confideratus; medius circulus quasi sectum repraesentat tubum e.f.g.h. (Fig. 2). Inter hos binos circulos conspiciuntur tria spatia minora z.z.z. umbra notata, quae significant binos tubulos ibi connecti per intermedias tres bracteclas adferruminatas; sed duntaxat in hac extremitate, non vero per totam longitudinem tubi e.f.g.h. Spatia y.y.y. significant spatium inter binos tubulos (a.b. et e.f.g.h. Fig. 2) intermedium. Repletur hoc spatium aqua refrigerante perpetuo affluente, et per has aperturas perpetuo frigide effluente in canalem infundibulo instructum l.m., e quo defluit (Fig.5) per pavimentum laboratorii (cuius superficiem determinat linea horizontalis n.o. in canalem ligneum p.q. (Fig.6) per quem continuatum laboratorium ab omni aqua refrigeratoria affluente liberatur…”

(Affinché si comprenda meglio il mio pensiero, consideriamo la Figura 4 che mostra nella sua reale proporzione la faccia dell’estremità superiore del tubo più grande e.f.g.h., ossia la faccia

dell’estremità superiore del tubo più grande che sta tra h. ed g. e si vedebenese si fissa l’occhio in b. (Fig.2) considerato come sezionato; il tubo medio rappresenta il tubo e.f.g.h. come sezionato. Tra questi due tubi si osservano tre aree minori z.z.z. indicati inscuro, che rappresentano tre lamine di ferro che connettono i due tubi; ma soltanto in questa estremità, ma non per tutta la lunghezza del tubo e.f.g.h. Gli spazi y.y.y. significano lo spazio intermedio tra i due tubi (a.b.; e.f.g.h. Fig.2). Questo spazio è riempito di acqua refrigerante che scorre continuamente, e per questa apertura esce scorrendo nel canale fornito di imbuto l.m., dal quale defluisce attraverso il pavimento del laboratorio nel canale di legno p.q. …)

Alla fine l’autore conclude elencando i pregi dell’apparecchiatura, tra cui:

  1. Lo spazio del laboratorio non è ristretto a causa del vaso di refrigerazione
  2. Si ottiene il massimo grado di refrigerazione
  3. Non si hanno perdite dei vapori di alcol
  4. Il lavoro viene condotto senza dover temere alcun pericolo di incendio
  5. Si risparmia energia e tempo

Il capitolo riporta un secondo disegno dell’apparecchio più realistico. Da notare la grande somiglianza con l’apparecchio del laboratorio di Liebig.

La scoperta di Weigel è relativamente recente da parte della storiografia chimica. L’apparecchio di Weigel è citato nel libro di Hermann Schelenz “Zur Geschichte der pharmazeutischchemischen Destilliergeräte” (Sulla storia degli alambicchi chimico-farmaceutici) del 1911, quasi centocinquanta anni dopo la sua invenzione. Schelenz dedica poche righe all’apparecchio di Weigel, di cui riporta l’immagine. Tuttavia dalla sua breve descrizione non è chiara la struttura del condensatore. La geniale intuizione di Weigel del condensatore in contro corrente venne concepita mezzo secolo prima del “condensatore di Liebig “. Non è noto se il lavoro di   Christian Ehrenfried Weigel ispirò altri o passò inosservato. È certo che il suo nome non fu per molto tempo legato alla sua invenzione. Liebig, così come altri chimici del suo livello della prima metà dell’ottocento, che usavano quotidianamente la distillazione in contro corrente nei loro laboratori, non citano mai il nome del suo inventore.

Bibliografia

Relazione fra raggi atomici ed elettronegatività in funzione della pressione

In evidenza

Rinaldo Cervellati

Due ricercatori svedesi e uno italiano (il Prof. Roberto Cammi del Dipartimento di Scienze Chimiche, della Vita e della Sostenibilita’ Ambientale dell’Università di Parma) hanno ottenuto un’equazione che lega i raggi atomici di van der Waals con l’elettronegatività in funzione della pressione [1]. Martin Rahm  (Chalmers University of Technology, Svezia), coordinatore della ricerca, afferma: “Questa connessione è stata implicita per  lungo tempo, ma in un certo senso è intuitiva: se gli elettroni sono più vicini al nucleo, sono più legati e l’atomo è sia più piccolo che più elettronegativo”.

Martin Rahm

In lavori precedenti [2,3], Rahm e collaboratori hanno utilizzato la teoria del funzionale densità, combinata con il modello del continuo polarizzabile a pressioni estreme, per calcolare i raggi di van der Waals e l’elettronegatività per 93 atomi a pressioni da 0 a 300GPa. Recentemente hanno raccolto questi dati, insieme a rotazioni e spin elettronico dello stato fondamentale, in un set completo per 93 atomi in un’applicazione web interattiva (Atoms-Under-Pressure (AUP) database). La scala di elettronegatività utilizzata dai ricercatori è ispirata al lavoro del 1989 di L.C. Allen ed è definita come l’energia media di legame elettronico per T → 0 K. Questa definizione di elettronegatività permette infatti di stabilire una connessione con l’energia totale di un sistema.

È noto che la pressione induce transizioni nella configurazione elettronica dello stato fondamentale di molti atomi e i dati del database AUP evidenziano le nette discontinuità previste nei raggi atomici e nell’elettronegatività a tali transizioni. Esplorando i criteri per gli atomi non legati che effettuano  transizioni tra stati elettronici concorrenti a una data pressione, il gruppo di Rahm ha ricavato la seguente equazione che mette in relazione il raggio atomico e l’elettronegatività:

Δχ = n−1(4k2½p(r23r13) − ΔEee)

che fornisce la diminuzione dell’elettronegatività Δχ quando i raggi di un atomo diminuiscono sotto pressione costante p. Anche l’elettronegatività diminuisce all’aumentare della repulsione elettrone-elettrone, ΔEee.  r1 e r2 sono i raggi atomici prima e dopo la compressione, n è il numero di elettroni nell’atomo e k è un fattore di conversione fra le unità di misura.

Altri scienziati hanno riportato formule che mettono in relazione l’elettronegatività con i raggi atomici sotto pressione ma Rahm sostiene che esse sono applicate solo a pochi atomi, non sistematicamente a tutta la tavola periodica, inoltre di solito non forniscono determinate pressioni: “Noi abbiamo prestato molta attenzione ad avere un modello che corrispondesse a qualcosa di misurabile, fornendo i dati a una determinata pressione”.

Nell’esempio che segue (figura 1), si prevede che l’atomo di Fe contragga il suo raggio da 1,68 Å  a 1,63 Å a una pressione di 30 GPa. Qui, la variazione di energia corrispondente è uguale a 0,43 eV. Nella seconda transizione, l’atomo di Fe si restringe da 1,38 Å a 1,31 Å. A causa di una pressione più elevata alla seconda transizione, la variazione di energia corrispondente è, tuttavia, notevolmente maggiore, 1,95eV.

Figura 1. Contrazioni dell’atomo di ferro a 30 GPa e a una pressione maggiore di 144 GPa. Credit: Martin Rahm.

Gi autori ricordano che la loro equazione è  stata ottenuta  per la compressione di atomi non reattivi.

Gli argomenti basati su questa equazione non sono quindi necessariamente sempre applicabili ad altre situazioni, come i cambiamenti di volume quantificati attraverso equazioni di stato sperimentali. L’equazione tuttavia aiuta a capire come la riduzione dello stato di ossidazione di un atomo in condizioni ambientali porta ad una diminuzione dell’elettronegatività (questo accade quando  ΔEee > 0). Viceversa, come l’ossidazione di un atomo (cioè, quando ΔEee <0) porta a un aumento dell’elettronegatività.

Rahm prevede che i ricercatori potrebbero utilizzare il set di dati del suo gruppo in aree come la previsione della struttura ad alta pressione (ad esempio per ottenere una buona approssimazione iniziale per il volume cellulare unitario), per definire la molecolarità nei sistemi compressi, identificare gli atomi legati e per la previsione delle loro proprietà.

Il chimico computazionale Pratim Kumar Chattaraj, dell’Indian Institute of Technology di Kharagpur, afferma.: “È un contributo importante ma la struttura, il legame e la reattività subiscono un drastico cambiamento in una condizione confinata. La variazione di tutte le proprietà atomiche o molecolari potrebbe non seguire la stessa tendenza e quindi le correlazioni valide nello stato libero potrebbero non essere vere in una situazione ristretta.”

*Tradotto e ampliato da: Pressure used to define relationship between atomic radii and electronegativity, di Ruth Zadik, ChemistryWorld, 17/02/2021

Bibliografia

[1] M. Rahm et al., Relating atomic energy, radius and electronegativity through compression., Chem. Sci., 2021, DOI: 10.1039/d0sc06675c

[2] M. Rahm et al., Non-bonded Radii of the Atoms Under Compression., ChemPhysChem, 2020, 21, 2441-20453. DOI: 10.1002/cphc.202000624

[3] M. Rahm et al., Squeezing All Elements in the Periodic Table: Electron Configuration and Electronegativity of the Atoms under Compression.J. Am. Chem. Soc. 2019, 141, 10253-10271.

DOI: 10.1021/jacs.9b02634

Geraldine Cox, fra scienza e arte

In evidenza

Rinaldo Cervellati

Geraldine Cox ha studiato fisica prima di frequentare la scuola d’arte e, dal 2011, è “artista residente” presso il dipartimento di fisica dell’Imperial College di Londra. Geraldine lavora anche con fisici al di fuori dell’Imperial College.

Figura 1. Geraldine Cox, artista e fisico

Gran parte del suo lavoro avviene al di fuori del suo studio, nelle conversazioni quotidiane.

Durante la pandemia, ha incontrato scienziati nell’Hyde Park di Londra invece che nei loro laboratori. Il suo studio, nel retro del suo giardino, è dove crea arte o pensa a quello che ha realizzato. Conserva i quadri completati in grandi rotoli, come quelli che si vedono in figura 2.

Figura 2. Geraldine Cox nel suo studio. Credit: Nature

Sul muro ha montato la poesia I Dwell in Possibility[1], di Emily Dickinson[2]. L’ambizione espressa in questa poesia la ispira. Il suo lavoro è ricco e denso, con molteplici significati (figura 3).

Esempi di dipinti di Geraldine Cox. A sinistra: “Universo”, a destra “Magenta Sun”

Lavora con diversi gruppi di ricerca, usa l’arte per fare domande e ricevere risposte, ad esempio come conciliare l’aspetto ondulatorio della luce e il suo comportamento simile a particelle (fig. 4).

Figura 4. Particolare del dipinto sul dualismo ondulatorio-corpuscolare della luce

Attualmente sta creando un libro di disegni a matita per illustrare un esperimento che è stato realizzato per ottenere molecole super fredde.

Sta anche lavorando a una serie di grandi dipinti su un famoso esperimento, detto le fessure di Young, in cui la luce viene divisa in due raggi che percorrono strade diverse, quando quei raggi si incontrano e colpiscono uno schermo, interferiscono tra loro, producendo alternativamente figure brillanti e scure. Sta eseguendo il rendering di una versione di un esperimento che coinvolge anche le particelle della materia.

Nei suoi quadri, rappresenta i modelli di luce e materia con triangoli e semicerchi.

Alcuni di questi dipinti appariranno sul fascicolo di marzo della rivista Physics Today.

Durante la pandemia, ha sviluppato programmi arte-scienza on-line per bambini. In uno di loro, i bambini usano spettroscopi per osservare i “codici a barre” della luce, unici per diversi elementi chimici.

Nel 2020 Geraldine Cox, ha vinto il Gemant Award[3] dell’American Institute of Physics.

Tutto il suo lavoro è guidato dalla curiosità, sempre accompagnato da domande, proprio come nella scienza.

Bibliografia

A. Dance, Where I work. Geraldine Cox., Nature, 2021, 590, 520.

https://www.findingpatterns.info/pictures

https://www.imperial.ac.uk/news/202673/imperial-artist-wins-award-combining-physics/

NdP abbiamo già citato una volta una poesia di Emily Dickinson in questo post: https://ilblogdellasci.wordpress.com/2013/02/04/tonio-le-api-e-la-chimica/


[1] I dwell in Possibility A fairer House than Prose More numerous of Windows Superior for Doors/Of Chambers as the Cedars Impregnable of Eye And for an Everlasting Roof The Gambrels of the Sky/Of Visitors—the fairest For Occupation This−The spreading wide of narrow Hands To gather Paradise*

La traduzione italiana di Margherita Guidacci

Io vivo nella Possibilità,
una casa più bella della Prosa,
di finestre più adorna,
e più superba nelle sue porte.

Ha stanze simili a cedri,
impenetrabili allo sguardo,
e per tetto la volta
perenne del cielo.

L’allietano visite dolcissime.
E la mia vita è questa:
allargare le mie piccole mani
per accogliervi il Paradiso

[2] Emily Elizabeth Dickinson nota come Emily Dickinson (1830-1886) è stata una poetessa statunitense, considerata tra i maggiori lirici moderni.

[3] L’Andrew Gemant Award viene assegnato ogni anno dall’American Institute of Physics a persone che hanno dato un contributo significativo alla dimensione culturale, artistica o umanistica della fisica.

Iniziative di riciclo

In evidenza

Luigi Campanella, già Presidente SCI

Scrive il Parlamento Europeo introducendo il suo Piano d’azione per l’economia circolare che entro il 2050 consumeremo come se avessimo a disposizione tre pianeti Terra, per cui il passaggio da un modello lineare ad uno circolare di economia è una pietra angolare per una transizione verso una società e verso un’economia più sostenibili.
L’Assemblea Plenaria del Parlamento Europeo ha accolto con favore la proposta individuando come obbiettivi ad essa correlati la riduzione dell’impronta ambientale dei prodotti e dei materiali riferita all’intero ciclo di vita e di quella di consumo, una cultura della manutenzione e della riparazione, un mercato unico dei materiali riciclati, il design sostenibile, il contrasto all’obsolescenza programmata.
È una strada lunga se si pensa che oggi fino all’80% dell’impatto ambientale dei prodotti è determinato nella fase di progettazione e solo il 12% dei materiali utilizzati dall’industria proviene dal riciclo. Un interessante specificità nella trattazione del Parlamento Europeo riguarda i materiali elettronici e per le telecomunicazioni per i quali vengono raccomandati longevità e riparabilità, nonché eco progettazione di batterie (concetto peraltro esteso anche alle autovetture) e per i materiali di imballaggio oggi fonte di grandi quantità di scarti, anche di materiale plastico.
La Commissione Europea punta a che gli Stati membri attraverso incentivi finanziari si muovano verso la creazione di un mercato unico delle materie prime seconde.
A proposito di economia circolare vorrei fare un’osservazione.Sul valore prezioso dell’acqua credo ormai ci sia un accordo planetario.Sorprende che nel nuovo modello di economia da lineare a circolare l’acqua non abbia l’attenzione che merita Inoltre i metodi finalizzati al riciclo dell’acqua e quindi sostanzialmente indirizzati verso una economia circolare dell’acqua sono di vecchia data, gli stessi di decine di anni or sono, con un tasso di innovazione molto modesto.
La rivoluzione biotecnologica degli anni 80-90, esauritasi nel ventennio successivo, sta proprio ritrovando vigore nell’industria dell’acqua ed in particolare nella fase di purificazione a fini di riciclo. I fanghi che si producono negli impianti di depurazione vengono trattati con metodi costosi e che spesso di basano sull’uso di materiali plastici, di certo non ambientalmente ideali. La biotecnologia ha riscoperto il prezioso ruolo degli enzimi con metodi di purificazione ai fini del riciclo più sostenibili sia dal punto di vista ambientale che igienico-sanitario che economico.
Questi ritardi applicativi trovano giustificazione in una certa pigrizia all’innovazione e a carenze educative. L’educazione ambientale è attività necessaria se vogliamo pensare ad un domani migliore dell’oggi e molto migliore dell’ieri.Si tratta di un settore che richiede sensibilità, impegno, risorse.
Il mondo delle imprese ha cercato di darsi una immagine di coinvolgimento, non sempre trasformata anche in sostanza, cioè in progetti e programmi che la abbiano come focus. Fa piacere pertanto leggere che un colosso dei giochi inventa un giardino che educa alla natura. Si tratta di mattoncini lego derivanti dagli scarti della canna da zucchero, quindi bioplastica, e trasformati in composizioni di fiori che stimolano la creatività. Ciascuno con essi può comporre la propria aiuola o il proprio bouquet È stato creato un kit con 756 pezzi con i quali si possono realizzare rose, fiori di campo, ma anche foglie, alberi cespugli ed altro.Il materiale di cui sono costituiti i mattoncini/tessera, la bioplastica,è stato scelto in funzione della sostenibilità della produzione fra oltre 200 materiali.

La realtà virtuale come strumento.

In evidenza

Luigi Campanella, già Presidente SCI

Una bella definizione della realtà virtuale che viviamo con le nuove tecnologie di comunicazione é stata data dal sociologo Zygmunt Bauman: un muro di vetro al cui interno ci rifugiamo per non affrontare le sfide vere che la vita ci pone davanti, vivendole come se fossero repliche. Ne nasce una sorta di zona di conforto in cui possiamo scegliere la nostra identità, eventualmente modulandola alla ricercata approvazione degli altri,la comunità a cui aderire,le informazioni e conoscenze da condividere. L’altra faccia è però che alle tante interazioni accumulate sui Social non sempre corrispondono relazioni da coltivare nella quotidianità. Le emozioni ed i pensieri condivisi nel cyberspazio, destinati ad un interlocutore generico ed indifferenziato, non implicano necessariamente la ricerca di forme autentiche di condivisione. Che i giovani risultino affascinati da questo sistema è forse comprensibile, meno che questo compiacimento si stia allargando ai non giovani, anche in connessione con il particolare momento che viviamo, responsabile di avere indotto un’accelerazione nel ricorso alla comunicazione virtuale tanto nei rapporti interpersonali quanto nel mondo del lavoro, nella fruizione della cultura e nella organizzazione del proprio tempo libero.
È innegabile che le nuove tecnologie digitali facilitano la vita e fanno superare le distanze ma forse una conversazione in chat non può sostituire una chiacchierata de visu con un amico ed una visita guidata virtuale il godimento che deriva dalla visione in presenza di un’opera d’arte. Allora dal Covid-19 ci viene una lezione: le tecnologie informatiche non siano un metodo ma uno strumento.

Un recente esempio di questo carattere di strumento prezioso ci viene dal sempre attuale dibattito sulla sperimentazione animale
Quando si parla di metodi alternativi in vitro ed in silico è forse opportuno ricordare che le posizioni contrarie alla sperimentazione animale hanno trovato un grande supporto nel prezioso lavoro che uno dei suoi sostenitori più convinti,Thomas Hartung (Johns Hopkins University) ha svolto dettando le chiavi di lettura delle banche dati sui composti chimici, nate a seguito del Regolamento Europeo REACH, per la registrazione ed autorizzazione delle sostanze in commercio. Tali chiavi consentono di mappare le tossicità dei nuovi composti sulla base di confronti, analogie, difformità con i valori di tossicità di composti già studiati.Creando una mappa di 10 milioni di molecole poste una vicina all’altra per le somiglianze di comportamento si possono inserire all’interno di tale mappa nuovi composti da collocare in base alla loro struttura e ad un algoritmo interpretativo. Sono stati eseguiti 50 miliardi di confronti per definire la mappa: sono così nate 74 etichette di dati tossicologici sotto 19 categorie quali tossicità acuta, irritazione della pelle, tossicità riproduttiva ed altro. La mappa è stata applicata ad un certo numero di composti noti; ma immaginati sconosciuti, individuando con il metodo descritto se risultassero tossici o no:su quasi 300 mila composti testati l’accordo con la realtà ha coperto quasi il 90 % dei casi. Ecco che la realtà dati del computer diviene preziosa ed i dubbi che la riguardano sembrano sfiorire.

Elementi della tavola periodica. Cesio, Cs (seconda parte).

In evidenza

Rinaldo Cervellati

 

Applicazioni

Industria estrattiva

Il principale uso di cesio non radioattivo è nel formiato di cesio come fluido di perforazione per l’industria petrolifera estrattiva. Soluzioni acquose di formiato di cesio (HCOO − Cs), prodotte facendo reagire idrossido di cesio con acido formico, furono sviluppate a metà degli anni ’90 per essere utilizzate come fluidi di perforazione e completamento di pozzi petroliferi. L’alta densità della salamoia di formiato di cesio (fino a 2,3 g/cm3), unita alla natura relativamente benigna della maggior parte dei composti di cesio, riduce la necessità di solidi sospesi tossici ad alta densità nella perforazione; un vantaggio tecnologico e ingegneristico. A differenza dei componenti di molti altri liquidi pesanti, il formiato di cesio ha un minor impatto ambientale. Inoltre, è biodegradabile e può essere riciclato, il che è importante in considerazione del suo costo elevato.

Orologi atomici

Gli orologi atomici a base di cesio utilizzano le transizioni elettromagnetiche nella struttura iperfine degli atomi di cesio-133 come punto di riferimento. Il primo orologio accurato al cesio fu costruito da Louis Essen nel 1955 presso il National Physical Laboratory nel Regno Unito.

FOCS-1, un orologio atomico a fontana di cesio freddo continuo in Svizzera, ha iniziato a funzionare nel 2004 con un’incertezza di un secondo in 30 milioni di anni (figura 7)

Figura 7. FOCS-1, orologio atomico a fontana di cesio freddo continuo in Svizzera

Gli orologi al cesio sono migliorati nell’ultimo mezzo secolo e sono considerati “la realizzazione più accurata di un misuratore del tempo che l’umanità abbia mai raggiunto”. Questi orologi misurano la frequenza con un errore da 2 a 3 parti su 1014, che corrisponde a una precisione di 2 nanosecondi al giorno, o un secondo in 1,4 milioni di anni. Le ultime versioni sono più accurate di 1 parte su 1015, circa 1 secondo in 20 milioni di anni. Gli orologi al cesio regolano i tempi delle reti di telefoni cellulari e di Internet.

Unità di misura nel SI

Il secondo, simbolo s, è l’unità di tempo nel Sistema Internazionale (SI). È definito prendendo il valore numerico fisso della frequenza di cesio ΔνCs, la frequenza di transizione iperfine allo stato fondamentale imperturbato dell’atomo di cesio-133, a 9192631770 Hz (cioè s– 1).

Industria elettrica ed elettronica

I generatori termoionici di vapori di cesio sono dispositivi a bassa potenza che convertono l’energia termica in energia elettrica. Nel convertitore tubo a vuoto a due elettrodi, il cesio neutralizza la carica spaziale vicino al catodo e migliora il flusso di corrente.

Il cesio è anche importante per le sue proprietà fotoemissive, poiché converte la luce in flusso di elettroni. Viene utilizzato nelle cellule fotoelettriche perché i catodi a base di cesio, come il composto intermetallico K2CsSb, hanno una bassa tensione di soglia per l’emissione di elettroni.  La gamma di dispositivi fotoemissivi che utilizzano il cesio include dispositivi di riconoscimento ottico dei caratteri, tubi fotomoltiplicatori e tubi per videocamere. Tuttavia, germanio, rubidio, selenio, silicio, tellurio e molti altri elementi possono essere sostituiti al cesio nei materiali fotosensibili.

I cristalli di cesio ioduro (CsI), bromuro (CsBr) e fluoruro (CsF) sono impiegati per gli scintillatori nei contatori a scintillazione ampiamente utilizzati nell’esplorazione dei minerali e nella ricerca sulla fisica delle particelle per rilevare la radiazione di raggi gamma e X. Essendo un elemento pesante, il cesio fornisce un buon potere frenante con una migliore rilevazione.

I vapori di cesio sono utilizzati in molti comuni magnetometri.

L’elemento è utilizzato come standard interno in spettrofotometria. Altri usi del metallo includono laser ad alta energia e lampade a bagliore di vapore e raddrizzatori di vapore.

Usi chimici e medici

Relativamente poche applicazioni chimiche utilizzano il cesio. Il doping con composti di cesio aumenta l’efficacia di diversi catalizzatori per la sintesi chimica, come acido acrilico, antrachinone, ossido di etilene, metanolo, anidride ftalica, stirene, monomeri di metil metacrilato e varie olefine. Viene anche utilizzato nella conversione catalitica di anidride solforosa in triossido di zolfo nella produzione di acido solforico.

Il fluoruro di cesio ha un uso di nicchia nella chimica organica di base e come fonte anidra di ioni fluoruro. I sali di cesio a volte sostituiscono i sali di potassio o sodio nella sintesi organica, ad esempio nella ciclizzazione, esterificazione e polimerizzazione.

L’alta densità dello ione cesio rende le soluzioni di cloruro di cesio, solfato di cesio e trifluoroacetato di cesio (Cs(O2CCF3)) utili in biologia molecolare per l’ultracentrifugazione a gradiente di densità. Questa tecnologia viene utilizzata principalmente nell’isolamento di particelle virali, frazioni subcellulari e acidi nucleici da campioni biologici.

Il cesio è stato utilizzato anche nella dosimetria delle radiazioni termoluminescenti (TLD): quando esposto alle radiazioni, acquisisce difetti cristallini che, se riscaldati, regrediscono con un’emissione di luce proporzionata alla dose ricevuta. Pertanto, la misurazione dell’impulso luminoso con un tubo fotomoltiplicatore può consentire di quantificare la dose di radiazione accumulata.

Applicazioni nucleari e isotopiche

Il cesio-137 è un radioisotopo comunemente usato come emettitore gamma nelle applicazioni industriali. I suoi vantaggi includono un’emivita di circa 30 anni, la sua disponibilità dal ciclo del combustibile nucleare e avere 137Ba come prodotto finale stabile. L’elevata solubilità in acqua è uno svantaggio che lo rende incompatibile con gli irradiatori per piscine di grandi dimensioni per alimenti e forniture mediche. È stato utilizzato in agricoltura, nella cura del cancro e nella sterilizzazione di alimenti, fanghi di depurazione e attrezzature chirurgiche. Il cesio-137 è stato impiegato in una varietà di strumenti di misura industriali, inclusi misuratori di umidità, densità, livellamento e spessore.

Il cesio-137 è stato utilizzato in studi idrologici analoghi a quelli con il trizio. Come prodotto figlia dei test delle bombe a fissione dagli anni ’50 alla metà degli anni ’80, il cesio-137 è stato rilasciato nell’atmosfera, dove è stato prontamente assorbito dall’umidità. La variazione nota di anno in anno in quel periodo consente la correlazione con gli strati del suolo e dei sedimenti.

Il cesio-134, e in misura minore il cesio-135, sono stati usati anche in idrologia per misurare la produzione di cesio dall’industria nucleare. Sebbene siano meno diffusi del cesio-133 o del cesio-137, questi isotopi sono prodotti esclusivamente da fonti antropiche.

Altri usi

Una delle applicazioni industriali più recenti del cesio è quella relativa alla tempra chimica di vetrate destinate a resistere agli incendi: volendo evitare l’impiego di boro, questa rappresenta l’unica alternativa attualmente praticabile.

Gli elettroni irradiati da un cannone elettronico colpiscono e ionizzano atomi di carburante neutri; in una camera circondata da magneti, gli ioni positivi sono diretti verso una griglia negativa che li accelera. La forza del motore viene creata espellendo gli ioni dalla parte posteriore ad alta velocità. All’uscita, gli ioni positivi vengono neutralizzati da un altro cannone elettronico, assicurando che né la nave spaziale né lo scarico siano caricati elettricamente e non siano attratti.

Cesio e mercurio erano usati come propellenti nei primi motori ionici progettati per la propulsione di veicoli spaziali in missioni interplanetarie o extraplanetarie molto lunghe. Ma la corrosione da cesio sui componenti dei veicoli spaziali ha spinto lo sviluppo verso i propellenti a gas inerti, come lo xeno, che sono più facili da gestire nei test a terra e causano meno danni potenziali al veicolo spaziale.  Tuttavia, sono stati costruiti propulsori elettrici a emissione di campo che accelerano gli ioni di metallo liquido come il cesio.

I carbonati di cesio e di rubidio sono stati aggiunti al vetro perché riducono la conduttività elettrica e migliorano la stabilità e la durata delle fibre ottiche e dei dispositivi per la visione notturna. Il fluoruro di cesio o il fluoruro di cesio e alluminio sono usati nelle formulazioni per la brasatura di leghe di alluminio che contengono magnesio.

I sali di cesio sono stati valutati come reagenti antishock in seguito alla somministrazione di farmaci arsenicali. A causa del loro effetto sui ritmi cardiaci, tuttavia, è meno probabile che siano utilizzati rispetto ai sali di potassio o di rubidio. Sono stati anche usati per trattare l’epilessia.

Effetti biologici e precauzioni

I composti di cesio non radioattivo sono solo leggermente tossici e il cesio non radioattivo non è un rischio ambientale significativo. Poiché i processi biochimici possono confondere e sostituire il cesio con il potassio, l’eccesso di cesio può portare a ipopotassiemia, aritmia e arresto cardiaco acuto. Ma queste quantità non si trovano normalmente nelle fonti naturali.

La dose letale mediana (LD50) per il cloruro di cesio nei topi è di 2,3 g per chilogrammo, che è paragonabile ai valori di LD50 di cloruro di potassio e cloruro di sodio.

Il cesio metallico è uno degli elementi più reattivi, altamente piroforico: la temperatura di autoaccensione del cesio è -116 ° C e si accende in modo esplosivo all’aria per formare idrossido di cesio e vari ossidi. L’idrossido di cesio corrode rapidamente il vetro. è altamente esplosivo in presenza di acqua: l’idrogeno gassoso prodotto da questa reazione viene riscaldato dall’energia termica rilasciata contemporaneamente, provocando l’accensione e una violenta esplosione.

Gli isotopi 134 e 137 sono presenti nella biosfera in piccole quantità dalle attività umane, che differiscono secondo la posizione geografica. Il radiocesio segue il potassio e tende ad accumularsi nei tessuti vegetali, compresi frutta e verdura. Le piante variano ampiamente nell’assorbimento del cesio, a volte dimostrando una grande resistenza a esso. È anche ben documentato che i funghi provenienti da foreste contaminate accumulano radiocesio (cesio-137) negli sporocarpi fungini. L’accumulo di cesio-137 nei laghi è stato una grande preoccupazione dopo il disastro di Chernobyl. Esperimenti con cani hanno dimostrato che una singola dose di 3,8 millicurie (4,1 μg di cesio-137) per chilogrammo è letale entro tre settimane; quantità minori possono causare infertilità e cancro. L’Agenzia internazionale per l’energia atomica e altre fonti hanno avvertito che i materiali radioattivi, come il cesio-137, potrebbero essere utilizzati in dispositivi di dispersione radiologica, o “bombe sporche”.

Riciclaggio

Come ricordato nel post sul rubidio, nel 2014 un gruppo di ricerca giapponese ha brevettato un metodo di riciclaggio di rubidio e cesio da scorie di scarto di estrazione del litio dai suoi minerali, al termine del processo si ottiene carbonato di cesio al 99,9% di purezza [1].

Ciclo biogeochimico

Dopo il disastro di Chernobyl (1986) e l’incidente di Fukushima (2011), che hanno sparso nell’atmosfera grandi quantità di materiale radioattivo, in particolare il cesio-137, le ricerche sul ciclo biogeochimico di questo isotopo si sono moltiplicate. Qui ne riportiamo due, la prima relativa al disastro di Chernobyl, la seconda anche riguardo all’incidente di Fukushima.

La prima, dovuta a ricercatori russi dell’Università Statale di Mosca e del Consiglio delle Ricerche del Saskatchewan (Canada), integra i risultati del monitoraggio lungo 25 anni del ciclo biogeochimico degli isotopi 137C e 90Sr negli ecosistemi forestali contaminati della Russia e dell’Ucraina [2]. La rete di monitoraggio a lungo termine era stata subito istituita con una serie di siti chiave situati da 5 a oltre 500 km dalla centrale nucleare di Chernobyl. Sono stati monitorati i seguenti componenti: biotici (alberi, erba e arbusti, muschi e funghi), suoli (foresta e minerali), acqua del suolo e di caduta. Attualmente, 25 anni dopo il fallout di Chernobyl, l’assorbimento di 137Cs e 90Sr  da parte della vegetazione supera la loro infiltrazione attraverso il suolo, ovvero il ciclo biogeochimico svolge attualmente un ruolo importante nell’impedire l’infiltrazione di radionuclidi attraverso il suolo fino alle falde acquifere. In ambienti umidi, i biotici sono un fattore trainante del ciclo dei radionuclidi, mentre in quelli aridi ed eluviali il complesso di assorbimento del suolo gioca un ruolo più importante. L’effetto del tipo di ambiente si manifesta per 137C, ma meno importante per 90Sr. Il 137Cs è attivamente assorbito dal complesso dei funghi, mentre 90Sr è accumulato principalmente nella vegetazione arborea.

I flussi biogeochimici di 137C e 39K in alcuni ecosistemi sono ancora diversi, anche 25 anni dopo il disastro.

La seconda ricerca, di un gruppo internazionale, riguarda la radiochimica del 137Cs, il suo trasporto e la sua possibile bonifica dagli ambienti acquatici [3]. Il 137Cs è un indicatore importante dell’inquinamento radioattivo in ambienti acquatici. Il trasporto e il destino del 137Cs antropogenico sono correlati alle proprietà chimiche del Cs ionico (Cs+), che generalmente impone un alto grado di mobilità e biodisponibilità di questo radionuclide. Il trasporto di 137C e la sua suddivisione tra le componenti abiotiche e biotiche degli ecosistemi acquatici sono processi complessi che sono notevolmente influenzati da un numero di fattori come la composizione mineralogica dei solidi sospesi,  dei sedimenti di fondo e la caratteristica geochimica dell’acqua. Questi fattori influenzano la cinetica di adsorbimento e desadsorbimento di 137Cs e il trasporto del suo particolato. Tuttavia, l’evidenza suggerisce che l’accumulo biologico diretto di 137Cs nell’ambiente acquatico è dovuto principalmente ai microrganismi e alle piante acquatiche.

Figura 8. Ciclo biogeochimico di 137Cs in sistemi acquatici [3]

Le prove in questo lavoro indicano che137Cs viene continuamente rimesso in circolo nei sistemi biologici per molti anni dopo la contaminazione. Vengono inoltre discussi i possibili metodi di bonifica per i sistemi acquatici contaminati.

Opere consultate

Handbook of Chemistry and Physics 85th Ed. pag. 4-8

https://en.wikipedia.org/wiki/Caesium

Bibliografia

[1] Method for recycling rubidium and caesium from waste lithium extraction slag.

https://patents.google.com/patent/CN103667727A/en

[2] A. Shcheglov, O. Tsvetnova, A. Klyashtorin, Biogeochemical cycles of Chernobyl-born radionuclides in thecontaminated forest ecosystems. Long-term dynamics of the migration processes., Journal of Geochemical Exploration, 2014, 144, 260-266.

[3] M. Aqeel Ashraf et al., Cesium-137: Radio-Chemistry, Fate, and Transport, Remediation, and Future Concerns., Critical Reviews in Environmental Science and Technology, 2014, 44, 1740–1793.

Dubbi sulla presenza di Fosfina sul pianeta Venere

In evidenza

Diego Tesauro

A settembre destò molta risonanza nei media di tutto il mondo la notizia della scoperta di segnali attribuibili alla fosfina nell’atmosfera di Venere. Questo argomento fu oggetto anche di un intervento di Claudio Della Volpe sul nostro blog che illustrava l’importanza della scoperta  ( https://ilblogdellasci.wordpress.com/2020/09/21/vita-su-venere/) .  La notizia intensificò gli sforzi per dimostrane la veridicità oppure fornire alternative attribuzioni ai segnali radio rilevati. Recentemente sono stati accettati dalla rivista  Astrophysical Journal Letters due lavori che aumentano i dubbi sulla reale presenza della fosfina.

Il dibattito verte sull’attribuzione della banda di assorbimento a 266,94 gigahertz (Figura 1)

Figura 1 Gli Spettri di PH3 nell’atmosfera di Venere

misurata dal radiotelescopio Atacama Large Millimeter Array (ALMA) (https://www.eso.org/public/italy/teles-instr/alma/) (Figura 2) situato nel Cile.

Figura 2 L’Atacama Large Millimeter/submillimeter Array (ALMA) è un radiointerferometro situato a 5000 metri d’altitudine nel deserto di Atacama in Cile.

Questa banda è stata attribuita alla fosfina da un team guidato da Jane Greaves, astronomo dell’Università di Cardiff [1].  In particolare era stata stimata una concentrazione di 20 ppb ad una altezza di 56 Km nelle nuvole alte. Nell’atmosfera venusiana, fortemente ossidante, la formazione di questa molecola non è favorita mentre è fortemente avvantaggiata la sua distruzione.  Inoltre la genesi della fosfina dovrebbe risiedere o in processi geochimico al momento non conosciuti oppure dovrebbe essere prodotta da organismi biologici. La banda a 266.94 cade nella zona in cui però insiste anche una banda di assorbimento del biossido di zolfo che rappresenta il terzo fra i gas presenti nell’atmosfera di Venere dopo il biossido di carbonio e l’azoto. Per discriminare la natura della banda Greaves hanno ricercato altri segnali appartenenti al SO2 e non trovandoli hanno attribuito la banda alla fosfina. I dati però utilizzati erano stati elaborati dall’osservatorio in maniera errata per cui resisi conto dell’errore, i dati erano stati rielaborati. Su questi nuovi dati, il gruppo di  Greaves, ha concluso che la banda era ancora attribuibile alla fosfina, anche se ad una concentrazione molto più bassa (5-10 ppb) di quella che avevano riportato all’inizio [2].

Ma anche i dati ALMA rielaborati sono stati posti al centro di  un nuovo studio che contestano la presenza della fosfina [3]. Un team guidato da Akins, del Jet Propulsion Laboratory di Pasadena, in California, utilizzando una diversa procedura di calibrazione nell’elaborazione dello spettro, non concorda con le attribuzioni della banda alla fosfina, ma piuttosto al biossido di zolfo chiaramente non di origine biologica.

Un secondo studio esplora la banda a 266,94 gigahertz, come osservata dal telescopio James Clerk Maxwell (JCMT) (Figura 3), un radiotelescopio submillimetrico situato all’Osservatorio di Mauna Kea (Hawaii), giungendo alla conclusione che la banda era spiegata meglio dalla presenza di SO2 a più di 80 chilometri al sopra della superficie del pianeta, piuttosto che dalla fosfina a 50-60 chilometri dalla superficie, come affermato dal team di Greaves.

Figura 3 Il radiotescopio James Clerk Maxwell (JCMT) è un telescopio submillimetrico situato all’Osservatorio di Mauna Kea (Hawaii),

Ovviamente il dibattito è aperto e sicuramente sono necessarie ulteriori osservazioni sia nel dominio delle onde millimetriche che sub-millimetriche, nonchè osservazioni infrarosse per chiarire l’eventuale presenza di fosfina su Venere.  

  1. Greaves, J. S. et al. Nature Astron. https://doi.org/10.1038/s41550-020-1174-4 (2020).
  2. 5. Greaves, J. S. et al. Preprint at https://arxiv.org/abs/2011.08176 (2020).
  1. Akins, A. B., Lincowski, A. P., Meadows, V. S. & Steffes, P. G. Preprint at https://arxiv.org/abs/2101.09831 (2021).
  2. Lincowski, A. P. et al. Preprint at https://arxiv.org/abs/2101.09837 (2021).

 

 

 

Elementi della tavola periodica. Cesio, Cs.(parte prima)

In evidenza

Rinaldo Cervellati

Il cesio (inglese caesium o cesium), simbolo Cs, è l’elemento n. 55 della Tavola Periodica, posto al 1° Gruppo, 6° Periodo, sotto il rubidio e davanti al francio. È un metallo alcalino morbido, di colore argenteo-dorato con punto di fusione di 28,5 °C, uno dei soli cinque metalli liquidi a temperatura ambiente o vicina ad essa. Il cesio ha proprietà fisiche e chimiche simili a quelle del rubidio e del potassio. La sua abbondanza nella crosta terrestre è valutata in 3 ppm.
Nel 1860, Robert Bunsen e Gustav Kirchhoff scoprirono il cesio nell’acqua minerale di Dürkheim, in Germania. A causa delle linee blu nello spettro di emissione, gli assegnarono il nome latino caesius, che significa azzurro cielo. Il cesio fu il primo elemento a essere scoperto con uno spettroscopio, inventato da Bunsen e Kirchhoff solo un anno prima.

 

Figura 2. Campione di cesio metallico
In presenza di olio minerale (dove è meglio conservato) perde la sua lucentezza metallica e assume un aspetto più opaco e grigio. Ha un punto di fusione di 28,5 °C, rendendolo uno dei pochi metalli elementari che sono liquidi vicino alla temperatura ambiente. Il mercurio è l’unico metallo elementare stabile con un punto di fusione noto inferiore al cesio. Inoltre, il cesio ha un punto di ebollizione piuttosto basso, 641 °C, il più basso di tutti gli altri metalli tranne che del mercurio. I suoi composti bruciano con un colore blu o violaceo.
Il cesio forma leghe con gli altri metalli alcalini, oro e mercurio (amalgame). A temperature inferiori a 650 °C non si lega con cobalto, ferro, molibdeno, nichel, platino, tantalio o tungsteno. Forma composti intermetallici ben definiti con antimonio, gallio, indio e torio, che sono fotosensibili. Si miscela con tutti gli altri metalli alcalini (escluso il litio); la lega con una distribuzione molare del 41% di cesio, 47% di potassio e 12% di sodio ha il punto di fusione più basso (−78 °C ) di qualsiasi lega metallica nota. Sono state studiate alcune amalgame: CsHg2 è nera con una lucentezza metallica viola, mentre CsHg è di colore dorato, pure con lucentezza metallica.
Il colore dorato del cesio metallico deriva dalla diminuzione della frequenza della luce necessaria per eccitare gli elettroni dei metalli alcalini quando si scende nel gruppo. Per il litio attraverso il rubidio questa frequenza è nell’ultravioletto, ma per il cesio entra nell’estremità blu-violetta dello spettro (Figura 3).

Figura 3. Rubidio e Cesio metallici puri
Proprietà chimiche
Il cesio metallico è altamente reattivo e molto piroforico. Si accende spontaneamente all’aria e reagisce in modo esplosivo con l’acqua anche a basse temperature, più degli altri metalli alcalini. Reagisce con il ghiaccio a temperature fino a -116 °C. A causa di questa elevata reattività è classificato come materiale pericoloso. Viene immagazzinato in idrocarburi saturi e secchi , come l’olio minerale. Può essere manipolato solo in atmosfera di gas inerte, ad es. l’argon. Il cesio deve essere conservato in fiale di vetro borosilicato sottovuoto. La sua chimica è simile a quella di altri metalli alcalini, in particolare il rubidio, l’elemento sopra il cesio nella tavola periodica. Come previsto per un metallo alcalino, l’unico stato di ossidazione comune è +1. Alcune piccole differenze derivano dal fatto che ha una massa atomica più elevata ed è più elettropositivo di altri isotopi non radioattivi di metalli alcalini. Il cesio è l’elemento chimico più elettropositivo.
Il cesio naturale ha un solo isotopo stabile, il cesio-133 (o 133Cs). Esistono comunque 39 isotopi artificiali noti, che variano in numero di massa da 112 a 151. Molti di questi sono sintetizzati da elementi più leggeri dal lento processo di cattura dei neutroni (processo S) all’interno di vecchie stelle e dal processo R nelle esplosioni delle supernove.
Il 135Cs radioattivo ha un’emivita molto lunga di circa 2,3 milioni di anni, il più lungo di tutti gli isotopi radioattivi del cesio. 137Cs e 134Cs hanno rispettivamente un’emivita di 30 e due anni. 137Cs si decompone in137Ba di breve durata per decadimento beta, e quindi in bario non radioattivo, mentre 134Cs si trasforma direttamente in 134Ba. L’isotopo 135Cs è uno dei prodotti di fissione a lunga vita dell’uranio prodotto nei reattori nucleari. Tuttavia, la resa di questo prodotto di fissione è ridotta nella maggior parte dei reattori perché il predecessore è un potente veleno per i neutroni e spesso si trasmuta in 136Xe stabile.
Il decadimento beta da 137C a 137Ba presenta una forte emissione di radiazioni gamma. 137C e 90Sr sono i principali prodotti a vita media della fissione nucleare, prime fonti di radioattività dal combustibile nucleare esaurito dopo diversi anni di raffreddamento, della durata di diverse centinaia di anni. Questi due isotopi sono la più grande fonte di radioattività residua nell’area del disastro di Chernobyl del 1986. A causa del basso tasso di cattura, lo smaltimento di 137Cs tramite cattura di neutroni non è fattibile e l’unica soluzione attuale è di consentirne il decadimento nel tempo.
Con i test sulle armi nucleari negli anni ’50 fino agli anni ’80, 137Cs è stato rilasciato nell’atmosfera e restituito alla superficie della terra come componente del fallout radioattivo. È l’indicatore principale del movimento del suolo e dei sedimenti di quei tempi.
Principali composti
La maggior parte dei composti di cesio contiene l’elemento come catione Cs+, che si lega ionicamente a un’ampia varietà di anioni. I sali di Cs+fammide sono generalmente incolori a meno che l’anione stesso non sia colorato. Molti dei sali semplici sono igroscopici, ma meno dei corrispondenti sali dei metalli alcalini più leggeri. Fosfato, acetato, carbonato, alogenuri, ossido, nitrato e solfato sono solubili in acqua. I doppi sali sono spesso meno solubili e la bassa solubilità del solfato di cesio e alluminio viene sfruttata nella raffinazione del Cs dai minerali.
Più degli altri metalli alcalini, il cesio forma numerosi composti binari con l’ossigeno. Quando il cesio brucia all’aria, il principale prodotto è il superossido, CsO2. L’ossido di cesio Cs2O forma cristalli giallo arancio esagonali, vaporizza a 250 °C, e si decompone a cesio metallico e perossido Cs2O2 a temperature sopra i 400 °C. In aggiunta a questi ossidi, sono noti molti altri subossidi intensamente colorati. Esistono anche composti binari con zolfo, selenio e tellurio.
L’idrossido di cesio (CsOH) è igroscopico e fortemente basico, attacca rapidamente la superficie dei semiconduttori come il silicio. Il CsOH è stato considerato dai chimici come la “base più forte”, riflettendo l’attrazione relativamente debole tra il grande catione Cs+ e l’anione OH. È effettivamente la base di Arrhenius più forte, se si escludono composti organici che non si dissolvono in acqua, come n-butillitio e altri composti come la sodio ammide, che sono più basici. Userei cautela a infilare in questo paragone gli idruri di questo tipo che non sono stabili in nessun solvente, non esistono in soluzione.
Come tutti i cationi metallici, Cs+ forma complessi con basi di Lewis in soluzione. A causa delle sue grandi dimensioni, Cs+ adotta solitamente numeri di coordinazione maggiori di 6, il numero tipico per i cationi di metalli alcalini più piccoli. Questa differenza è evidente nella coordinazione 8 dei cristalli di cloruro di cesio.
Questo elevato numero di coordinazione insieme alla tendenza a formare legami covalenti sono proprietà sfruttate per separare Cs+ da altri cationi nella bonifica dei rifiuti nucleari, dove 137Cs+ deve essere separato da grandi quantità di K+ non radioattivo.
Il fluoruro di cesio (CsF) è un solido bianco igroscopico ampiamente utilizzato nella chimica dei composti organici del fluoro come fonte di anioni fluorurati. In particolare, il cesio e il fluoro hanno rispettivamente la più bassa e la più alta elettronegatività tra tutti gli elementi noti.
Il cloruro di cesio (CsCl) cristallizza nel semplice sistema cristallino cubico. Chiamato anche “struttura del cloruro di cesio” è composta da un reticolo cubico con una base di due atomi, ciascuno con una coordinazione di otto volte; gli ioni cloruro giacciono sui punti reticolari ai bordi del cubo, mentre gli atomi di cesio si collocano al centro dei cubi (Figura 4). Questa struttura è condivisa con CsBr e CsI.

Figura 4. Struttura cristallina poliedrica di CsCl
Al contrario, la maggior parte degli altri alogenuri alcalini ha la struttura del cloruro di sodio (NaCl). La struttura CsCl è preferita perché Cs+ ha un raggio ionico di 174 pm e Cl di 181 pm.
Disponibilità
Il cesio è un elemento relativamente raro, stimato in media 3 parti per milione nella crosta terrestre. È il 45° elemento più abbondante e il 36° tra i metalli. È più abbondante di elementi come antimonio, cadmio, stagno e tungsteno, e due ordini di grandezza più abbondante del mercurio e dell’argento; è il 3,3% abbondante del rubidio, al quale è chimicamente strettamente associato.
A causa del suo ampio raggio ionico, il cesio è uno degli “elementi incompatibili” . Durante la cristallizzazione del magma, il cesio si concentra nella fase liquida e cristallizza per ultimo. Pertanto, i più grandi depositi di cesio sono i minerali pegmatiti delle zone formatisi da questo processo di arricchimento. Di conseguenza, il cesio si trova in pochi minerali. Quantità percentuali di cesio possono essere trovate nel berillo (Be3Al2(SiO3)6), nell’avogadrite ((K,Cs)BF4), nella pezzottaite (Cs(Be2Li)Al2Si6O18), nel minerale raro londonite ((Cs,Al4Be4(B, Be)12O28), e nella più diffusa rodizite. L’unico minerale economicamente importante per il cesio è la pollucite Cs (AlSi2O6), che si trova in pochi posti nel mondo nelle pegmatiti, associata ai minerali di litio più importanti dal punto di vista commerciale, lepidolite e petalite.

Figura 5. Campione di pollucite
All’interno delle pegmatiti, la grande granulometria e la forte separazione dei minerali si traducono in minerali di alta qualità per l’estrazione.
La fonte di cesio più significativa e più ricca al mondo è la miniera di Tanco nel lago Bernic a Manitoba, in Canada, che si stima contenga 350.000 tonnellate di minerale pollucite, rappresentando più di due terzi delle riserve mondiali. La pollucite commerciale contiene più del 19% di cesio. Il deposito di pegmatite Bikita nello Zimbabwe viene estratto per la sua petalite, ma contiene anche una quantità significativa di pollucite. Un’altra notevole fonte di pollucite si trova nel deserto del Karibib, in Namibia. Al ritmo attuale della produzione mineraria mondiale di 5-10 tonnellate l’anno, le riserve dureranno per migliaia di anni.
Produzione
L’estrazione e la raffinazione del minerale di pollucite sono un processo selettivo e sono condotti su scala minore rispetto alla maggior parte degli altri metalli. Il minerale viene frantumato, selezionato a mano, di solito non concentrato e quindi macinato. Il cesio viene quindi estratto dalla pollucite principalmente mediante tre metodi: digestione acida, decomposizione alcalina e riduzione diretta.
Nella digestione acida, la roccia silicatica di pollucite viene sciolta con acidi forti, come gli acidi cloridrico (HCl), solforico (H2SO4), bromidrico (HBr) o fluoridrico (HF). Con acido cloridrico, viene prodotta una miscela di cloruri solubili e i doppi sali insolubili di cesio vengono precipitati come cloruro di antimonio di cesio (Cs4SbCl7), cloruro-ioduro di cesio (Cs2ICl) o esaclorocerato di cesio (Cs2(CeCl6)). Dopo la separazione, il doppio sale precipitato puro viene decomposto e CsCl puro viene precipitato evaporando l’acqua.
Il metodo dell’acido solforico produce il doppio sale insolubile direttamente come allume di cesio (CsAl (SO4)2·12H2O). Il componente solfato di alluminio viene convertito in ossido di alluminio insolubile arrostendo l’allume con carbone e il prodotto risultante viene lisciviato con acqua per ottenere una soluzione Cs2SO4.
La torrefazione della pollucite con carbonato di calcio e cloruro di calcio produce silicati di calcio insolubili e cloruro di cesio solubile. La lisciviazione con acqua o ammoniaca diluita produce una soluzione di cloruro diluito (CsCl). Questa soluzione può essere evaporata per produrre cloruro di cesio o trasformata in allume di cesio o carbonato di cesio. Sebbene non sia commercialmente fattibile, il minerale può essere ridotto direttamente con potassio, sodio o calcio sotto vuoto in grado di produrre direttamente il cesio metallico (Figura 6).

Figura 6. Campione di cesio metallico puro
La maggior parte del cesio estratto (come sali) viene convertito direttamente in formiato di cesio (HCOO − Cs) per applicazioni come la trivellazione petrolifera.
I composti commerciali primari su scala ridotta del cesio sono il cloruro di cesio e il nitrato.
In alternativa, il cesio metallico può essere ottenuto dai composti purificati derivati dal minerale. Il cloruro di cesio e gli altri alogenuri di cesio possono essere ridotti a 700 − 800 ° C con calcio o bario e il cesio metallico distillato dal resto. Allo stesso modo, l’alluminato, il carbonato o l’idrossido possono essere ridotti dal magnesio.
Il metallo può anche essere isolato mediante elettrolisi del cianuro di cesio fuso (CsCN). Il cesio eccezionalmente puro e privo di gas può essere prodotto dalla decomposizione termica a 390 ° C dell’azoturo di cesio CsN3, che può essere prodotto da solfato di cesio acquoso e azoturo di bario. Nelle applicazioni sotto vuoto, il bicromato di cesio può essere fatto reagire con lo zirconio per produrre cesio metallico puro senza altri prodotti gassosi:
Cs2Cr2O7 + 2Zr → 2Cs + 2ZrO2 + Cr2O3
(continua)

Opere consultate
Handbook of Chemistry and Physics 85th Ed. pag. 4-8
https://en.wikipedia.org/wiki/Caesium

Rilevare le microplastiche negli impianti di depurazione.

In evidenza

Mauro Icardi

Il settore depurativo sta attraversando un profondo cambiamento.  Deve affrontare sfide tecnologiche per riuscire ad abbattere i diversi inquinanti emergenti, e nello stesso tempo con una gestione e una progettazione totalmente rivista, può inserirsi nel settore dell’economia circolare, recuperando dai residui di trattamento energia e materiali.

In quest’articolo vorrei illustrare un progetto per la rilevazione di uno degli inquinanti emergenti di cui molto si parla e che è probabilmente conosciuto e noto anche ai non addetti. Le  microplastiche.

Le plastiche definite “micro” (meno di cinque millimetri di dimensione) e “nano” (meno di cento nanometri di dimensione) si stanno diffondendo con sempre maggior frequenza, contaminando diversi ambienti acquatici.  Possono essere di diversa provenienza e tipologia. Per esempio particelle di fibre provenienti dal lavaggio dei vestiti, o dalle particelle provenienti dall’usura di pneumatici, e quelle che provengono dalla frammentazione di  rifiuti di plastica di dimensioni più grandi. Un esempio su tutti le onnipresenti bottigliette abbandonante praticamente ( e sciaguratamente)  quasi ovunque.

Finora non era del tutto chiaro quanto queste plastiche fossero trattenute ed eliminate dai processi di trattamento terziario standard.

Una ricerca effettuata dall’istituto federale di tecnologia di Zurigo (ETH), pubblicata sulla rivista Water Research ha chiarito quale sia il percorso compiuto  dai frammenti di microplastiche negli impianti di depurazione. (1)

Le plastiche sono spesso difficili da rintracciare a causa delle loro piccole dimensioni, delle diverse proprietà chimiche e della possibilità di contaminazione da fonti in laboratorio, come le fibre dei vestiti.

Per superare questi problemi, il team di ricerca ha sintetizzato micro e nanoplastiche drogate con tracce di metalli . Questi sono stati aggiunti a un impianto pilota di trattamento delle acque reflue per due mesi, e i ricercatori hanno campionato l’effluente (acqua trattata rilasciata nell’ambiente) e il fango (particelle solide organiche).

I campioni sono stati analizzati utilizzando la spettrometria di massa, che è ben consolidata per la rilevazione di metalli, consentendo un’analisi facile e veloce. L’analisi più facile ha anche permesso al team di determinare la migliore strategia di campionamento in termini di dimensioni e frequenza di campionamento.

 Si è cosi scoperto che il 98% della plastica aggiunta è finita nel fango, una cifra altamente correlata con i solidi totali disciolti che sono stati rimossi dall’effluente e si sono depositati nel fango. Questo suggerisce che i miglioramenti nella rimozione delle particelle potrebbero anche significare una maggiore rimozione della plastica. Questo potrebbe essere ottenuto, per esempio, attraverso una fase extra di flocculazione e sedimentazione.

Aggiungo una mia breve considerazione personale: questo risultato non mi sorprende. Il fango biologico è da sempre il punto centrale di un impianto di depurazione. In esso si concentrano gli inquinanti rimossi nel trattamento delle acque reflue. E in questo settore che si devono concentrare ricerche e sperimentazioni.  Le nuove tecniche di filtrazione che si utilizzano nella sezione di trattamento terziario, e che hanno efficacia per la rimozione di altre sostanze dall’effluente delle acque reflue, come i farmaci e gli agenti patogeni, potrebbero anche ridurre la concentrazione di microplastiche nelle acque reflue. E di conseguenza nell’ambiente. Come per ogni nuova tecnologia, occorre valutarne anche l’aspetto economico e gestionale.

Contestualmente vanno implementate tecnologie che possano pretrattare il fango. Non va dimenticato che alcuni fanghi potrebbero avere un buon valore agronomico.  Circa la metà dei paesi europei utilizza i fanghi degli impianti di trattamento delle acque reflue come fertilizzante per i campi coltivati. Questo perché spesso possiedono un  alto contenuto di sostanza organica e di nutrienti.  Ma questo utilizzo potrebbe essere decisamente compromesso se la contaminazione da microplastiche nei fanghi aumentasse in maniera significativa.

Privandoci della possibilità di recuperare materiale che sta diventando raro, e con un ciclo biogeochimico alterato, come per esempio il fosforo. Nell’approccio di ogni tipo di problema ambientale sono benvenute tutte le sperimentazioni e gli approfondimenti. Che anzi devono essere implementati.  Occorre valutare con la massima attenzione il rapporto costi/benefici, e soprattutto non essere ammaliati da un atteggiamento troppo fideistico sulle possibilità della tecnologia. Un cambiamento culturale relativo a cosa dobbiamo effettivamente produrre, e a come  necessariamente in futuro sia necessario ridurre le quantità di rifiuti e contaminanti che immettiamo nell’ambiente.

  • Long-term assessment of nanoplastic particle and microplastic fiber flux through a pilot wastewater treatment plant using metal-doped plastics Stefan Frehland a , Ralf Kaegi a , Rudolf Hufenus b , Denise M. Mitrano a, * a Eawag, Swiss Federal Institute of Aquatic Science and Technology, Process Engineering Department, Ueberlandstrasse 133, 8600, Duebendorf, Switzerland b EMPA, Swiss Federal Laboratories for Materials Science and Technology, Lerchenfeldstrasse 5, 9014, St. Gallen, Switzerland

Le 4R e il sogno di Luigi.

In evidenza

Luigi Campanella, già Presidente SCI.

Le 4R e il sogno di Luigi. L’Economia Circolare viene presentata anche attraverso il principio delle 4 R:

Ridurre: la base del concetto di circolarità è ridurre i consumi di materia prima, progettando prodotti con una obsolescenza a lungo termine e con una manutenzione semplice, con costi inferiori;

Riusare: il riutilizzo delle materie prime è il primo grande ciclo di vita dei prodotti, per perdere quell’energia spesa per generare quel prodotto;

Riciclare: recupero della materia;

Recuperare: il rifiuto è valorizzato sotto il profilo economico e diventa materia seconda o energia.

Si comprende da questo come il primo indicatore non può che essere il rapporto fra quantità totale di rifiuti conferiti in raccolta differenziata e quantità totale di rifiuti conferiti in indifferenziata. Il secondo indicatore fa riferimento al contenuto energetico della circolarizzazione distinguendo all’interno della raccolta differenziata fra prodotti a  contenuto energetico differente. Emblematico in questo senso è il caso degli scarti alimentari riproposto in un recente articolo dall’amico Vincenzo Balzani. La fotosintesi clorofillana consente di trasformare l’energia solare in energia chimica trasformando composti  a basso contenuto energetico in prodotti ad alto contenuto energetico che l’uomo utilizza quali alimenti. Chiaramente il rendimento di questa trasformazione varia da caso a caso ma in ogni caso per rendere commestibili i prodotti della fotosintesi l’uomo deve aggiungere altra energia (arare, seminare, mietere, trattare) e così facendo contribuisce ai cambiamenti climatici. Diventa allora importante scegliere un’alimentazione che richieda la minima quantità di energia aggiunta a quella solare, energia oggi in larga parte fornita dai combustibili fossili.

https://www.donnissima.it/attualita-tecnologia/tecnologia/Da-rifiuto-a-risorsa-le-4R/7270   Da questi due dati, contenuto energetico  ed energia aggiunta non solare per unità di peso o di volume deriva l’efficienza energetica di un alimento. È nostro compito educare a rispettare le esigenze energetiche della vita con alimenti che siano quanto più possibilmente efficienti energeticamente. In questo senso la ben nota dieta mediterranea rappresenta una buona guida rispetto ad un consumo elevato di carne da evitare: la carne è un alimento che richiede mediamente per kg prodotto 7 litri di petrolio e circa 10000 l di acqua. Le emissioni europee di gas serra imputabili alla produzione di carni alimentari hanno superato quelle di tutti gli autoveicoli circolanti nei 28 Stati membri. Anche la biologia mette a disposizione degli indicatori: in Italia vivono circa 12 miliardi di alberi che attraverso la fotosintesi crescono e producono. La quantità di CO2 prodotta in Italia in un anno attraverso tutte le attività è di 460 Milioni di tonnellate che potrebbero essere assorbite dai 12 miliardi di alberi la cui crescita media sarebbe indicatore di questo equilibrio influenzato positivamente da tutte le attività delle 4 R dell’economia circolare. Lo stesso dato della CO2 totale confrontato col parco macchine del nostro Paese (40 milioni di autovetture) , col.chilometraggio medio (12000 km) e con la  produzione media di CO2 per km del parco macchine (130 g)  dimostra, ai fini dell’assorbimento della CO2, che solo per una riduzione dei km annui percorsi del 10%, si raggiungerebbe a autosufficienza del verde. Indirizzando verso forme di assistenza alla sostenibile si  ridurrebbe anche il costo sociale del traffico di circa 150 euro a persona rispetto all’attuale costo valutato in 1400 euro (0,13 euro per km percorso). https://www.imdb.com/title/tt0306452/mediaviewer/rm3225431552/ 

L’acqua sulla Luna nell’epoca dell’antropocene

In evidenza

Diego Tesauro

Negli interventi ospitati da questo blog, gli estensori hanno messo in luce come, nell’epoca dell’antropocene, il ciclo naturale degli elementi e dei composti chimici sulla Terra ne sia risultato alterato, con particolare riferimento, agli ultimi due secoli e mezzo, cioè dall’avvento della società industriale. Da mezzo secolo l’intervento alterante dell’uomo si è esteso allo spazio. Soprattutto lo spazio intorno al nostro pianeta si è andato riempiendo di satelliti che, una volta terminata la loro funzione, sono rimasti ad orbitare costituendo “spazzatura spaziale” che oggi viene ravvisato come pericolo per gli altri satelliti e la stazione spaziale orbitale. All’alba del terzo decennio del XXI secolo ci si comincia a porre il problema di una presenza più invasiva sulla Luna alla luce delle ben otto missioni, che diversi paesi condurranno nei prossimi tre anni. Dal 2022 sono state programmate dalla NASA delle missioni con dei landers nelle zone dei poli lunari che saranno prodromi di nuove missioni umane. I progetti dovrebbero infatti portare alla costruzione di una base lunare. In un intervento, pubblicato di recente sulla rivista Nature, viene posto all’attenzione della comunità scientifica e quindi ovviamente anche di quella politica che deve prendere le decisioni, una possibile trasformazione e contaminazione dell’acqua sulla Luna. La storia della presenza dell’acqua sul nostro satellite è una storia lunga, ma al tempo stessa recente. Galilei, che per primo puntò il suo telescopio rifrattore verso il nostro satellite, nel Sidereus Nuncius descrisse le montagne, le valli, i crateri e delle zone oscure che individuò come mari, anche se dubitava che fossero effettivamente distese di acqua. Con l’avvento delle maggiori conoscenze sulla chimica dell’acqua, si escluse che queste zone non potessero contenerla, fino a giungere alla conclusione che il nostro satellite era completamente anidro. Questa convinzione ebbe riscontro a seguito delle missioni Apollo, una cinquantina di anni fa, che hanno permesso all’uomo di porre piede per la prima volta sulla Luna. Gli astronauti, nelle 6 missioni sul suolo lunare, raccolsero e portarono sulla Terra dei campioni di rocce di varie zone del satellite, e dall’analisi di queste rocce si concluse che non vi erano tracce d’acqua. Nel 2004 la sonda Clementine riuscì ad individuare delle possibili tracce di ghiaccio al polo sud lunare all’ombra dei crateri.

Dopo questa prima osservazione ne sono seguite altre [1] che però solo nel 2018 hanno dato evidenze definitive [2] in quanto i segnali nel dominio dell’UV erano compatibile con un semplice gruppo ossidrile. Come è possibile che si trovi dell’acqua allo stato solido? Sulla Luna si verificano variazioni notevoli di temperatura fra le zone in ombra e le zone illuminate dal Sole con escursioni termiche di oltre 200 gradi, per cui laddove i raggi del sole non arrivano, del ghiaccio può rimanere intatto, essendo la temperatura di solo 100 K (Figura 1). Questo ghiaccio dovrebbe avere avuto origine dalla caduta di comete e meteoriti, che provenendo da zone lontane dello spazio, dove la radiazione solare non distrugge le molecole d’acqua, avevano in miliardi di anni lasciato dell’acqua a riparo dalla radiazione solare. Alternativamente o allo stesso tempo l’acqua proverrebbe dal vento solare (vento di protoni) che bombarda la sua superficie. L’acqua potrebbe avere anche un’origine endogena provenendo dall’interno della stessa Luna a seguito di eruzioni vulcaniche di oltre 4 miliardi di anni fa. Riguardo le origini, l’acqua lunare conterrebbe delle informazioni crociali. Questi dati non sono più presenti sulla Terra a seguito dell’evoluzione geologica causata dal movimento delle placche continentali. L’acqua sulla Luna potrebbe contenere la chiave dell’evoluzione del sistema solare stesso. Successivamente osservazioni condotte dallo Stratospheric Observatory for Infrared Astronomy (SOFIA) rilevarono una banda alla lunghezza d’onda di 6 µm dovuto dal H–O–H bending indice inequivocabile di presenza di acqua molecolare ad alte latitudini lunari in zone illuminate dal Sole [3]. Sulla base delle osservazioni si stima abbondanze da circa 100 a 400 µg g−1. La distribuzione dell’acqua è un risultato di evoluzione geologia locale ed è probabilmente un fenomeno non globale. La maggioranza dell’acqua deve essersi conservata nei vetri e negli spazi tra i grani che la schermano dalla radiazione solare diretta. Molti meccanismi si potrebbero proporre per spiegare l’origine di quest’acqua. Accanto all’origine esogena già vista che resta poi intrappolata nei vetri o introdotta nell’esosfera e chemioassorbita. L’acqua può essersi formata in situ sulle superficie dei grani da pre-esistenti gruppi ossidrili che deadsorbiti alle alte temperature diurne, particolarmente all’equatore. L’acqua potrebbe anche essersi formata in situ da gruppi idrossili pre-esistenti durante l’impatto di micrometeoriti, quando le alte temperature promuovono le reazioni, come è stato dimostrato in laboratorio.

Recentemente è stato anche proposto un ciclo dell’acqua sulla Luna ovviamente molto diverso da quello presente sulla Terra [4]. Questo ciclo (Figura 2) è indotto dall’impatto di meteoroidi sulla superficie lunare che immettono nella tenue atmosfera lunare del vapore acqueo. Basterebbe che i meteoroidi, anche di soli pochi millimetri, penetrino per 8 centimetri nel suolo lunare, dove si troverebbe un terreno omogeneamente idratato con le molecole d’acqua aderenti alla regolite lunare, per rilasciare vapore acqueo.

Dalle misurazioni di acqua presente nell’esosfera, i ricercatori hanno calcolato che lo strato idratato sotto-superficiale ha una concentrazione d’acqua da 200 a 500 parti per milione, equivalente a circa lo 0,02-0,05 per cento in massa. 

Quindi il nostro satellite sarebbe tutt’altro che anidro. La presenza dell’acqua apre scenari e dilemmi. L’uomo può sfruttare quest’acqua estraendola dalle rocce per utilizzarla ad esempio come combustile per missioni spaziali che dovessero partire dalla Luna. Generando, mediante celle fotovoltaiche, energia elettrica si potrebbe condurre l’elettrolisi dell’acqua ottenendo ossigeno ed idrogeno che potrebbero essere sfruttati come combustibile e comburente per viaggi spaziali e per il funzionamento delle basi stesse. Ora però quest’utilizzo potrebbe far perdere all’acqua ghiacciata quelle preziose informazioni in essa contenute. Inoltre la presenza stessa dell’uomo comporterebbe un inquinamento dell’acqua con quella prodotta dai razzi stessi delle missioni spaziali. Da simulazioni condotte nel laboratorio di fisica applicata della John Hopkins University, l’acqua resta dopo sessanta giorni terrestri per il 30-40% sulla Luna depositandosi in tutti i luoghi.  Quest’allarmante simulazione concluderebbe che già l’inquinamento dell’acqua lunare è un dato di fatto. In realtà questa potrebbe essersi depositata in superficie senza contaminare i ghiacci presenti sui poli. In ogni caso si pone in termini brevi la necessità che le agenzie spaziali dei vari paesi coinvolti nell’esplorazioni della Luna e gli scienziati suggeriscano soluzioni condivise per mantenere inalterato un patrimonio di potenziali future conoscenze per i posteri.  

1 P.O.,Hayne A. Hendrix , E. Sefton-Nash, M.A. Siegler, P.G. Lucey, K.D. Retherford, J.P. Williams, B.T. Greenhagen, D.A. Paige. Evidence for exposed water ice in the Moon’s south polar regions from Lunar Reconnaissance Orbiter ultraviolet albedo and temperature measurements. Icarus 2015, 255, 58–69.

2 S. Li, P.G. Lucey, R.E. Milliken, P.O. Hayne, E. Fisher, J.P. Williams, D.M. Hurley, and R.C. Elphic Direct evidence of surface exposed water ice in the lunar polar regions PNAS  2018, 115,  8907–8912

3 C.I. Honniball , P.G. Lucey, S. Li, S. Shenoy , T.M. Orlando, C.A. Hibbitts, D. M. Hurley and W. M. Farrell Molecular water detected on the sunlit Moon by SOFIA Nature astronomy Pub data: 2020-10-26 , DOI: 10.1038/s41550-020-01222-x

4 M. Benna, D.M. Hurley, T.J. Stubbs, P.R. Mahaffy  R.C. Elphic Lunar soil hydration constrained by exospheric water liberated by meteoroid impactsNature Geoscience  2019, 12, 333–338

 

Figura 1 Ombre sulla Luna di diverse dimensioni riprese (A) dal Lunar Reconnaissance Orbiter (LRO) (https://svs.gsfc.nasa.gov/Gallery/LunarReconnaissanceOrbiter.html), missione lanciata nel 2009 e tuttora operante per individuare le zone in cui far allunare i prossimi robot degli USA. Tra gli scopi della missione, quello di indentificare zone polari con ghiaccio;, (B) dal rover Yuto della missione cinese Chang’e 3 del 2013, prima missione sul suolo della Luna dopo ila sonda sovietica Luna 24 nel 1976; (C) da Apollo 14, terza missione del programma Apollo del febbraio 1971. 

La Plastica: Un’Amica Ingombrante

In evidenza

 

Salvatore Coluccia

La plastica è presente in ogni attimo della nostra quotidianità, a casa, al lavoro, nel tempo libero. E’ difficile immaginare un oggetto, un arredo, un mezzo di trasporto, un sussidio sanitario, computer, un telefonino, capo di abbigliamento, un imballaggio in cui la plastica non sia protagonista. La produzione annuale nel mondo equivale al volume di centinaia di Piramidi egizie. Ha tante qualità: è economica, è leggera, è facilmente modellabile, è durevole. In realtà, non dobbiamo parlare di plastica, ma di plastiche. Ne esistono tanti tipi diversi, per ogni uso e consumo.

Insomma, da più di un secolo, è una grande amica, che ha reso accessibili una infinità di beni che, in materiali diversi, sarebbero stati indisponibili per gran parte della popolazione mondiale.

Eppure, da qualche tempo, desta inquietudine, ci preoccupa. E’ davvero ingombrante. In forme diverse e con varie dimensioni, fino alle nanoplastiche, la troviamo dovunque, anche dove non vorremmo che fosse: nei fiumi, nel mare, in ogni ambiente terrestre. Non c’è angolo della Terra in cui non sia presente. E non è solo un brutto rifiuto da incontrare, può essere letale per fauna e flora in vari ambienti. Alcune delle virtù che ho elencato si ribaltano in difetti, come la sua “indistruttibilità”.

Possiamo trovare modi per continuare a trarre vantaggio dalle sue qualità senza danneggiare così gravemente l’Ambiente? Per orientarci, conviene vedere come sono fatte tutte queste plastiche, e scoprire che, come sempre, la Natura ci ha insegnato come farle e ci può insegnare come gestirle.

Ci saranno innovazioni importanti, ma non si potrà prescindere dai nostri buoni comportamenti.

12.11.2020

Accademia delle Scienze

Giornata delle donne e delle ragazze nella scienza, 11 febbraio

In evidenza

Rinaldo Cervellati

In occasione della Giornata delle donne e delle ragazze nella scienza 2021 desidero ricordare due chimiche afroamericane, Alice Ball (1892-1916) e Winifred Burks-Houck (1950-2004).

Alice Augusta Ball

Alice Augusta Ball è stata una chimica che ha sviluppato il “Ball Method”, il trattamento più efficace per la lebbra all’inizio del XX secolo. Prima donna e prima afroamericana a ricevere un master presso l’Università delle Hawaii, è stata anche la prima professoressa universitaria di chimica afroamericana.

Alice Augusta Ball

Nacque il 24 luglio 1892 a Seattle (Washington) da James Presley e Laura Louise (Howard) Ball, terza di quattro figli, due fratelli maggiori e una sorella minore.  La sua famiglia era di classe media, il padre di Ball era fotografo e editore del giornale Coloured Citizen. Suo nonno, James Ball Sr., era un famoso fotografo e uno dei primi neri americani a fare uso della dagherrotipia, il processo di stampa di fotografie su lastre di metallo. Alcuni storici hanno suggerito che l’amore per la fotografia del padre e del nonno potrebbe aver avuto un ruolo nel suo interesse per la chimica, poiché lavoravano con vapori di mercurio e lastre d’argento sensibilizzate allo iodio per sviluppare le foto. Nonostante fossero membri sostenitori della comunità afroamericana, entrambi i genitori di Alice erano  indicati come “Bianchi” sul suo certificato di nascita. Questo potrebbe essere stato un tentativo di ridurre il pregiudizio e il razzismo che la loro figlia avrebbe dovuto affrontare e aiutarla a entrare all’Università. Dopo un breve soggiorno a Honolulu (Hawaii), la famiglia tornò a Seattle, dove Alice Ball frequentò la Seattle High School conseguendo i migliori voti in scienze, diplomandosi nel 1910. Ball studiò chimica presso l’Università di Washington, ottenendo un B.Sc. in chimica farmaceutica nel 1912 e un secondo B.Sc. in scienze della farmacia due anni dopo. Insieme al suo professore, Williams Dehn, pubblicò un articolo sulle benzoilazioni in soluzione eterea nel Journal of the American Chemical Society. Pubblicare un articolo del genere in una rivista scientifica rispettata era un risultato raro per una donna all’epoca, in particolare per una donna di colore.

Dopo i due B.Sc. a Ball furono offerte molte borse di studio, fra le quali quella dell’University of California a Berkeley. Lei accettò quella del College of Hawaii (oggi University of Hawaii), dove decise di frequentare un master in chimica. La sua tesi di master riguardava lo studio delle proprietà chimiche delle specie di piante Kava. Nel 1915 divenne la prima donna e la prima nera americana a diplomarsi con un master presso il College of Hawaii. Ball è stata anche il primo “chimico ricercatore e istruttore” afroamericano nel dipartimento di chimica del College of Hawaii.

Grazie a questa ricerca e alla sua comprensione della composizione chimica delle piante, fu contattata dal Dr. Harry T. Hollmann, che aveva bisogno di un assistente per le sue ricerche sul trattamento della lebbra,  al Kalihi Hospital delle Hawaii, per studiare l’olio di chaulmoogra e le sue proprietà chimiche.

A quel tempo la lebbra (malattia di Hansen) era altamente contagiosa con praticamente nessuna possibilità di guarigione. Il miglior trattamento disponibile era l’olio di chaulmoogra, dai semi dell’albero Hydnocarpus wightianus del subcontinente indiano, che era stato utilizzato in medicina già nel 1300. Ma il trattamento non era molto efficace e ogni metodo di applicazione presentava problemi. Era troppo appiccicoso per essere usato efficacemente per via topica e, come iniezione, la consistenza viscosa dell’olio lo faceva ammassare sotto la pelle e formare vesciche invece di essere assorbito. Anche l’ingestione dell’olio non era efficace perché aveva un sapore acre che di solito faceva vomitare i pazienti.

All’età di 23 anni, Ball sviluppò una metodica per rendere l’olio iniettabile e assorbibile dal corpo. La sua tecnica prevedeva l’isolamento dei composti esteri dall’olio e la loro modifica chimica, producendo una sostanza che conservava le proprietà terapeutiche dell’olio e veniva assorbita dal corpo quando iniettata. Sfortunatamente, a causa della sua morte prematura[1], Ball non fu in grado di pubblicare le sue scoperte rivoluzionarie.

Arthur L. Dean, un chimico dell’Università delle Hawaii, le rubò il lavoro, pubblicò i risultati, senza darne credito a Ball, e iniziò a produrre grandi quantità dell’estratto di chaulmoogra iniettabile con il suo nome. Nel 1920, un medico delle Hawaii riportò sul Journal of the American Medical Association che 78 pazienti erano stati dimessi dal Kalihi Hospital dal comitato degli esaminatori sanitari dopo il trattamento con iniezioni di olio chaulmoogra modificato. Fu solo anni dopo la sua morte che Hollmann tentò di correggere questa ingiustizia. Pubblicò un articolo nel 1922 dando credito a Ball, chiamando la forma iniettabile dell’olio il “metodo Ball”[2]. Sfortunatamente, è rimasta ancora dimenticata nella documentazione scientifica.  Negli anni ’70, Kathryn Takara e Stanley Ali, professori all’Università delle Hawaii, perquisirono gli archivi per trovare la ricerca di Ball. Dopo numerosi decenni sono stati in grado di portare alla luce i suoi sforzi e risultati, dandole il merito che si era guadagnata. Dopo il lavoro di molti storici, l’Università delle Hawaii ha finalmente onorato Ball nel 2000 dedicandole una targa sull’unico albero chaulmoogra della scuola.

Nel 2018 un nuovo parco nel quartiere Greenwood di Seattle è stato intitolato a Ball. Nel 2019 la London School of Hygiene and Tropical Medicine ha aggiunto il suo nome al fregio in cima al suo edificio principale, insieme a Florence Nightingale e Marie Curie, in riconoscimento del loro contributo alla scienza e alla ricerca sulla salute globale.

Winifred Burks -Houck

Winifred Burks-Houck è stata un chimico organico e ambientale, la prima donna presidente della NOBCChE (National Organization for the Professional Advancement of Black Chemists and Chemical Engineers).

Winifred Burks-Houck

Nata ad Anniston, Alabama, nel 1950, una dei sei figli di Matthew Burks e da Mary Emma Goodson-Burks. Era la pronipote del noto abolizionista Harriet Tubman. Winifred frequentò la scuola elementare e la scuola superiore ad Anniston, Alabama. Conseguì un B.Sc. in chimica presso la Dillard University di New Orleans e un Master of Science in Chimica organica nell’ l’Università di Atlanta in Georgia.

Winifred entrò a far parte della Delta Sigma Theta Sorority, una associazione studentesca con programmi di assistenza agli afroamericani, mentre era studentessa universitaria alla Dillard University.

Dopo un periodo di ricerca in chimica organica, nel 1983, iniziò la sua carriera come chimica analitica ambientale presso il Lawrence Livermore National Laboratory di Livermore (CA). Come risultato del suo lavoro, fu invitata a Dakar, in Senegal, dove rappresentò NOBCChE presentando una relazione intitolata “Applicazioni ambientali e rapporti normativi”.

In qualità di leader della NOBCChE, Burks-Houck è stata fondamentale nella fondazione dell’Organizzazione sulla costa occidentale degli USA. È stata la prima presidente del San Francisco Bay Area Chapter dal 1984 al 1990, organizzando numerose attività educative e di sviluppo professionale per la comunità locale. Aveva un forte senso di leadership, organizzazione e visione in tutti gli eventi e le attività che ha guidato. Nel 1991, Burks-Houck è stata eletta vicepresidente nazionale della NOBCChE, carica che ha ricoperto fino a diventarne presidente nel 1993. In seguito restò presidente per quattro mandati consecutivi (fatto senza precedenti) fino alle dimissioni nel 2001. Il suo mandato come presidente nazionale ha segnato diversi cambiamenti positivi all’interno dell’organizzazione. Sotto la sua guida, furono istituiti il Science Quiz Bowl e la Science Fair, eventi per promuovere le conoscenze dei ragazzi nelle discipline matematiche, scientifiche e tecnologiche. Favorì contratti di collaborazione con altre organizzazioni come l’American Association for the Advancement of Science (AAAS), l’American Chemical Society (ACS), l’American Indian Science and Engineering Alliance, la National Aeronautics and Space Administration (NASA) e la Society for the Advancement of Chicanos e Native Americans in Science (SACNAS). Aumentare il numero di studenti di colore nelle scienze e tecnologie, aumentare la visibilità della NOBCChE, istituire borse di studio tramite enti pubblici e privati e aggiornare i sistemi  informatici presso l’Ufficio Nazionale, sono stati fra gli scopi di queste collaborazioni.

Alla 43a Convention nazionale delle Sorority, è stata riconosciuta come Project Cherish Honoree per il suo eccezionale lavoro nel campo della scienza.

Winifred Burks-Houck è deceduta nel 2004, è ricordata come studiosa appassionata, un brillante scienziato e un matematico dotato, con una straordinaria capacità di ricordare numeri, canzoni e altre curiosità, ma anche per la grande capacità di leadership, il senso dell’umorismo e il sorriso affascinante.

Nel 2009, la NOBCChE, ha istituito in suo onore il Premio Winifred Burks-Houck, destinato a professioniste, laureate, studentesse afroamericane distintesi in campo scientifico e ambientale.


[1] Ball morì il 31 dicembre 1916, all’età di 24 anni. Si era ammalata durante le sue ricerche ed era tornata a Seattle per curarsi pochi mesi prima della sua morte. Si disse che fu un avvelenamento da cloro durante un’esercitazione, ma la causa della sua morte è sconosciuta, poiché il suo certificato di morte originale è stato alterato citando la tubercolosi.

[2] L’estere etilico isolato rimase il trattamento preferito per la lebbra fino a quando non furono sviluppati farmaci sulfamidici negli anni ’40 del secolo scorso.

Zoofarmacognosia, ovvero chimica e animali (e noi stessi).

In evidenza

Claudio Della Volpe

La farmacognosia è una branca della farmacologia che si occupa dello studio di farmaci ricavati da fonti naturali. La Società italiana di farmacognosia (Siphar) la definisce come “una disciplina che tratta i prodotti di origine naturale impiegati come medicamenti o nella preparazione di medicamenti”.
E fin qui tutto “normale”; ma quanti sanno che esiste una zoofarmacognosia, ossia che gli animali usano sostanze naturali per curarsi o per prevenire certi disturbi? La cosa presenta molto interesse, anche per possibili applicazioni di queste conoscenze agli umani.
L’idea che gli animali abbiano conoscenze di automedicina è presente nella cultura umana e nella grande letteratura; nel racconto Rikki-Tikki-Tavi di Rudyard Kipling, l’autore cita la leggenda secondo la quale solo le manguste conoscano un’erba che funziona da rimedio al morso del cobra, così potente che basta il suo odore perché il cobra abbia timore della mangusta e ne rimanga bloccato.  Un recente articolo comparso su The conversation, parla estesamente della zoofarmacognosia.
The conversation è una rivista in lingua inglese che ha come sottotitolo: Rigore accademico, stile giornalistico, un programma interessante anche per un blog come il nostro e che nel nostro giornalismo non è poi così diffuso.

L’articolo di cui parliamo oggi, intitolato ”Come gli altri primati si automedicano – e cosa possono insegnarci” è scritto da Sophia Daudi, studente di dottorato in odore di tesi finale (candidate è il titolo ufficiale, ossia superati gli esami può accedere alla proposta di tesi e scriverla ) presso l’Università di Stirling in Comportamento dei primati.
Cosa ci racconta l’articolo?
Fa una serie di esempi di zoofarmacognosia che altri animali, in particolare primati, scimmie, attua comunemente, ma vedremo, da altre fonti, che anche altri animali hanno comportamenti analoghi ed alcuni di essi sono chiaramente di origine culturale non istintiva. Questo è secondo me il punto importante.
Un primo esempio sono alcuni gruppi di scimpanzè di Nigeria, Tanzania e Uganda che ingoiano senza masticarle le foglie di Aspilia Mossabicensis e di pochi altri tipi di Aspilia; queste foglie contengono vari principi attivi[1], ma la cosa interessante è che sono molto ruvide e vengono ingoiate senza masticazione e si è scoperto che vengono espulse non digerite, ma insieme a molti vermi. In sostanza gli scimpanzè usano le foglie come vermifugo; e si sa che la pianta ha effetti vari di tipo farmacologico anche su specie lontanissime come alcuni pesci[2].

Ora è chiaro che fenomeni di questo tipo che non sono rari potrebbero essere interpretati su base istintuale. Tuttavia l’ipotesi dei ricercatori è che sia su base culturale, seguendo l’insegnamento dei genitori. Una molecola potenzialmente implicata nell’azione antielmintica è la tiarubina A che è presente nelle foglie e che si è scoperto avere anche azione antibiotica, forse utile anche nell’uomo.

In modo simile per esempio i tamarini, alcune scimmie diffuse in Sud America, inghiottono, allo stesso scopo, alcuni grossi semi, larghi anche 1,5 cm, che passando nell’intestino trascinano con sé ogni possibile “intruso”.
Tuttavia un caso più difficile da interpretare in modo istintuale è quello del còlobo rosso di Zanzibar (Piliocolobus kirkii) che ingerisce, invece, carbone, proprio come facciamo noi per risolvere alcuni fastidiosi problemi di gas addominale.

La dieta di queste scimmie si basa su foglie e germogli ancora acerbi e piuttosto tossici: si pensa che il carbone serva proprio a eliminarne le tossine. In questo caso la dieta è basata non su frutti ma su foglie, che i còlobi possono digerire grazie al loro particolare stomaco (a 4 comparti), ma che contengono sostanze tossiche; secondo alcuni ricercatori le specie vegetali di cui si nutrono prevalentemente sarebbero state introdotte a Zanzibar dagli uomini in tempi storici, ma soprattutto mangiare il carbone, che le scimmie rubano (come documentato da vari filmati) dai villaggi umani, non può rappresentare un comportamento istintuale ma legato alla osservazione delle scimmie su eventi e fatti; sembra infatti che istintualmente tali animali usassero in passato terriccio o argilla; ma con gli uomini sono passati al carbone vegetale, che anche noi conosciamo come sostanza che assorbe molto e la usiamo contro i gas intestinali. Rimane certo un comportamento misterioso e non abbiamo la prova sicura che dipenda dalla intelligenza del còlobo; sta di fatto che il còlobo non ruba il cibo dalle cucine umane, ma ruba il carbone.
D’altronde è da dire che comunque la trasmissione culturale è ampiamente provata nei primati; un esempio è quello dei macachi giapponesi (Macaca fuscata): un gruppo di questa specie che popolava (e popola tuttora) l’isola di Kōjima, che imparò a salare il proprio cibo immergendolo in acqua di mare, una pratica di cui si conosce la storia integrale illustrata da Danilo Mainardi.
Ma la forma più curiosa di automedicazione tra primati è probabilmente l’abitudine di strofinare sul pelo sostanze dall’odore pungente, un comportamento collegato alla comunicazione sessuale, ma che in alcuni casi ha lo scopo di tenere alla larga i parassiti della pelle.
Per esempio il lemure macaco o maki nero (Eulemur macaco) si strofina la pelliccia con millepiedi velenosi, mentre l’atele di Geoffroy (Ateles geoffroyi) utilizza, allo stesso modo, le foglie di sedano.
Gli oranghi usano le foglie di commelina, una pianta di origine asiatica molto diffusa, mentre il cebo dai cornetti (Cebus Apella) si cosparge di un’ampia gamma di prodotti, dai millepiedi alle formiche, dai frutti di limone alle cipolle, tutte sostanze dalle proprietà disinfettanti e antiparassitarie. Interessante il modo usato dall’orango: mastica molto bene le foglie, fino a provocare un’intensa schiuma. Lo scopo? Estrarre le saponine (glicosidi terpenici). Dopodiché spalma il prodotto.

Anche qui rimane il dubbio se questo tipo di comportamento così particolare dipenda dall’istinto o da un meccanismo di trasmissione culturale a sua volta prodotto in gruppi specifici di animali dall’osservazione del proprio ambiente; non è necessario immaginare che questi animali teorizzino qualcosa, ma solo che abbiamo osservato e notato la coincidenza di fatti diversi; le piante usate sono diverse in diversi ambiti e il loro uso è geograficamente limitato.
Dunque come gli umani anche altri primati sembrano avere un vivo spirito di osservazione ed una vivace intelligenza. Personalmente questa cosa mi stimola ancor più ad essere contrario alla sperimentazione animale su esseri così complessi e intelligenti, un tema che anche di recente è venuto alla ribalta sui giornali.
Ci sono molti altri animali che hanno comportamenti complessi di questo tipo, ma probabilmente di origine istintiva: i cani e i gatti (carnivori) mangiano le parti apicali di varie erbe, per esempio dell’avena selvatica, per vomitare e liberarsi del disturbo causato da alcuni cibi; alcuni uccelli come i corvi, fanno il bagno nei formicai per essere assaliti dalle formiche che in difesa del formicaio emettono acido formico con notevole azione antiparassitaria.

La Nepeta cataria, una lamiacea, chiamata in inglese catnip, in italiano erba gatta, attrae sia i cani che i gatti; l’attrazione per i gatti è su base genetica, dipendente dalla presenza di una sostanza, il nepetalattone, che è simile ad un feromone dei gatti; gli effetti dell’erba gatta sull’uomo sono ben documentati e questa pianta è usata spesso in infusi vegetali.

Il massimo è il giaguaro amazzonico che si nutrirebbe di una pianta l’Ayahuasca con effetto allucinogeno prima di cacciare, per stimolare forse i propri sensi, di per se già molto acuti in effetti. La cosa è stata ipotizzata ma non provata in modo inoppugnabile.

Insomma alla fine la chimica ci viene dal nostro trascorso “animale”? La similitudine degli effetti di alcune piante su di noi e sui nostri amici animali e soprattutto il comportamento dei primati che vi ho raccontato mi stimola a pensare che le radici profonde della chimica stiano qui in questo legame complesso fra noi e il nostro mondo, fra noi e la biosfera; e che la chimica è dopo tutto l’espressione più alta e culturale del comportamento prima istintivo o geneticamente basato dei gatti, ma poi culturale e trasmissibile del còlobo e di altri primati; la chimica è dentro di noi a partire dalla nostra storia animale.
Grande Darwin!! (di cui il 12 febbraio ricorre la Giornata mondiale).

Riferimenti.
[1] Aspilia spp. Leaves: A puzzle in the feeding behavior of wild chimpanzees R. W. Wrangham & T. Nishida Primates volume 24, pages276–282(1983)
[2] International Journal of Veterinary Science and Medicine Volume 6, Issue 1, June 2018, Pages 31-38
[3] https://www.palermomania.it/rubrica/venere-scienze-lettere-passioni/zoofarmacognosia-scopriamo-di-che-cosa-si-tratta-1695.html
Da consultare:
https://jinrui.zool.kyoto-u.ac.jp/CHIMPP/CHIMPP.html gestita da un studioso dell’università di Kyoto con una ampia bibliografia
https://en.wikipedia.org/wiki/Zoopharmacognosy con una vasta bibliografia inclusa praticamente su tutte le specie animali.
https://it.wikipedia.org/wiki/Nepeta_cataria sulle caratteristiche dell’erba gatta
https://www.carolineingraham.com/what-is-applied-zoopharmacognosy/ ampio e molto ben curato dedicato all’argomento dell’uso veterinario dell’automedicazione animale
una review dedicata al tema e scaricabile gratuitamente: Resonance · March 2008 DOI: 10.1007/s12045-008-0038-5 in cui si sviluppa il tema di come la zoofarmacognosia sia un comportamento derivante in ultima analisi dall’adattamento alla pressione dei parassiti.

Chimica e medicina

In evidenza

Luigi Campanella, già Presidente SCI

 

Sono da sempre un aperto sostenitore dei reciproci supporti che medicina e chimica possono ottenere dalla loro collaborazione, in.passato non sempre così stretta e continua, oggi molto più attiva.

Due recenti notizie mi hanno confermato nella mia convinzione.

La prima fa riferimento alla raccomandazione del Ministero della Salute circa le condizioni di idratazione e adeguata nutrizione dei malati covid19, raccomandazione rispetto alla quale assume importanza, come osservato in più sedi, l’assunzione di vitamina C, principio attivo di molti agrumi. Da qui il moltiplicarsi di studi sugli agrumi. In particolare l’attenzione dei ricercatori è concentrata sulla composizione in flavonoidi considerati preziosi componenti alimentari con possibile attività antivirale, modulatori del sistema immunitario e sentinelle dell’organismo rispetto allo stress ossidativo associato all’infezione. Particolarmente presente negli agrumi l’esperidina è stata studiata per i suoi effetti benefici nel regolare il metabolismo e la pressione del sangue, nell’accrescere le capacità antiox dell’organismo. Con riferimento specifico al covid 19 sono emerse dagli studi due proprietà, la capacità dell’esperidina a legarsi alla proteina Spike del coronavirus impedendo il legame al recettore e quindi la penetrazione del virus nella cellula e la sua capacitá di inibire l’enzima proteolitico necessario alla replicazione del virus.

Oltre all’esperidina un altro flavonoide che può risultare utile nella lotta al covid 19 è la quercetina, antiossidante ed antiinfiammatorio, contenuto nei capperi, cicoria, piselli e cipolle.

Questi composti giovano all’organismo in quanto favoriscono il metabolismo dei carboidrati e dei lipidi migliorando le condizioni di salute ed evitando co-patologie che possono aggravare quella dovuta al virus. Ricerche sono ancora in atto in tutto il mondo e la speranza è quella di acquisire nuove e più profonde conoscenze in materia.

La chimica è senz’altro la disciplina a cui queste speranze sono affidate con maggiore concretezza. Alcune delle tecnologie analitiche innovative dedicano la loro attenzione proprio alle interazioni fra cellula ed analitica con essa a contatto ed agli effetti di tale interazione. Le cosiddette scienze omiche attraverso l’ analisi e caratterizzazione delle proteine e dei metaboliti forniscono conoscenze accurate e sensibili preziose in medicina.

La seconda notizia riguarda una vecchia posizione dei Chimici che finalmente sta emergendo  in oncologia: e riferita alla asserita necessitá di studiare l’ambiente circostante il tumore come prezioso indicatore di alterazioni e come supporto allo sviluppo di modelli di crescita del tumore stesso. Per interpretare le relazioni fra cellule tumorali e cellule circostanti diventano fondamentali due discipline, la bioinformatica capace di estrarre conoscenze significative dai set di dati sperimentali raccolti e proprio la chimica con la definizione delle composizioni e delle relative discontinuità. L’ambiente circostante il tumore potrebbe essere responsabile della sua crescita e quindi anche uno strumento di contrasto a questo processo. Potremmo parlare, d’intesa con alcuni medici di una sorta di cartografia molecolare per mappare il sistema tumorale. Il problema è però sperimentale: qualunque tecnica, anche la più sofisticata, fotografa il presente anche nel tempo, ma non sarebbe capace di interpretare le interazioni molecolari fra tumore ed ambiente circostante.

carto

Un nuovo settore delle scienze analitiche, la trascrittomica,  considera le relazioni intercellulari nello spazio e cerca di conoscere il contenuto di ogni singola cellula senza rinunciare ai dati sulla sua organizzazione e sul tessuto di cui fa parte. La parte della medicina che potrebbe avvantaggiarsi di più della trascrittomica è l’immunoterapia che agisce su bersagli generali e spesso non può essere utilizzata per le sue forti reazioni avverse. Con questo nuovo approccio si dovrebbe arrivare a comprendere quali siano i meccanismi che impediscono al sistema immunitario di colpire il tumore : per tale traguardo la conoscenza dell’ambiente circostante il tumore stesso è fondamentale ed ancora è la chimica che ci aiuta

Formiche e chimica farmaceutica.

In evidenza

Rinaldo Cervellati.

Fra le 13800 specie di formiche (su un totale stimato di 22000), famiglia Formicidae, un posto particolare va riservato alle tagliafoglie (Atta Fabricius), un genere della sottofamiglia Myrmicinae, comprendente specie diffuse nelle zone a clima tropicale del continente americano, in particolare nel Texas, nel Messico e nella parte settentrionale dell’America del sud.

Il genere Atta è noto soprattutto per le abitudini alimentari delle colonie che, come in molte altre specie di Myrmicinae, ricorrono a una forma avanzata di orticoltura, usano cioè coltivare il micelio di un fungo, di cui si nutrono, all’interno del formicaio, su un substrato formato da frammenti di foglie tagliate e altri residui vegetali.

Figura 1. Formiche tagliafoglie

Affinché i funghi crescano, le tagliafoglie tagliano e lavorare la vegetazione fresca (foglie, fiori ed erbe) che serviranno da substrato nutritivo per le loro colture fungine. Sono colonie eusociali[1], suddivise in regina (dimensioni 1 cm di lunghezza), operaie minori (2 mm), il cui compito è curare regina e prole e trattare i funghi della colonia e operaie maggiori (dal capo più grosso), il cui compito è raccogliere pezzi di foglie nell’ambiente esterno e di portarle al nido.

Figura 2. Operaie maggiori di Atta tagliafoglie

Ciascuna specie di Atta coltiva una precisa specie di fungo. Le operaie maggiori di queste specie tagliano le foglie con le mandibole e le trasportano al nido, dove le depositano nella camera di coltivazione. Esse possono trasportare una quantità di foglie tagliate fino a 3 volte il loro peso. Si può quindi dire che una versione di agricoltura è praticata da questa specie di formiche da 50 o 60 milioni di anni prima dell’uomo.

Tuttavia anche i funghi hanno nemici patologici, e gli scienziati pensavano che il meticoloso giardinaggio di queste specie di formiche tenesse i loro nidi liberi da agenti patogeni fungini.

Recentemente, gli scienziati hanno scoperto che le formiche sono in simbiosi con batteri (Pseudonocardia spp.), che contengono molecole che combattono tali invasori fungini. Fino ad ora, tuttavia, gli scienziati non erano stati in grado di individuare un singolo composto diffuso prodotto dai batteri che aveva proprietà antifungine.

Taise T.H. Fukuda, studentessa di dottorato all’Università di San Paolo (Brasile), insieme al gruppo di ricerca coordinato da Mônica T. Pupo (Univ. San Paolo) e Jon Clardy, della Harvard Medical School, hanno recentemente identificato il composto, chiamato attinimicina.

Figura 3. Taise T.H. Fukuda, Mônica T. Pupo e Jon Clardy

I simbionti batterici producono piccoli metaboliti specializzati che proteggono il giardino fungino da specifici patogeni fungini (Escovopsis spp.), e in cambio vengono nutriti dalle formiche ospiti. Un ampio studio sistematico sui nidi brasiliani, effettuato da Fukuda, ha portato alla scoperta della produzione diffusa di un agente antifungino potente ma trascurato da quasi due terzi di tutti i ceppi di Pseudonocardia da più siti in Brasile, l’attinimicina.

Figura 4. Struttura dell’attinimicina

Nel loro articolo, il gruppo di ricerca ha riportato la struttura dell’attinimicina, il suo cluster genico biosintetico putativo e la relazione evolutiva tra l’attinimicina e due peptidi correlati, oxachelin A e cahuitamicina A [1]. Tutti e tre i peptidi nonribosomiali sono isomeri strutturali con sequenze di peptidi primari differenti. L’attinimicina mostra un’attività antifungina ferro-dipendente contro specifici parassiti fungini ambientali. Ha mostrato una potente attività in vivo in un modello di infezione da Candida albicans di topo, paragonabile agli antimicotici contenenti azolo utilizzati clinicamente. Il rilevamento in situ di attinimicina, sia nei formicai sia sulle formiche operaie, supporta un ruolo ecologico per l’attinimicina nella protezione della cultivar fungina dai patogeni. La diffusione geografica del cluster genico biosintetico dell’attinimicina nella Pseudonocardia spp brasiliana stabilisce l’attinimicina come il primo metabolita specializzato dei batteri associati alle formiche con un’ampia distribuzione geografica.

Figura 5. Distribuzione geografica dell’antifungino [1]

David H. Sherman, un chimico farmaceutico presso l’Università del Michigan che studia prodotti naturali, definisce il lavoro “un’affascinante analisi dell’emergere di un agente antifungino unico, essenziale per la protezione delle formiche tagliafoglie e del loro approvvigionamento alimentare in una vasta regione dell’Amazzonia”.

Sebbene l’attinimicina sia probabilmente troppo strutturalmente complessa per un buon candidato farmacologico, Clardy afferma che avendo un nuovo meccanismo d’azione, potrebbe portare a nuove terapie antifungine.

*Questo post è stato ampliato da un breve articolo di B. Halford apparso il 20 gennaio su C&EN news.

Bibliografia

[1] Taise T.H. Fukuda et al., Specialized Metabolites Reveal Evolutionary History and Geographic Dispersion of a Multilateral Symbiosis., ACS Centr. Sci., 2020, DOI: 10.1021/acscentsci.0c00978


[1] L’eusocialità, il più alto livello di organizzazione della socialità, è definita dalle seguenti caratteristiche: cura della covata cooperativa (inclusa la cura della prole di altri individui), generazioni sovrapposte all’interno di una colonia di adulti e una divisione del lavoro in gruppi riproduttivi e non riproduttivi.

Elementi della Tavola Periodica. Scandio, Sc.

In evidenza

Rinaldo Cervellati

Lo scandio (inglese scandium), simbolo Sc, è l’elemento n. 21 della Tavola Periodica, primo elemento del 3° Gruppo, 4° Periodo, sopra l’ittrio e a sinistra del titanio. È un metallo bianco-argenteo, di transizione (blocco d), storicamente classificato come un elemento delle terre rare, insieme all’ittrio e ai lantanidi.

Dmitri Mendeleev, padre della tavola periodica, predisse l’esistenza di un elemento da lui chiamato ekaboron, con una massa atomica compresa tra 40 e 48, nel 1869. Lars Fredrik Nilson[1] e il suo gruppo rilevarono questo elemento nei minerali euxenite e gadolinite in 1879. Nilson preparò 2 grammi di ossido di scandio di elevata purezza. Chiamò l’elemento scandio, dal latino Scandia che significa “Scandinavia”.  Nilson era apparentemente ignaro della previsione di Mendeleev ma Per Teodor Cleve[2] riconobbe la corrispondenza e lo informò.

Figura 1. Lars Fredrik Nilson e Per Teodor Cleve

Lo scandio metallico fu prodotto per la prima volta nel 1937 mediante elettrolisi di una miscela eutettica di cloruri di potassio, litio e scandio, a 700–800 °C. I primi 450 grammi di scandio metallico puro al 99% furono prodotti nel 1960. La produzione di leghe di alluminio iniziò nel 1971, a seguito di un brevetto statunitense. Leghe di alluminio-scandio sono state sviluppate anche nell’ex-Unione Sovietica.

Caratteristiche chimico-fisiche

Lo scandio è un metallo morbido dall’aspetto argenteo, di densità 2,895 g/cm3 con punti di fusione ed ebollizione di 1541 oC e 2836 oC rispettivamente.

Figura 2. Scandio metallico

Si ossida lentamente all’aria, assumendo una sfumatura leggermente giallastra o rosata. È suscettibile agli agenti atmosferici e si dissolve lentamente nella maggior parte degli acidi diluiti. Non reagisce con una miscela 1: 1 di acido nitrico (HNO3) e acido fluoridrico al 48% (HF), forse a causa della formazione di uno strato passivo impermeabile. I trucioli del metallo si accendono all’aria con una fiamma gialla brillante per formare ossido di scandio Sc2O3.

In natura l’unico isotopo stabile è lo scandio-45 (45Sc). Sono stati preparati tredici isotopi radioattivi con masse da 36 a 80, il più stabile di questi è 46Sc, con emivita di 83,8 giorni.

Principali composti

La chimica dello scandio è quasi completamente dominata dal numero di ossidazione +3, che dà luogo allo ione trivalente, Sc3+. I raggi ionici indicano che le proprietà chimiche degli ioni Sc3+ hanno più in comune con gli ioni ittrio che con gli ioni alluminio. In parte a causa di questa somiglianza, lo scandio fu spesso classificato come un elemento simile ai lantanidi.

L’ossido Sc2O3 e l’idrossido Sc(OH)3 sono anfoteri:

Sc(OH)3 + 3OH− → [Sc (OH)6]3− (ione scandiato)

Sc(OH)3 + 3H+ + 3H2O → [Sc(H2O)6]3+

Soluzioni acquose contenenti ioni di Sc3+ sono acide a causa dell’idrolisi.

Gli alogenuri ScX3, dove X = Cl, Br o I, sono molto solubili in acqua ma ScF3 è insolubile. In tutti e quattro gli alogenuri, lo scandio è 6-coordinato. Gli alogenuri sono acidi di Lewis; per esempio, ScF3 si dissolve in una soluzione contenente ioni fluoruro in eccesso per formare [ScF6]3−. Il numero di coordinazione 6 è tipico per Sc(III). Negli ioni Y3+ e La3+ di raggio maggiore, i numeri di coordinazione di 8 e 9 sono comuni. Lo scandio triflato (scandio trifluorometansolfonato), è talvolta usato come catalizzatore acido di Lewis in chimica organica.

Forma una serie di composti organometallici con ligandi ciclopentadienilici (Cp), simili al comportamento dei lantanidi. Un esempio è il dimero a ponte con cloro, [ScCp2Cl]2 e relativi derivati ​​dei ligandi pentametilciclopentadienilici.

I composti che presentano lo scandio in stati di ossidazione diversi da +3 sono rari ma ben caratterizzati. Il composto blu-nero CsScCl3 è uno dei più semplici. Questo materiale adotta una struttura simile a un foglio che mostra un ampio legame tra i centri di scandio +2. L’idruro di scandio non è ben compreso, sebbene sembri non essere un idruro salino di Sc+2. Come si è osservato per la maggior parte degli elementi, un idruro di scandio biatomico è stato osservato spettroscopicamente ad alte temperature in fase gassosa. I boruri di scandio e i carburi non sono stechiometrici, come è tipico per gli elementi vicini.

Sono stati osservati stati di ossidazione inferiori (+2, +1, 0) anche nei composti organici dello scandio.

Disponibilità

Nella crosta terrestre lo scandio non è raro, stimato fra 18 e 25 ppm (stima paragonabile all’abbondanza del cobalto: 20-30 ppm), il 35° per abbondanza nella crosta. Tuttavia è distribuito scarsamente e si trova in tracce in molti minerali. I minerali rari provenienti dalla Scandinavia e dal Madagascar come la thortveitite, l’euxenite e la gadolinite sono le uniche fonti concentrate conosciute di questo elemento.

Figura 3. Thortveitite, l’euxenite e gadolinite

La Thortveitite può contenere fino al 45% di scandio sotto forma di ossido di scandio.

Produzione

La produzione mondiale di scandio è dell’ordine di 15-20 tonnellate all’anno, sotto forma di ossido.

Figura 4. Struttura cristallina di Sc2O3 (Sc3+ in grigio, O2− in rosso)

La domanda è superiore di circa il 50% e sia la produzione sia la domanda continuano ad aumentare. Nel 2003 solo tre miniere hanno prodotto scandio: le miniere di uranio e ferro a Zhovti Vody in Ucraina, le miniere di terre rare a Bayan Obo, in Cina, e le miniere di apatite nella penisola di Kola, in Russia. Da allora molti altri paesi hanno costruito impianti per la produzione di scandio, di cui 5 tonnellate/anno (7,5 tonnellate/anno Sc2O3) da Nickel Asia Corporation e Sumitomo Metal Mining nelle Filippine. Negli Stati Uniti, NioCorp Development, spera nell’apertura di una miniera di niobio nel suo sito di Elk Creek nel sud-est del Nebraska che potrebbe essere in grado di produrre fino a 95 tonnellate di ossido di scandio all’anno. In ogni caso lo scandio è un sottoprodotto dell’estrazione di altri elementi ed è venduto come ossido.

Per produrre scandio metallico, l’ossido viene convertito in fluoruro di scandio e quindi ridotto con calcio metallico.

Il Madagascar e la regione di Iveland-Evje in Norvegia hanno gli unici depositi di minerali con un alto contenuto di scandio, la thortveitite (Sc,Y)2(Si2O7) che non vengono sfruttati. Il minerale kolbeckite ScPO4·2H2O ha un contenuto molto elevato ma non è disponibile in depositi significativi.

L’assenza di una produzione affidabile, sicura, stabile e a lungo termine ha limitato le sue applicazioni commerciali. Nonostante questo basso livello di utilizzo, lo scandio offre vantaggi notevoli. Particolarmente promettente è il rafforzamento delle leghe di alluminio con un minimo dello 0,5% di scandio. La zirconia (ossido di zirconio cristallino cubico, ZrO2), stabilizzata allo scandio gode di una crescente domanda di mercato per l’uso come elettrolita ad alta efficienza nelle celle a combustibile a ossido solido.

Applicazioni

L’aggiunta di scandio all’alluminio limita la crescita di granuli nella zona termica dei componenti in alluminio saldati. Ciò ha due effetti benefici: l’Al3Sc precipita formando cristalli più piccoli rispetto ad altre leghe di alluminio e il volume delle zone prive di precipitati ai bordi dei granuli delle leghe di alluminio che induriscono con l’invecchiamento viene ridotto. Al3Sc è un precipitato coerente che rafforza la matrice di alluminio applicando campi di deformazione elastici che inibiscono il movimento di dislocazione (cioè di deformazione plastica).

Figura 5. Tondino in lega di alluminio-scandio

Al3Sc ha una struttura superlattice di equilibrio esclusiva di questo sistema. Una dispersione fine del precipitato su nanoscala può essere ottenuta tramite un trattamento termico che può anche rafforzare le leghe attraverso l’indurimento. Sviluppi recenti includono l’aggiunta di metalli di transizione come zirconio e metalli delle terre rare come erbio producendo gusci che circondano il precipitato sferico di Al3Sc riducendone l’ingrossamento. Questi gusci sono dettati dalla diffusività dell’elemento legante e abbassano il costo della lega perché Sc viene sostituito in parte da Zr mantenendo la stabilità e quindi  è necessario meno Sc per formare il precipitato. Questi hanno reso Al3Sc piuttosto competitivo con le leghe di titanio per una vasta gamma di applicazioni. Tuttavia, le leghe di titanio, che sono simili in leggerezza e resistenza, sono più economiche e molto più ampiamente utilizzate.

La lega Al20Li20Mg10Sc20Ti30 è forte come quella al solo titanio, leggera come l’alluminio e dura come la ceramica.

L’applicazione principale è nelle leghe alluminio-scandio per componenti minori dell’industria aerospaziale. Queste leghe contengono tra lo 0,1% e lo 0,5% in peso di scandio.

Alcuni articoli per attrezzatura sportiva, che si basano su materiali ad alte prestazioni, sono stati realizzati con leghe di alluminio e scandio, comprese mazze da baseball e telai e componenti di biciclette. Anche i bastoni da lacrosse sono realizzati con scandio.

Figura 6. Manubrio per bicicletta in lega alluminio-scandio

I dentisti usano laser a granato ittrio-scandio-gallio drogati con erbio per la preparazione della cavità e in endodonzia.

Le prime lampade ad alogenuri metallici a base di scandio furono brevettate da General Electric e inizialmente prodotte in Nord America, sebbene ora siano prodotte in tutti i principali paesi industrializzati. Ogni anno negli Stati Uniti vengono utilizzati circa 20 kg di scandio (come Sc2O3) per lampade a scarica ad alta intensità. Un tipo di lampada ad alogenuri metallici, simile alla lampada a vapori di mercurio, è costituita da triioduro di scandio e ioduro di sodio. Questa lampada è una sorgente di luce bianca con un elevato indice di resa cromatica che assomiglia sufficientemente alla luce solare per consentire una buona riproduzione dei colori con le telecamere. Circa 80 kg l’anno di scandio vengono utilizzati in lampade / lampadine a ioduri metallici a livello globale.

L’isotopo radioattivo 46Sc è utilizzato nelle raffinerie di petrolio come agente tracciante.

Tossicologia e sicurezza

Lo scandio elementare è considerato non tossico, sebbene per i suoi composti non siano stati condotti test approfonditi sugli animali. I livelli di dose letale mediana (LD50) per lo scandio cloruro per i ratti è 755 mg/kg per la somministrazione intraperitoneale e 4 g/kg per la somministrazione orale. Alla luce di questi risultati, i composti di scandio dovrebbero essere trattati come sostanze di moderata tossicità.

Riciclaggio

Nel 2013 un gruppo di ricercatori cinesi ha brevettato un metodo per riciclare lo scandio negli scarti acidi della produzione di bianco di titanio (principalmente diossido di titanio,TiO2). Il metodo comprende le seguenti fasi: estrazione, lavaggio, estrazione circolare, riestrazione, dissoluzione degli acidi, precipitazione e combustione. Il metodo sfrutta una tecnologia semplice e comoda da usare; nel frattempo viene adottata l’estrazione circolare organica[3] dei composti  dello scandio, così da ridurre  tempo di riestrazione, perdita organica e costo del lavoro, aumentando la resa [1].

Ciclo biogeochimico

Nel 2004, Irina Shtangeeva, ricercatrice russa dell’Università statale di San Pietroburgo, scrisse un lungo rapporto sullo scandio, in cui diceva:

Sebbene lo scandio sia un elemento relativamente diffuso nella crosta terrestre, fino a tempi recenti c’erano poche informazioni sulla chimica ambientale dell’elemento. Da un lato, il comportamento geochimico di Sc può essere simile a quello di molti elementi bi e trivalenti (Mg, Al, Ca, Ti, Mn, Fe, Zr, elementi delle terre rare, Hf, Th e U). D’altra parte, lo scandio può dimostrare proprietà chimiche piuttosto uniche. Il suo ruolo biologico è poco conosciuto. In condizioni normali la concentrazione di Sc nelle piante è molto bassa. È molto inferiore al contenuto di Sc nel suolo, suggerendo che non si verifica alcun bioaccumulo. Di regola, la concentrazione di Sc è più alta nelle radici che nelle foglie e nei semi. Una grande varietà di fattori che influenzano l’assorbimento di oligoelementi può contribuire ai valori di Sc nelle piante. I dati disponibili in letteratura rivelano una notevole diversità nelle concentrazioni di Sc nei vegetali e potrebbero non essere confrontabili. Si sa ancora poco sulla sua tossicità. È stato dimostrato che un aumento di Sc nel suolo può comportare sia un aumento significativo del suo contenuto  nelle piante sia variazioni nelle concentrazioni di nutrienti essenziali in tutte le loro parti.[2]

Successivamente, nel 2017, un gruppo di ricerca USA-Canada ha pubblicato una serie di esperimenti prelevando campioni lungo la Corrente della California per studiare il ciclo biogeochimico di diversi elementi, fra cui lo scandio. Lo scandio ha mostrato tendenze simili a quelle del ferro, rafforzando le limitate osservazioni delle somiglianze fisico-chimiche tra questi due elementi nell’acqua di mare. Complessivamente, lo studio evidenzia impatti distinti dei processi fotochimici, del recupero ed effetti biologici sul ciclo marino dei metalli in tracce in un ambiente caratterizzato da risalite stagionali.[3]

C.E. Parker e altri, del Dipartimento di Scienze Oceaniche dell’Università della California a Santa Cruz, hanno riportato profili approfonditi dello scandio disciolto da geotracce nel Nord Atlantico, Nord Pacifico e Sud Pacifico. Anche questo lavoro confronta la reattività di Sc con gli altri elementi  trivalente del gruppo 3B [oggi gruppo3], ittrio (Y) e lantanio (La) e del gruppo 3A [oggi gruppo 13], alluminio (Al) e gallio (Ga). Ittrio e La sono classici tipi di nutrienti che aumentano di concentrazione nell’invecchiamento in acque profonde; Al e Ga sono i tipici metalli recuperati che fanno l’opposto. I risultati indicano che Sc è un metallo di tipo ibrido con un tempo di permanenza dedotto dell’ordine di 1000 anni, e la speciazione inorganica e la reattività sono simili a quelle del ferro e hanno il potenziale per approfondire il lato non nutritivo nel ciclo del ferro oceanico. [4]

Infine, molto recentemente, Irina Shtangeeva ha studiato le piante che meglio possono estrarre grandi quantità di metalli “rari” tossici, compreso lo scandio, dimostrando che l’uso di gramigna e / o grano, da solo o in combinazione con microrganismi, è un modo promettente per fitoestrarre metalli da suoli contaminati. [5]

Opere consultate

Handbook of Chemistry and Physics 85th Ed. pp. 4 27-28

https://en.wikipedia.org/wiki/Scandium

 Bibliografia

[1] Method for extracting and recycling scandium in waste acid in titanium white production.

https://patents.google.com/patent/CN103060581A/en

[2] Irina Shtangeeva, Scandium, in:

https://www.researchgate.net/publication/303773841_Scandium

[3] T. Mellett, M.T. Brown et al., The biogeochemical cycling of iron, copper, nickel, cadmium,

manganese, cobalt, lead, and scandium in a California Current experimental study., Limnol. Oceanogr., 2018, 63, 425-447. DOI: 10.1002/lno.10751

[4] C.E. Parker et al., Scandium in the open ocean: A comparison with other group 3 trivalent metals., Geophys. Res. Lett., 2016, 43, 2758-2764. DOI: 10.1002/2016GL067827

[5] I. Shtangeeva, About plant species potentially promising for phytoextraction of large amounts of toxic trace elements., Environ. Geochem. Health, 2020, DOI:10.1007/s10653-020-00633-z


[1] Lars Fredrik Nilson (1840 – 1899) è stato un chimico svedese, professore all’Università di Uppsala e in seguito direttore della Stazione Sperimentale di Chimica Agraria dell’Accademia Reale Svedese di agricoltura e silvicoltura a Stoccolma.

[2] Per Teodor Cleve (1840-1905) è stato un chimico, biologo, mineralogista e oceanografo svedese. Conosciuto per la sua scoperta degli elementi chimici olmio e tulio.

[3] Nell’estrazione circolare organica viene utilizzato un solvente a idrofilia commutabile (SHS) per estrarre completamente molecole idrofobe e idrofile, semplificando così l’estrazione delle molecole stesse, aumentando l’utilità del solvente che in seguito viene recuperato.

Finanziamento della ricerca.

In evidenza

Luigi Campanella, già Presidente SCI

Molti Paesi hanno adottato sistemi di finanziamento basati sulla misura delle prestazioni dei richiedenti utilizzando con criteri diversi il numero delle pubblicazioni ed il loro impatto scientifico (citazioni, collocazione delle pubblicazioni nelle differenti fasce di livello di qualita). In un recente lavoro del 2019 apparso su High Educ Q.73,45-69) gli autori (D.Checchi ed altri) hanno esaminato come si regolano 31 Paesi trovando che in 7 di essi la valutazione avviene attraverso Peer review (l’Italia è fra questi,insieme a Australia, Francia, Lituania, Nuova Zelanda, Portogallo, Regno Unito) mentre per altri si ricorre ad indicatori bibliometrici. Nel nostro Paese sembra molto importante il problema delle autocitazioni di difficile controverso valore, probabilmente cresciuto dietro una sorta di drogaggio innescato dai criteri ufficiali di valutazione adottati dall’ ANVUR rispetto a individui, dipartimenti, atenei.

L’effetto di queste autocitazioni ha anche un risvolto di politica scientifica: si favorisce la prevalenza dell’indagine nazionale piuttosto che internazionale. C’è poi l’aspetto di valorizzazione delle propria scuola e di supporto per gli indici bibliometrici ai giovani che da essa provengono nei confronti della competizione per accedere alle posizioni ufficiali di professore ordinario o di professore associato. D’altra parte c’è da dire che uno dei meriti richiesto nei concorsi è la continuità scientifica che ovviamente giustifica le autocitazioni. Gli amici Ciavarella e D’Antuono del Politecnico di Bari, da sempre impegnati in questo.tipo di.problematica hanno fatto una considerazione che ritengo.molto interessante: confrontando i dati ultimi con quelli di 20 anni prima non si osservano sostanziali variazioni di impact factor delle autocitazioni, così come rimane costante intorno al 2% la presenza di italiani nella top list dei ricercatori. Tenuto conto che una delle cause che spingono verso le autocitazioni può essere stata la scadenza della Abilitazione Scientifica Nazionale c’è da apprezzare che il peso delle autocitazioni non sia aumentato senza con questo incidere sul valore della bibliografia scientifica nazionale. Anzi Italia, Cina ed India sono i 3 Paesi che hanno mantenuto nei due rilevamenti lo stesso peso in termini di percentuale di presenze nella lista del top rank. I dati ufficiali dicono Italia + 0,2 %, Giappone -20%,ma !!! Cina + 284% e -India + 152%.Questi 2 Paesi, come conferma la crescita del loro PIL, sembrano avere il maggiore potenziale di miglioramento.

Non si può dire se questi incredibili aumenti siano da attribuire alle maggiori risorse messe a disposizione o ad una politica di open science più incisiva. I ricercatori europei
potrebbero trarre vantaggio dalla decisione, presa il 31 luglio, dal governo cinese, di investire 20 miliardi di yuan (circa 2,5 miliardi di euro) nella ricerca scientifica di base, nel corso dei prossimi tre-cinque anni. La Cina aveva annunciato a marzo di avere allo studio la possibilità di aprire ai ricercatori europei due dei propri programmi nazionali di ricerca. I programmi indicati, 863 e 973, interessano molti dei settori prioritari del sesto programma quadro dell’UE, come anche i settori destinatari dei finanziamenti annunciati dal governo. Tra questi figurano la sicurezza alimentare, la medicina e le tecnologie dell’informazione e della comunicazione. La supremazia asiatica è testimoniata dal fatto che tra i primi sei paesi per investimento in R&S, ben quattro appartengono a quel continente: la Cina, appunto, che è seconda assoluta, con una spesa equivalente a 485,5 miliardi di dollari; il Giappone, terzo (con 191,5 miliardi di dollari); la Corea del Sud quinta, con 90,2 miliardi di dollari e l’India sesta, con una spesa equivalente a 86,2 miliardi di dollari. Gli Stati Uniti, come abbiamo detto, restano primi (anche se a quanto pare ancora per poco), con 565,8 miliardi di dollari investiti in R&S nel 2018 mentre la Germania è quarta con una spesa di 120,8 miliardi di dollari.
Certo se confrontiamo i dati del finanziamento pubblico della ricerca i valori italiani, appena sopra l’1%,(circa15 mila miliardi di dollari: un certo disaccordo nel dettaglio dei dati viene osservato) paiono così distanti da quelli indiani e cinesi da fare ritenere l’ennesimo miracolo italiano quel +0,2%.

Il pianoforte di Einstein

In evidenza

Claudio Della Volpe

Oggi è il 27 gennaio, il giorno della memoria e di solito abbiamo dedicato il post di questa giornata a ricordare qualcuno che si è immolato o non è tornato dai campi sterminio o dalla lotta partigiana. E di racconti ce ne sarebbero ancora più o meno conosciuti.

Tuttavia oggi vi ricordiamo una storia che non ha a che fare direttamente con la chimica ma con una parte della famiglia di Albert Einstein che viveva in Italia durante la II guerra mondiale e che subì la vendetta dell’esercito nazista. C’è in questa storia una sorta di testimone muto del suo tempo che è un pianoforte che fu regalato da Albert a sua sorella Maja.

Maja Einstein e Albert Einstein.

L’Italia ha sempre costituito un punto di attrazione ed interesse sul piano culturale per tutto il mondo; fu il primo paese a sviluppare i semi del capitalismo (basti ricordare che le cambiali furono inventate da Francesco Datini a Prato e che la prima rivolta sociale di stampo moderno si verificò a Firenze, la rivolta dei Ciompi, i lavoratori salariati appartenenti soprattutto alla pettinatura e alla cardatura della lana; il termine ciompi deriva infatti dal verbo “ciompare”, sinonimo di battere, picchiare, percuotere). Questa modernità si accompagnava col ricco lascito culturale della classicità greco-romana, una miscela che è risultata per secoli di enorme attrattiva.

Firenze in particolar modo ha svolto sempre un ruolo di attrattore in campo artistico e culturale.

Dunque non ci deve meravigliare se la sorella di Einstein, una insegnante con dottorato di filologia romanza, abbia deciso di venire ad abitare vicino Firenze col marito Paul Winteler, cittadino svizzero, avvocato e dilettante pittore.

Il motivo occasionale di questa scelta fu la perdita del suo posto di insegnante in Svizzera. Dovete infatti sapere che all’epoca in Svizzera alle insegnanti donne era prescritto il celibato. In seguito a ciò Maja e Paul rinunciano alle loro professioni e dapprima si stabiliscono a Lucerna, poi nel 1920, con pochissimi mezzi, vengono ad abitare vicino a Firenze.

Sempre con l’aiuto di Einstein i Winteler acquistano a Quinto, sulle pendici del Monte Morello una vecchia casa colonica che chiamano Samos’, perché li fa pensare alla mitica Grecia.

Monte Morello è l’unica altura degna di essere considerata tale nell’ampia conca dove giace la città di Firenze; durante la guerra Monte Morello fu il luogo di una delle più forti e sicure basi partigiane e teatro di numerose azioni di guerra, come la Battaglia della Fonte dei Seppi del 14 luglio 1944. Nei boschi del Monte Morello si svolse anche l’eccidio cosiddetto di radio Cora, una radio clandestina che teneva i contatti tra la resistenza toscana e le truppe alleate (Cora viene da “commissione radio” e fu fondata e gestita dal Partito d’Azione).

Oggi Quinto non è più un comune a se stante ma un sobborgo del comune di Sesto Fiorentino, diviso oggi nelle due zone di Quinto Alto e Quinto Basso. I nomi di queste zone vengono dalla loro distanza dal centro della città di Firenze.In questa mappa tratta da Google Maps vedete tutte le zone di cui parliamo; il Monte Morello è la zona montuosa immediatamente a destra (a Est) del Comune di Sesto Fiorentino.

L’osservatorio di Arcetri invece è sull’altro lato dell’Arno, immediatamente a sud di Firenze, ma i due lati della valle si vedono ovviamente; parecchio più a Est lungo il corso dell’Arno è situata la zona di Rignano sull’Arno che entrerà tragicamente nel nostro racconto.

Qui vediamo Firenze da Arcetri e sullo sfondo il Monte Morello sul lato opposto della valle dell’Arno.
In Germania a Warburg una città a mezza strada fra Colonia ed Hannover, la famiglia di origine ebraica dei Del Banco, originaria di Venezia e che per motivi legati alle persecuzioni antiebraiche così comuni in Europa si è spostata colà e ha preso il nome della città, fondandovi una propria banca, vive la sua vita ricca di soldi e di cultura. Dei due discendenti maschi della famiglia Abraham e Max, il primo appassionato di cultura cede la propria primogenitura al fratello ottenendone in cambio la promessa di appoggiarlo nella sua vita di studio. Entrambi realizzano ciò che volevano. Max diventa capo di un potente istituto finanziario e il fratello invece diventa uno studioso di fama internazionale con forti legami con Firenze (l’istituto Kunst, iniziativa mista dell’Istituto di Storia dell’Arte di Firenze e dell’Istituto Max Planck è frutto della sua attività di allora). La loro casa è frequentata dalla migliore gioventù tedesca fra cui Hans-Joachim Staude, figlio di un ricco commerciante amburghese, appassionato di pittura e Fritz Rougemont anch’egli precocemente interessato all’arte.
Sarà questi a spostarsi a Firenze dove inevitabilmente conosce la sorella di Einstein il cui marito è un pittore; entrambi lo accolgono nella loro casa del Monte Morello. In quella casa il piano forte ha un ruolo determinante costituendo il centro dei piccoli ricevimenti che vi si svolgono.
Presto arriva a Firenze anche Hans-Jo il quale ha comunque avuto il tempo e l’occasione di conoscere Albert Einstein a Lubecca, mentre Albert è già diventato premio Nobel e persona famosa.
Questo incontro, che è raccontato in vario modo ma che si è sicuramente svolto nel 1924, favorisce ovviamente l’amicizia fra Hans-Jo e Maja che prende il ruolo di “mamma” e protettrice di Hans-Jo. L’anno successivo Hans-Jo, dopo un viaggio a Firenze, decide di stabilirsi nella città; con il tempo il suo nome tedesco si italianizzerà in Anzio e così si firmerà anch’egli.
Rougemont torna in Germania dove svolge un ruolo importante nelle costituende iniziative culturali della famiglia Warburg.
Nel 1931 il vecchio pianoforte di Maja tira le cuoia e Albert, ormai genio tedesco riconosciuto in tutto il mondo, le regala un pianoforte nuovo di zecca che serve a continuare la tradizione delle feste in casa Einstein.
Le cose però iniziano ad accelerare; il movimento nazista prende il potere nel 1933, Rougemont , ahimè inizia ad interessarsi del movimento politico che ha preso il potere.
Einstein va in Usa a fine 1932 per una serie di conferenze, ma a questo punto, vista l’evoluzione politica della Germania, decide di non farvi ritorno e viene chiamato a Princeton.
Questo è interpretato dal regime nazista, come effettivamente è, una scelta di campo da parte del grande scienziato che diventa un nemico numero uno.
E qui dobbiamo citare un altro componente della famiglia Einstein che pure era stato attratto dall’Italia e vi si era stabilito, il cugino Robert. Egli prima si stabilisce vicino a Perugia, poi in una villa in campagna a Rignano sull’Arno vicino a Firenze, la villa del Focardo; era cugino di Albert e Maja, e viveva con la moglie Nina Mazzetti, le figlie Luce e Annamaria e le nipoti Lorenza e Paola Mazzetti, figlie orfane del fratello di Nina.
Le leggi razziali e l’inizio della guerra segnano un cambiamento enorme per tutti i nostri personaggi; la famiglia Warburg perde la gestione e la proprietà delle sue strutture finanziarie; il padre fugge in USA dove morirà.

Anzio si sposa con una sua amica d’infanzia e rimane in Italia ma viene richiamato al servizio militare, avrà alterne vicende ma riuscirà a sopravvivere alla guerra e continuare a fare il pittore.

Maja fugge dopo le leggi razziali in Svizzera da dove riesce a raggiungere il fratello in USA; non tornerà mai più in Italia; mentre il marito che è cittadino svizzero non ha il permesso di partire e rimane in Europa. Prima di partire lascia il nuovo pianoforte ricevuto in dono dal fratello ad Anzio e alla sua famiglia, che nel 1939 vivono a Firenze in via delle Campora, non lontano dall’osservatorio di Arcetri.

Fritz Rougemont diventato un convinto nazista muore in guerra.

La famiglia Einstein-Mazzetti.Nina e Robert Einstein

Nel 1944 in piena guerra e durante l’ultimo giorno di permanenza delle truppe tedesche nel territorio di Rignano (il 3 agosto) appena prima della rotta tedesca si scatena la rabbia.

Il cugino di Einstein, Robert, si da alla fuga qualche giorno prima, ma lascia la famiglia che si sente al sicuro essendo di nazionalità italiana, nella villa del Focardo dove vivevano.

I tedeschi avevano occupato la villa già da prima, intervengono ed uccidono tutte le persone con nome Einstein, ossia la moglie e le figlie di Robert. Poi bruciano la villa del Focardo (nel riquadro nero nella immagine seguente).

In un biglietto rinvenuto il giorno dopo la strage nel giardino della villa, si legge che i membri della famiglia erano stati condannati “in quanto rei di tradimento e giudei“. In realtà Cesarina Mazzetti, figlia di un pastore protestante, non era ebrea, e così le due figlie; l’unica loro colpa era di portare il nome Einstein. Lo conferma il fatto che furono risparmiate dal massacro le tre nipoti e le cugine, facenti parte dello stesso nucleo familiare, ma con un diverso cognome.

Era la vendetta contro Einstein.

Einstein fu informato quasi subito dell’evento. Robert si suicidò dopo qualche tempo ed è sepolto insieme alla moglie e alle figlie nel cimitero della Badiuzza.

Ringrazio per questa foto l’amico e collega Luca Pardi, chimico del CNR, che a lungo ha abitato vicino alla villa del Focardo.

Un monumento al cimitero della Badiuzza ricorda la famiglia di Robert Einstein.

Secondo quanto ricostruito dallo storico italiano Carlo Gentile, gli autori del massacro furono i soldati del 104º reggimento Panzergrenadier della Wehrmacht, alcuni tuttora viventi, sui quali la Germania sembra aver avviato le pratiche per indagare sulle responsabilità. L’ipotesi di reato è quella di uccisione di civili aggravata dall’odio razziale.

Lorenza Mazzetti, (divenuta poi artista di livello internazionale) nipote di Robert e Nina, è sopravvissuta alla strage e ne ha raccontato l’orrore in un romanzo autobiografico dal titolo Il cielo cade, pubblicato nel 1961 e da cui fu tratto anche un film, di omonimo titolo ed interpretato da Elisabetta Rossellini.

Il pianoforte dopo molti anni fu cercato dal figlio del matematico Michele Besso, amico di Einstein, che era divenuto erede di Samos, che però non se la sentì di riprenderlo a Anzio ed è rimasto alla sua famiglia dopo la morte di Anzio nel 1973.

Tuttavia il figlio di Anzio ha poi ceduto in comodato il pianoforte all’osservatorio di Arcetri nel 2015.

La foto che vedete in fondo mi è stata fornita dall’amico e collega Gianni Comoretto, astronomo in Arcetri.

Cosa ci insegna questa storia? Tante cose.

Per esempio ci fornisce prima di tutto l’idea dei forti e drammatici sentimenti che si scatenarono a cavallo della II guerra mondiale, dei contrasti che si generarono allora e della violenza che si scatenò. Ma anche del fatto che dopo tutto l’umanità è in grado di superare questi momenti e ritrovare un suo equilibrio. La scienza in un certo senso ci guarda dall’alto dell’osservatorio di Arcetri e ci fornisce il modo di analizzare e comprendere cosa è avvenuto: “e le stelle stanno a guardare”.

Ma è la memoria che ci serve per evitare per quanto possibile di ripetere quei drammatici errori. Einstein ha pagato duramente la sua scelta di campo e questo episodio ce lo mette in una luce che sinceramente non conoscevo, ancora più grande e drammatica. Ci fornisce una chiave interpretativa delle cose; la rabbia dei soldati che alla fine si vendicano contro Einstein ci fa chiedere: cosa sarebbe successo se Einstein non fosse fuggito dalla Germania? E ci fa anche pensare al ruolo decisivo che la scienza ha avuto in quel conflitto.

Se andate ad Arcetri andate a visitare l’osservatorio e soffermatevi davanti al pianoforte e se andate a Rignano sull’Arno portate un fiore sulla tomba della famiglia Einstein.

Un racconto molto dettagliato qui:

http://www.staude.it/biografia-it/il-pianoforte-di-einstein-una-cronologia/

Alcune informazioni sono tratte da wikipedia, la grande enciclopedia pubblica alle voci interessate.

Si veda anche l’inervista a Lorenza Mazzetti: https://www.youtube.com/watch?reload=9&v=gxo3WVR_vok

nella quale fra l’altro la signora Mazzetti dichiara che i rapporti fra lo zio Robert e l’esercito tedesco erano stati buoni fino all’arrivo di due che lo cercavano mentre lui non c’era e che dichiararono che sarebbero tornati; a questo punto la famiglia chiese allo zio di non tornare; ma tornarono i due e fecero quel che fecero.

Dove finisce il legame a idrogeno e inizia il legame covalente?

In evidenza

Rinaldo Cervellati

In un qualunque testo di chimica generale trovate scritto che un legame covalente si instaura quando gli atomi condividono gli elettroni, formando una molecola, mentre un legame a idrogeno avviene per attrazione elettrostatica tra la carica positiva di un atomo di idrogeno in una molecola verso un doppietto non condiviso di un atomo elettronegativo in un’altra molecola.

La definizione di legame a idrogeno è un po’ più complessa, come si evince dal Gold Book (Compendium of Chemical Terminology) della IUPAC [1]:

[Hydrogen bond is] A particular type of multicenter (three center – four electron) X–H …Y in which the central hydrogen atom covalently linked to an electronegative atom X (C, N, O, S..) forms an additional weaker bond with atom Y (N, O, S..) in the direction of its lone electron pair orbital. The energy of hydrogen bonds, which is usually in the range of 3 – 15 kcal/mol (12– 65 kJ/mol), results from the electrostatic interaction and also from the orbital interaction of the antibonding σ*(XH)MO of the molecule acting as the hydrogen donor and the non-bonding lone electron pair MOnY of the hydrogen acceptor molecule.

Come abbiamo scritto in un altro post, il legame a idrogeno fu previsto in un articolo di W. M. Latimer e W. H. Rodebush nel 1920 [2], con esso si spiegava ad esempio la struttura reticolare dell’acqua congelata. Oggi anche l’unione dei due filamenti della doppia elica del DNA si interpreta attraverso legami a idrogeno.

Mentre le energie dei legami covalenti possono arrivare a centinaia di kJ/mol, le energie dei legami a idrogeno sono molto più piccole, ma i chimici sanno che alcuni legami idrogeno sono più forti di altri.

Andrei Tokmakoff, professore di chimica all’Università di Chicago (IL, USA), e il suo gruppo di ricerca, studiano la dinamica molecolare di soluzioni acquose e di processi biologici. Egli si è spesso chiesto quanto possano essere forti i legami a idrogeno. O, in altre parole, quanto debbano essere energetici per diventare covalenti.

Figura 1. Andrei Tokmakoff

In parte per cercare di rispondere a questa domanda, il ricercatore post-dottorato Bogdan Dereka, (del gruppo di Tokmakoff) ha utilizzato la spettroscopia a infrarossi a femtosecondi per studiare un sistema semplificato, lo ione [F – H – F] in soluzione acquosa. In [F – H – F], un anione fluoro forma un legame a idrogeno con l’idrogeno in una molecola covalente polare HF.

Gli spettri hanno rivelato i molti stati in cui questo ione esiste in soluzione, che dipendono in parte dalla disposizione delle molecole d’acqua nell’ambiente immediatamente circostante. I legami a idrogeno si verificano in una gamma di lunghezze ed energie. Un legame a idrogeno più corto, ad esempio, indica un legame a idrogeno più forte e un legame covalente relativamente più debole. Ciò si è riflesso, come previsto, in frequenze spettroscopiche inferiori per il legame H-F. Ma i ricercatori hanno scoperto che a un certo punto lungo questo continuum, la tendenza si è invertita e la forza del legame covalente è aumentata anche se il legame idrogeno si è accorciato [3].

Figura 2. L’anione [F – H – F] può formare legami idrogeno convenzionali, ma è stato scoperto che può anche formare legami che sembrano covalenti, offuscando il confine tra questi due tipi di legami. (verde = F; grigio = H).

Tokmakoff sostiene che si tratti del comportamento di un idrogeno condiviso equamente tra i due atomi di fluoro, e che sarebbe meglio descriverlo nei libri di testo di chimica come un legame covalente.

Joel M. Bowman, chimico teorico della Emory University (Georgia, USA), ha effettuato simulazioni al computer del sistema che sono state fondamentali per comprendere questo comportamento e suggeriscono che il passaggio dal legame idrogeno convenzionale a qualcosa di più simile a un legame covalente avviene quando H e F sono distanti circa 2,4 Å.

L’esperto di legami Gernot Frenking, dell’Università Philipps di Marburg (Germania),   afferma: “Gli autori dimostrano in modo convincente che la natura dei legami cambia” da legami a  idrogeno a legami covalenti”, aggiungendo che una figura di questo nuovo articolo che mostra la transizione nel comportamento vibrazionale ora appartiene ai libri di testo di chimica fisica.

Altri esperti concordano sul fatto che questo quadro più sfumato del legame a idrogeno appartiene ai libri di testo, ma sottolineano anche che i chimici teorici e gli sperimentatori hanno già sviluppato modelli di legame a idrogeno negli ultimi decenni che si adattano a ciò che Tokmakoff e colleghi hanno scoperto. La chimica teorica Anastassia Alexandrova dell’Università della California, Los Angeles, ha definito “bello” il livello delle informazioni dettagliate sul legame e spera che i ricercatori utilizzino i metodi per indagare su altri legami.

Tokmakoff dice che ora penserà in modo diverso al ruolo che i legami a idrogeno giocano nella chimica in soluzione acquosa. Ad esempio, gli esperimenti del gruppo suggeriscono che questi legami covalenti potrebbero apparire momentaneamente mentre le molecole d’acqua si spintonano l’una intorno all’altra in soluzione. E poiché molti pensano che forti legami a idrogeno potrebbero svolgere un ruolo in fenomeni come il trasporto di idruri nelle proteine ​​o il trasporto di protoni nelle celle a combustibile, comprendere meglio i legami potrebbe forse aiutare i ricercatori a studiare questi processi.

*Tradotto e ampliato da S. Lemonick, Where the hydrogen bond ends and the covalent bond begins., C&EN, January 7, 2021

Bibliografia

[1] IUPAC, Compendium of Chemical Terminology Gold Book, Version 2.3.3, 2014-02-24, p. 697

[2] W.M. Latimer, W.H. Rodebush, Polarity and Ionization from the Standpoint of the Lewis Theory of Valence, J. Am. Chem. Soc., 192042, 1419-1433.

[3] B. Dereka et al. Crossover from hydrogen to chemical bonding., Science, 2021, 371, 160-164

Chimica e Somalia.

In evidenza

Luigi Campanella, già Presidente SCI

In questi tempi difficili troppo spesso si dimentica chi sta anche peggio.

Ecco perchè voglio dedicare questo mio intervento alla sfida alle emergenze da parte di un Paese travagliato, colpito da lotte interne,vittima per eccellenza dei cambiamenti climatici e non certo dotato di una florida economia di mercato, un Paese che conosco per avere interagito con alcuni ricercatori locali: parlo della Somalia, 5 milioni di abitanti con un quasi 50% di bambini, uno degli.Stati più fragili al mondo, colpito oggi da 2 eventi drammatici,la pandemia a noi ben nota ed un’invasione di locuste, che hanno trovato campo fertile nelle terre inondate dalle esondazioni risultato dei cambiamenti climatici.

Tutto ciò va riferito ad un Paese sostanzialmente agricolo. In questo quadro drammatico le restrizioni alle attività per contrastare covid-19 hanno provocato, al pari di quanto osserviamo in Italia, una recessione economica su un’economia di per sè debole.

A causa anche di epidemie ampiamente diffuse il quadro descritto fa stimare da parte dell’Indice Globale della Fame 2020 un valore di 2,1 per la Somalia: 2,1 milioni di persone vivono una crisi alimentare acuta.

Per contrastare questa situazione i movimenti umanitari e le strutture internazionali a favore dei Paesi poveri hanno individuato 4 settori di aiuti, salute, sicurezza alimentare, igiene ed accesso all’acqua potabile. È sempre più chiaro ormai che protezione dell’ambiente, lotta ai cambiamenti climatici e cura della salute umana siano interconnessi.

Esseri umani,piante,animali e loro ambienti condivisi – terra, acqua,aria – sono un unico sistema. Da anni siamo consapevoli che stiamo ferendo gravemente la Terra, nostra casa comune, compromettendo la nostra stessa vita. Stiamo rendendo il nostro pianeta sempre più inospitale ed alcune popolazioni, come quella somala, si trovano già oggi a non avere più mezzi per vivere. Per operare un vero cambiamento e garantire un mondo più equo e giusto, è quindi urgente e necessario rimettere al centro delle nostre azioni un nuovo equilibrio tra salute umana e cura del pianeta. La nostra comunità, quella del blog intendo, è chiamata in causa a 3 differenti livelli: come cittadini, come ricercatori/scienziati, come chimici.


Dalle componenti sociale, etica e tecnico-scientifica del nostro comportamento può derivare la vita di quel 12% di bambini che in Somalia muoiono prima di avere compiuto 5 anni. Talvolta noto delle incoerenze sui metodi adottati per concretizzare quel comportamento.

Gli accordi internazionali e bilaterali sono certo importanti e fondamentali; ma -come sempre- ciascuno può dare il suo contributo in termini di accordi scientifici, di trasferimento tecnologico delle proprie esperienze, di disponibilità alla formazione tecnologica locale, di open science. La chimica può fare molto ed i tradizionali 2 volti di essa verebbero probabilmente definitivamente sotterrati se si potesse attribuire alla chimica la rinascita di Paesi che si trovano in condizioni come quelle della Somalia e, purtroppo, non sono pochi.

https://www.savethechildren.it/press/corno-dafrica-l%E2%80%99invasione-delle-locuste-il-coronavirus-e-le-inondazioni-mix-letale-che-mette

PFAS ed effetto “lampione”(seconda parte)

In evidenza

Jean-Luc Wietor

la prima parte di questo post è qui

5.3 Intermezzo: altri usi

Sinora sono stati menzionati e identificati i PFAS impiegati per usi prevalentemente tecnici e alquanto oscuri. Diamo un’occhiata ad alcuni degli altri – meglio conosciuti – utilizzi (Figura 8).

I paragrafi seguenti (da 5.4 a 6) chiariranno queste applicazioni. Tenete a mente che le schiume antincendio hanno un alto potenziale di contaminazione ambientale. Anche i trattamenti superficiali (su pietra, tessili, cuoio) facilmente rilasciano frammenti di PFAS durante l’uso, a causa della grande area esposta agli elementi e della parziale degradabilità degli FT (paragrafo 6.3).Figura 8: Alcuni usi dei PFAS non spiegati in questa relazione, da sinistra a destra: schiume antincendio per incendi di petrolio, cromature, trattamenti idro- e oleo-repellenti (per superfici di cemento o pietra, tappeti, tovaglie, abbigliamento sportivo, valigie e tende), come ausilio tecnico nella produzione di fluoropolimeri come il PTFE.

Il famoso GenX Il GenX è usato da Chemours (in precedenza DuPont, in vari impianti, fra cui quello a Dordrecht in Olanda) come tensioattivo per produrre la polimerizzazione del PTFE. Il GenX ha sostituito il PFOA nel 2012 ed è stato successivamente sostituito (ma non ancora completamente) dal P1010, un tensioattivo privo di fluoro basato sul FeSO4, un tensioattivo non ionico (PPG) e uno a base di acidi grassi. Il GenX è una sorta di “C6.5” ed è registrato a nome del suo sale di ammonio (EC 700-242-3). Il termine “tecnologia GenX” indica il GenX (in forma di acido libero e di sale di ammonio), nonché il prodotto volatile della degradazione, un etere fluorurato.  

5.4. Derivati del fluoruro di sulfonile

Il rappresentante più famoso di questa classe è l’ormai bandito PFOS (C8)[1]; gli altri componenti di questa categoria si basano sui C4. Essi includono il PFBS[2] (recentemente identificato come un SVHC), come pure altri due derivati[3] registrati nella fascia di tonnellaggio 100-1000 ton/anno.

5.5. (Poli)eteri

Ben 15 sostanze sono usate come eteri a molecola piccola (di cui il GenX, vedi inserto) e monomeri per polimeri a base polietere. Queste sostanze sono spesso usate come lubrificanti e tensioattivi. Il lettore è rinviato ad una recente completa rassegna[4] di queste sostanze.

6. Sostanze fluorotelomeri (FT)

Le rimanenti 26 sostanze completamente registrate[5], che totalizzano 6000 ton/a sono probabilmente le più interessanti e recentemente hanno attratto la crescente attenzione dei regolamentatori: due valutazioni CoRAP ed una proposta per un’ampia restrizione nell’ambito del REACH per le sostanze C6. In questo caso si tratta di quelle che sono normalmente chiamate “tecnologia C6”, eppure non sono quello che logicamente ci si aspetta di trovare a metà strada tra le tecnologie C4 e C8. In particolare, la tecnologia C6 è straordinariamente versatile nel tipo di blocchi costruttivi e monomeri che può fornire. Questa versatilità, insieme ad un piccolo sotterfugio metabolico (vedi paragrafo 6.3), è la chiave del successo e della pervasività di questo tipo di composto.

Queste sostanze fluorotelomeri (FT) sono la base per la maggior parte dei prodotti idrorepellenti, oleorepellenti e antimacchia, come pure delle schiume antincendio. Cosa sono?

·    Telomerizzazione La tecnica usata, per esempio, da Chemours: pezzi di estensione (le unità blu in Figura 9 , a sinistra) vengono aggiunte ad un iniziatore (rosso) e la sostanza è completata con un componente non fluorurato (verde). Le impurità possono avere uno o tre pezzi di estensione, per es. 4:2 o 8:2. Unità di numero dispari sono possibili, ma rare. Esiste la possibilità – indesiderabile – che si verifichi una sostituzione con 5:3 o 7:2. Elettrofluorazione La precedente tecnica era usata, per esempio, nell’impianto 3M di Zwijndrecht, Belgio: una sostanza “normale” reagisce in bagno elettrolitico con acido fluoridrico (HF) e viene trasformata in sostanza fluorurata. Eventuali impurità sono dovute a reazione incompleta, a impurità presenti nel materiale di partenza o dalla rottura e diramazione della catena. Sostanze Fluorotelomeri: buono a sapersi

6.1. Un po’ di fluorochimica

I PFAS possono esser prodotti sia per elettrofluorazione o per reazione di telomerizzazione (vedi inserto), che produce le sostanze fluorotelomeri. Esse non sono perfluorurate (cioè completamente fluorurate), in quanto nella maggior parte dei casi due atomi di carbonio si legano ad atomi di idrogeno (Figura 9). Questa struttura può essere completata con un ossigeno, con un solfuro o, meno comunemente, un atomo di carbonio, il che conduce a infinite possibilità di aggiungere altre funzionalità ai fluorotelomeri.

Figura 9: struttura di fluorotelomero tipico (6:2) (a sinistra) e monomero derivato da fluorotelomero per SCFP (destra)

6.2. Esempi di FT

I FT registrati nel REACH (elenco dettagliato negli allegati 8.1 e 8.2) comprendono la maggior parte delle applicazioni più comuni elencate nel paragrafo 5.3. La situazione è sorprendentemente coerente: le varie sostanze possono essere associate ad una specifica applicazione e nessuna delle principali applicazioni rimane senza una attribuzione[6].

6.3. La storia del cuculo

L’unità fluorotelomero 6:2 è subdola quando raggiunge l’ambiente (Figura 10): la parte non fluorurata “2” dell’unità 6:2 può essere degradata per via biotica microbica o abiotica nell’ambiente, generando il PFHxA[7].

Dal momento che il PFHxA è esso stesso un PFAS (e non è assolutamente soggetto a degradazione), analisi di suoli e acque che lo rintracciano potrebbero imputare la sua presenza alle emissioni di PFHxA stesso, mentre dalle considerazioni fatte sui volumi è molto più probabile che esso sia originato da FT 6:2. Può essere utile pensare all’FT come a un cuculo che depone le uova nel nido di un altro uccello (il PFHxA).

 

Figura 10: destino ambientale di FT 6:2 e PFHxA (a sinistra) e analogia ecologica suggerita (a destra).

7.  Lezioni da imparare

7.1. Conclusioni specifiche per gli FT

  • C’è un piccolo gruppo di FT importanti (vedi anche paragrafo 8). Da loro si possono ottenere molteplici SCFP, che sono però piuttosto simili tra loro.
  • Gli FT hanno diverse applicazioni, di cui molte possono portare ad alte emissioni con l’uso.
  • Potrebbero passare inosservati a causa dei loro prodotti di degradazione.

7.2. Conclusioni generali

La dissonanza della Figura 2 (vedi paragrafo 3.1, ndt) può essere così risolta: notate come le frecce sono diventate verdi e puntano l’una verso l’altra. Anche il testo al loro interno è cambiato.

(Figura 11: conclusioni generali, come risolvere la dissonanza cognitiva, ndt).

8.    Allegati

8.1.              FT registrati con tonnellaggio 100-1000 ton/anno e usi conosciuti

8.2.              FT registrati con tonnellaggio 10-100 ton/anno e usi conosciuti

Un elenco delle sostanze registrate da 1-10 ton/anno può essere fornito – su richiesta – dall’autore. Tra gli altri, queste sostanze includono monomeri aggiuntivi (tioli e alcoli) che possono essere usati per produrre SCFP basati sul poliuretano piuttosto che sulla struttura chimica poli(meta)crilata.

Contatto

Dr Jean-Luc Wietor

Senior Policy Officer

Chemicals and Sustainable Production

European Environmental Bureau

Tel: +32 2 274 1017

Email: jean-luc.wietor@eeb.org

           Jean-Luc WIETOR

Senior Policy Officer for Industrial Production

Jean-Luc works on emissions from industrial activities to the environment, focussing on up-dating and implementing the Industrial Emissions Directive, and promoting ambition, best practices and techniques. Before he joined EEB, Jean-Luc worked in chemical R&D and marketing, in public affairs and consulting. He holds a PhD in chemistry from Cambridge University and an MBA from FOM Düsseldorf. Jean-Luc is from Luxembourg and speaks Luxembourgish, German, French, Dutch, and English as well as some Italian and Spanish.

+32 2 274 10 17

jean-luc.wietor@eeb.org


[1] Una volta ampiamente usato come tale nelle cromature o come derivato in molti diversi usi.

[2] Registrato come il suo sale di potassio (EC 249-616-3), come pure come bassi tonnellaggi di due sali di alchilamonio (alkylammonium salts) EC 700-536-1 e EC 444-440-5. C’è anche un acido sulfonico FTS, contato con gli FTSs (EC 248-850-6), vedi appendice 8.2

[3] Queste sostanze dimostrano le limitazioni di questo modello di classificazione. I composti EC 252-043-1 e EC 252-044-7 sono alcoholfunctional C4-sulphonamides che possono essere usati come monomeri, per esempio per produrre SCFP attraverso la polimerizzazione a condensazione, es. Poliuretani o polyoxetanes. C’è anche un monomero metacrilato (methacrylate monomer) basato su un C4-sulphonamide (EC 266-737-7), che è stato contato (registrato) con i monomeri per gli SCFP, perché assolve a simili funzioni.

[4] Z. Wang et al. (2020): Per- and polyfluoroalkyl ether substances: identity, production and use, Nordic Council of Ministers.

[5] Strettamente parlando, due di queste sostanze (EC 807-113-1 and 246-791-8) non sono FTS, ma sono tuttavia probabili componenti per i SCFP o i PFAE (polieteri).

[6] Una ricerca specifica su queste attribuzioni le ha confermate. Queste e ulteriori informazioni possono essere fornite – su richiesta – dall’autore.

[7] A prima vista questo meccanismo sembra implausibile, dal momento che presuppone la rottura di due legami C-F, di per sé molto forti. Tuttavia, accade proprio così, come viene descritto in modo convincente da M.J.A. Dinglasan et al., Environ. Sci. Technol. 2004, 38(10), 2857.

Cosa succede quando si lavano le verdure?

In evidenza

Mauro Icardi

Spesso non si pensa a come, alcune azioni normalissime, possano avere un impatto sull’ambiente. Mi è venuto in mente quello del lavaggio dell’insalata e delle verdure in senso più ampio. E ovviamente vorrei fare una chiacchierata su questo tema, con l’approccio del tecnico di depurazione. E’ certamente vero che molte persone preferiscono lavare, preparare e cuocere le verdure secondo le usanze tradizionali, magari se sono quelle del loro orto. E’ altrettanto vero che il consumo di verdure conservate, o di insalate preconfezionate sia in molti casi una scelta obbligata che per mancanza di tempo si finisce spesso per preferire, rispetto a quelle fresche da pulire. La verdura che acquistiamo al supermercato passa attraverso fasi di lavaggio, di cernita dei prodotti, e di confezionamento, effettuati direttamente presso l’azienda agricola di produzione, o successivamente presso le industrie conserviere.

Il trattamento delle acque residue di questo tipo potrebbe apparire intuitivamente semplice. In realtà le cose non stanno esattamente così. I reflui di origine vegetale possono provenire, nel caso delle aziende agricole da zone molto fertili, e con marcata variabilità stagionale. In caso di recapito negli impianti di depurazione centralizzati, se la percentuale di acque reflue di origine vegetale fosse notevolmente elevata, rispetto a quelle di origine civile, potrebbero verificarsi problemi.

Analizziamo più a fondo la situazione. Le verdure più comuni mediamente contengono per la maggior parte acqua (74-94%), carboidrati (3-19%), proteine (1-6%), grassi (0,1-0,5%).

Quando le verdure sono lavate, le sostanze solubili e particolarmente gli zuccheri passano in soluzione, prima rapidamente, poi più lentamente nei lavaggi successivi. Anche molte particelle di sostanze vegetali insolubili rimangono in sospensione.  I rapporti C: N e C: P nei reflui vegetali sono quasi sempre troppo bassi, per garantire un ottimale trattamento aerobico. Se le verdure subiscono un trattamento di sbucciatura, i valori di carico inquinante aumentano notevolmente. A titolo esemplificativo il valore di BOD5 può variare da valori di circa 50 mg/L dopo la fase di prelavaggio, mentre dopo la fase di sbucciatura questo valore si può avvicinare a 3000 mg/L.

Il trattamento di questo tipo di reflui dovrà quindi prevedere diverse fasi di processo. Per quanto riguarda i trattamenti meccanici, per le sole acque di prelavaggio si può ricorrere alla sedimentazione primaria, mentre per i residui di sminuzzamento e sbucciatura è preferibile l’utilizzo di uno staccio rotante.

La sezione di microgrigliatura consente una prima riduzione delle sostanze sospese. Al termine di questa fase, le acque derivanti possono essere inviate alla sezione di sedimentazione. La corretta gestione di questa fase di trattamento è fondamentale per non sbilanciare il carico organico in ingresso alla sezione di ossidazione biologica.

 Quando le acque reflue giungono a questa sezione, si deve valutare in particolare il valore del pH, che è ottimale in un campo abbastanza ristretto (7-8).

Il tenore di azoto e fosforo in ingresso al trattamento biologico deve essere monitorato.  La carenza di questi nutrienti può provocare infatti il fenomeno del rigonfiamento dei fanghi (bulking).

Questo fenomeno può essere ridotto aumentando il tempo di ritenzione in vasca di ossidazione.

Occorre evitare un lungo periodo di permanenza dei reflui in condizioni anaerobiche/anossiche, prima del trattamento, perché in questo caso si potrebbe formare acido acetico dagli zuccheri, per attività batterica, e quindi il refluo dovrebbe essere riportato ai valori di pH ottimale con aggiunta di soluzioni basiche prima di essere inviato all’impianto di trattamento.

Ovviamente quanto descritto qui, riguarda la lavorazione industriale delle verdure. I contributi domestici sono notevolmente minori, per la semplice ragione che, i residui della verdura consumata in casa sono destinati a finire nel contenitore dei rifiuti umidi.  Se prendesse piede l’installazione di tritarifiuti domestici, come negli USA, la situazione cambierebbe radicalmente. Ogni nostra scelta quotidiana ha un impatto sull’ambiente. Non dobbiamo dimenticarcene. Ultima riflessione per chi non si occupa di depurazione. Potrebbe sembrare che il residuo di un materiale vegetale sia quanto di più degradabile e assimilabile ci sia.  Questo è vero solo in determinati contesti. In particolare gli scarti vegetali sono il giusto “carburante” per un processo di digestione anaerobica. Per il trattamento delle acque residue sono più problematici.

.

PFAS ed effetto “lampione”(prima parte)

In evidenza

Jean-Luc Wietor* (trad. di Dario Zampieri e di Stefania Romio art. originale su https://eeb.org/library/pfass-avoiding-the-streetlight-effect/)

La recente crescente attenzione al problema della diffusione ambientale dei PFAS trova particolare motivo di interesse nell’Italia settentrionale, in quanto qui sono stati localizzati due importanti centri di produzione europei: Solvay di Spinetta Marengo (Alessandria) e Miteni di Trissino (Vicenza), rispettivamente in Piemonte e in Veneto. Mentre il primo impianto è tuttora in funzione, il secondo è stato chiuso recentemente, in seguito alla scoperta che almeno 350000 persone sono state esposte per lungo tempo all’assunzione di PFAS tramite l’acqua che usciva dai rubinetti delle case nei territori situati a valle dell’impianto. Se il rifacimento degli acquedotti permetterà di eliminare questa fonte di contaminazione, il problema non sarà ancora risolto, perché la produzione in loco degli alimenti necessariamente usa acque di falda che rimarranno inquinate per decenni a venire, oltre al fatto che i PFAS continuano ad essere prodotti altrove in Italia e in Europa e quindi a circolare nell’ambiente, anche per via aerea quando si tenta di incenerirli. La gravità della contaminazione ha suscitato la preoccupazione della popolazione e la necessità di disporre di una corretta informazione sul problema. Infatti, il tema PFAS è argomento specialistico per chimici, epidemiologi, endocrinologi, pertanto di difficile comunicazione al grande pubblico. La piattaforma online PFAS.land, che ha tradotto per il pubblico italiano il breve ma illuminante articolo di Jean-Luc Wietor (EEB) PFASs – avoiding the streetlight effect, è nata proprio per colmare l’assenza di informazione accessibile a tutti. Solo il coinvolgimento dei cittadini nelle problematiche che li riguardano, prima di tutto la salute, può realizzare una società al passo delle difficili sfide del ventunesimo secolo e una compiuta democrazia. Ci auguriamo che la lettura di questo breve articolo corredato da efficacissime illustrazioni possa contribuire ad una migliore consapevolezza del pubblico italiano, in particolare delle giovani generazioni che erediteranno il pianeta.   Comitato di Redazione PFAS.land 12 gennaio 2021   Nota: per i link delle note a piè di pagina utilizzare la versione originale in inglese pubblicata su pfas.land/documenti-scientifici    

PFASs – evitare l’effetto lampione

Il punto sulla situazione in Eu[1]

Sintesi

I PFAS (sostanze per- e polifluoroalchiliche) stanno ricevendo una crescente attenzione regolamentatoria a causa della loro persistenza e del loro profilo (eco)tossicologico, come pure per il loro ampio uso che ne determina una presenza ubiquitaria. È stato detto che esistono più di 4700 PFAS, sebbene la maggior parte di coloro che conoscono l’argomento possa citarne solo pochi.

In questo rapporto abbiamo usato le registrazioni REACH[2] dei PFAS, letteratura indipendente, informazioni tecniche dei produttori e conoscenze generali di chimica per delineare quali tipi di PFAS sono prevalenti nei prodotti e pertanto hanno la probabilità di comportare le pressioni ambientali più elevate.

Concludiamo che i tipi di PFAS di cui preoccuparci di più sono: sostanze fluorotelomeri (FT) e le derivate catene laterali di polimeri fluorati (SCFP) nonché gli (poli)eteri fluorati. Questo rapporto deve essere inteso anche come un’introduzione al mondo dei PFAS.

Le iniziative di regolamentazione attuali sui PFAS C6 e sui PFAS in senso lato sono benvenute e necessarie.

Questo rapporto non è né esaustivo né perfetto, potendo includere errori dovuti a conoscenza o esami insufficienti. Chiediamo gentilmente al lettore di fornire commenti se necessari.

·    L’effetto lampione

Una storiella racconta di un ubriaco che cerca sotto un lampione la chiave di casa, che gli è caduta a una certa distanza. Interrogato sul perché non la cerchi dove gli è caduta, egli risponde “ma qui c’è più luce”.

Questo aneddoto[3] illustra un comune errore: ci focalizziamo su elementi familiari perché li conosciamo meglio, mentre tendiamo a dimenticare quelli poco conosciuti che però potrebbero essere più importanti.

Lo scopo di questo rapporto è di far luce su quei PFAS che non sono all’attenzione dei media, ma che stanno ricevendo crescente attenzione da parte dei (eco)tossicologi e degli estensori delle normative.

·    Abbiamo un PFroblema

Le conclusioni del Consiglio del giugno 2019 (Figura 1) descrivono i rischi ambientali e sanitari più rilevanti posti dai PFAS[4] e richiamano ad un’azione drastica per porre fine a queste minacce.

Figura 1: estratto dalle conclusioni del Consiglio dell’Unione Europea, giugno 2019

Lunghezza della catena I PFAS vengono spesso (impropriamente) divisi in Pfas a catena più lunga o a catena più corta, e questa separazione può spesso confondere. Quelli a catena corta hanno meno di otto atomi di carbonio perfluorato (sono spesso chiamati C6 e C4). Essi hanno sostituito quelli a catena lunga (da C8 in su) in gran parte scomparsi dal mercato (ma non dall’ambiente) per effetto delle azioni intraprese in base alla convenzione di Stoccolma. Dal punto di vista (eco)tossicologico non esiste una soglia definita (come per esano ed eptano). È tutto un grande continuum sfocato dominato dalla bioaccumulabilità per i PFAS a catena lunga e dalla mobilità per quelli a catena corta. I PFAS sono tutti altamente persistenti, ma alcuni, oltre a tutto ciò, riservano delle brutte sorprese (vedi sezione 6.3). Alcuni esempi: (l’alone verde denota un atomo di carbonio perfluorato)

Il focus di tale piano d’azione è sui PFAS a catena corta (C4, C6 ed alcuni casi più complicati, vedi l’inserto), poiché quelli a catena lunga sono stati già largamente regolamentati. I ricercatori hanno proposto la differenziazione degli usi dei PFAS[5] basata sulla definizione di essenzialità del protocollo di Montreal[6], che ha bandito i CFC (clorofluorocarburi) nel 1987.

·    Conosci il tuo aPFersario

Una regolamentazione efficace che incontri l’ambizione del Consiglio UE si baserà su una semplice ma sufficientemente ampia e chiara definizione dei PFAS priva di scappatoie che si prestino a spiacevoli sostituzioni. Per questo, è utile descrivere l’attuale “fotografia di famiglia” dei PFAS, specialmente quella dell’UE.

1.1. Una dissonanza cognitiva

Nelle discussioni sui PFAS spesso si sentono due affermazioni contradditorie, come illustrato dalla Figura 2.

Figura 2: Dissonanza cognitiva delle dichiarazioni sui PFAS

Se da un lato in registri (elenchi ufficiali di sostanze, ndt) diversi si può trovare un numero sconcertante di sostanze differenti[7], dall’altro il sapere collettivo, i siti web, gli articoli scientifici e giornalistici tendono a ruotare attorno solo a pochissime sostanze PFAS – le due più famose delle quali (PFOA e PFOS) sono state in gran parte messe al bando. In questo studio tentiamo di risolvere questa dissonanza cognitiva.

1.2. Registrazione REACH come sorgente d’informazione

Il regolamento REACH[8] richiede la registrazione di composti chimici prodotti o usati in quantità maggiori di 1tonnellata per anno. Sebbene in molti altri casi l’altezza di questa soglia sia da considerarsi preoccupante, ètuttavia sufficientemente bassa da fornire un quadro attendibile degli usi industriali su larga scala e delleemissioni. Il REACH distingue sostanze, miscele e articoli[9] prodotti e usati fuori o dentro la UE,come mostrato in Figura 3.

Figura 3: Schema degli obblighi di registrazione delle sostanze chimiche in REACH (per volumi > 1 ton/anno)

Monomeri e polimeri: Una semplice analogia: un monomero sta ad un polimero come una carrozza sta ad un treno. Dall’alto al basso: cinque differenti monomeri, un omopolimero e tre copolimeri di complessità e specializzazione crescenti. Monomeri diversi possono essere usati per impartire ai polimeri proprietà diverse. Nel caso del (meta)crilato l’omopolimero può corrispondere al PMMA (Plexiglas) o supercolla, mentre i copolimeri possono corrispondere a una vernice al lattice, a un superassorbente o a molti PFAS polimerici.

Nei casi con la spunta verde i prodotti chimici devono essere registrati sotto il REACH; solo per le sostanze contenute in articoli importati nell’UE l’obbligo non esiste[10]. Naturalmente questo è una lacuna nei dati, ma considerando gli usi tipici dei PFAS non dovrebbe distrarre dall’esistenza di informazioni negli altri cinque casi.

I polimeri (vedi inserto) sono esentati dalla registrazione, ma i monomeri usati per fare i polimeri sono soggetti a registrazione.

Il sito ECHA elenca tutti i composti chimici registrati: le sostanze PFAS rilevanti possono essere riconosciute, sebbene con un notevole lavoro manuale.

1.3. Presupposti e limitazioni

In questa ricerca siamo partiti dal seguente presupposto:

Presupposto: “Le aziende stanno operando legalmente
quando si tratta di registrare i PFAS nel REACH.”

Essenzialmente, ciò significa che le informazioni sulla registrazione possono essere prese come veritiere. In questa ricerca non abbiamo mai trovato prove contrarie a questo audace presupposto.

1.4. L’approccio “toolbox” (cassetta degli attrezzi)

Molti dei composti della cosiddetta “chimica fine” sono prodotti in diverse fasi. Chi conosce le tecniche di produzione della chimica industriale può spesso fare ipotesi attendibili sui passaggi di sintesi precedenti o successivi per ciascun composto, così come su funzioni e usi probabili e improbabili. Ciò è importante per i monomeri, in quanto i prodotti delle fasi successive (cioè i polimeri) non richiedono la registrazione. Il fondamento logico di queste ipotesi attendibili può essere chiesto all’autore.

·    Fotografia di famiglia dei PFAS

1.5. Registrazioni REACH: aspetti qualitativi

Lo sforzo noioso e in gran parte manuale[11] di selezionare PFAS dall’archivio ECHA ha prodotto 67 sostanze per varie fasce di tonnellaggio di produzione annua, come mostrato in Figura 4[12]. Tali sostanze sono state registrate da varie aziende; i più noti produttori di PFAS detengono la maggior parte delle registrazioni.

Figura 4: numero di sostanze registrate per fascia di tonnellaggio (sinistra) e per produttori selezionati (destra)

Qualche commento:

  • solo poche sostanze sono registrate nelle due fasce di tonnellaggio più elevate
  • le fasce con tonnellaggio >100 t/a coprono più del 99% del volume registrato
  • per le 7 sostanze registrate come solo intermedie il tonnellaggio è sconosciuto
  • il tonnellaggio totale di tutte le sostanze registrate è circa 335.000 t/a
  • la maggior parte delle sostanze sono monocostituenti (cioè con purezza > 80%).

1.6. Riordinare il disordine

Ci sono molti modi di categorizzare i PFAS; noi abbiamo adottato uno schema proposto dall’Organizzazione per la Cooperazione Economica e lo Sviluppo (OECD)[13] (Figura 5). Questo grafico è piuttosto impegnativo: prendetevi il tempo necessario per esaminarlo passo dopo passo:

  • Non preoccupatevi del significato degli acronimi
  • Le tipologie di PFAS usate per le successive analisi in questo studio sono segnalate con i colori
  • Colori simili indicano le strutture chimiche correlate
  • Le tipologie dei tre PFAS primitivi (sezione 3.1), dei quali due non sono registrati.
  • Ancora più importante: le aree colorate rappresentano le fasce di tonnellaggio registrate; il grafico a torta fornisce ulteriori dettagli sui tipi di PFAS non-dominanti.

Figura 5: proposta di classificazione dei PFAS e relativi volumi registrati.

Quali sono gli elementi importanti?

  • i monomeri per fluoropolimeri (FP, area grigia, che si estende ben oltre i limiti della presente immagine) sono prepotentemente dominanti (paragrafo 5.1)
  • i PFAS non classici sono di gran lunga la seconda classe più estesa (colore viola, paragrafo 5.2)
  • volumi importanti riguardano
    • gli FT e gli FP a catena laterale (tonalità verdastre, paragrafi 5.6 e 6)
    • i (poli)eteri (tonalità rossastre, paragrafo 5.5)
    • Acidi sulfonici e derivati (tonalità giallastre, paragrafo 5.4
  • Due dei tre PFAS precursori appartengono a tipologie che rappresentano volumi minori.

Diamo un’occhiata a queste varie tipologie, una per volta.

·    I membri più importanti della famiglia

1.7. Catena principale o catena laterale? La maggior parte dei polimeri assomigliano a un treno o a un pettine. Sia l’“asta” che i “denti” possono essere completamente o parzialmente fluorurati oppure non fluorurati. I fluoropolimeri del paragrafo 5.1 hanno per la maggior parte un’”asta” (o catena dorsale – backbone – o catena principale) che è parzialmente o totalmente fluorurata. I perfluoropolieteri (paragrafo 5.5) sono totalmente fluorurati. Alcuni hanno solo una catena dorsale (backbone), altri hanno catene laterali. I fluoropolimeri a catena laterale sono i veri polimeri a forma di pettine. Essi hanno una catena dorsale non fluorurata e, soprattutto, (alcuni) denti fluorurati. Fluoropolimeri (FP)

I fluoropolimeri sono principalmente omopolimeri e copolimeri semplici, o, per usare la similitudine del treno, sono treni formati da una sola o poche carrozze piuttosto normali. Dei cinque polimeri segnati in Figura 5, il più famoso è il PTFE meglio conosciuto come Teflon. Molte applicazioni degli FP sono mostrate in Figura 6.

Mentre gli FP rappresentano volumi molto elevati, non sono quasi mai al centro delle valutazioni sui PFAS. Confrontati con la piccolissima molecola dei PFAS e dei polimeri fluorurati a catena laterale (SCFP, vedi paragrafi 5.6 e 6), gli FP hanno solubilità trascurabile, bassa mobilità, grandi dimensioni, basso assorbimento biologico e dunque rappresentano una minore preoccupazione (eco)tossicologica. Ovviamente questo non significa che non necessitano di attenzione (eco)tossicologica o di regolamentazione!

Figura 6: esempi di applicazioni di fluoropolimeri (FP): nastro per giunture, isolamento di cavi, padelle, tubazioni, cuscinetti, tubi medicali.

1.8. PFAS non-classici

Sono alcune sostanze completamente fluorurate, ma con struttura chimica e proprietà molto diverse dai PFAS più comuni. Qualche esempio di struttura chimica è presentato nella Figura 7; sono usati come solventi, come fluidi che trasportano calore e come dielettrici[14].

Figura 7: Selezione di alcune strutture di PFAS non-classici.

(continua)

*Senior Policy Officer per la produzione industriale
Jean-Luc lavora sulle emissioni delle attività industriali nell'ambiente, concentrandosi sull'aggiornamento e l'attuazione della direttiva sulle emissioni industriali e promuovendo l'ambizione, le migliori pratiche e tecniche. Prima di entrare a far parte di EEB, Jean-Luc ha lavorato in R&S e marketing nel settore chimico, negli affari pubblici e nella consulenza. Ha conseguito un dottorato in chimica presso l'Università di Cambridge e un MBA presso FOM Düsseldorf. Jean-Luc è lussemburghese e parla lussemburghese, tedesco, francese, olandese e inglese, oltre a un po 'di italiano e spagnolo.

+32 2274 10 17

jean-luc.wietor@eeb.org

[1] Si ringrazia il Dr Zhanyun Wang di ETH Zurigo (Svizzera) per la lettura critica del manoscritto.

[2] La sigla REACH deriva dall’inglese e indica «registrazione, valutazione, autorizzazione e restrizione delle sostanze chimiche». Il REACH è un regolamento dell’Unione europea, adottato per migliorare la protezione della salute umana e dell’ambiente dai rischi che possono derivare dalle sostanze chimiche.

[3] Come riferito da A. Kaplan nel suo fondamentale lavoro “The Conduct of Inquiry” nel 1964.

[4] Un’introduzione chiara e coincisa sui PFAS è disponibile alla pagina dedicata dell’ECHA.

[5] I. T. Cousins et al., Environ. Sci.: Processes Impacts, 2019, 21, 1803.

[6] Decision IV/25: Essential Uses

[7] OECD ENV/JM/MONO(2018)7, p. 16.

[8] Regolamento 1907/2006, descrizione nel sito web ECHA.

[9] Le tre icone della Figura 3 illustrano il significato delle 3 classi: un articolo è un oggetto che ha una sua forma (es. la giacca impermeabile impregnata di PFAS); lo spray o il liquido usato per impregnare la giacca è considerato, nella maggior parte dei casi, una miscela; la “molecola” di PFAS considerata in se stessa è una sostanza.

[10] Si potrebbe essere tentati di pensare che le sostanze usate negli articoli di consumo prodotti nell’EU non richiedano registrazione. Questo è vero solo in linea di principio. Tuttavia, considerando i tipici prodotti di consumo trattati con i PFAS (abbigliamento outdoor, scarpe, tappeti/moquette, tovaglie), il trattamento con i PFAS molto probabilmente si situa nelle fasi finali del processo produttivo: la fase in cui i prodotti sono impregnati con i PFAS rappresenta l’uso di una miscela e richiede pertanto la registrazione.

[11] Sono state escluse le sostanze con due o meno atomi di carbonio perfluorurati consecutivi, tranne quando possono essere usati come monomeri per fluoropolimeri.

[12] Disclaimer: questo numero è il risultato di una valutazione personale; molte sostanze si trovano in un’area grigia e potrebbero essere più o meno rilevanti per il discorso dei PFAS. Altri esperti potrebbero giungere a conclusioni leggermente diverse. Precisazioni simili sono notificate nello studio OECD citato alla nota 7. L’autore invita i lettori a comunicare i loro dubbi in merito alla rilevanza o correttezza di questa cifra.

[13] OECD (2013), OECD/UNEP Global PFC Group, Synthesis paper on per- and polyfluorinated chemicals (PFCs), Environment, Health and Safety, Environment Directorate, OECD, p. 7.

[14] Probabilmente come sostituti dei policlorobifenili (PCBs)

Elementi della Tavola periodica. Tantalio, Ta (seconda parte)

In evidenza

Rinaldo Cervellati

la prima parte di questo post è pubblicata qui.

Produzione e raffinazione

Diversi passaggi sono coinvolti nell’estrazione del tantalio dalla tantalite. In primo luogo, il minerale viene frantumato e concentrato per separazione per gravità. Questo processo viene generalmente eseguito vicino al sito minerario.

La raffinazione del tantalio dai suoi minerali è uno dei processi più impegnativi nella metallurgia industriale. Il problema principale è che i minerali di tantalio contengono quantità significative di niobio, che ha proprietà chimiche quasi identiche. Per affrontare questa sfida sono state sviluppate un gran numero di procedure.

Attualmente, la separazione è ottenuta mediante idrometallurgia. L’estrazione inizia con la lisciviazione del minerale con acido fluoridrico insieme con acido solforico o acido cloridrico. Questo passaggio consente di separare il tantalio e il niobio dalle varie impurità non metalliche presenti nel minerale. Sebbene il tantalio si presenti come vari composti, è convenientemente rappresentato come pentossido, poiché la maggior parte degli ossidi di tantalio (5) si comportano in modo simile. Un’equazione semplificata per la sua estrazione è quindi:

Ta2O5 + 14HF → 2H2[TaF7] + 5H2O

Reazioni completamente analoghe si verificano per il componente niobio, ma l’esafluoruro è tipicamente predominante nelle condizioni di estrazione:

Nb2O5 + 12HF → 2 H[NbF6] + 5H2O

I complessi di tantalio e fluoruro di niobio vengono quindi rimossi dalla soluzione acquosa mediante estrazione liquido-liquido in solventi organici, come cicloesanone, ottanolo e metilisobutilchetone. Questa semplice procedura consente la rimozione della maggior parte delle impurità contenenti metalli (a es. ferro, manganese, titanio, zirconio), che rimangono nella fase acquosa sotto forma di fluoruri e altri complessi.

La separazione del tantalio dal niobio viene quindi ottenuta abbassando la forza ionica della miscela acida, che provoca la dissoluzione del niobio nella fase acquosa. Si suppone che l’ossifluoruro H2[NbOF5] si formi in queste condizioni. Dopo la rimozione del niobio, la soluzione di H2[TaF7] purificato viene neutralizzata con ammoniaca acquosa per far precipitare l’ossido di tantalio idrato come solido, che viene poi calcinato in pentossido di tantalio (Ta2O5).

Invece dell’idrolisi, l’H2[TaF7] può essere trattato con fluoruro di potassio per produrre eptafluorotantalato di potassio:

H2[TaF7] + 2KF → K2[TaF7] + 2HF

A differenza di H2[TaF7], il sale di potassio è prontamente cristallizzato e manipolato come un solido. K2[TaF7] può essere convertito in tantalio metallico mediante riduzione con sodio, a circa 800 °C:

K2[TaF7] + 5Na → Ta + 5NaF + 2KF

Il tantalio può anche essere raffinato mediante elettrolisi, utilizzando una versione modificata del processo Hall – Héroult[1]. Invece di richiedere che l’ossido di ingresso e il metallo di uscita siano in forma liquida, l’elettrolisi del tantalio opera su ossidi in polvere non liquidi. La scoperta iniziale è avvenuta nel 1997 quando i ricercatori dell’Università di Cambridge hanno immerso piccoli campioni di alcuni ossidi in bagni di sale fuso e hanno ridotto l’ossido usando corrente elettrica. Il catodo utilizza ossido di metallo in polvere. L’anodo è in carbonio. Il sale fuso a 1.000 °C è l’elettrolita. La prima raffineria ebbe una capacità sufficiente per fornire il 3-4% della domanda globale annuale.

Applicazioni

Elettronica

L’uso principale del tantalio, come polvere metallica, è nella produzione di componenti elettronici, principalmente condensatori e alcune resistenze ad alta potenza. I condensatori elettrolitici sfruttano la tendenza del tantalio a formare uno strato superficiale di ossido protettivo, usando il metallo in polvere, pressata a forma di pellet, come una “piastra” del condensatore, l’ossido come dielettrico e una soluzione elettrolitica o solido conduttivo come l’altro “piatto”. Poiché lo strato dielettrico può essere molto sottile (più sottile dello strato simile, ad esempio, in un condensatore elettrolitico in alluminio), è possibile ottenere un’elevata capacità in un piccolo volume. A causa delle dimensioni e dei vantaggi in termini di peso, i condensatori al tantalio sono interessanti per telefoni portatili, personal computer, elettronica automobilistica e fotocamere.

Figura 9. Un condensatore al tantalio(a sinistra) e suo schema interno(a destra)

Il tantalio è stato ampiamente utilizzato nella produzione di tubi elettronici ad altissima frequenza per trasmettitori radio.

Industria metallurgica

Il tantalio viene anche utilizzato per produrre una varietà di leghe che hanno punti di fusione, resistenza e duttilità elevati. Legato con altri metalli, è anche utilizzato nella fabbricazione di utensili in metallo duro per attrezzature per la lavorazione dei metalli e nella produzione di superleghe per componenti di motori a reazione, apparecchiature per processi chimici, reattori nucleari, parti di missili, scambiatori di calore e serbatoi. Grazie alla sua duttilità, il tantalio può essere tirato in fili o filamenti sottili, che vengono utilizzati per evaporare metalli come l’alluminio. Poiché resiste all’attacco dei fluidi corporei e non è irritante è ampiamente utilizzato nella realizzazione di strumenti chirurgici e impianti medici.

Il tantalio è inerte contro la maggior parte degli acidi, questa proprietà lo rende un metallo utile per recipienti di reazione chimica e tubi per liquidi corrosivi. Le serpentine di scambio termico per il riscaldamento a vapore dell’acido cloridrico sono realizzate in tantalio.

Altri usi

L’alto punto di fusione e la resistenza all’ossidazione portano all’uso del metallo nella produzione di parti di forni sottovuoto. Il tantalio è estremamente inerte ed è quindi utilizzato in una varietà di parti resistenti alla corrosione, come pozzetti termometrici, corpi a valvola e dispositivi di fissaggio. Il tantalio aumenta notevolmente le capacità di penetrazione dell’armatura di una carica sagomata grazie alla sua alta densità e alto punto di fusione. È anche usato occasionalmente in orologi preziosi, ad es. di Audemars Piguet, F.P. Journe, Hublot, Montblanc, Omega e Panerai. La sua elevata rigidità rende necessario il suo utilizzo come schiuma ad alta porosità o impalcatura con minore rigidità per le protesi dell’anca. Poiché il tantalio è un metallo non ferroso e non magnetico, questi impianti sono considerati accettabili per i pazienti sottoposti a procedure di risonanza magnetica. L’ossido viene utilizzato per realizzare speciali vetri ad alto indice di rifrazione per obiettivi fotografici.

Tossicologia e precauzioni

I composti contenenti tantalio si incontrano raramente in laboratorio. Il metallo è altamente biocompatibile e viene utilizzato per protesi e rivestimenti corporei, pertanto l’attenzione viene focalizzata sui luoghi di produzione e trasformazione del metallo o dei suoi composti.

Le persone possono essere esposte al tantalio sul posto di lavoro respirandolo, per contatto con la pelle o con gli occhi. La Occupational Safety and Health Administration degli USA ha fissato il limite legale (limite di esposizione consentito) per l’esposizione al tantalio sul posto di lavoro a 5 mg/m3 su una giornata lavorativa di 8 ore. L’Istituto nazionale per la sicurezza e la salute sul lavoro (NIOSH) ha stabilito un limite di esposizione consigliato (REL) di 5 mg/m3 su una giornata lavorativa di 8 ore e un limite a breve termine di 10 mg/m3. A livelli di 2500 mg/m3, il tantalio è immediatamente pericoloso per la salute e la vita.

Riciclaggio

Nel 2015 il riciclaggio del tantalio dall’industria metallurgica ma soprattutto da quella elettronica era diventata una necessità contingente per l’incremento del suo uso con conseguente impoverimento delle risorse naturali. La Global Metal, una multinazionale con sede in Canada, riciclava praticamente qualsiasi scarto contenente tantalio [1].

Più recentemente, un gruppo di ricerca tedesco ha studiato i metodi di riciclaggio e le barriere che vi si oppongono per i componenti a base di tantalio  dei componenti elettronici ed elettrici di PC, notebook e altre attrezzature [2].

Nello stesso anno, il 2017, tre ricercatori cinesi hanno messo a punto un processo per il recupero del tantalio dai rifiuti di condensatori (WTC). Il loro metodo è basato sulla metallurgia dei cloruri (CM). Nel processo CM, come agente di clorurazione viene scelto il cloruro di ferro(II), FeCl2 non tossico. Considerazioni termodinamiche hanno dimostrato che il tantalio reagisce selettivamente con FeCl2 generando TaCl5 che può essere facilmente separato per condensazione. Il recupero di Ta può raggiungere il 93,56% con i seguenti parametri ottimali: temperatura: 500 °C, quantità di FeCl2: 50%, tempo di permanenza : 2 ore, dimensione delle particelle di polvere ricca di Ta < 0,24 mm [3].

Una rappresentazione schematica della fornace usata dai ricercatori è mostrata in figura10. 

Figura 10. Schema del processo CM [3]

Nell’articolo viene inoltre discusso il meccanismo cinetico e la fase di controllo della velocità nella reazione di clorurazione del tantalio viene determinata mediante un accurato controllo. Durante l’intero processo non sono prodotti gas pericolosi e rifiuti liquidi [3].

Ciclo biogeochimico

In campo ambientale il tantalio riceve molta meno attenzione rispetto ad altri elementi. La concentrazione e il rapporto Nb/Ta nella crosta superiore (UCC) e nei minerali sono disponibili perché queste misurazioni sono utili come strumento geochimico. Il valore più recente per la concentrazione della crosta superiore è 0,92 ppm, e il rapporto in peso Nb/Ta è pari a 12,7.

Sono disponibili pochi dati sulle concentrazioni di tantalio nei diversi comparti ambientali, specialmente nelle acque naturali, dove non sono state prodotte stime affidabili delle concentrazioni di tantalio “disciolto” nell’acqua di mare e nelle acque dolci. Sono stati pubblicati alcuni valori sulle concentrazioni disciolte negli oceani, ma sono contraddittori. I valori nelle acque dolci vanno leggermente meglio, ma, in tutti i casi, sono probabilmente inferiori a 1 ngL−1, poiché le concentrazioni “disciolte” nelle acque naturali sono ben al di sotto della maggior parte delle attuali capacità analitiche. L’analisi richiede procedure di pre-concentrazione che, per il momento, non danno risultati coerenti. E in ogni caso, il tantalio sembra essere presente nelle acque naturali per lo più sotto forma di particolato piuttosto che disciolto [4].

I valori delle concentrazioni nel suolo, nei sedimenti e negli aerosol atmosferici sono più facili da ottenere [4]. I valori nei suoli sono vicini a 1 ppm e quindi ai valori UCC. Questo indica l’origine detritica. Per gli aerosol atmosferici i valori disponibili sono dispersi e limitati.

L’inquinamento legato all’uso umano dell’elemento non è stato rilevato. Il tantalio sembra essere un elemento molto conservativo in termini biogeochimici, ma il suo ciclo e la sua reattività non sono ancora completamente compresi.

Tuttavia, la review di Filella [4] contiene un grafico esauriente che mostra i prodotti contenenti tantalio raffinato, i prodotti intermedi da essi ottenuti, e le merci finali fabbricate.

Opere consultate

Handbook of Chemistry and Physics, 85th Ed.

https://en.wikipedia.org/wiki/Tantalum

Bibliografia

[1] https://globemetal.com/tantalum-scrap-recycling/

[2] M. Ueberschaar et al., Potentials and Barriers for Tantalum Recovery from Waste Electric and Electronic Equipment., Journal of industrial ecology, 2017, 21, 700-714.

[3] Bo Niu et al., Method for Recycling Tantalum from Waste Tantalum Capacitors by Chloride Metallurgy.,  ACS Sustainable Chem. Eng. 2017, 5, 1376–1381.

[4] M. Filella, Tantalum in the environment.,Earth-Science Reviews, 2017, 173, 122-140.


[1] Il processo di Hall-Héroult è l’unico processo industriale utilizzato per la produzione dell’alluminio primario. Consiste nella dissoluzione di allumina in un bagno di criolite fusa che viene poi sottoposto a elettrolisi per ottenere alluminio. Fu messo a punto in maniera indipendente e simultanea nel 1886 dal chimico statunitense Charles Martin Hall e dal francese Paul Héroult.

Elementi della tavola periodica. Tantalio, Ta.(prima parte)

In evidenza

Rinaldo Cervellati

Il tantalio (inglese tantalum), simbolo Ta, è l’elemento n. 73 della Tavola Periodica, posto al 5° Gruppo, 6° Periodo, sotto al niobio con a fianco afnio (a sinistra) e tungsteno (a destra). È un metallo di transizione, di colore blu-grigio brillante, duro, altamente resistente alla corrosione. È abbastanza raro, la sua abbondanza nella crosta terrestre è valutata in 2 ppm.

Il tantalio fu scoperto in Svezia nel 1802 da Anders Gustav Ekeberg[1], in due campioni di minerali di ittrio, uno dalla Svezia e l’altro dalla Finlandia.

Figura 1. Anders Gustav Ekeberg

Un anno prima, Charles Hatchett (1765-1847) aveva scoperto il colombio (ora chiamato niobio), e nel 1809 il chimico inglese William Hyde Wollaston (1766-1828) paragonò il suo ossido, la columbite, con una densità di 5,918 g/cm3, a quello del tantalio, tantalite, con una densità di 7,935 g/cm3. Concluse comunque che i due ossidi, nonostante la loro differenza nella densità misurata, erano identici e mantenne il nome tantalio. Dopo che Friedrich Wöhler (1800-1882) confermò questi risultati, si pensò che columbio e tantalio fossero lo stesso elemento. Questa conclusione fu contestata nel 1846 dal chimico tedesco Heinrich Rose (1795-1848), il quale sostenne che c’erano due elementi aggiuntivi nel campione di tantalite, e li chiamò in onore dei figli di Tantalo: niobio (da Niobe, la dea delle lacrime) e pelopio (da Pelope). Il presunto elemento “pelopium” fu successivamente identificato come una miscela di tantalio e niobio, e si scoprì che il niobio era identico al colombio già scoperto nel 1801 da Hatchett.

Le differenze tra tantalio e niobio furono dimostrate inequivocabilmente nel 1864 da Christian Wilhelm Blomstrand (1826-1897) e Henri Etienne Sainte-Claire Deville (1818-1881), nonché da Louis J. Troost (1825-1911), che determinò le formule empiriche di alcuni dei loro composti nel 1865. Un’ulteriore conferma venne dal chimico svizzero Jean Charles Galissard de Marignac[2] che nel 1866, dimostrò che c’erano solo due elementi. De Marignac fu il primo a produrre la forma metallica del tantalio nel 1864, quando ridusse il cloruro di tantalio riscaldandolo in un’atmosfera di idrogeno.

Figura 2. Jean Charles Galissard de Marignac

Il nome tantalio deriva da Tantalo, il padre di Niobe nella mitologia greca. Nella storia, era stato punito dopo la morte essendo condannato a stare in piedi nell’acqua fino alle ginocchia con un frutto perfetto che cresceva sopra la sua testa, cosa che lo stuzzicava eternamente.

Anders Ekeberg scrisse: “Questo metallo lo chiamo tantalio … in parte alludendo alla sua incapacità, quando immerso nell’acido, di assorbirne qualsiasi cosa ed essere saturo”.

Per decenni, la tecnologia commerciale per separare il tantalio dal niobio ha coinvolto la cristallizzazione frazionata dell’eptafluorotantalato di potassio dall’ossipentafluoroniobato monoidrato di potassio, un processo scoperto da Jean Charles Galissard de Marignac nel 1866.

Caratteristiche fisiche

Il tantalio metallico ha colore blu-grigio scuro, è denso, duro, duttile, di facile fabbricazione e altamente conduttore di calore ed elettricità.

Figura 3. Tantalio metallico

Il metallo è rinomato per la sua resistenza alla corrosione da parte degli acidi; infatti a temperature inferiori a 150 °C è quasi completamente immune agli attacchi dell’acqua regia (una miscela di acidi nitrico e cloridrico 1:3) normalmente aggressiva. Può essere sciolto in acido fluoridrico o soluzioni acide contenenti lo ione fluoruro e anidride solforica, nonché in una soluzione di idrossido di potassio. L’alto punto di fusione del tantalio di 3017 °C (punto di ebollizione 5458 °C) è superato tra gli elementi solo da tungsteno, renio, osmio e carbonio.

Il tantalio elementare esiste in due fasi cristalline, alfa e beta. La fase alfa è relativamente duttile e morbida; ha una struttura cubica a corpo centrato. La fase beta è dura e fragile; la sua simmetria cristallina è tetragonale, è metastabile e si converte nella fase alfa per riscaldamento a 750–775 °C. Il tantalio commerciale sfuso è quasi interamente in fase alfa.

Il tantalio naturale è costituito da due isotopi: 181Ta (99,988%) e 180mTa (0,012%). 181Ta è un isotopo stabile. È stato previsto che 180mTa (m denota uno stato metastabile) decada in tre modi: transizione isomerica allo stato fondamentale di 180Ta, decadimento beta a 180W o cattura di elettroni a 180Hf. Tuttavia, la radioattività di questo isomero nucleare non è mai stata osservata ed è stato fissato solo un limite inferiore alla sua emivita di 2,0 × 1016 anni. Lo stato fondamentale di 180Ta ha un’emivita di sole 8 ore. 180mTa è l’unico isotopo nucleare presente in natura (esclusi i nuclidi a vita breve radiogenici e cosmogenici). È anche l’isotopo primordiale più raro dell’Universo, tenendo conto dell’abbondanza elementare di tantalio e di quella isotopica di 180mTa nella miscela naturale di isotopi.

Esiste un certo numero di isotopi artificiali del tantalio, tutti radioattivi con emivite da 1,82 anni (179Ta) a 5,1 giorni (183Ta).

Composti chimici

Il tantalio forma composti negli stati di ossidazione da −3 a +5. I più comunemente riscontrati sono gli ossidi di Ta(5), che include tutti i minerali. In mezzi acquosi, mostra solo lo stato di ossidazione +5. Come il niobio, il tantalio è a malapena solubile in soluzioni diluite di acido cloridrico, solforico, nitrico e fosforico a causa della precipitazione dell’ossido di Ta(5) idrato.  Nei terreni può essere solubilizzato a causa della formazione di specie poliossotantalate.

Ossidi, nitruri, carburi, solfuri

Il pentossido di tantalio (Ta2O5) è il composto più importante dal punto di vista delle applicazioni. Gli ossidi di tantalio negli stati di ossidazione inferiore sono numerosi, comprese molte strutture difettose, e sono poco studiati o scarsamente caratterizzati.

I tantalati, composti contenenti [TaO4]3− o [TaO3] sono numerosi. Il tantalato di litio (LiTaO3) adotta una struttura simile alla perovskite. Il tantalato di lantanio (LaTaO4) contiene quattro tetraedri TaO43−.

Come nel caso di altri metalli refrattari, i composti più duri conosciuti del tantalio sono nitruri e carburi. Il carburo di tantalio, TaC, come il carburo di tungsteno più comunemente usato, è una ceramica dura che viene utilizzata negli utensili da taglio. Il nitruro di tantalio (III) è utilizzato come isolante a film sottile in alcuni processi di fabbricazione microelettronica.

Il calcogenuro meglio studiato è TaS2, un semiconduttore a strati. Una lega di tantalio-tellurio forma dei quasicristalli.

Alogenuri

Gli alogenuri di tantalio coprono gli stati di ossidazione di +5, +4 e +3. Il pentafluoruro di tantalio (TaF5) è un solido bianco con un punto di fusione di 97,0 °C. L’anione [TaF7]2− viene utilizzato per la sua separazione dal niobio. Il cloruro TaCl5, che esiste come dimero, è il principale reagente nella sintesi di nuovi composti del tantalio. Si idrolizza prontamente a un ossicloruro. Gli alogenuri inferiori TaX4 e TaX3 presentano legami Ta-Ta.

Composti organotantalici

I composti organotantalici includono pentametiltantalio, cloruri di alchiltantalio misti, idruri di alchiltantalio, complessi di alchilidene e derivati ​​ciclopentadienilici degli stessi.

Figura 4. Struttura del pentametil tantalio Ta(CH3)5

Diversi sali e derivati ​​sostituiti sono noti per la sintesi dell’esacarbonile [Ta(CO)6] e di composti isocianuri.

Disponibilità

Esistono molte specie di minerali di tantalio, solo alcuni dei quali sono finora utilizzati dall’industria come materie prime: tantalite (una serie composta da tantalite-(Fe), tantalite-(Mn) e tantalite- (Mg)), microlite (ora un nome di gruppo), wodginite, euxenite e polycrase. Tantalite (Fe, Mn) Ta2O6 è il minerale più importante per l’estrazione del tantalio.

Figura 5. Campione di tantalite

La tantalite ha la stessa struttura minerale della columbite (Fe, Mn)(Ta, Nb)2O6; quando c’è più tantalio del niobio si chiama tantalite e quando c’è più niobio del tantalio si chiama columbite (o niobite). L’alta densità di tantalite e altri minerali contenenti tantalio rende l’uso della separazione gravitazionale il metodo migliore. Altri minerali includono samarskite e fergusonite.

L’estrazione principale del tantalio, fino al 2007, è stata in Australia, dove il più grande produttore, Global Advanced Metals (in precedenza Talison Minerals), gestisce due miniere nell’Australia occidentale, Greenbushes nel sud-ovest e Wodgina nella regione di Pilbara. Wodgina produce un concentrato di tantalio primario che viene ulteriormente potenziato nell’attività di Greenbushes prima di essere venduto ai clienti (figura 6). Alcuni altri paesi come Cina, Etiopia e Mozambico estraggono minerali con una percentuale più alta di tantalio e ne producono una quantità significativa della produzione mondiale. Il tantalio è prodotto anche in Thailandia e Malesia come sottoprodotto dell’estrazione dello stagno. Durante la separazione per gravità dei minerali dai depositi, non solo si trova la cassiterite (SnO2), ma anche una piccola percentuale di tantalite. Le scorie delle fonderie di stagno contengono quindi quantità economicamente utili di tantalio, che viene lisciviato da queste.

Figura 6. Mappa del mondo nel 2006, con Canada, Brasile e Mozambico colorati in blu che rappresentano meno del 20% della produzione mondiale di tantalio e l’Australia colorata in verde che rappresenta il 60% della produzione mondiale di tantalio.

La produzione mondiale di tantalio ha subito un importante cambiamento geografico dall’inizio del 21° secolo, quando proveniva principalmente dall’Australia e dal Brasile. Dal 2007 e fino al 2014, le principali fonti di produzione dalle miniere si sono drasticamente spostate nella Repubblica del Congo, in Ruanda e in alcuni altri paesi africani.  Fonti future di approvvigionamento, in ordine di dimensione stimata, vengono esplorate in Arabia Saudita, Egitto, Groenlandia, Cina, Mozambico, Canada, Australia, Stati Uniti, Finlandia e Brasile (figura 7).

Figura 7. Mappa del mondo nel 2015 con il Ruanda principale produttore di tantalio

Il tantalio è considerato una risorsa di conflitto. Coltan, il nome industriale per un minerale di columbite-tantalite da cui sono estratti niobio e tantalio, si trova in Africa centrale, motivo per cui il tantalio è collegato alla guerra nella Repubblica Democratica del Congo (ex Zaire) . Secondo un rapporto delle Nazioni Unite del 23 ottobre 2003, il contrabbando e l’esportazione di Coltan ha contribuito ad alimentare la guerra in Congo, una crisi che ha provocato circa 5,4 milioni di morti dal 1998, rendendola la più letale al mondo dopo la seconda guerra mondiale. Sono state sollevate questioni etiche sulle responsabilità delle industrie estrattive, sulla mancanza di diritti umani e sui pericoli di estinzione di fauna selvatica, a causa dello sfruttamento di risorse come il Coltan nelle regioni del bacino del Congo in conflitto armato. Tuttavia, sebbene importante per l’economia locale in Congo, il contributo dell’estrazione del Coltan all’approvvigionamento mondiale di tantalio è piccolo. Lo United States Geological Survey riporta nel suo annuario che questa regione ha prodotto poco meno dell’1% della produzione mondiale di tantalio nel 2002-2006, con un picco del 10% nel 2000 e nel 2008.

In base ai tassi attuali di estrazione è stato stimato che siano rimasti meno di 50 anni di risorse di tantalio, a dimostrazione della necessità di un maggiore riciclaggio (figura 8).

Figura 8. Produzione mondiale di tantalio negli anni

(contnua)

Opere consultate

Handbook of Chemistry and Physics, 85th Ed.

https://en.wikipedia.org/wiki/Tantalum


[1] Anders Gustaf Ekeberg (Stoccolma, 1767 – Uppsala, 1813), svedese, è stato un chimico analitico, matematico ed esperto in letteratura greca, scoprì il tantalio nel 1802.

[2] Jean Charles Galissard de Marignac (Ginevra, 1817 – 1894) è stato un chimico svizzero, famoso per le sue ricerche sui pesi atomici e per i suoi studi sulle terre rare, che lo portarono a scoprire l’itterbio (1878) e il gadolinio (1880).

Bufale di……scoglio.

In evidenza

Claudio Della Volpe

Quando ero ragazzo ricordo che le triglie di scoglio erano a Napoli un ricercato tipo di pesce; al momento non saprei dove trovarle, ma in compenso posso proporvi quattro “risate” ed un po’ di ironia sul caso delle bufale di ….scoglio.

In un recente post Luigi Campanella faceva notare come i laboratori medici sono raramente accreditati dal punto di vista della qualità, tanto che il numero di quelli dotati della ISO 15189 rimane costante a livello internazionale, circa 10mila.

Questa carenza di controllo di qualità su laboratori, che usano tanta chimica, può forse contribuire a spiegare certe posizioni che sono state recentemente al centro di discussioni e anche di azioni legali promosse da quella che potremmo chiamare la “cultura”(?!?)  no-vax.

Nell’ottobre un medico di Ardea, tale Amici firma insieme ad altri noti “scienziati alternativi” i cui nomi ritornano spesso in queste faccende  (Scoglio, Franchi e Gatti e Montanari, proprio loro i nano-scienziati, (nel senso scienziati delle nanoparticelle)) un ricorso al TAR del Lazio contro la decisione del Presidente della Regione , Zingaretti, che aveva disposto la vaccinazione anticovid obbligatoria. Tutto il ragionamento era basato sulla presunta inconsistenza dei test di rilevazione del Covid-19, definiti come incapaci nell’85% dei casi di rilevare la malattia.

La richiesta si fondava sugli esperimenti condotti da alcuni dei firmatari in un laboratorio medico (presumibilmente NON dotato di ISO15189 visti i risultati) e che sono perfino documentati su ……Youtube (nota videorivista di chimica analitica).

Non vi metto il link per ridurre la facilità di accesso a questi documenti, veramente pietosi dal punto di vista scientifico e tecnico, ma li trovate facilmente se cercate i nomi di Scoglio e Amici su Youtube.

Stefano Scoglio è un dottore, si, ma in ………giurisprudenza, altresì naturopata (definizione che non richiede in Italia alcuna laurea) e autodichiarato professore e candidato al premio Nobel, che studia le alghe e ha pubblicato alcuni lavori sull’uso medico delle alghe proposte contro malattie importanti (alghe vendute da lui medesimo); trovate un commento sul personaggio qui.

E’ arrivato sui giornali nazionali per aver sostenuto che il virus della Covid non è mai stato isolato.

Cosa fanno in queste prove filmate della inconsistenza dei test per rilevare il covid?

Testano le strip che si usano per il test rapido usando come materiale del test non i campioni di muco estratti ai pazienti, ma fette di kiwi, pera, mela ed altro tipo di frutta appositamente rovinate per questo geniale e ridicolo scopo. Dall’ovvio e prevedibile fallimento del test che, travolto dal diverso pH e forza ionica, rileva l’infezione o meno, traggono la conclusione che il test è fallimentare.

Il test viene eseguito da un perito chimico (Domenico D’Angelo) il quale esegue  la raccolta dei campioni sul supporto, l’immersione nella soluzione tamponante e l’immissione del liquido così ottenuto sullo stick che contiene il reagente per la reazione vera e propria (non sappiamo se le lame usate siano sterilizzate o meno).

Da sin. Scoglio, Amici e D’Angelo.

L’immunocromatografia su membrana, questo il nome tecnico del test usato, comunemente detto test rapido è basato sulle specifiche non solo di quel che si vuole testare (virus, batterio, proteina di qualche tipo, ormone ma anche della tipologia di campione usato; ogni test è progettato per una specifica tipologia di campione; ce ne sono per le feci, per le urine, il sangue, etc); questa specificità avrebbe dovuto far scattare un qualche dubbio nei volenterosi analisti, ma nulla. Sono troppo esperti per preoccuparsi di queste quisquilie.

Scoglio è addirittura convinto che il virus non sia mai stato individuato e separato, cosa totalmente falsa e al contrario ottenuta in numerosi laboratori nel mondo, ma tutti si sono sbagliati: le foto al SEM, i dati RNA, le strutture di cui abbiamo ripetutamente parlato per il nostro futuro Nobel non esistono.

Lo schema della reazione immunochimica è individuata nella immagine sotto e una review opensource sui problemi di questo tipo di test è per esempio la seguente:

Anal Bioanal Chem (2009) 393:569–582 Geertruida A. Posthuma-Trumpie & Jakob Korf & Aart van Amerongen   DOI 10.1007/s00216-008-2287-2 Lateral flow (immuno)assay: its strengths, weaknesses, opportunities and threats. A literature survey

Ma si vedano anche:

https://nanocomposix.com/pages/lateral-flow-tips-tricks-and-frequently-asked-questions-faq#target

Immagine tratta da http://www.dstunisannio.it/sites/default/files/2019-11/8.Tecniche%20immunologiche.pdf

Ovviamente se uno usa campioni con pH, concentrazione, forza ionica differenti da quelle attese provoca delle reazioni impreviste che falsano completamente il risultato; la diffusione dei complessi antigene-anticorpo sui letti capillari dipende dal sottile bilancio di forze chimico-fisiche che controllano la viscosità e dunque la formazione, il numero, il deflusso degli immunocomplessi stessi o almeno la loro velocità.

Si può definire questo effetto globale come effetto matrice anche se qualche esperto dell’analisi chimica potrebbe dire che si tratta di una vera e propria interferenza realizzata usando campioni non previsti dalle specifiche del test.

Provo a darvi una semplice descrizione che sta alla base di eventuali risultati falsi positivi/negativi come in questo caso. I test rapidi prevedono l’utilizzo di particolari nanoparticelle (solitamente oro colloidale) che, una volta “coniugate” con anticorpi, vengono collocate su delle membrane adatte alla loro disidratazione. Il complesso con cui le nanoparticelle e gli anticorpi vengono stabilizzati è particolarmente suscettibile a variazioni chimico/fisiche (pH estremi, concentrazioni elevate di sali etc…). Quando il complesso, dopo essere venuto a contatto con un campione contenente l’antigene ricercato, in questo caso proteine di SARS-CoV-2, viene fatto fluire su apposite membrane (spesso trattate per renderle compatibili con la matrice in oggetto, come sangue, urina, oppure in questo caso tamponi nasali o nasofaringei), occorre che la “corsa” del coniugato con le nanoparticelle mantenga queste condizioni chimico/fisiche stabili, utilizzando come tampone di corsa un buffer appositamente studiato per impedire fenomeni di destabilizzazione, perché altrimenti avviene un fenomeno che in maniera semplicistica viene definito di “aggregazione”: ovvero le nanoparticelle si aggregano e cambiano di aspetto (da rosso/viola diventano di un brutto grigio scuro) e si fermano ai primi ostacoli che incontrano, per esempio anticorpi/antigeni/buffers posti sulle membrane in cui il complesso fluisce. Questa aggregazione causa un risultato falso positivo. Lo stesso può facilmente avvenire facendo correre delle soluzioni acide o ricche di sali su un test di gravidanza per esempio o su un qualsiasi altro lateral flow a meno che le membrane non siano trattate per tamponare tutte queste variazioni. Chiaramente, nello sviluppo di un test rapido e nella stabilità dei coniugati con nanoparticelle, non vengono considerati gli effetti che una macedonia di frutta o altri bizzarri tessuti avrebbero sui complessi, perciò non è strano che ponendo del succo di kiwi, o di arancia acido e salino, questo causi precipitazione di nanoparticelle e quindi falsi positivi (o negativi).

La cosa che meraviglia di più in queste storie è la numerosissima congerie di persone che  scrive commenti positivi a questi campioni di sciocchezze assolute; si tratta di migliaia di persone che rifiutano la voce dell’esperto ufficiale che considerano non affidabile e a cui preferiscono chi gli dice quel che vogliono sentire. Nessuna scienza, ma solo fake news insomma. Come contrastare queste cose?

Abbiamo visto gli effetti di questi meccanismi nella invasione del Parlamento americano da parte di estremisti di destra americani opportunamente disinformati sugli inesistenti imbrogli elettorali da chi poteva trarne vantaggio, l’ex-presidente Trump, che continua ancora oggi a negare di aver perso le elezioni. Anche lì le informazioni ufficiali ripetute da tutti i giornali, confermati dalla magistratura americana sono state considerate false e le persone hanno creduto a quello a cui già credevano; inutili le spiegazioni.

Interessante notare che un esperimento simile è stato fatto dal Presidente della Tanzania John Pombe Joseph Magufuli, già a maggio scorso usando vari tipi di tessuto animali, vegetali ed inerti e dimostrando una analoga ignoranza in materia; il presidente tanzaniano si è autodichiarato ingegnere chimico e dotato delle conoscenze adeguate (in effetti sembra abbia ricevuto un PhD in chimica dall’Università di Dar-es-Salaam). Magufuli ha interrotto il conteggio dei casi a maggio e un mese dopo ha dichiarato che la nazione aveva eliminato il virus dopo tre giorni di digiuno e preghiere. Inutile dire che tutti i paesi attorno hanno centinaia o migliaia di morti da Covid-19. In questo modo la Tanzania sta cercando di intercettare il residuo flusso turistico mondiale. Magufuli è stato ahimè rieletto fino al 2025. Nel frattempo la Tanzania ha ordinato non il vaccino ma un tonico alle erbe usato anche in Madagascar per combattere il covid-19. Vedremo a fine pandemia. Nel frattempo il nostro ministero degli esteri sconsiglia viaggi in Tanzania.

Vedi anche: https://www.fanpage.it/esteri/zanzibar-lo-strano-caso-dellisola-senza-covid-da-maggio-che-cura-il-virus-con-preghiere-ed-erbe/

Dunque cosa possiamo fare per contrastare le sciocchezze messe in giro da questi interessati ed ignorantissimi pseudoesperti?

Direi anzitutto essere presenti nell’agone mediatico, fare da punto di riferimento, mantenere una propria autonomia ed autorevolezza; non mancano gli argomenti su cui lo scontro non è con migliaia di ignorantoni, ma con poche sottili menti pagate da grandi multinazionali e che cercano di alterare le informazioni sull’energia o sulle rinnovabili o sul cambiamento climatico.

I nostri lettori conoscono bene le polemiche fra Vincenzo Balzani e Nicola Armaroli e le balle mediatiche dell’ENI o del Sole-24 ore per esempio sulla sua strategia energetica o le decisioni governative sul nuovo  piano energetico nazionale; i contrasti del passato sul nucleare o l’acqua pubblica.

Su tutti questi argomenti occorre mantenere la barra dritta, avere una faccia sola non condizionata né dalla ricerca dell’assenso popolare né dalla  ricerca dell’alleanza con le forze economiche guidate da fortissimi interessi e poca visione del futuro, ma casomai interessanti come finanziatori o anche solo tradizionalmente e storicamente vicine a noi.

L’opinione pubblica fa presto a confondere la scienza e la tecnica con la sua applicazione interessata. Come società scientifica, come ricercatori   dovremmo essere presenti costantemente nella controinformazione con spirito di servizio per acquisire SUL CAMPO la necessaria autorevolezza e il riconoscimento popolare.

Solo conservando questa base di oggettività, spesso scomoda per noi, potremmo poi essere credibili quando la descrizione oggettiva dei fenomeni contrasta con gli interessi di chi ci ascolta.

Altrimenti diventiamo parte dell’establishment, diventiamo una delle tante voci interessate o perfino la controparte e basta e veniamo accusati di fare gli interessi di entità vere o fantomatiche, ma “altre”, insomma un complotto!

(Ringrazio il collega e biologo Luca Forte conosciuto su AIRI-FB per la sua efficace descrizione della procedura.)

Accreditati contro il Covid.

In evidenza

Luigi Campanella, già Presidente SCI

Nell’era pandemica che stiamo vivendo i laboratori scientifici (laboratori di prova e medici in particolare), si sono rivelati un riferimento fondamentale per mettere in campo nuove soluzioni per individuare, diagnosticare e proporre soluzioni di contrasto al virus SARS-CoV-2 (Covid-19), tracciando dei punti di partenza per giungere ad un vaccino o per rendere più sensibili ed affidabili i test diagnostici o ancora per rendere più sostenibili i dispositivi di protezione individuale.

Pensiamo alla quantità di sperimentazioni eseguite in centinaia di laboratori, agli studi in vitro e in vivo, alle analisi cliniche, tamponi in primis, che sono stati eseguiti finora: parliamo di milioni di processi chimici e biologici eseguiti su larga scala. Insomma, i requisiti per la competenza di un laboratorio, ormai è evidente, assumono sempre più una centralità nelle dinamiche scientifiche e analitiche: requisiti per la qualità e la competenza previsti da determinati standard internazionalmente riconosciuti, che prevedono una adeguata gestione delle dotazioni strumentali e delle condizioni ambientali come punto fondamentale per giungere a risultati affidabili e accettabili. Pensiamo alle norme ISO 9001 con riferimento alla gestione ed organizzazione e ISO15189 indirizzata specificatamente ai laboratori medici che prevede requisiti miranti a garantire la qualità e la competenza degli stessi, a garanzia dell’attendibilità dei risultati espressi nel referto. Fra questi requisiti c’è sicuramente quello connesso alla necessità di disporre di un ambiente idoneo, a garanzia di adeguate condizioni ambientali da rispettare per la corretta implementazione di tutti i processi pre-analitici, analitici e post-analitici governati dal laboratorio.

Nella gestione dei processi internazionali, possono verificarsi delle perturbabili differenze. in assenza di norme e di standardizzazioni:si pensi ai risultati diversi rilevati da un tampone per Covid-19 eseguito sulla stessa persona o anche da analisi del sangue effettuati sullo stesso soggetto.

E’ sempre la norma ISO 15189 che detta i requisiti per l’assicurazione della qualità dei risultati di esame.

Non è un caso se in Italia l’ente unico di accreditamento Accredia ha sinora rilasciato solo 16 accreditamenti a laboratori medici in riferimento a questa norma.

A livello internazionale i numeri registrati per laboratori accreditati secondo rilevamenti diversi (l’ultimo è dell’International Laboratory Accreditation Cooperation) sono sempre intorno ai 10000,un numero modesto che riempie di dubbi circa organizzazione ed ambiente di lavoro di molti laboratori. Abbiamo più volte detto che la pandemia , accanto a morti e dolore, ci ha anche portato insegnamenti e riconsiderazione dei valori della vita,a partire da quello della”normalitá”.

Forse potrebbe anche essere l’occasione per qualificare molti laboratori accreditandone la funzione ed i relativi dati a vantaggio della società planetaria

Lavorare sull’acqua.

In evidenza

Mauro Icardi

Mi è successo ancora. Dopo quanto avevo raccontato nel post intitolato “L’acqua percepita”, un altro collega mi ha visto riempire di acqua del rubinetto, non più la borraccia della bici, ma un thermos in acciaio che tengo nell’ufficio in laboratorio : “Bevi l’acqua del rubinetto, ma è buona?” Aggiungendo poi, che si sarebbe fidato a berla solo se avessi in qualche modo garantito della qualità. La cosa che poi mi ha fatto veramente sorridere è questa. Il nuovo collega è stato aggregato al laboratorio, con l’incarico di recuperare i campioni da analizzare e trasportarli in laboratorio. La realizzazione di un gestore unico è finalmente partita anche in provincia di Varese. Ottima notizia, che per altro attendevo da decenni Questo significa prima di tutto che arriveranno più campioni, che conosceremo nuovi colleghi. Il nostro “fattorino” è di origine siciliana, precisamente di Palermo. In questi giorni, in cui si sta preparando il calendario dei campionamenti per il prossimo anno, si parla e ci si conosce meglio. Io sono molto attratto dalla Sicilia regione che mi affascina, e che ho potuto visitare solo in parte. Ma che ho conosciuto attraverso le parole di molti scrittori. Da Sciascia, a Pirandello, fino a Camilleri.  Dino mi consiglia di visitare Palermo, cosa che vorrei fare, appena la situazione della pandemia lo consentirà. Mi racconta anche di una escursione che lui ha fatto. Raggiungendo una spiaggia situata nella zona del golfo di Castellammare, e raggiungibile solo a piedi. In quella occasione la compagnia con cui lui si trovava, aveva pensato a tutto. Cibo, ombrelloni, costumi da bagno. Ma si era distrattamente dimenticata proprio delle bottiglie d’acqua. Per non morire di sete nella calda estate siciliana, avevano richiamato l’attenzione di un battello che navigava lungo costa. Battello che vendeva gelati e bibite. E mi dice che finì per pagare 5000 delle vecchie lire, per una bottiglietta di acqua.

L’aneddoto in sé, mi fa sorridere. Ma mi fa anche riflettere su un tema che mi sta molto a cuore. Cioè quello delle percezioni. Delle dissonanze cognitive e percettive appunto. La realizzazione di un’azienda unica di maggiori dimensioni ha comportato operazioni di cessioni di ramo d’azienda. Ognuno di noi dovrà integrarsi in una realtà di lavoro differente. Una delle prime richieste che alcuni colleghi hanno suggerito di portare al tavolo, nelle trattative di armonizzazione, è stata una richiesta che ho trovato davvero incongruente. Cioè di mantenere come benefit aziendale la possibilità che l’azienda fornisse acqua in bottiglia per le mense aziendali.

Questa consuetudine, di cui si sono perse le origini è stata ovviamente eliminata. Ma mi fa riflettere. Perché diversi colleghi, nonostante tutto la rimpiangono. E che il rimpianto coinvolga anche persone che lavorano in laboratorio, mi porta ad ulteriori riflessioni.

Non è semplice modificare le abitudini, le scienze umane, la psicologia in particolare ce lo ricordano.

Le suggestioni di media, pubblicità, commenti sui social, sono sirene che ancora hanno un forte potere di persuasione subliminale e occulta.  E mi preoccupa molto che possano avere influenza anche su chi dovrebbe invece usare maggiore senso critico e discriminazione. C’è ancora molto lavoro da fare, per contrastarne gli effetti.

L’incostante peso atomico

In evidenza

Claudio Della Volpe

E’ chiaro ai chimici che il peso atomico degli elementi, quello riportato sulla tavola periodica,  non è una costante universale; meno al grande pubblico.

Già nel 1955 J. Boggs scriveva (J. Chem. Educ. 1955, 32, 8, 400):

È consuetudine che i libri di testo e gli insegnanti di chimica generale 
enfatizzino la costanza del peso atomico di un elemento indipendentemente
dalla fonte da cui è ottenuto. Ad un esame più attento, tuttavia, questa
generalizzazione sembra assomigliare a molte delle semplici leggi
quantitative della scienza: è valida per gli esperimenti fino ad ottenere
un grado di accuratezza della misurazione; oltre quel punto si osservano
variazioni. Mediante uno studio di queste variazioni si può ottenere una
descrizione più esatta della natura, e alla fine le variazioni stesse
possono dimostrare di avere applicazioni prima impensate.

La cosa è divenuta molto più “ufficiale” da quando IUPAC ha deciso di inserire nella tavola periodica non un singolo peso atomico ma un intervallo di pesi atomici per ciascun elemento (si veda per esempio M. E. Wieser, T. B. Coplen, Pure Appl. Chem. 2011, 83, 359–396. DOI: 10.1351/PAC-REP-10-09-14

.

Ora questo fatto, questo fenomeno si potrebbe prendere come esempio di come l’uomo abbia peso nella natura, ed a volte è anche vero, ne vedremo un esempio in fondo al post, ma in realtà viene da molto prima, viene prima di tutto da fenomeni specifici dei singoli elementi: per esempio elementi che sono costituiti da miscele di isotopi in parte radioattivi a vita più o meno breve e che dunque nel corso della storia della scienza han visto variazioni dei rapporti isotopici a causa di fenomeni naturali (arricchimento isotopico di ampie riserve per effetto isotopico, frazionamento, etc), oppure da situazioni che vedono una grande variabilità della composizione isotopica in ambienti diversi e che col tempo han rivelato questa variabilità con sempre maggiore chiarezza (mentre la precisione delle misure aumentava), costringendo a sostanziose modifiche dei valori riportati.

Ma cominciamo con ordine anche perché in giro si trova una enorme confusione che spero di non aumentare. La  massa atomica è la massa dell’atomo specifico nel suo stato di quiete rispetto all’osservatore e nel suo stato energetico fondamentale (entrambe condizioni legate alla relatività di Einstein, all’equivalenza massa-energia, E=mc2), misurata in grammi o meglio in uma, unità di massa atomica unificata, una unità non-SI pari a 1/12 della massa dell’atomo di C isotopo 12 nel suo stato di riposo o a 1.660 5402(10)×10−27 kg (questa equivalenza è riportata nella specifica pagina del Goldbook (Compendium of Chemical Terminology (Goldbook IUPAC), consultabile come indicato nei riferimenti) e corrisponde sostanzialmente al reciproco (1/x) del numero di Avogadro). Questo esclude che si possa considerare l’uma adimensionale; se fosse adimensionale non potrebbe avere un equivalente dimensionale!

Alcuni definiscono questo uso dell’uma con il termine “relativo” e ne parlano come di una grandezza adimensionale; ma non è così, l’uma non è adimensionale ma è solo una unità non-SI (cioè non appartiene al sistema internazionale).

Il peso atomico di un elemento INVECE è la media pesata delle masse atomiche dei singoli isotopi; in questo senso il “peso” atomico è un altro modo di esprimere la massa atomica, è una massa atomica media, ma si usa da tanto tempo il termine “peso” che rimane questa incongruenza con l’uso vigente in fisica, dove il peso di una massa è una forza dovuta sempre alla forza di gravità.

I singoli isotopi hanno una composizione precisa in termini di struttura atomica e dunque di massa atomica dei singoli tipi di atomi; il termine “peso atomico” non è inteso in chimica come l’effetto della gravità sulla “massa atomica” (che ovviamente c’è anche, ma non è considerato in questa specifica definizione e solo in questa), ma come l’effetto della media della composizione isotopica sul valor medio della massa atomica degli isotopi di un certo elemento e dunque in chimica la differenza massa atomica-peso atomico  dipende da un uso storico del termine “peso”, che risale credo a Mendeleev o prima. Non è da intendersi, SOLO in questo caso, come si intende sempre, ossia la forza di gravità agente su di una certa massa.

E’ un concetto da ribadire perché specie se si studia la fisica  e la chimica insieme può fare confusione.

Se cambio composizione isotopica di un elemento, mentre i singoli isotopi conservano le loro caratteristiche, la loro media, che costituisce appunto il loro “peso” atomico, cambia.

Il goldbook identifica massa atomica relativa e peso atomico, ma CONTESTUALMENTE introduce l’aggettivo “average” nella definizione del peso atomico ossia “medio” nella definizione; il peso è la media pesata delle masse atomiche degli isotopi, pesate secondo l’abbondanza relativa; nel goldbook si introduce contemporaneamente l’effetto della media pesata e l’uso dell’unità non-SI, l’uma. Diversamente la relatività che si legge in alcuni testi o siti web corrisponde solo all’uso o meno di certe unità di misura SI o non-SI (uma). Ma qua appunto si fa confusione. E vorrei evitare questa trappola.

L’uma può essere trasformata in grammi o ottenuta dividendo il grammo per il numero di Avogadro; è il rapporto fra due unità che non sono costanti naturali (numero di Avogadro e grammo); chi intende il relativo in questo SOLO senso divide la massa per l’uma e dice ottengo un numero adimensionale che sarebbe il peso atomico o massa atomica relativa; ma a questo punto ci sarebbe un peso atomico che prescinde dalla “media” isotopica, un peso atomico del singolo isotopo, e questo a mio parere è fuori dalla definizione IUPAC che invece richiede l’esistenza di isotopi, che collega il concetto di peso atomico alla media di abbondanza isotopica e contemporaneamente misura la massa atomica usando l’uma, unità di misura non-SI e relativa all’atomo di carbonio.

Il goldbook IUPAC per il peso atomico standard  o massa atomica relativa  standard recita:

Recommended values of relative atomic masses of the elements revised biennially by the IUPAC Commission on Atomic Weights and Isotopic Abundances and applicable to elements in any normal sample with a high level of confidence. A normal sample is any reasonably possible source of the element or its compounds in commerce for industry and science and has not been subject to significant modification of isotopic composition within a geologically brief period.

Valori raccomandati delle masse atomiche relative degli elementi rivisti ogni due anni dalla Commissione IUPAC sui pesi atomici e le abbondanze isotopiche e applicabili agli elementi in qualsiasi campione normale con un alto livello di fiducia Un campione normale è una qualsiasi fonte ragionevolmente possibile dell’elemento o dei suoi composti in commercio per l’industria e la scienza e non è stato soggetto a modifiche significative della composizione isotopica entro un periodo geologicamente breve.

Per massa atomica relativa o peso atomico recita:

The ratio of the average mass of the atom to the unified atomic mass unit.

Ed infine per unità di massa atomica unificata:

Non-SI unit of mass (equal to the atomic mass constant), defined as one twelfth of the mass of a carbon-12 atom in its ground state and used to express masses of atomic particles, u≈1.660 5402(10)×10−27 kg.

Dunque in conclusione mettendo insieme queste tre definizioni IUPAC fonde due cose (uma e media pesata isotopica) e la relatività e lo standard si riferiscono anche alla composizione isotopica non solo alle unità di misura usate. La massa  atomica usa unità di massa SI o non-SI, il “peso” è sempre relativo alla composizione isotopica e può essere standard o meno.

Lo studente o il lettore che si trova davanti la maestosità della tavola periodica potrà pensare che i magici numeretti con cui fa gli esercizi di stechiometria o che vede stampati in piccolo e con tante cifre significative, sono come la velocità della luce, costanti universali. E invece no, se cambia l’abbondanza dei singoli isotopi allora la loro massa media relativa alla composizione, ossia il loro peso atomico cambia. E questo avviene abbastanza spesso e per diversi motivi. L’incertezza attribuita al peso atomico proviene non solo dalle incertezze dovute alla misura ma alla origine del campione oppure alla storia del campione stesso e questo può perfino riflettere interventi umani del tutto artificiali sull’ambiente, (si veda anche la nota finale).

Tab. 2 Da https://www.chemistryviews.org/details/ezine/8916021/Updated_Atomic_Weights_Time_to_Review_Our_Table.html

La seguente tabella mostra come varia il peso atomico del litio se si usano sorgenti diverse nelle quali varia il peso percentuale dell’isotopo 7 del litio.

Fig. 1 da https://www.chemistryviews.org/details/ezine/8916021/Updated_Atomic_Weights_Time_to_Review_Our_Table.html

o anche Fig. 2 da ref.2

Nel caso dello zolfo la variazione del peso atomico dovuta ai vari processi (fra cui la radioattività naturale) è circa due ordini di grandezza maggiore della precisione con cui si ottengono i migliori risultati di chimica analitica e questo è un caso eclatante di variabilità naturale del peso atomico .

Figura presa da https://ciaaw.org/sulfur.htm 

L’effetto della radioattività è importante in tutti i materiali radioattivi (si veda J. Chem. Phys. 1, 717 (1933); https://doi.org/10.1063/1.1749234)

Se guardate bene il caso radon è ancora più interessante; in Pure and Applied Chemistry | Volume 88: Issue 3 un report generale dello IUPAC, è riportata una intera categoria di elementi che a causa della loro costituzione isotopica NON hanno un peso atomico: e il radon è un ottimo esempio: la definizione generale è la seguente:

Elementi senza isotopi stabili e senza isotopi radioattivi 
con una composizione isotopica terrestre caratteristica 
in materiali normali, ad es. radon.

Per il radon si usa come riferimento l’isotopo più stabile (radon-222), ma non c’è un peso atomico secondo il metodo usato per gli altri elementi.

Un altro caso interessante è l’argon la cui composizione isotopica varia costantemente.

Variation in the terrestrial isotopic composition and atomic weight of argon

Pure and Applied Chemistry By: John Karl Böhlke https://doi.org/10.1515/pac-2013-0918

In definitiva il “peso atomico” non solo non è l’effetto della gravità sulla massa atomica ma  non è nemmeno una costante universale, è solo il risultato di una misura faticosamente ottenuta e costantemente aggiornata. In alcuni casi ancora impossibile da ottenere.

Tuttavia è da dire che l'aspettativa di variazioni solo minime nei valori 
di peso atomico è una previsione valida. Infatti, fatta eccezione per
cinque elementi (litio, boro, zolfo, titanio e germanio), i valori del
peso atomico standard a quattro cifre non sono cambiati in cinque decenni
di più di una cifra all'ultimo posto. Tuttavia per tre di questi elementi
(litio, boro e zolfo), le differenze sono dovute al riconoscimento del
frazionamento isotopico naturale nei materiali normali. I miglioramenti
negli altri due, titanio e germanio, sono dovuti all'uso della
spettrometria di massa per determinare abbondanze isotopiche più accurate
e quindi valori più accurati del peso atomico [ref1].

La revisione dei valori riportati nella tabella 2013 [ref2] ha causato l’aggiornamento di due valori di peso atomico standard a quattro cifre per il selenio e il molibdeno (la tabella è anche ottenibile da Figura 4 del ref [2] p. 277).

 La recente versione del 2015 [ref3] ha attivato un ulteriore aggiornamento per l’elemento itterbio. In questi casi, le revisioni sono dovute a misurazioni migliorate utilizzando la spettrometria di massa ad alta precisione.

Se consultate regolarmente una tabella ridotta a quattro cifre 
significative, assicuratevi di aggiornare la tabella con questi
ultimi valori.
 
Nota.

E’ interessante notare che l’incremento percentuale della CO2 in atmosfera è talmente alto che ha modificato il peso molecolare medio dell’aria (una quantità pratica importante in molti calcoli e che viene dalla somma dei pesi atomici o molecolari dei costituenti della miscela “aria”), perché la CO2 pesa più della media degli altri gas. Il peso molecolare medio  è cresciuto rispetto a quello riportato nella maggior parte dei libri, ma non è facile misurarlo, perché la variazione è sulla seconda decimale (per la precisione 28,98 rispetto a 28,96). Questo è un altro effetto dell’incremento della CO2 atmosferica; le percentuali riportate in questa pagina sono errate rispetto a quelle aggiornate di UIGI o di Wikipedia. Se fate una piccola ricerca, vedrete che è vero per molte altre pagine web e di libri: riportano ancora una concentrazione pre-industriale di CO2, generalmente indicata come 0,03% invece dello 0,0390%, con conseguenti variazioni anche delle altre. In realtà al momento è ancora superiore, siamo oltre  0.040%.

Contemporaneamente tuttavia occorre notare che l’abbondanza atmosferica di carbonio-13 è diminuita in modo notevolissimo sempre a causa delle combustioni perché il carbonio-13 è meno abbondante nei fossili e questa contemporanea variazione (+CO2 e meno 13C in atmosfera) costituisce una delle prove più chiare della causa antropica del riscaldamento globale.figura tratta da M. Rubino et al. JOURNAL OF GEOPHYSICAL RESEARCH: ATMOSPHERES, VOL. 118, 8482–8499, doi:10.1002/jgrd.50668, 2013 

Riferimenti.

Sito Goldbook: http://goldbook.iupac.org/terms/view/U06554

[1] J. R. de Laeter et al., Pure Appl. Chem. 2003, 75, 683–800. DOI: 10.1351/pac200375060683

[2] Juris Meija, Tyler B. Coplen, Michael Berglund, Willi A. Brand, Paul De Bièvre, Manfred Gröning, Norman E. Holden, Johanna Irrgeher, Robert D. Loss, Thomas Walczyk, Thomas Prohaska, Pure Appl. Chem. 2016, 88, 265–291. DOI: 10.1515/pac-2015-0305

[3] IUPAC press release, 24 August 2015 Link.

Altre referenze

M. E. Wieser, T. B. Coplen, Pure Appl. Chem. 2011, 83, 359–396. DOI: 10.1351/PAC-REP-10-09-14

T. B. Coplen, N. E. Holden, Chemistry International 2011, 33 (2), 10–15. Link

IUPAC Committee on Teaching Chemistry, Int. News Chem. Educ. (June 1975), 2.

A. E. Cameron, E. Wichers, J. Am. Chem. Soc. 1962, 84, 4175–4197. DOI: 10.1021/ja00881a001

Le molecole più interessanti del 2020. (Indagine di C&EN)

In evidenza

Rinaldo Cervellati

 

Anche quest’anno, funestato dalla pandemia di Covid-19, Chemistry & Engineering news non ha rinunciato all’indagine, fra i soci dell’American Chemical Society, sulle molecole più interessanti del 2020. I risultati sono stati riportati da Celia Henry Arnaud sul numero dell’8 dicembre di C&EN news, apparso nel vol. n. 98, fascicolo 48.

Come gli altri anni riporto qui le prime classificate nella mia traduzione adattata dello scritto di Arnaud.

Hanno risposto all’indagine 1027 votanti. Al primo posto, con 292 preferenze (28,4%), si è classificato un liquido ionico poroso in grado di catturare alcoli e clorofluorocarburi (CFC):

La molecola del liquido ionico

Un gruppo di ricercatori, coordinati dai prof. Thomas D. Bennett e Jonathan R. Nitschke, dell’Università di Cambridge (UK), ha sintetizzato questo nuovo liquido ionico poroso che ha cavità larghe circa 6,2 Å, abbastanza grandi da catturare alcoli e clorofluorocarburi. I precedenti liquidi porosi non potevano inglobare molecole più grandi del metano o dell’anidride carbonica. I ricercatori dell’Università di Cambridge hanno prodotto il nuovo liquido da tetraedri di zinco coordinati con ligandi organici.

L. Ma, L. et al. Coordination cages as permanently porous ionic liquids. Nat. Chem. 2020, 12270–275; https://doi.org/10.1038/s41557-020-0419-2

Al secondo posto, con 181 voti (17,6%), si trova l’anello aromatico più grande fino a ora sintetizzato:

Nel suo stato di ossidazione +6, questo anello aromatico a 12 porfirine produce una corrente ad anello che induce campi magnetici opposti (blu) e allineati con un campo esterno (rosso). Credit: Harry L. Anderson

I ricercatori dell’Università di Oxford (UK), coordinati dal prof. Harry L. Anderson, hanno costruito una ruota molecolare larga 16 nm, che contiene 12 porfirine e 162 elettroni π. Nell’anello, le porfirine con zinco sono legate da alchini e tenute in posizione da raggi molecolari. La molecola è di interesse per i calcoli quantistici.

M. Rickhaus, et al. Global aromaticity at the nanoscale. Nat. Chem. 2020, 12236–241; https://doi.org/10.1038/s41557-019-0398-3

Terza classificata (poco distante dalla seconda, 178 voti, 17,3%) è la ricerca di un gruppo internazionale, facente capo all’Università di Manchester (UK), coordinato dal prof. David A. Leigh, che ha realizzato legami a nodi molecolari:

La molecola a nodi molecolari compatta e ball and stick: in grigio il Lu(III), in bronzo il Cu(I)

Essi hanno utilizzato ioni metallici di lutezio e rame per legare stringhe molecolari in due tipi di nodi. L’aggiunta di ioni lutezio da soli o in combinazione con ioni rame porta a nodi trifoglio simmetrici o nodi asimmetrici a tre torsioni, rispettivamente.

D.A. Leigh, et al. Tying different knots in a molecular strand. Nature, 2020584562–568; https://doi.org/10.1038/s41586-020-2614-0

Con voti 143 (16,9%) la quarta classificata è una grande supramolecola terpiridina-rutenio:

Modello della supramolecola sovrapposto a un’immagine del microscopio a scansione Credit: Xiaoping Li

Un gruppo di ricercatori cinesi di diversi istituti ha assemblato questa supramolecola terpiridine-metallo, che misura quasi 20 nm di diametro. I ligandi della terpiridina che complessano il rutenio formano esagoni che si assemblano in una griglia più grande complessando il ferro (II). Il gruppo mira a utilizzare questa e supramolecole analoghe come dispositivi di memorizzazione delle informazioni a molecola singola.

Z. Zhang,  et al. Intra- and intermolecular self-assembly of a 20-nm-wide supramolecular hexagonal grid. Nat. Chem. 2020, 12468–474; https://doi.org/10.1038/s41557-020-0454-z

Al quinto posto (con 126 voti, 12,3%) si trova una molecola con il boro a quattro legami:

Gli orbitali molecolari (viola e argento) mostrano due legami σ e due legami π che costituiscono il legame quadruplo nel boruro di rodio (blu = Rh; rosa = B). Credit: J. Phys. Chem. Lett.

Per più di un decennio, i chimici hanno pensato che il boruro di rodio contenesse un triplo legame. Tramite spettroscopia vibrazionale e calcoli teorici, i ricercatori della Brown University (Rhode Island, USA), hanno scoperto che il legame è probabilmente un legame quadruplo.

Ling Fung Cheung et al., Observation of Four-Fold Boron−Metal Bonds in RhB(BO−) and RhB. J. Phys. Chem. Lett., 2020, 11, 659-663; https://doi.org/10.1021/acs.jpclett.9b03484

Molto lontano, con una percentuale a due cifre, si classifica la progettazione di una macchina molecolare che utilizza reazioni redox per infilare anelli due alla volta su una catena polimerica:

La macchina molecolare

I ricercatori della Nothwestern University (Illinois, UA) vorrebbero utilizzare questo sistema per costruire polirotaxani per l’archiviazione delle informazioni codificando i dati nella sequenza di anelli. Ha realizzato 80 voti (7,8%).

Y. Qiu et al., A precise polyrotaxane synthesizer., Science, 2020, 368, 1247-1253.

Infine all’ultimo posto, con 27 voti (2,6%), si colloca il primo radicale catione del berillio, isolato dai chimici dell’Università della Virginia (USA):

Il radicale catione e il suo anione Credit: J. Am. Chem. Soc.

Questo radicale, che contiene berillio nello stato di ossidazione +1 è stato ottenuto ossidando un composto precedente con numero di ossidazione zero del berillio.

G. Wang et al., A Stable, Crystalline Beryllium Radical Cation. J. Am. Chem. Soc., 2020, 142 4560-4564.

Ciao Pietro!

In evidenza

Margherita Venturi

 

Ho lasciato passare qualche giorno dalla tremenda notizia, un po’ per digerire la cosa (tutt’altro che facile) e un po’ per dare a tutti il tempo di leggere ciò che persone molto più “referenziate” di me hanno scritto in ricordo di Pietro Greco.

Ho avuto la fortuna di conoscere Pietro personalmente, fortuna che va talmente indietro nel tempo che non riesco neanche più a localizzare temporalmente quando è avvenuto il nostro primo incontro.

Non voglio enumerare quante cose Pietro ha fatto per la scienza, per la chimica, per la divulgazione scientifica, quante opere ha scritto, non starò ad elogiare la sua cultura immensa e il suo costante sforzo per unire scienza e umanesimo perché lo hanno già scritto e detto egregiamente le tante persone che lo hanno ricordato in questi giorni. Io desidero solo scrivere due parole come se dovessi salutare un fratello, il fratello che non ho avuto.

Non dimenticherò mai il tuo sorriso da gatto sornione sotto i baffetti sempre curati, la tua calma rassicurante, forse dovuta ai tuoi natali partenopei, anche nei momenti di scontro più duro durante riunioni e tavole rotonde, la tua gentilezza nel rispondere sempre e comunque ai messaggi che ti mandavo, la tua disponibilità ad accettare impegni e proposte, come quella di far parte dell’advisory board della nuova laurea magistrale in Didattica e Comunicazione delle Scienze Naturali che cercavo di far partire presso l’Università di Bologna. Hai accettato con entusiasmo, non hai esitato un attimo a venire a Bologna per appoggiare la causa e, non ultimo, mi hai profondamente rincuorato con il tuo giudizio. Riporto solo una piccola parte di quanto mi hai scritto, non per vantarmi, ma per far conoscere a tutti queste tue parole “inedite”:

“Ritengo centrale il tema posto: l’università deve contribuire a elevare le conoscenze e le competenze tecniche e scientifiche dei cittadini (compresi i cittadini che la frequentano, studenti o docenti che siano).

Deve essere intesa in questo modo la “terza missione”. Ne ha bisogno non solo l’università, ma l’intera società. È un elemento essenziale della democrazia nella società e nell’economica della conoscenza.

Ma in proposte come questa mi sembra che la dimensione democratica sia ancor più pregnante, perché si propone una saldatura tra “prima” e “terza missione” dell’università: tra formazione e dialogo con la società.

Sarebbe bello associare in questa impresa culturale anche la “seconda missione”, ovvero la ricerca. Magari sogno: ma costituire un gruppo che fa ricerca sulla comunicazione delle Scienze della Natura, significa vivificare sia la formazione sia il dialogo con la società.”

Quando all’inizio di questo “maledetto” anno ti ho avvertito che la nuova laurea sarebbe partita a settembre, tu mi hai risposto immediatamente: “Bellissimo. Sono a disposizione se lo ritieni utile. Ciao Pietro”

Ho fatto salti di gioia perché avevo già in mente le molte cose che avresti potuto fare per i nostri novelli studenti. Ora mi dovrò accontentare di raccontare loro questa storia e di farti conoscere attraverso i tuoi lavori (ho solo l’imbarazzo della scelta). Sono sicura, però, che quando leggeremo in aula alcuni brani tu sarai lì fra di noi a guardarci con i tuoi occhi vivaci, sorridendo benevolo alle osservazioni degli studenti.

Grazie Pietro per tutto quello che ci hai regalato, senza chiedere nulla in cambio: non ti dimenticherò mai. Ciao Margherita

Un nuovo ossidante “verde” potrebbe sostituire il perclorato d’ammonio

In evidenza

Rinaldo Cervellati

Sappiamo tutti che molte applicazioni dei razzi e dei missili sono belliche, ma queste tuttavia non sono le sole; ormai molti lanci sono per applicazioni esclusivamente o prevalentemente civili e dunque parlare di razzi e motori a razzo si può senza tema di esaltare la guerra, ma stando bene attenti comunque a quegli aspetti che hanno riferimenti militari od ambientali, come si cerca di fare in questo post.

Il perclorato di ammonio è ampiamente usato come ossidante nei propellenti solidi che alimentano razzi e missili, ma comporta gravi costi ambientali. Ad esempio, ogni volta che il razzo vettore spaziale Ariane 5 porta in orbita un satellite, la reazione fra il perclorato di ammonio (NH4ClO4) e il carburante nei suoi propulsori genera circa 270 tonnellate di acido cloridrico concentrato, che distrugge l’ozono stratosferico e provoca piogge acide.

Nei propellenti per razzi, il perclorato di ammonio è spesso combinato con alluminio e un legante polimerico, il tutto funziona da carburante. (La combinazione con l’alluminio tiene conto del fatto che le reazioni di questo metallo in polvere sono estremamente esotermiche (ricordiamo la reazione alla termite che si usa da più di 100 anni)).

Questa miscela è popolare da decenni, in parte perché il perclorato di ammonio vanta un’elevata stabilità termica, un alto contenuto di ossigeno e una bassa sensibilità agli urti, il tutto a un costo contenuto. “È un ottimo materiale in tutti gli aspetti, a parte il contenuto di cloro”, afferma Niklas Wingborg, vicedirettore di ricerca presso l’Agenzia Svedese della Difesa, che lavora sui propellenti per missili. Le preoccupazioni ambientali non sono l’unica motivazione. Purtroppo anche da un punto di vista militare può essere che l’innovazione di cui parliamo sia desiderabile, in quanto è sempre stato interessante avere propellenti solidi che non generano fumo, perché è più difficile tracciare missili che non lasciano una scia di vapore, come il perclorato che emette vapore con goccioline di acido cloridrico che fungono da seme di condensa.

Il gruppo di ricerca coordinato da Thomas Matthias Klapötke[1], del Dipartimento di Chimica, Università di Monaco (Germania), ha sintetizzato il composto acido nitraminodiacetico (bis(2,2,2-trinitroetil estere) acronimo NABTNE, che potrebbe essere un sostituto del perclorato d’ammonio [1].

I ricercatori sperano che il composto possa superare la maggior parte degli inconvenienti di altri candidati, che hanno dato prestazioni inadeguate, instabilità e costi elevati.

Burkhard Krumm, del gruppo di ricerca, afferma: “Abbiamo cercato di trovare alternative più economiche, da materiali di partenza meno costosi”.

Thomas M. Klapötke e Burkhard Krumm

Thomas M. Klapötke e colleghi hanno prodotto il NABTNE in due fasi dall’acido nitro iminodiacetico disponibile in commercio. Il nuovo ossidante ha una densità simile al perclorato di ammonio, un’elevata temperatura di decomposizione di 180 °C e non è particolarmente sensibile all’attrito o agli impatti che possono causare la detonazione di altri materiali propellenti. NABTNE ha anche lo stesso impulso specifico del perclorato di ammonio, una misura dell’efficienza con cui un razzo potrebbe utilizzare il propellente per generare la spinta.

Un vantaggio dei propellenti solidi è che hanno una durata di conservazione più lunga rispetto ai propellenti liquidi, e i calcoli cinetici e termodinamici dei ricercatori suggeriscono che NABTNE dovrebbe effettivamente essere abbastanza stabile per lo stoccaggio a lungo termine, senza decomposizione calcolata dopo tre anni a 80 °C . “Sembra davvero promettente”, dice Cornelia C. Unger, facente parte del gruppo di Monaco.

Tuttavia, Wingborg è scettico sul fatto che il composto possa essere prodotto economicamente su scala industriale. Sottolinea inoltre che la seconda fase della sintesi di NABTNE, che coinvolge due reazioni, utilizza reagenti, tra cui il cloruro di ossalile (COCl)2 e la dimetilformammide, che non sono esattamente materiali “verdi”.

Dal 2015 al 2018, Wingborg è stato coordinatore di un progetto chiamato GRAIL che ha studiato la possibilità che una miscela di dinitramide di ammonio (ADN) e nitrato di ammonio possa sostituire il perclorato di ammonio.  Afferma Wingborg: “Continuiamo a pensare che ADN sia il miglior candidato. L’ADN ha un basso impatto ambientale e un’elevata velocità di combustione, che integra le proprietà del nitrato di ammonio a basso costo, ma la combinazione non può ancora eguagliare le prestazioni complessive del perclorato di ammonio”.

Comunque, uno dei prossimi passi del gruppo di Monaco per NABTNE sarà combinarlo con l’alluminio e un legante polimerico per verificare se è compatibile con questi prodotti.

Articolo tradotto e adattato da Mark Peplow, Oxidant may offer a boost to greener rockets., Chemistry & Engineering News., November 17, 2020

Bibliografia

[1] C.C. Unger et al., Oxygen-Rich Bis(trinitroethyl esters): Suitable Oxidizers as Potential Ammonium Perchlorate Replacements., Energy&Fuels, 2020, DOI: 10.1021/acs.energyfuels.0c02910


[1] Thomas Matthias Klapötke (1961-) è un chimico inorganico tedesco. È stato professore di chimica inorganica all’Università di Glasgow dal 1992 al 1997. Dal 1997 è professore di chimica inorganica all’Università Ludwig Maximilian di Monaco.

Un aggiornamento sulla sperimentazione animale

In evidenza

Luigi Campanella, già presidente SCI

Periodicamente torno sul tema della sperimentazione animale a cui da sempre sono stato contrario, ma -sinceramente parlando – più per motivi etici e personali ( da piccolo ho pianto per un giorno per un maiale sacrificato e per un coniglio finito in padella) che scientifici. Questi sono subentrati in tempi successivi insieme a quelli della stessa natura che ho potuto sentire descritti in congressi e sulla stampa da parte di quanti non la pensavano come me. Mi sono reso conto che la mia posizione era troppo basata sull’auto referenzialità.

Laboratory Mouse On Top of Test Tubes

https://www.dnamedialab.it/sperimentazione-animale-articolo/

Mi è sopraggiunta la volontá di confronto continuo e di dibattito aperto con quanti fossero disponibili a discutere con me dimostrando la stessa disponibilità alla verifica delle proprie idee, proprio sulla base di un confronto con tesi alternative. Quindi questo mio nuovo intervento vuole portare nuovi elementi di discussione senza nessuna preclusione a recepire posizioni contrarie o comunque alternative. Così parlando con amici medici mi sono convinto che per fare ricerca sul cancro è necessario lavorare con gli animali, il cui sacrificio-da ridurre al minimo- aiuta a progredire verso cure sempre più efficaci. Malgrado i consistenti investimenti nella ricerca contro il cancro negli ultimi 30 anni con oltre 20 milioni di nuovi casi e 10 milioni di morti il cancro resta uno dei princali problemi per la salute del genere umano. Oltre il 90% dei casi non possono trovare una giustificazione genetica e riconducibile a cause ereditarie, contribuendo ad esaltare la correlazione fra malattia e stato dell’ambiente.

https://www.futurity.org/electrospun-synthetic-cell-scaffolds-animal-testing-cancer-research-2278972-2/

Nella Giornata Mondiale del Cancro di quest’anno la presidente della Commissione Europea, Mrs von der Leyen, ha lanciato un nuovo programma europeo dii contrasto al cancro, dopo 30 anni dal primo. Questo programma impegna a ridurre i fattori di inquinamento ambientale, in particolare di aria ed acqua e l’esposizione a sostanze cancerogene negli ambienti di lavoro o nel consumo di prodotti. Ad oggi la valutazione del rischio di cancro da esposizione a composti chimici poggia sui biotest a lungo termine su animali. Questo approccio, considerato il metodo standard, è costoso, richiede tempi lunghi ed è spesso di scarsa rilevanza per il genere umano, tanto che soltanto il 5% dei composti chimici registrati sono stati testati in questo modo.
Analogamente la corrente pandemia ha indotto a riconsiderare come necessaria la sperimentazione animale. Lo sviluppo convenzionale di farmaci e vaccini si basa sui test con animali a lungo termine per capire il meccanismo molecolare di una malattia e dei suoi potenziali trattamenti, aiutando a spiegare anche perchè servano poi 10 anni per avere un farmaco attivo.

Ci sono però settori che non giustificano la sperimentazione animale: il test su animali di prodotti per uso cosmetico è stato bandito, al punto da raccomandare da parte dell’UE un metodo di valutazione non basato sulla sperimentazione animale per ogni composto di uso cosmetico, ma da parte di alcuni settori resistenti a questa ovvia regola si obbietta che alcuni dei composti potrebbero essere pericolosi per l’uomo nella preparazione delle confezioni e quindi da testare anche su animali, come anche il caso di composti che hanno applicazioni anche in campi diversi dalla cosmetica.

https://ilblogdellasci.wordpress.com/2013/03/14/11-marzo-2013-una-data-storica/

La sperimentazione animale è comunque fortemente controllata : per adottarla bisogna presentare al Ministero della Salute una richiesta di autorizzazione ed aspettare, a volte anche per più di un anno, tempo incompatibile con quelli della ricerca.

I meccanismi di approvazione nascono per garantire una maggiotre attenzione ai diritti ed al benessere degli animali. Oggi poi ci sono metodi alternativi affidabili che dovrebbero essere perseguiti prima di imboccare la strada della sperimentazione animale. I metodi in vitro ed in silico si sono imposti come valide alternative: così intelligenza artificiale, algoritmi matematici, biosensori, test su cellule staminali umane che simulano organi umani (un brevetto chiamato organoide del cervello realizzato da Thomas Hartung,il Direttore del Centro Internazionale per le Tecnologie Alternative alla sperimentazione animale), test su cellule cerebrali umane aggregate a costituire minicervelli: quest’ultima ricerca ha di recente consentito di di provare che SARS-CoV-2 può infettare e danneggiare il cervello umano.

Ozonizzazione per la rimozione degli inquinanti organici di origine antropogenica.

In evidenza

Mauro Icardi

I microinquinanti organici antropogenici (OMP) vengono sempre più spesso rilevati in acque superficiali in tutto il mondo. I valori di concentrazione variano nell’intervallo che va dai ng/L fino ai μg/L. Questa situazione può essere attribuita in parte allo scarico degli effluenti degli impianti di trattamento delle acque reflue urbane. Infatti, solo una parte dell’ampio spettro di sostanze chimiche di sintesi è sufficientemente rimossa dai sistemi convenzionali a fanghi attivi. Nonostante le loro basse concentrazioni, gli OMP possono rappresentare un potenziale rischio per gli ecosistemi acquatici e impedire un riutilizzo delle stesse acque per uso agricolo o industriale. La tecnica dell’ozonizzazione è stata ampiamente studiata negli ultimi anni, e si è sviluppata fino a diventare una tecnologia consolidata con diverse applicazioni pratiche già implementate, soprattutto in Svizzera e in Germania. Il trattamento con ozono richiede un post-trattamento biologico per degradare i sottoprodotti di ossidazione chimica. Per questa ragione sono state studiate e testate diverse tipologie di bioreattori. Dal punto di vista della progettazione tecnica degli impianti, anche soluzioni integrate che prevedono  l’ozonizzazione come fase intermedia nel processo a fanghi attivi.  I principali composti biodegradabili che si ottengono dal processo di ossidazione delle acque con ozono, cioè aldeidi, chetoni e acidi carbossilici possono venire successivamente trattati con un processo a fanghi attivi convenzionale.

L’ozono reagisce selettivamente con composti che contengono molecole ricche di elettroni, come sistemi aromatici attivati, amminoacidi, composti organosolforati, olefine. Questi composti sono caratterizzati da  velocità di reazione di ordine elevato con l’ozono, che di solito si traducono in un abbattimento efficiente. Inoltre, la reazione non selettiva e veloce dei radicali OH formati dall’ozono ha un’ulteriore efficacia nella degradazione degli inquinanti emergenti.  Diclofenac, carbamazepina, claritromicina, sulfametossazolo  possono raggiungere percentuali di abbattimento del 90%. Per altri tipi di composti con reattività meno pronunciata con l’ozono (benzotriazolo, Acido 2-[1-(amminometil)cicloesil] acetico) l’abbattimento può ridursi a percentuali tra l’80 ed il 40%.

Il tema come si può intuire continua a essere complesso. Le tecnologie si stanno sviluppando in maniera promettente, le ricerche e sperimentazioni continuano da molti anni. Le sinergie finalmente ci sono e mostrano che i risultati sono molto promettenti. Il settore della gestione del ciclo idrico sta attraversando un periodo di cambiamenti tecnologici che non posso che definire storico. Ritornando agli aspetti più strettamente tecnici, la combinazione dell’ozonizzazione e del successivo trattamento biologico, migliora la biodisponibilità della sostanza organica biodegradabile rendendola facilmente assimilabile dai microrganismi utilizzati nei processi depurativi tradizionali.

Un trattamento integrato di ozonizzazione/depurazione a fanghi attivi è una tecnologia valida. Applicabile sia per l’acqua destinata alla potabilizzazione, che come trattamento di affinamento delle acque scaricate dai depuratori consortili. In questo modo queste ultime non richiedono più un successivo consumo di ossigeno, dovuto al meccanismo di autodepurazione del corpo idrico ricettore, che ne sarebbe poi impoverito. Non instaurandosi una situazione di anossia a valle dello scarico, nel tempo si ottiene il ristabilimento di condizioni ecologiche più favorevoli per la fauna acquatica. L’ozonizzazione inoltre ha un forte effetto sulla disinfezione delle acque reflue depurate.

A Schoenerlinde, comune a nord di Berlino è stato installato presso il locale depuratore consortile un impianto pilota per la verifica del processo combinato.  Le acque reflue grezze passano inizialmente attraverso le normali fasi di grigliatura, disoleatura e sedimentazione primaria.

Il trattamento biologico convenzionale consiste in una fase di pre-denitrificazione, mentre il fosforo è abbattuto mediante un trattamento biologico integrato da un dosaggio di coagulante consistente in una soluzione acquosa di FeCl3.

Immagine tratta da Environmental Science Water Research& Tecnology

 L’effluente proveniente dal trattamento biologico secondario viene ozonizzato e successivamente inviato alla fase di filtrazione.

Come si può vedere nello schema dell’impianto una parte dell’acqua uscente dal trattamento con ozono attraversa un filtro riempito con carbone attivo. Gli altri due filtri sono riempiti uno con sabbia e carbone attivo, e il terzo filtro con sabbia e antracite. All’ingresso degli ultimi due filtri è dosato cloruro ferrico come coagulante per l’abbattimento del fosforo.

I risultati della sperimentazione hanno mostrato che l’uso di carbone attivo al posto di materiale filtrante non assorbente come l’antracite, è più adatto a promuovere l’attività metabolica e quindi migliora la degradazione aerobica della materia organica. Inoltre, il post-trattamento con filtri a carbone attivo permette la rimozione supplementare di diversi sottoprodotti di ozonizzazione, mentre i filtri non assorbenti non ottengono un risultato paragonabile.

Il futuro del trattamento delle acque è iniziato.  Penso si debba fare una riflessione finale: aumentano le complessità, si cercano e si realizzano tecniche nuove. Non cadiamo però nell’errore di dare l’acqua per scontata. Esiste anche un altro problema di enorme importanza. Cioè quello di ridurre il più possibile il flusso di rifiuti e scarti scaricati nell’ambiente. Problema non nuovo, ma non ancora pienamente affrontato e capito. Specialmente dai decisori politici. Con lodevoli eccezioni, ma che sono ancora molto marginali.

Recensione.“Perché gli asparagi fanno puzzare la pipì?”

In evidenza

Margherita Venturi

Recensione. Perché gli asparagi fanno puzzare la pipì di A. Brunning.

trad . Italiana S e C. Della Volpe – Lu::Ce Edizioni, p.160 –  euro 16

 

“Perché gli asparagi fanno puzzare la pipì?” per un libro è sicuramente un titolo che può lasciare perplessi, soprattutto i più schizzinosi, ma di ciò non si possono accusare Claudio Della Volpe (ben noto ai lettori di questo blog) e sua figlia Serena che hanno fatto solo la traduzione in italiano del testo in inglese. Ho scritto “hanno fatto solo la traduzione” semplicemente per dire che Claudio e Serena non sono i responsabili del titolo e, quindi, quel “solo” non ha nulla a che vedere con la gran fatica che richiede tradurre da una lingua da un’altra. Infatti, oltre alla competenza in materia, ci vuole un notevole impegno per rendere la lettura semplice e fruibile nella nuova lingua; ebbene, il libro in questione è così piacevole da leggere proprio perché i suoi traduttori sono stati maestri in tutto ciò.

A parte questa necessaria premessa, secondo me l’impresa in cui si sono imbarcati Claudio e Serena è sicuramente meritevole perché non c’era nulla del genere in italiano e perché nel testo il cittadino comune trova la risposta a tante domande e a tante curiosità. Ho parlato di cittadino comune perché la Chimica è spiegata in maniera così accattivante, le formule chimiche sono così piacevoli, anche semplicemente da guardare, e l’aspetto grafico è così “sbarazzino” (permettetemi questa licenza) da attrarre non solo chi “mastica” queste cose.

Giusto per stuzzicare il desiderio di leggere il libro, vi dico che oltre, ovviamente, a capire perché dopo aver mangiato gli asparagi la pipì puzza, scoprirete perché i fagioli fanno fare le puzzette (per rimanere nell’ambito più prosaico), perché la menta rinfresca l’alito, perché il morso della zecca può creare allergia per alcuni tipi di carne, perché il caffè è amaro, perché il pompelmo è vietato quando si assumono alcuni farmaci, perché le bollicine migliorano il sapore dello champagne, se è vero che i semi di mela contengono cianuro e se è giusto o no conservare in frigorifero il cioccolato.

A proposito di cioccolato mi ha rincuorato molto sapere che questa delizia è tossica per i cani, mentre la dose letale per l’uomo è sconosciuta; mi ha rincuorato molto, perché ne sono una “forsennata” divoratrice: la cioccolata (rigorosamente fondente) non manca mai in casa mia e non passa giorno senza che ne mangi, o meglio ne degusti da momento che mi dà una grande soddisfazione, almeno 100 g.

Aggiungo che non solo la grafica è molto piacevole, come ho già detto, ma anche la divisione nelle otto sezioni, nell’ambito delle quali le domande sono suddivise, è particolarmente azzeccata: Sapore, Aroma, Colore, Veleno, Sensazione, Mente, Salute, Trasformazioni. Ad esempio, nella sezione “Mente” sono raccolte le curiosità che riguardano gli effetti stimolanti e allucinogeni di alcuni cibi, mentre nella sezione “Trasformazioni” si affrontano le domande legate alle modifiche positive o negative che può subire il cibo.

Mi è, inoltre, piaciuto molto il fatto che alla fine del libro ci siano alcune pagine bianche su cui prendere appunti, cosa molto utile per non scrivere direttamente sul libro o, come faccio spesso io, per evitare di usare pezzetti di carta che, quando non ho a disposizione post-it, infilo fra le pagine e che poi fatico molto a ritrovare e che a volte addirittura perdo irrimediabilmente.

In definitiva, questo libro rappresenta un ottimo regalo di Natale che mi sento di consigliare a tutti. Ricordo, però, che non lo troverete in libreria; si può comprare, infatti, solo on-line, ma la cosa ormai non ci spaventa più perché, dopo quasi un anno di forzata segregazione, siamo diventati abilissimi ad usare questa opportunità per rifornirci di ogni cosa e il libro in questione ne vale sicuramente la pena!

Margherita Venturi

La scheda del libro si trova sulla pagina dell’editore all’indirizzo: https://luce-edizioni.it/prodotto/perche-gli-asparagi-fanno-puzzare-la-pipi/ dove il libro si può anche acquistare tramite e-commerce. Per una precisa scelta commerciale il libro non è disponibile sulle principali piattaforme online (Amazon, IBS ecc.), anche se quasi sicuramente lo danno come disponibile (c’è un automatismo per cui i dati dei libri in commercio vengono pescati in automatico dalle librerie online).