Le molecole più interessanti dell’anno 2018

In evidenza

Rinaldo Cervellati

Anche quest’anno Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2018 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, con la grande maggioranza (58%) degli intervistati si trova la sintesi di un grafene poroso:Moreno et al. (Bottom-up synthesis of multifunctional nanoporous graphene., Science, 2018, 6385, 199-203) hanno usato l’accoppiamento Ullmann per polimerizzare un difenilbiantracene dibromo-sostituito su una superficie d’oro. La ciclodeidrogenazione del polimero risultante ha prodotto nanonastri di grafene e l’accoppiamento incrociato di queste strutture ha formato un foglio di grafene nanoporoso con dimensioni dei pori di circa 1 nanometro. Il grafene nanoporoso presenta proprietà elettriche che lo rendono un materiale adatto per applicazioni elettroniche e per la separazione molecolare.

Al secondo posto (11%) si è classificata una nuova classe di steroisomeri:

Mentre sintetizzava macrocicli di porfirina contenenti un ponte boro-ossigeno-boro, un gruppo internazionale di ricercatori ha scoperto un nuovo tipo di isomeria, chiamata akamptoisomeria. Questi akamptoisomeri si originano dall’inversione dell’angolo di legame in cui l’atomo centrale in un terzetto piegato e legato singolarmente a atomi diversi si flette nella direzione opposta (P.J. Canfield et al., A new fundamental type of conformational isomerism., Nature Chemistry, 2018, 10, 615–624). Nel caso dei macrocicli dei ricercatori, l’atomo di ossigeno nel ponte fa la flessione, spostandosi avanti e indietro su entrambi i lati dell’anello della porfirina.

Terzo classificato (10%) il semplice ma elusivo dimetilcalcio

Sessanta anni orsono fu riportata la sintesi del composto organometallico dimetilcalcio, ma quell’impresa non è mai stata replicata. Quest’anno, un gruppo di chimici tedeschi ha infine riportato un’altra sintesi della molecola apparentemente semplice, che potrebbe portare a nuovi catalizzatori o reagenti. Il “trucco” è stato trovare materiali di partenza appropriati (il sale di calcio della bis(trimethylsilyl)amide [Ca{N(SiMe3)2}2]2) e escogitare un modo per purificare adeguatamente un reagente notoriamente contaminato da alogenuri, il metil litio. (B. M. Wolf et al., Dimethylcalcium., J. Am. Chem. Soc., 2018, 140, 2373–2383). I ricercatori hanno usato il dimetilcalcio amorfo così ottenuto per produrre un reagente di Grignard e un composto di metilcalcio terminale.

Va osservato il grande divario fra la preferenze espressa per la prima molecola e quelle per le successive che si attestano attorno al 10%. Non conoscendo l’entità del campione testato è difficile stabilire la significatività dell’ordine di questi posti.

Il quarto posto (8%) spetta al “nodo” molecolare più complicato

Questa molecola a 324 atomi si intreccia su se stessa in nove punti di incrocio ed è il nodo molecolare più complesso pubblicato fino ad oggi:

Il gruppo di chimici coordinato dal prof. David A. Leigh dell’Università di Manchester (L. Zhang et al., Stereoselective synthesis of a composite knot with nine crossings., Nat. Chem., 2018, 10, 1083–1088) ha realizzato la struttura unendo sei lunghi blocchi contenenti gruppi alcheni a ciascuna estremità e tre gruppi bipiridilici nel mezzo. Questi ligandi ruotavano intorno a sei ioni ferro, legandosi al ferro attraverso i loro atomi di azoto bipiridilico. Usando un comune catalizzatore al rutenio, il gruppo ha legato tutti i ligandi con una reazione di ring closing che ha rimosso il ferro e “annodato” il prodotto finale. Sebbene questi tipi di nodi molecolari siano considerati solo come dimostrazioni di abilità di sintesi, i ricercatori di Manchester pensano che un giorno possano essere usati come catalizzatori o per altre applicazioni.

Il quinto posto (5%) va alla sintesi di una tossina dell’Amanita phalloides.

I ricercatori dell’Università della British Columbia hanno individuato un percorso per la produzione di α-amanitina, una tossina prodotta dal fungo Amanita phalloides:

Per realizzare l’ottapeptide biciclico, i chimici hanno vinto le sfide chiave dell’inserimento di un ponte 6-idrossi-tryptathionina solfossido, della sintesi enantioselettiva della (2S,3R,4R) -4,5-diidrossi-isoleucina e solfossidazione diastereoselettiva in un opportuno solvente (K. Matinkhoo et al., Synthesis of the Death-Cap Mushroom Toxin α‑Amanitin., J. Am. Chem. Soc. 2018, 140 (21), 6513–6517).

Fino a oggi la tossina, di notevole interesse come possibile agente antitumorale, si otteneva soltanto per estrazione dal fungo.

Infine un 7% complessivo ha optato per il seguente polimero radicale a elevata conducibilità elettrica

Joo et al. A nonconjugated radical polymer glass with high electrical conductivity., Science,2018, 6382, 1391-1395; per il seguente “omaggio a Saturno”:Yamamoto et al., Nano‐Saturn: Experimental Evidence of Complex Formation of an Anthracene Cyclic Ring with C60., Ang. Chem. Int. Ed., 2018, DOI: 10.1002/anie/201804430; e per l’individuazione della neurotossina probabilmente usata nel presunto attentato all’ex agente segreto russo Sergej Skripal.

 

Il secondo traguardo: oltre le calorie.

In evidenza

Luigi Campanella, già Presidente SCI

Il secondo traguardo dello sviluppo sostenibile per le Nazioni Unite si focalizza sulla lotta entro il 2030 contro la cattiva nutrizione in tutte le sue forme. Una nuova ricerca sull’argomento dimostra che per raggiungere questo traguardo è necessario un approccio nuovo rispetto alla definizione dei limiti della sufficienza di nutrienti nell’alimentazione dei cittadini del Pianeta. Lo studio è stato pubblicato in ” Frontiers in sustainable food systems”.

https://www.frontiersin.org/articles/10.3389/fsufs.2018.00057/full?utm_source=FWEB&utm_medium=NBLOG&utm_campaign=ECO_FSUFS_calories-nutrients

E’ il primo studio che cerca di mappare quantitativamente a livello globale il flusso di energia, proteine, grassi, amminoacidi essenziali e micronutrienti dal campo di cultura al piatto e di identificare i punti caldi dove si perdono nutrienti. Lo studio mostra che mentre produciamo nutrienti in quantità molto maggiore di quanto richiesto dalla popolazione del Pianeta, le inefficienze nella catena di distribuzione comportano deficienze alimentari. La ricerca sottolinea le complessità che sorgono nel mettere a punto un sistema di alimentazione equilibrato, che solo può essere maneggiato con un approccio olistico. Le innovazioni di approccio che si richiedono derivano dal fatto che attualmente la sicurezza alimentare è valutata in termini di calorie, mentre la cosiddetta fame nascosta, cioè la malnutrizione di micronutrienti, affligge più di 2 miliardi di persone nel mondo

Attualmente i differenti aspetti del sistema alimentare globale sono trattati in termini di tonnellate o chili, e diventa difficile definirne sufficienza o meno e rispetto a quante persone tali quantità possano garantire alimentazione sufficiente.

Il capofila dell’equipe che ha svolto la ricerca ha dichiarato: ”vogliamo, per la prima volta, valutare l’intero sistema alimentare in unità di misura utili-nutrienti medi per persona- guardando a tutti i nutrienti essenziali per la buona salute”. Il gruppo di ricerca ha utilizzato i dati forniti dalla FAO circa i bilanci alimentari e le composizioni nutrizionali per quantificare proteine digeribili, grassi, calorie, aminoacidi e micronutrienti (calcio, zinco, ferro, folato, vitamine A, B6, B12, C) attraverso la catena di distribuzione, dalla produzione in campo all’alimento sulla tavola.

Le perdite di alimenti e nutrienti sono state calcolate dai dati regionali sui rifiuti delle Nazioni Unite e tutti i dati quantitativi sono stati normalizzati per mediare per persona e per giorno. I valori delle forniture di nutrienti sono stati confrontati alla richieste medie nutrizionali per stabilire circa la sufficienza o meno. I ricercatori sono stati colpiti dal risultato: tutti i nutrienti, non le calorie corrispondenti, sono distribuiti in quantità sufficienti. Studi precedenti avevano dimostrato che noi produciamo più dei nostri bisogni in termini di calorie (5500-6000 kcal per persona per giorno), ma mentre per alcuni nutrienti si arriva ad un eccesso di quasi 5 volte, i dati su proteine e micronutrienti essenziali sono di segno completamente opposto, in più con gravi diseguaglianze nella disponibilità di cibo e con differenti tempi e fasi nella perdita (raccolto, stoccaggio, utilizzo a fini energetici). Queste informazioni sono preziose per interventi preventivi a salvaguardia di un equilibrio alimentare globale.

Si fa presto a dire ricicliamo….3. Elemento per elemento.

In evidenza

Claudio Della Volpe

 (la prima e la seconda parte di questo post sono qui e qui)

In questa terza parte del post discuteremo la situazione del riciclo guardando alla materia come divisa fra gli elementi chimici; ovviamente questo non è vero di per se perché quasi tutti gli elementi, a parte i gas nobili, sono presenti come composti e dunque manipolarne uno ne fa manipolare parecchi.

Ma questo punto di vista consente di avere un quadro partendo da un punto di vista che è familiare per i chimici, ossia quello della tavola periodica, di cui, ricordiamo oggi, il 2019 è stato dichiarato anno internazionale.

Non solo; consente di ragionare del riciclo degli elementi incrociando il riciclo in campo umano con quello che già avviene in campo naturale, ossia i grandi cicli biogeochimici, che sono familiari a parecchi di noi e fanno parte anche della cultura naturalistica della gran parte delle persone. Ragionare per elemento consente di comprendere come l’umanità abbia modificato od alterato o sconvolto alcuni dei cicli basilari della biosfera.

I cicli biogeochimici sono legati alla nascita della chimica; il primo e più famoso di essi, quello del carbonio, legato alla respirazione, e dunque intimamente connesso alla nostra vita ed alle piante, fu scoperto da Joseph Priestley ed Antoine Lavoisier e successivamente popolarizzato dalle famose conferenze sulla candela di Faraday e da Humphry Davy, l’inventore della lampada di sicurezza dei minatori.

Ma questo punto di vista è divenuto quello largamente dominante per tutti gli elementi e soprattutto è divenuto la base della concezione della biosfera come sistema chiuso ma non isolato, alimentato dal Sole e strutturato dal flusso di energia libera e di entropia determinato dai vari gradienti presenti nel sistema e dal loro accoppiamento (si vedano i tre post qui, qui e qui).

I cicli biogeochimici sono in un certo senso le principali “strutture dissipative” (per usare il bel termine coniato da Prigogine) alimentate dal flusso di energia solare e costituiscono il vero anello di congiunzione fra l’animato e l’inanimato, fra la vita e la non-vita. I cicli biogeochimici sono fatti a loro volta di cicli più piccoli e sono intrecciati fra di loro, costituendo un “iperciclo”(termine coniato da Manfred Eigen che lo usava per le molecole autoreplicantesi) ossia un ciclo di cicli, una rete di interazioni che rappresenta l’anima della biosfera terrestre, Gaia, come l’ha chiamata Lovelock. Un iperciclo non è solo una miscela di flussi di materia (e di energia), ma è una serie di interazioni di retroazione in cui ogni parte del ciclo interagisce con le altre e alla fine questo schema può essere sia la base della stabilità, dell’omeostasi del sistema, della sua capacità di adattarsi, sia della sua delicatezza, della sua sensibilità ai più diversi effetti, e dunque della sua capacità di trasformarsi ed evolvere e ovviamente di essere avvelenato e di morire. Nulla è per sempre. Panta rei .“Tutto scorre”, come già Eraclito aveva capito, ma nell’ambito di un unico sistema che Parmenide aveva ricosciuto a sua volta come l’unità della Natura. E la sintesi, secondo me è proprio la concezione dialettica della natura, quello che noi chiamiamo con la parola retroazione, con il termine iperciclo e che quantifichiamo con sistemi di equazioni differenziali (non lineari), che (lasciatemi dire) se colgono i numeri perdono l’unità dell’idea.

Questo fa comprendere come l’invasione di campo che l’uomo ha compiuto nel ciclo del carbonio incrementando lo scambio con l’atmosfera di circa un sesto, con il ciclo dell’azoto di cui oggi rappresenta un co-partner equivalente al resto della biosfera e con il ciclo del fosforo nel quale è il player di gran lunga principale, non siano fatti banali ma alterazioni profonde e probabilmente irreversibili le cui conseguenze non sono ancora ben comprese.

Ma tutto ciò è una visione unitaria del tema; meno unitaria e più dedicata agli scopi pratici ed economici è il paradigma economico dominante che teorizza la crescita infinita, un’economia non biofisica e anzi direi talmente scandalosamente finanziarizzata e lontana dalla vita di noi tutti da dover essere cambiata al più presto possibile.

La questione è che anche gli articoli scientifici non colgono spesso questa unitarietà ma analizzano solo gli aspetti “concreti”.

C’è un bel filmato segnalatomi dall’amica Annarosa Luzzatto (che è una nostra redattrice) che fa vedere come in poco più di 300 anni si siano scoperti tutti gli elementi che conosciamo.

Ebbene in un tempo anche più breve l’uso di questi elementi è divenuto normale nella nostra industria; praticamente non c’è elemento che non sia usato nel nostro ciclo produttivo, anche di quelli che non hanno un ruolo significativo nella biosfera; e, dato il nostro modo lineare di produrre, questo ha corrisposto ad un significativo incremento della “redistribuzione” di questi elementi nell’ambiente.

I dati aggiornati per circa 60 elementi sono stati raccolti dall’ONU (1) e sono mostrati nella figura sotto (tratta dalla ref. 2).>50% corrisponde a poco più del 50%, nella maggior parte dei casi. Si tratta però dei valori di riciclaggio a fine vita non del “riciclaggio” e basta, che potrebbe facilmente confondersi con le procedure di recupero INTERNE al ciclo produttivo, che non cambiano le cose e nelle quali la tradizione industriale è maestra (quasi sempre).

Il report ONU conclude che:

Because of increases in metal use over time and long metal in-use lifetimes, many RC values are low and will remain so for the foreseeable future.

A causa dell’aumento dell’uso del metallo, molti valori RC (NdA grandezza che stima il riciclo) sono bassi e rimarranno tali per il prossimo futuro.

Anche l’articolo da cui è tratto la tabella soprariportata (2) conclude fra l’altro:

The more intricate the product and the more diverse the materials set it uses, the bet- ter it is likely to perform, but the more difficult it is to recycle so as to preserve the resources that were essential to making it work in the first place.

Più il prodotto è intricato e più è vario il gruppo di materiali utilizzato, più è probabile che funzioni, ma più è difficile riciclarlo, in modo da preservare le risorse indispensabili per farlo funzionare (in primo luogo) .

Fate caso che solo meno di un quarto del cadmio viene riciclato a fine vita; il cadmio è un elemento cancerogeno acclarato; che fine fa più del 75% del cadmio che usiamo? Il mercurio, altro metallo pesante tristemente famoso, su cui ho scritto parecchio in passato, viene riciclato a fine vita per meno del 10%; che fine fa più del 90% del mercurio?

Probabilmente il piombo rappresenta una eccezione in questo quadro apocalittico e possiamo dire che quasi la totalità del piombo usato nelle batterie viene riciclato grazie ad una legislazione molto severa.

Perfino i metalli preziosi come il platino o l’oro, che hanno un elevato valore intrinseco che ne favorisce il riciclo a fine vita, sono sfavoriti dal fatto che l’uso in elettronica ne rappresenta una frazione significativa e corrisponde ad una breve vita dei prodotti e ad un elevato grado di miscelazione che rendono poco appetibile il riciclaggio a fine vita (pensateci quando comprerete il prossimo cellulare, io ho sempre comprato prodotti usati, ma non riesco sempre a convincere il resto della famiglia ed il mio notebook, da cui sto scrivendo, quest’anno compie 10 anni ed è difficile mantenerlo aggiornato, ma tengo duro) ci vogliono regole che obblighino i produttori a continuare a produrre le batterie e i pezzi di ricambio e rendere i software compatibili, due scuse che spesso impediscono di continuare ad usare prodotti perfettamente funzionanti.La figura qui sopra riporta, sebbene i dati siano di una decina di anni fa, la situazione di due metalli che sono all’estremo della capacità di recupero; da una parte il nickel che arriva al 52% di recupero a fine vita e dall’altra il neodimio che non viene affatto recuperato.

Questa è la situazione forse non aggiornatissima, ma significativa del nostro punto di partenza. Quando va bene sprechiamo almeno la metà di ciò che estraiamo, altrimenti lo sprechiamo tutto, lo usiamo una volta e lo sottraiamo all’uso delle future generazioni (figli e nipoti); ma non solo, gli sporchiamo il mondo. E prima o poi pagheremo per questo; o pagheranno loro.

Nel prossimo ed ultimo post di questa serie parleremo a fondo di qualche caso esemplare di riciclo.

Ah dimenticavo; buone feste.

(continua)

Da consultare

(1) E. Graedel et al., “Recycling Rates of Metals—A Status Report, a Report of the Working Group on the Global Metal Flows to UNEP’s International Resource Panel” (2011); www. unep.org/resourcepanel/Portals/24102/PDFs/ Metals_Recycling_Rates_110412-1.pdf

(2) Challenges in Metal Recycling Barbara K. Reck and T. E. Graedel Science 337, 690 (2012); DOI: 10.1126/science.1217501

Piccola lezione sui fanghi di depurazione.3: i controlli (parte seconda)

In evidenza

Mauro Icardi

(I precedenti post di questa serie qui e qui.)

Per terminare la rassegna dei controlli che si effettuano sui fanghi della vasca di ossidazione, occorre parlare della verifica della concentrazione di ossigeno disciolto. Questo perché nei processi a fanghi attivi di tipo aerobico è estremamente importante il buon funzionamento del sistema di areazione. L’apporto di aria (o in casi particolari di ossigeno liquido, che viene vaporizzato tramite appositi impianti) serve a mantenere una concentrazione non limitante per i processi di depurazione biologica, ma anche una buona miscelazione della sospensione areata acqua/fango. Normalmente il valore di ossigeno disciolto ritenuto ottimale si aggira intorno a valori di 2 mg/lt. Valori inferiori rallentano il processo di nitrificazione dell’ammonio, e valori superiori potrebbero rallentare la velocità di assorbimento dell’ossigeno da parte della biomassa aerobica.

Normalmente sulle vasche di ossidazione sono installate delle sonde di misura dell’ossigeno funzionanti in continuo, che permettono la verifica e la registrazione dei valori. La variazione marcata e repentina di questo parametro, può essere correlata per esempio a variazioni di carico entrante nell’impianto. Le moderne sonde attualmente utilizzate utilizzano il principio ottico della fluorescenza, è un principio ottico di misura dell’ossigeno nei liquidi. La tecnologia del sensore ottico di ossigeno si basa su un metodo di determinazione di tipo ottico chiamato “quenching di fluorescenza”. A differenza di un’elettrodo amperometrico , che misura una reazione di redox dell’ossigeno all’elettrodo, il metodo ottico è basato su un trasferimento di energia tra un cromoforo fluorescente (fluoroforo) e l’ossigeno.

Un fluoroforo integrato nella punta del sensore viene illuminato con una luce verde-blu proveniente da una sorgente LED. Il fluoroforo assorbe energia e ne trasferisce una parte in forma di luce rossa fluorescente emessa. Un rilevatore posto nel sensore legge la luce fluorescente emessa e ne misura intensità e durata.

In presenza di ossigeno, il fluoroforo trasferisce parte dell’energia assorbita alle molecole di ossigeno. L’ossigeno assorbe l’energia e la trasferisce sotto forma di calore all’area circostante, causando una variazione di intensità della fluorescenza. Questa variazione è direttamente correlate alla pressione parziale di ossigeno nel mezzo e costituisce il principio di base della misura.

Secondo la legge di Henry, la quantità di un dato gas disciolto in un dato tipo e volume di liquido è direttamente proporzionale alla pressione parziale (p) di tale gas in equilibrio con tale liquido. Si tratta di un fattore molto importante per tutte le misure dell’ossigeno.

Le sonde normalmente rilevano anche il valore della temperatura, altro parametro di grande importanza. In sostanza una vasca di ossidazione è un reattore biologico. La temperatura di questo reattore non è però regolabile a piacere, ma subisce della variazioni stagionali, anche se non scende mai, di solito, a valori inferiori a 10-12°C, perlomeno in Italia.

(continua)

COP24: quali conclusioni?

In evidenza

Luigi Campanella, già Presidente SCI

Si è conclusa la COP24 che si è svolta a Katowice in Polonia. Si è discusso di impegni ed accordi globali per salvare il Pianeta. In molti workshop satelliti si sono poi affrontati argomenti più specifici. Il risultato più significativo credo sia rappresentato dalle attese regole sui meccanismi di trasparenza sull’implementazione degli impegni di riduzione delle emissioni e da indicazioni chiare per l’incremento a breve degli stessi. Questo risultato è la mediazione fra chi ha spinto per risultati più ambiziosi e chi ha frenato conducendo battaglie di retroguardia per cercare di indebolire i risultati finali. Il comunicato finale ha di conseguenza raccolto apprezzamenti ed insoddisfazioni. Fra i punti che mi sento di apprezzare sono la presenza fra i temi oggetto di monitoraggio di quello relativo all’uso e cambiamento d’uso di suoli e foreste e l’archiviazione della tradizionale differenziazione degli obblighi (la cosiddetta biforcazione) tra Paesi industrializzati e Paesi in via di sviluppo con l’adozione di regole comuni e la previsione di flessibilità per quei Paesi in via di sviluppo che ne necessitano in base alle loro capacità. E’ stato istituito il Forum sull’impatto delle misure di risposta al cambiamento climatico con il fine di permettere alle Parti di condividere in modo interattivo esperienze ed informazioni Per gli aspetti finanziari credo che il risultato più concreto sia quello di mobilitare 100 miliardi di dollari all’anno dal 2020 per sostenere i Paesi in via di sviluppo. La COP del 2019 si svolgerà in Cile e per quella del 2020 il nostro Ministro Costa ha presentato la candidatura dell’Italia.

Fra i workshop satelliti ho rilevato con una certa sorpresa che uno è stato dedicato all’energia nucleare all’interno del più ampio discorso della de-carbonizzazione del settore elettrico considerato passo essenziale per contrastare i cambiamenti climatici, se si pensa che la produzione di elettricità contribuisce per il 40% alle emissioni e che gas e carbone sono ancora le fonti principali che producono il 63% dell’elettricità. Un recente studio del MIT mostra come il costo della decarbonizzazione dell’elettricità sarebbe molto minore se nel cocktail di tecnologie alternative fosse presente anche il nucleare. Forse proprio questo studio ha spinto l’Associazione Mondiale per il Nucleare a rivendicare nella sede del Workshop i caratteri di questa tecnologia: basso contenuto di carbonio, basso livello di emissioni, elevata sicurezza. La stessa IPCC nel suo ultimo rapporto dettaglia ciò che è necessario fare per limitare il riscaldamento globale a 1,5°C sopra il livello preindustriale, osservando la elevata scalabilità del nucleare nei diversi Paesi ed evidenziando i successi della Francia che in meno di 20 anni ha massicciamente decarbonizzato la sua elettricità ricorrendo al nucleare. Nel 2018 il nucleare ha fornito nel mondo il 10,5% dell’energia totale con 6 nuovi reattori entrati in funzione* (fra Cina e Russia) e 14 da attivare nel 2019.

L’Italia dal referendum è fuori dal nucleare fra polemiche e dibattiti che di tanto in tanto si riaccendono; certo non si può dimenticare né l’aspetto dei costi né soprattutto quello della sicurezza: la densità di danno nel caso di un incidente è incommensurabilmente superiore a quella relativa a qualunque altro tipo di impianto. E aggiungiamo che nessun paese ha risolto il problema dell’immagazzinamento degli scarti della fissione nucleare da una parte e che i paesi da cui provengono i minerali usati soffrono seri problemi di inquinamento ambientale di lungo periodo. Questo complesso di problemi rende il nucleare poco appetibile specie nei paesi con una pubblica opinione libera; in Europa solo Francia e Finlandia hanno progetti nucleari in corso e di entrambi si sa che soffrono enormi problemi di attivazione sicura. L’esempio del reattore finlandese di Olkiluoto 3 (1600MW) i cui costi e tempi di costruzione sono triplicati (stimati a 9 miliardi di euro nel 2012, ma non più aggiornati) e non ancora conclusi dal 2005 è al momento un esempio vivente di questi problemi. Olkiluoto 4 non è più in programma. Flammanville 3 è nella medesima situazione di Olkiluoto 3, iniziato nel 2007 non si sa quando finirà e i costi sono arrivati a superare gli 11 miliardi di euro.

Piccola lezione sui fanghi di depurazione. 2. I controlli. Parte prima

In evidenza

Mauro Icardi

(la prima parte di questo post è qui)

Nella normativa relativa alla depurazione delle acque di scarico non è previsto l’obbligo di verificare le caratteristiche dei fanghi di depurazione, così come è invece previsto per la linea di trattamento delle acque reflue. Ma considerato che i fanghi sono prodotti proprio dal trattamento depurativo delle acque, terminati i processi di trattamento, quali ad esempio l’ispessimento, la digestione anaerobica, e la disidratazione, i fanghi che devono essere smaltiti diventano rifiuti speciali, identificati dai codici CER 190804 o 190805. In questo caso sono soggetti a controlli e adempimenti relativi alla gestione dei rifiuti, e quindi vengono verificate le concentrazioni limite degli inquinanti presenti che sono stati eliminati dall’acqua reflua depurata, prima di identificare la destinazione di smaltimento o di recupero. Le principali destinazioni dei fanghi possono essere per lo smaltimento la discarica o l’incenerimento, e nel caso del recupero principalmente il riutilizzo agricolo, che nell’ultimo periodo è stato molto criticato, sollevando dubbi nella pubblica opinione, ma anche problemi di gestione degli stessi fanghi. Vediamo quali sono i principali controlli che si possono effettuare sui fanghi, nelle varie fasi di trattamento.

Per effettuare una corretta gestione del processo depurativo si stabiliscono normalmente dei work planning aziendali, per determinare diversi parametri utili al controllo di processo in vasca di ossidazione. I principali controlli possono richiedere la verifica di parametri di tipo chimico, biologico, e tecnologico. Non è poi da trascurare l’osservazione diretta del comparto di ossidazione biologica. A volte, soprattutto dopo molti anni di lavoro, si riescono a identificare con il semplice colpo d’occhio eventuali disfunzioni del processo depurativo.

Una delle operazione più semplici da effettuarsi è quella della registrazione del valore della sedimentazione dei fanghi in cono Imhoff.

Il cono di Imhoff è un recipiente di vetro o materiale plastico a forma di cono, sorretto da un apposito sostegno. Il volume del cono di Imhoff è 1 litro, e la graduazione parte, e quindi ha lo zero, in corrispondenza del vertice del cono, e poi, procede verso l’alto. Con questa apparecchiatura molto semplice, si può verificare la tendenza alla sedimentazione di un fango prelevato nella fase di ossidazione, oppure di ricircolo di un impianto di depurazione biologica.

Nell’immagine si può vedere a sinistra un fango con buona tendenza alla sedimentazione, e con una divisione marcata dell’interfaccia fango/acqua chiarificata. Mentre a destra si vede un fango con caratteristiche piuttosto problematiche, e con una scarsa tendenza alla sedimentazione.

Praticamente il cono di Imhoff riproduce le condizioni di sedimentazione che si verificheranno poi nel sedimentatore dell’impianto di depurazione.

Associata a queste verifiche visuali, vi è la determinazione dell’indice di volume del fango sludge volume index, abbreviato in SVI. Per determinare questo parametro, si rileva semplicemente il volume di fango letto sulla scala graduata del cono Imhoff dopo 30 minuti di sedimentazione, e lo si divide per la concentrazione di fango espressa in g/lt ottenuta dopo filtrazione su carta da filtro e successiva evaporazione dell’acqua in stufa alla temperatura di 105° C. (SVI=volume del fango sedimentato [ml/l] / quantità di solidi sospesi [mg/l]).

Si ritiene che un fango abbia buone caratteristiche di sedimentabilità se ha uno SVI non superiore a 250 ml/lt.

Viene determinata poi anche la percentuale di sostanza organica volatile indicata come tenore delle materie secche volatili ; rappresenta la porzione di sostanza secca che viene eliminata per calcinazione alla temperatura di 550 °C e viene normalmente espressa come percentuale di materiale volatile sulla totalità del contenuto di sostanza secca.

La determinazione si effettua ponendo il filtro in un crogiolo di porcellana, e poi in forno elettrico a muffola.

Il valore del contenuto di sostanza secca del fango varia con il tipo di fango considerato: fango derivante dalla sedimentazione primaria, fango contenuto nella vasca di aerazione, fango del sedimentatore secondario, fango misto, fango parzialmente o totalmente mineralizzato, fango parzialmente ispessito ecc. In ogni caso tuttavia questo valore risulta molto basso, inferiore al 5% e in molti casi inferiore al 3%.

Altro controllo che si esegue è quello dell’analisi microscopica del fango attivo. Il processo a fanghi attivi ha lo scopo di raggiungere la massima riduzione di BOD e di nutrienti dai liquami trattati, con la minima produzione di fanghi biologici. I protisti sono importanti costituenti delle comunità implicate nella rimozione di sostanza organica biodegradabile e di batteri dispersi nella miscela aerata in questo tipo di processo di trattamento dei liquami. I trattamenti biologici, infatti, si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche.

L’osservazione microscopica del fango di depurazione può dare importanti informazioni sull’equilibrio tra decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e consumatori (flagellati eterotrofici, ciliati, rizopodi, e piccoli metazoi) che predano i batteri dispersi e altri organismi.

I protozoi ciliati sono molto numerosi in tutti i tipi di processi di trattamento aerobico dei liquami, e la loro presenza diffusa è indice di un buon funzionamento della fase ossidazione biologica.

La pensione del platino-iridio.

In evidenza

Rinaldo Cervellati

Dal 2019 il campione in platino-iridio dell’unità di massa andrà definitivamente in pensione.

È quanto riporta Laura Howes nel numero del 16 novembre di Chemistry & Engineering newsletter. Con una votazione all’unanimità, la Commissione internazionale sui pesi e le misure riunitasi a Parigi il 15 novembre ha deciso che dal 20 maggio 2019 (giornata Mondiale della Metrologia), anche il kilogrammo, come ormai anche le altre sei unità di misura delle sei grandezze fondamentali del Sistema Internazionale (SI), lunghezza, tempo, temperatura termodinamica, corrente elettrica, intensità luminosa, quantità di sostanza, sarà ufficialmente definito in base a sette costanti fisiche (velocità della luce, costante di Planck, carica elettrica elementare, costante di Boltzmann, costante di Avogadro, frequenza della transizione iperfine nello stato fondamentale di Cs-133, efficienza della radiazione luminosa a 540´1012 Hz) piuttosto che in base a un artefatto. Vedremo che questo cambio di definizione comporta anche un cambio nella definizione di mole, l’unità di misura della settima grandezza fondamentale del SI, la quantità di sostanza.

Dal 1889, l’unità di massa SI, il kilogrammo, è ufficialmente definita uguale alla massa del prototipo internazionale di kilogrammo (International Prototype Kilogram, IPK). L’IPK è un cilindro di lega di platino/iridio conservato nel Bureau International des Poids et Mesures a Sèvres, vicino a Parigi.

L’IPK, cilindro in lega Pt/Ir che sarà presto ritirato, si trova a Parigi.

Quando l’IPK fu realizzato negli anni 80 del XIX secolo, furono replicati altri cilindri prototipo identici, che furono distribuiti in vari Paesi. Nel corso degli anni, l’IPK e gli altri prototipi hanno perso seppure impercettibilmente di massa.

Bill Phillips del NIST (Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti) ha descritto questa situazione come scandalosa. In effetti, le costanti fisiche sono oggi note con grande precisione il che consente di fare calcoli accuratissimi, come ad esempio quelli che sono stati necessari per far appoggiare le due sonde sulla superficie di Marte praticamente nel punto previsto. Sebbene la maggior parte delle persone non noterà il cambiamento, la maggiore precisione renderà il sistema SI più robusto, afferma Frank Härtig dell’Istituto Nazionale di Metrologia della Germania (PTB). “Abbiamo possibilità completamente nuove“, spiega, aggiungendo che, “poiché le tecniche analitiche diventano più avanzate e possono misurare quantità sempre minori di materiale, le nuove definizioni assicurano che tali misurazioni siano precise.

Il kilogrammo è ora definito come:

Il kilogrammo è definito assumendo la costante di Planck h esattamente uguale a 6.62607015×10-34 Js (J = kgm2s-2), date le definizioni di metro e di secondo. [1, p.14]

Queste ultime sono rispettivamente:

 Si definisce metro la distanza percorsa dalla luce nel vuoto in (1/299792458) secondo. [1, p.14]

Si definisce secondo la durata di 9192631770 periodi della radiazione corrispondente alla transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio-133. [1, p.13]

 Come già ricordato la nuova definizione dell’unità di massa implica un cambiamento nella definizione di mole che faceva riferimento all’IPK:

Si definisce mole la quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0.012 chilogrammi di carbonio-12.

A questa definizione seguiva l’aggiunta:

il Numero di Avogadro, rappresentato con il simbolo NA, è definito come il numero di atomi dell’isotopo C-12 contenuti in esattamente 0.012 kg di C-12.

Nella nuova definizione di mole il Numero di Avogadro entra direttamente nella definizione:

Si definisce mole la quantità di sostanza corrispondente a esattamente 6.02214076×1023 entità elementari. Questo numero è il valore numerico della costante di Avogadro, NA, quando espresso nell’unità mol-1 e viene chiamato numero di Avogadro. Un’entità elementare può essere un atomo, una molecola, uno ione, un elettrone, qualsiasi altra particella o gruppo specifico di particelle. [1, p.17]

Per completezza si riportano anche le nuove definizioni delle unità di misura delle altre tre unità fondamentali: carica elettrica, temperatura termodinamica e intensità luminosa.

L’ampère è definito in base al valore numerico della carica elementare, 1.602176634 × 10-19 C

(C = As), data la definizione di secondo.[1, p. 15]

Il kelvin è definito in base al valore numerico fisso della costante di Boltzmann k, 1.380649 × 10-23 JK-1, (J = kgm2s-2), date la definizione di kilogrammo, metro e secondo. [1, p.15]

L’intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza 5.4 × 1014 hertz e che ha un’intensità radiante in quella direzione di (1/683) watt per steradiante. [1, p. 18]

Per consentire le nuove definizioni, le costanti fisiche hanno dovuto essere misurate con grande precisione e con un alto grado di accuratezza. Questo lavoro ha richiesto oltre 10 anni e ha dato luogo a diverse scoperte tecnologiche. Frank Härtig afferma che si è trattato di una “competizione tra amici”: diversi istituti metrologici si sono contesi la misura più accurata e precisa per le costanti fisiche.

Per misurare il valore della costante di Planck sono entrati in competizione due metodi indipendenti. La bilancia Kibble, che ha vinto, compensa il peso di una massa di prova contro la forza prodotta quando una corrente elettrica attraversa una bobina di filo sospeso in un campo magnetico. Due diverse bilance Kibble, una al NIST e l’altra al National Research Council del Canada, hanno fornito lo stesso valore per h: 6.62607015×10-34 J s.

Bilancia Kibble

Il metodo che non ha vinto, chiamato il metodo di conteggio, in realtà ha reso possibile la determinazione del numero di Avogadro. Il gruppo di Härtig al PTB ha realizzato sferette incredibilmente precise arricchite nell’isotopo silicio-28 e misurato i loro volumi per via interferometrica.

Interferometro sferico in grado di misurare fino a pochi nanometri.

Robert Vocke e Savelas Raab del NIST hanno poi lavorato per determinare le proporzioni precise degli isotopi di silicio nel reticolo cristallino con la spettrometria di massa. Con il volume preciso della sfera e la composizione del reticolo cristallino nota, gli scienziati hanno potuto determinare il valore di NA come 6.02214076×1023 mol-1.

Va tuttavia ricordato che la prima idea di un metodo di conteggio venne all’italiano Claudio Egidi, un ricercatore del prestigioso istituto di metrologia Galileo Ferraris (oggi INRiM) che la pubblicò nel 1963 su Nature [2] ma non fu presa in considerazione.

Molti ricercatori che hanno collaborato a questa impresa, intervistati da C&EN, hanno descritto il compito di ridefinire le unità SI come punto culminante della loro carriera scientifica, un’opportunità unica di far parte di un evento destinato a cambiare un’epoca. Hanno sottolineato il cambiamento filosofico nel passaggio da definizioni basate su artefatti e quantità terrestri a costanti fisiche che manterranno il loro significato oltre la Terra. Härtig afferma che ciò permetterà a “altre culture intelligenti di capire ciò che intendiamo quando parliamo di ”kilogrammo”, “secondo”, ecc.

Bill Phillips, Nobel per la Fisica 1997   Frank Härtig

I libri di testo scientifici dovranno essere rimaneggiati in base alle nuove definizioni? Andando in classe, quei libri di testo riscritti potrebbero effettivamente rendere le cose più facili per gli studenti che affrontano il concetto di mole. Pedagogicamente, dice Marcy Towns della Purdue University, la nuova definizione non è un grande cambiamento. “Se si legge la letteratura didattica”, spiega, “gli studenti comprendono la definizione della mole in termini di 6.022´1023 particelle, e gli insegnanti usano molto questa definizione piuttosto che quella basata su 0.012 kg di C-12”.

Su questo sono abbastanza d’accordo, mi sembra più arduo spiegare a studenti della scuola dell’obbligo le definizioni di metro, secondo e kilogrammo…qualche suggerimento didattico?

Infine, un’osservazione: la settima grandezza fondamentale del SI fu introdotta nel 1960 per rimarcare la natura particellare della materia che non emergeva dalla definizione di massa, e fu chiamata amount of substance, unità di misura mole (mol). Sulla parola “substance” (it: sostanza, fr: substance, de: substanz, es: sustancia, el: ουσία per limitarci all’eurozona) si accese un vivace dibattito sulle principali riviste di didattica chimica, J. Chem. Educ., Educ. Chem., ecc., sia perché la parola “sostanza” ha significati diversi in discipline diverse, sia perché il concetto di sostanza (pura) è ritenuto un nodo concettuale all’apprendimento della chimica (Leonello Paoloni, Nuova Didattica della Chimica, Bracciodieta, Palermo, 1982, pp. 89-91). È comunque un fatto che la chimica cominciò ad affermarsi come scienza nella seconda metà del XVIII secolo quando furono stabiliti metodi per determinare il grado di purezza delle sostanze rendendo così operativo il concetto di sostanza (pura).

Fu proposto di sostituire sostanza con materia, qualcuno propose perfino il cambio di nome in chemical amount ma il nome è rimasto amount of substance. Voi che ne pensate?

Bibliografia

[1] Bureau International des Poids et Mesures, The International System of Units (SI) Bozza, 9th edition 2019. https://www.bipm.org/utils/en/pdf/si-revised-brochure/Draft-SI-Brochure-2018.pdf

[2] C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.