Le molecole più interessanti dell’anno 2018

Rinaldo Cervellati

Anche quest’anno Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2018 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, con la grande maggioranza (58%) degli intervistati si trova la sintesi di un grafene poroso:Moreno et al. (Bottom-up synthesis of multifunctional nanoporous graphene., Science, 2018, 6385, 199-203) hanno usato l’accoppiamento Ullmann per polimerizzare un difenilbiantracene dibromo-sostituito su una superficie d’oro. La ciclodeidrogenazione del polimero risultante ha prodotto nanonastri di grafene e l’accoppiamento incrociato di queste strutture ha formato un foglio di grafene nanoporoso con dimensioni dei pori di circa 1 nanometro. Il grafene nanoporoso presenta proprietà elettriche che lo rendono un materiale adatto per applicazioni elettroniche e per la separazione molecolare.

Al secondo posto (11%) si è classificata una nuova classe di steroisomeri:

Mentre sintetizzava macrocicli di porfirina contenenti un ponte boro-ossigeno-boro, un gruppo internazionale di ricercatori ha scoperto un nuovo tipo di isomeria, chiamata akamptoisomeria. Questi akamptoisomeri si originano dall’inversione dell’angolo di legame in cui l’atomo centrale in un terzetto piegato e legato singolarmente a atomi diversi si flette nella direzione opposta (P.J. Canfield et al., A new fundamental type of conformational isomerism., Nature Chemistry, 2018, 10, 615–624). Nel caso dei macrocicli dei ricercatori, l’atomo di ossigeno nel ponte fa la flessione, spostandosi avanti e indietro su entrambi i lati dell’anello della porfirina.

Terzo classificato (10%) il semplice ma elusivo dimetilcalcio

Sessanta anni orsono fu riportata la sintesi del composto organometallico dimetilcalcio, ma quell’impresa non è mai stata replicata. Quest’anno, un gruppo di chimici tedeschi ha infine riportato un’altra sintesi della molecola apparentemente semplice, che potrebbe portare a nuovi catalizzatori o reagenti. Il “trucco” è stato trovare materiali di partenza appropriati (il sale di calcio della bis(trimethylsilyl)amide [Ca{N(SiMe3)2}2]2) e escogitare un modo per purificare adeguatamente un reagente notoriamente contaminato da alogenuri, il metil litio. (B. M. Wolf et al., Dimethylcalcium., J. Am. Chem. Soc., 2018, 140, 2373–2383). I ricercatori hanno usato il dimetilcalcio amorfo così ottenuto per produrre un reagente di Grignard e un composto di metilcalcio terminale.

Va osservato il grande divario fra la preferenze espressa per la prima molecola e quelle per le successive che si attestano attorno al 10%. Non conoscendo l’entità del campione testato è difficile stabilire la significatività dell’ordine di questi posti.

Il quarto posto (8%) spetta al “nodo” molecolare più complicato

Questa molecola a 324 atomi si intreccia su se stessa in nove punti di incrocio ed è il nodo molecolare più complesso pubblicato fino ad oggi:

Il gruppo di chimici coordinato dal prof. David A. Leigh dell’Università di Manchester (L. Zhang et al., Stereoselective synthesis of a composite knot with nine crossings., Nat. Chem., 2018, 10, 1083–1088) ha realizzato la struttura unendo sei lunghi blocchi contenenti gruppi alcheni a ciascuna estremità e tre gruppi bipiridilici nel mezzo. Questi ligandi ruotavano intorno a sei ioni ferro, legandosi al ferro attraverso i loro atomi di azoto bipiridilico. Usando un comune catalizzatore al rutenio, il gruppo ha legato tutti i ligandi con una reazione di ring closing che ha rimosso il ferro e “annodato” il prodotto finale. Sebbene questi tipi di nodi molecolari siano considerati solo come dimostrazioni di abilità di sintesi, i ricercatori di Manchester pensano che un giorno possano essere usati come catalizzatori o per altre applicazioni.

Il quinto posto (5%) va alla sintesi di una tossina dell’Amanita phalloides.

I ricercatori dell’Università della British Columbia hanno individuato un percorso per la produzione di α-amanitina, una tossina prodotta dal fungo Amanita phalloides:

Per realizzare l’ottapeptide biciclico, i chimici hanno vinto le sfide chiave dell’inserimento di un ponte 6-idrossi-tryptathionina solfossido, della sintesi enantioselettiva della (2S,3R,4R) -4,5-diidrossi-isoleucina e solfossidazione diastereoselettiva in un opportuno solvente (K. Matinkhoo et al., Synthesis of the Death-Cap Mushroom Toxin α‑Amanitin., J. Am. Chem. Soc. 2018, 140 (21), 6513–6517).

Fino a oggi la tossina, di notevole interesse come possibile agente antitumorale, si otteneva soltanto per estrazione dal fungo.

Infine un 7% complessivo ha optato per il seguente polimero radicale a elevata conducibilità elettrica

Joo et al. A nonconjugated radical polymer glass with high electrical conductivity., Science,2018, 6382, 1391-1395; per il seguente “omaggio a Saturno”:Yamamoto et al., Nano‐Saturn: Experimental Evidence of Complex Formation of an Anthracene Cyclic Ring with C60., Ang. Chem. Int. Ed., 2018, DOI: 10.1002/anie/201804430; e per l’individuazione della neurotossina probabilmente usata nel presunto attentato all’ex agente segreto russo Sergej Skripal.

 

Il secondo traguardo: oltre le calorie.

Luigi Campanella, già Presidente SCI

Il secondo traguardo dello sviluppo sostenibile per le Nazioni Unite si focalizza sulla lotta entro il 2030 contro la cattiva nutrizione in tutte le sue forme. Una nuova ricerca sull’argomento dimostra che per raggiungere questo traguardo è necessario un approccio nuovo rispetto alla definizione dei limiti della sufficienza di nutrienti nell’alimentazione dei cittadini del Pianeta. Lo studio è stato pubblicato in ” Frontiers in sustainable food systems”.

https://www.frontiersin.org/articles/10.3389/fsufs.2018.00057/full?utm_source=FWEB&utm_medium=NBLOG&utm_campaign=ECO_FSUFS_calories-nutrients

E’ il primo studio che cerca di mappare quantitativamente a livello globale il flusso di energia, proteine, grassi, amminoacidi essenziali e micronutrienti dal campo di cultura al piatto e di identificare i punti caldi dove si perdono nutrienti. Lo studio mostra che mentre produciamo nutrienti in quantità molto maggiore di quanto richiesto dalla popolazione del Pianeta, le inefficienze nella catena di distribuzione comportano deficienze alimentari. La ricerca sottolinea le complessità che sorgono nel mettere a punto un sistema di alimentazione equilibrato, che solo può essere maneggiato con un approccio olistico. Le innovazioni di approccio che si richiedono derivano dal fatto che attualmente la sicurezza alimentare è valutata in termini di calorie, mentre la cosiddetta fame nascosta, cioè la malnutrizione di micronutrienti, affligge più di 2 miliardi di persone nel mondo

Attualmente i differenti aspetti del sistema alimentare globale sono trattati in termini di tonnellate o chili, e diventa difficile definirne sufficienza o meno e rispetto a quante persone tali quantità possano garantire alimentazione sufficiente.

Il capofila dell’equipe che ha svolto la ricerca ha dichiarato: ”vogliamo, per la prima volta, valutare l’intero sistema alimentare in unità di misura utili-nutrienti medi per persona- guardando a tutti i nutrienti essenziali per la buona salute”. Il gruppo di ricerca ha utilizzato i dati forniti dalla FAO circa i bilanci alimentari e le composizioni nutrizionali per quantificare proteine digeribili, grassi, calorie, aminoacidi e micronutrienti (calcio, zinco, ferro, folato, vitamine A, B6, B12, C) attraverso la catena di distribuzione, dalla produzione in campo all’alimento sulla tavola.

Le perdite di alimenti e nutrienti sono state calcolate dai dati regionali sui rifiuti delle Nazioni Unite e tutti i dati quantitativi sono stati normalizzati per mediare per persona e per giorno. I valori delle forniture di nutrienti sono stati confrontati alla richieste medie nutrizionali per stabilire circa la sufficienza o meno. I ricercatori sono stati colpiti dal risultato: tutti i nutrienti, non le calorie corrispondenti, sono distribuiti in quantità sufficienti. Studi precedenti avevano dimostrato che noi produciamo più dei nostri bisogni in termini di calorie (5500-6000 kcal per persona per giorno), ma mentre per alcuni nutrienti si arriva ad un eccesso di quasi 5 volte, i dati su proteine e micronutrienti essenziali sono di segno completamente opposto, in più con gravi diseguaglianze nella disponibilità di cibo e con differenti tempi e fasi nella perdita (raccolto, stoccaggio, utilizzo a fini energetici). Queste informazioni sono preziose per interventi preventivi a salvaguardia di un equilibrio alimentare globale.

Si fa presto a dire ricicliamo….3. Elemento per elemento.

Claudio Della Volpe

 (la prima e la seconda parte di questo post sono qui e qui)

In questa terza parte del post discuteremo la situazione del riciclo guardando alla materia come divisa fra gli elementi chimici; ovviamente questo non è vero di per se perché quasi tutti gli elementi, a parte i gas nobili, sono presenti come composti e dunque manipolarne uno ne fa manipolare parecchi.

Ma questo punto di vista consente di avere un quadro partendo da un punto di vista che è familiare per i chimici, ossia quello della tavola periodica, di cui, ricordiamo oggi, il 2019 è stato dichiarato anno internazionale.

Non solo; consente di ragionare del riciclo degli elementi incrociando il riciclo in campo umano con quello che già avviene in campo naturale, ossia i grandi cicli biogeochimici, che sono familiari a parecchi di noi e fanno parte anche della cultura naturalistica della gran parte delle persone. Ragionare per elemento consente di comprendere come l’umanità abbia modificato od alterato o sconvolto alcuni dei cicli basilari della biosfera.

I cicli biogeochimici sono legati alla nascita della chimica; il primo e più famoso di essi, quello del carbonio, legato alla respirazione, e dunque intimamente connesso alla nostra vita ed alle piante, fu scoperto da Joseph Priestley ed Antoine Lavoisier e successivamente popolarizzato dalle famose conferenze sulla candela di Faraday e da Humphry Davy, l’inventore della lampada di sicurezza dei minatori.

Ma questo punto di vista è divenuto quello largamente dominante per tutti gli elementi e soprattutto è divenuto la base della concezione della biosfera come sistema chiuso ma non isolato, alimentato dal Sole e strutturato dal flusso di energia libera e di entropia determinato dai vari gradienti presenti nel sistema e dal loro accoppiamento (si vedano i tre post qui, qui e qui).

I cicli biogeochimici sono in un certo senso le principali “strutture dissipative” (per usare il bel termine coniato da Prigogine) alimentate dal flusso di energia solare e costituiscono il vero anello di congiunzione fra l’animato e l’inanimato, fra la vita e la non-vita. I cicli biogeochimici sono fatti a loro volta di cicli più piccoli e sono intrecciati fra di loro, costituendo un “iperciclo”(termine coniato da Manfred Eigen che lo usava per le molecole autoreplicantesi) ossia un ciclo di cicli, una rete di interazioni che rappresenta l’anima della biosfera terrestre, Gaia, come l’ha chiamata Lovelock. Un iperciclo non è solo una miscela di flussi di materia (e di energia), ma è una serie di interazioni di retroazione in cui ogni parte del ciclo interagisce con le altre e alla fine questo schema può essere sia la base della stabilità, dell’omeostasi del sistema, della sua capacità di adattarsi, sia della sua delicatezza, della sua sensibilità ai più diversi effetti, e dunque della sua capacità di trasformarsi ed evolvere e ovviamente di essere avvelenato e di morire. Nulla è per sempre. Panta rei .“Tutto scorre”, come già Eraclito aveva capito, ma nell’ambito di un unico sistema che Parmenide aveva ricosciuto a sua volta come l’unità della Natura. E la sintesi, secondo me è proprio la concezione dialettica della natura, quello che noi chiamiamo con la parola retroazione, con il termine iperciclo e che quantifichiamo con sistemi di equazioni differenziali (non lineari), che (lasciatemi dire) se colgono i numeri perdono l’unità dell’idea.

Questo fa comprendere come l’invasione di campo che l’uomo ha compiuto nel ciclo del carbonio incrementando lo scambio con l’atmosfera di circa un sesto, con il ciclo dell’azoto di cui oggi rappresenta un co-partner equivalente al resto della biosfera e con il ciclo del fosforo nel quale è il player di gran lunga principale, non siano fatti banali ma alterazioni profonde e probabilmente irreversibili le cui conseguenze non sono ancora ben comprese.

Ma tutto ciò è una visione unitaria del tema; meno unitaria e più dedicata agli scopi pratici ed economici è il paradigma economico dominante che teorizza la crescita infinita, un’economia non biofisica e anzi direi talmente scandalosamente finanziarizzata e lontana dalla vita di noi tutti da dover essere cambiata al più presto possibile.

La questione è che anche gli articoli scientifici non colgono spesso questa unitarietà ma analizzano solo gli aspetti “concreti”.

C’è un bel filmato segnalatomi dall’amica Annarosa Luzzatto (che è una nostra redattrice) che fa vedere come in poco più di 300 anni si siano scoperti tutti gli elementi che conosciamo.

Ebbene in un tempo anche più breve l’uso di questi elementi è divenuto normale nella nostra industria; praticamente non c’è elemento che non sia usato nel nostro ciclo produttivo, anche di quelli che non hanno un ruolo significativo nella biosfera; e, dato il nostro modo lineare di produrre, questo ha corrisposto ad un significativo incremento della “redistribuzione” di questi elementi nell’ambiente.

I dati aggiornati per circa 60 elementi sono stati raccolti dall’ONU (1) e sono mostrati nella figura sotto (tratta dalla ref. 2).>50% corrisponde a poco più del 50%, nella maggior parte dei casi. Si tratta però dei valori di riciclaggio a fine vita non del “riciclaggio” e basta, che potrebbe facilmente confondersi con le procedure di recupero INTERNE al ciclo produttivo, che non cambiano le cose e nelle quali la tradizione industriale è maestra (quasi sempre).

Il report ONU conclude che:

Because of increases in metal use over time and long metal in-use lifetimes, many RC values are low and will remain so for the foreseeable future.

A causa dell’aumento dell’uso del metallo, molti valori RC (NdA grandezza che stima il riciclo) sono bassi e rimarranno tali per il prossimo futuro.

Anche l’articolo da cui è tratto la tabella soprariportata (2) conclude fra l’altro:

The more intricate the product and the more diverse the materials set it uses, the bet- ter it is likely to perform, but the more difficult it is to recycle so as to preserve the resources that were essential to making it work in the first place.

Più il prodotto è intricato e più è vario il gruppo di materiali utilizzato, più è probabile che funzioni, ma più è difficile riciclarlo, in modo da preservare le risorse indispensabili per farlo funzionare (in primo luogo) .

Fate caso che solo meno di un quarto del cadmio viene riciclato a fine vita; il cadmio è un elemento cancerogeno acclarato; che fine fa più del 75% del cadmio che usiamo? Il mercurio, altro metallo pesante tristemente famoso, su cui ho scritto parecchio in passato, viene riciclato a fine vita per meno del 10%; che fine fa più del 90% del mercurio?

Probabilmente il piombo rappresenta una eccezione in questo quadro apocalittico e possiamo dire che quasi la totalità del piombo usato nelle batterie viene riciclato grazie ad una legislazione molto severa.

Perfino i metalli preziosi come il platino o l’oro, che hanno un elevato valore intrinseco che ne favorisce il riciclo a fine vita, sono sfavoriti dal fatto che l’uso in elettronica ne rappresenta una frazione significativa e corrisponde ad una breve vita dei prodotti e ad un elevato grado di miscelazione che rendono poco appetibile il riciclaggio a fine vita (pensateci quando comprerete il prossimo cellulare, io ho sempre comprato prodotti usati, ma non riesco sempre a convincere il resto della famiglia ed il mio notebook, da cui sto scrivendo, quest’anno compie 10 anni ed è difficile mantenerlo aggiornato, ma tengo duro) ci vogliono regole che obblighino i produttori a continuare a produrre le batterie e i pezzi di ricambio e rendere i software compatibili, due scuse che spesso impediscono di continuare ad usare prodotti perfettamente funzionanti.La figura qui sopra riporta, sebbene i dati siano di una decina di anni fa, la situazione di due metalli che sono all’estremo della capacità di recupero; da una parte il nickel che arriva al 52% di recupero a fine vita e dall’altra il neodimio che non viene affatto recuperato.

Questa è la situazione forse non aggiornatissima, ma significativa del nostro punto di partenza. Quando va bene sprechiamo almeno la metà di ciò che estraiamo, altrimenti lo sprechiamo tutto, lo usiamo una volta e lo sottraiamo all’uso delle future generazioni (figli e nipoti); ma non solo, gli sporchiamo il mondo. E prima o poi pagheremo per questo; o pagheranno loro.

Nel prossimo ed ultimo post di questa serie parleremo a fondo di qualche caso esemplare di riciclo.

Ah dimenticavo; buone feste.

(continua)

Da consultare

(1) E. Graedel et al., “Recycling Rates of Metals—A Status Report, a Report of the Working Group on the Global Metal Flows to UNEP’s International Resource Panel” (2011); www. unep.org/resourcepanel/Portals/24102/PDFs/ Metals_Recycling_Rates_110412-1.pdf

(2) Challenges in Metal Recycling Barbara K. Reck and T. E. Graedel Science 337, 690 (2012); DOI: 10.1126/science.1217501

Piccola lezione sui fanghi di depurazione.3: i controlli (parte seconda)

Mauro Icardi

(I precedenti post di questa serie qui e qui.)

Per terminare la rassegna dei controlli che si effettuano sui fanghi della vasca di ossidazione, occorre parlare della verifica della concentrazione di ossigeno disciolto. Questo perché nei processi a fanghi attivi di tipo aerobico è estremamente importante il buon funzionamento del sistema di areazione. L’apporto di aria (o in casi particolari di ossigeno liquido, che viene vaporizzato tramite appositi impianti) serve a mantenere una concentrazione non limitante per i processi di depurazione biologica, ma anche una buona miscelazione della sospensione areata acqua/fango. Normalmente il valore di ossigeno disciolto ritenuto ottimale si aggira intorno a valori di 2 mg/lt. Valori inferiori rallentano il processo di nitrificazione dell’ammonio, e valori superiori potrebbero rallentare la velocità di assorbimento dell’ossigeno da parte della biomassa aerobica.

Normalmente sulle vasche di ossidazione sono installate delle sonde di misura dell’ossigeno funzionanti in continuo, che permettono la verifica e la registrazione dei valori. La variazione marcata e repentina di questo parametro, può essere correlata per esempio a variazioni di carico entrante nell’impianto. Le moderne sonde attualmente utilizzate utilizzano il principio ottico della fluorescenza, è un principio ottico di misura dell’ossigeno nei liquidi. La tecnologia del sensore ottico di ossigeno si basa su un metodo di determinazione di tipo ottico chiamato “quenching di fluorescenza”. A differenza di un’elettrodo amperometrico , che misura una reazione di redox dell’ossigeno all’elettrodo, il metodo ottico è basato su un trasferimento di energia tra un cromoforo fluorescente (fluoroforo) e l’ossigeno.

Un fluoroforo integrato nella punta del sensore viene illuminato con una luce verde-blu proveniente da una sorgente LED. Il fluoroforo assorbe energia e ne trasferisce una parte in forma di luce rossa fluorescente emessa. Un rilevatore posto nel sensore legge la luce fluorescente emessa e ne misura intensità e durata.

In presenza di ossigeno, il fluoroforo trasferisce parte dell’energia assorbita alle molecole di ossigeno. L’ossigeno assorbe l’energia e la trasferisce sotto forma di calore all’area circostante, causando una variazione di intensità della fluorescenza. Questa variazione è direttamente correlate alla pressione parziale di ossigeno nel mezzo e costituisce il principio di base della misura.

Secondo la legge di Henry, la quantità di un dato gas disciolto in un dato tipo e volume di liquido è direttamente proporzionale alla pressione parziale (p) di tale gas in equilibrio con tale liquido. Si tratta di un fattore molto importante per tutte le misure dell’ossigeno.

Le sonde normalmente rilevano anche il valore della temperatura, altro parametro di grande importanza. In sostanza una vasca di ossidazione è un reattore biologico. La temperatura di questo reattore non è però regolabile a piacere, ma subisce della variazioni stagionali, anche se non scende mai, di solito, a valori inferiori a 10-12°C, perlomeno in Italia.

(continua)

COP24: quali conclusioni?

Luigi Campanella, già Presidente SCI

Si è conclusa la COP24 che si è svolta a Katowice in Polonia. Si è discusso di impegni ed accordi globali per salvare il Pianeta. In molti workshop satelliti si sono poi affrontati argomenti più specifici. Il risultato più significativo credo sia rappresentato dalle attese regole sui meccanismi di trasparenza sull’implementazione degli impegni di riduzione delle emissioni e da indicazioni chiare per l’incremento a breve degli stessi. Questo risultato è la mediazione fra chi ha spinto per risultati più ambiziosi e chi ha frenato conducendo battaglie di retroguardia per cercare di indebolire i risultati finali. Il comunicato finale ha di conseguenza raccolto apprezzamenti ed insoddisfazioni. Fra i punti che mi sento di apprezzare sono la presenza fra i temi oggetto di monitoraggio di quello relativo all’uso e cambiamento d’uso di suoli e foreste e l’archiviazione della tradizionale differenziazione degli obblighi (la cosiddetta biforcazione) tra Paesi industrializzati e Paesi in via di sviluppo con l’adozione di regole comuni e la previsione di flessibilità per quei Paesi in via di sviluppo che ne necessitano in base alle loro capacità. E’ stato istituito il Forum sull’impatto delle misure di risposta al cambiamento climatico con il fine di permettere alle Parti di condividere in modo interattivo esperienze ed informazioni Per gli aspetti finanziari credo che il risultato più concreto sia quello di mobilitare 100 miliardi di dollari all’anno dal 2020 per sostenere i Paesi in via di sviluppo. La COP del 2019 si svolgerà in Cile e per quella del 2020 il nostro Ministro Costa ha presentato la candidatura dell’Italia.

Fra i workshop satelliti ho rilevato con una certa sorpresa che uno è stato dedicato all’energia nucleare all’interno del più ampio discorso della de-carbonizzazione del settore elettrico considerato passo essenziale per contrastare i cambiamenti climatici, se si pensa che la produzione di elettricità contribuisce per il 40% alle emissioni e che gas e carbone sono ancora le fonti principali che producono il 63% dell’elettricità. Un recente studio del MIT mostra come il costo della decarbonizzazione dell’elettricità sarebbe molto minore se nel cocktail di tecnologie alternative fosse presente anche il nucleare. Forse proprio questo studio ha spinto l’Associazione Mondiale per il Nucleare a rivendicare nella sede del Workshop i caratteri di questa tecnologia: basso contenuto di carbonio, basso livello di emissioni, elevata sicurezza. La stessa IPCC nel suo ultimo rapporto dettaglia ciò che è necessario fare per limitare il riscaldamento globale a 1,5°C sopra il livello preindustriale, osservando la elevata scalabilità del nucleare nei diversi Paesi ed evidenziando i successi della Francia che in meno di 20 anni ha massicciamente decarbonizzato la sua elettricità ricorrendo al nucleare. Nel 2018 il nucleare ha fornito nel mondo il 10,5% dell’energia totale con 6 nuovi reattori entrati in funzione* (fra Cina e Russia) e 14 da attivare nel 2019.

L’Italia dal referendum è fuori dal nucleare fra polemiche e dibattiti che di tanto in tanto si riaccendono; certo non si può dimenticare né l’aspetto dei costi né soprattutto quello della sicurezza: la densità di danno nel caso di un incidente è incommensurabilmente superiore a quella relativa a qualunque altro tipo di impianto. E aggiungiamo che nessun paese ha risolto il problema dell’immagazzinamento degli scarti della fissione nucleare da una parte e che i paesi da cui provengono i minerali usati soffrono seri problemi di inquinamento ambientale di lungo periodo. Questo complesso di problemi rende il nucleare poco appetibile specie nei paesi con una pubblica opinione libera; in Europa solo Francia e Finlandia hanno progetti nucleari in corso e di entrambi si sa che soffrono enormi problemi di attivazione sicura. L’esempio del reattore finlandese di Olkiluoto 3 (1600MW) i cui costi e tempi di costruzione sono triplicati (stimati a 9 miliardi di euro nel 2012, ma non più aggiornati) e non ancora conclusi dal 2005 è al momento un esempio vivente di questi problemi. Olkiluoto 4 non è più in programma. Flammanville 3 è nella medesima situazione di Olkiluoto 3, iniziato nel 2007 non si sa quando finirà e i costi sono arrivati a superare gli 11 miliardi di euro.

Piccola lezione sui fanghi di depurazione. 2. I controlli. Parte prima

Mauro Icardi

(la prima parte di questo post è qui)

Nella normativa relativa alla depurazione delle acque di scarico non è previsto l’obbligo di verificare le caratteristiche dei fanghi di depurazione, così come è invece previsto per la linea di trattamento delle acque reflue. Ma considerato che i fanghi sono prodotti proprio dal trattamento depurativo delle acque, terminati i processi di trattamento, quali ad esempio l’ispessimento, la digestione anaerobica, e la disidratazione, i fanghi che devono essere smaltiti diventano rifiuti speciali, identificati dai codici CER 190804 o 190805. In questo caso sono soggetti a controlli e adempimenti relativi alla gestione dei rifiuti, e quindi vengono verificate le concentrazioni limite degli inquinanti presenti che sono stati eliminati dall’acqua reflua depurata, prima di identificare la destinazione di smaltimento o di recupero. Le principali destinazioni dei fanghi possono essere per lo smaltimento la discarica o l’incenerimento, e nel caso del recupero principalmente il riutilizzo agricolo, che nell’ultimo periodo è stato molto criticato, sollevando dubbi nella pubblica opinione, ma anche problemi di gestione degli stessi fanghi. Vediamo quali sono i principali controlli che si possono effettuare sui fanghi, nelle varie fasi di trattamento.

Per effettuare una corretta gestione del processo depurativo si stabiliscono normalmente dei work planning aziendali, per determinare diversi parametri utili al controllo di processo in vasca di ossidazione. I principali controlli possono richiedere la verifica di parametri di tipo chimico, biologico, e tecnologico. Non è poi da trascurare l’osservazione diretta del comparto di ossidazione biologica. A volte, soprattutto dopo molti anni di lavoro, si riescono a identificare con il semplice colpo d’occhio eventuali disfunzioni del processo depurativo.

Una delle operazione più semplici da effettuarsi è quella della registrazione del valore della sedimentazione dei fanghi in cono Imhoff.

Il cono di Imhoff è un recipiente di vetro o materiale plastico a forma di cono, sorretto da un apposito sostegno. Il volume del cono di Imhoff è 1 litro, e la graduazione parte, e quindi ha lo zero, in corrispondenza del vertice del cono, e poi, procede verso l’alto. Con questa apparecchiatura molto semplice, si può verificare la tendenza alla sedimentazione di un fango prelevato nella fase di ossidazione, oppure di ricircolo di un impianto di depurazione biologica.

Nell’immagine si può vedere a sinistra un fango con buona tendenza alla sedimentazione, e con una divisione marcata dell’interfaccia fango/acqua chiarificata. Mentre a destra si vede un fango con caratteristiche piuttosto problematiche, e con una scarsa tendenza alla sedimentazione.

Praticamente il cono di Imhoff riproduce le condizioni di sedimentazione che si verificheranno poi nel sedimentatore dell’impianto di depurazione.

Associata a queste verifiche visuali, vi è la determinazione dell’indice di volume del fango sludge volume index, abbreviato in SVI. Per determinare questo parametro, si rileva semplicemente il volume di fango letto sulla scala graduata del cono Imhoff dopo 30 minuti di sedimentazione, e lo si divide per la concentrazione di fango espressa in g/lt ottenuta dopo filtrazione su carta da filtro e successiva evaporazione dell’acqua in stufa alla temperatura di 105° C. (SVI=volume del fango sedimentato [ml/l] / quantità di solidi sospesi [mg/l]).

Si ritiene che un fango abbia buone caratteristiche di sedimentabilità se ha uno SVI non superiore a 250 ml/lt.

Viene determinata poi anche la percentuale di sostanza organica volatile indicata come tenore delle materie secche volatili ; rappresenta la porzione di sostanza secca che viene eliminata per calcinazione alla temperatura di 550 °C e viene normalmente espressa come percentuale di materiale volatile sulla totalità del contenuto di sostanza secca.

La determinazione si effettua ponendo il filtro in un crogiolo di porcellana, e poi in forno elettrico a muffola.

Il valore del contenuto di sostanza secca del fango varia con il tipo di fango considerato: fango derivante dalla sedimentazione primaria, fango contenuto nella vasca di aerazione, fango del sedimentatore secondario, fango misto, fango parzialmente o totalmente mineralizzato, fango parzialmente ispessito ecc. In ogni caso tuttavia questo valore risulta molto basso, inferiore al 5% e in molti casi inferiore al 3%.

Altro controllo che si esegue è quello dell’analisi microscopica del fango attivo. Il processo a fanghi attivi ha lo scopo di raggiungere la massima riduzione di BOD e di nutrienti dai liquami trattati, con la minima produzione di fanghi biologici. I protisti sono importanti costituenti delle comunità implicate nella rimozione di sostanza organica biodegradabile e di batteri dispersi nella miscela aerata in questo tipo di processo di trattamento dei liquami. I trattamenti biologici, infatti, si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche.

L’osservazione microscopica del fango di depurazione può dare importanti informazioni sull’equilibrio tra decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e consumatori (flagellati eterotrofici, ciliati, rizopodi, e piccoli metazoi) che predano i batteri dispersi e altri organismi.

I protozoi ciliati sono molto numerosi in tutti i tipi di processi di trattamento aerobico dei liquami, e la loro presenza diffusa è indice di un buon funzionamento della fase ossidazione biologica.

La pensione del platino-iridio.

Rinaldo Cervellati

Dal 2019 il campione in platino-iridio dell’unità di massa andrà definitivamente in pensione.

È quanto riporta Laura Howes nel numero del 16 novembre di Chemistry & Engineering newsletter. Con una votazione all’unanimità, la Commissione internazionale sui pesi e le misure riunitasi a Parigi il 15 novembre ha deciso che dal 20 maggio 2019 (giornata Mondiale della Metrologia), anche il kilogrammo, come ormai anche le altre sei unità di misura delle sei grandezze fondamentali del Sistema Internazionale (SI), lunghezza, tempo, temperatura termodinamica, corrente elettrica, intensità luminosa, quantità di sostanza, sarà ufficialmente definito in base a sette costanti fisiche (velocità della luce, costante di Planck, carica elettrica elementare, costante di Boltzmann, costante di Avogadro, frequenza della transizione iperfine nello stato fondamentale di Cs-133, efficienza della radiazione luminosa a 540´1012 Hz) piuttosto che in base a un artefatto. Vedremo che questo cambio di definizione comporta anche un cambio nella definizione di mole, l’unità di misura della settima grandezza fondamentale del SI, la quantità di sostanza.

Dal 1889, l’unità di massa SI, il kilogrammo, è ufficialmente definita uguale alla massa del prototipo internazionale di kilogrammo (International Prototype Kilogram, IPK). L’IPK è un cilindro di lega di platino/iridio conservato nel Bureau International des Poids et Mesures a Sèvres, vicino a Parigi.

L’IPK, cilindro in lega Pt/Ir che sarà presto ritirato, si trova a Parigi.

Quando l’IPK fu realizzato negli anni 80 del XIX secolo, furono replicati altri cilindri prototipo identici, che furono distribuiti in vari Paesi. Nel corso degli anni, l’IPK e gli altri prototipi hanno perso seppure impercettibilmente di massa.

Bill Phillips del NIST (Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti) ha descritto questa situazione come scandalosa. In effetti, le costanti fisiche sono oggi note con grande precisione il che consente di fare calcoli accuratissimi, come ad esempio quelli che sono stati necessari per far appoggiare le due sonde sulla superficie di Marte praticamente nel punto previsto. Sebbene la maggior parte delle persone non noterà il cambiamento, la maggiore precisione renderà il sistema SI più robusto, afferma Frank Härtig dell’Istituto Nazionale di Metrologia della Germania (PTB). “Abbiamo possibilità completamente nuove“, spiega, aggiungendo che, “poiché le tecniche analitiche diventano più avanzate e possono misurare quantità sempre minori di materiale, le nuove definizioni assicurano che tali misurazioni siano precise.

Il kilogrammo è ora definito come:

Il kilogrammo è definito assumendo la costante di Planck h esattamente uguale a 6.62607015×10-34 Js (J = kgm2s-2), date le definizioni di metro e di secondo. [1, p.14]

Queste ultime sono rispettivamente:

 Si definisce metro la distanza percorsa dalla luce nel vuoto in (1/299792458) secondo. [1, p.14]

Si definisce secondo la durata di 9192631770 periodi della radiazione corrispondente alla transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio-133. [1, p.13]

 Come già ricordato la nuova definizione dell’unità di massa implica un cambiamento nella definizione di mole che faceva riferimento all’IPK:

Si definisce mole la quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0.012 chilogrammi di carbonio-12.

A questa definizione seguiva l’aggiunta:

il Numero di Avogadro, rappresentato con il simbolo NA, è definito come il numero di atomi dell’isotopo C-12 contenuti in esattamente 0.012 kg di C-12.

Nella nuova definizione di mole il Numero di Avogadro entra direttamente nella definizione:

Si definisce mole la quantità di sostanza corrispondente a esattamente 6.02214076×1023 entità elementari. Questo numero è il valore numerico della costante di Avogadro, NA, quando espresso nell’unità mol-1 e viene chiamato numero di Avogadro. Un’entità elementare può essere un atomo, una molecola, uno ione, un elettrone, qualsiasi altra particella o gruppo specifico di particelle. [1, p.17]

Per completezza si riportano anche le nuove definizioni delle unità di misura delle altre tre unità fondamentali: carica elettrica, temperatura termodinamica e intensità luminosa.

L’ampère è definito in base al valore numerico della carica elementare, 1.602176634 × 10-19 C

(C = As), data la definizione di secondo.[1, p. 15]

Il kelvin è definito in base al valore numerico fisso della costante di Boltzmann k, 1.380649 × 10-23 JK-1, (J = kgm2s-2), date la definizione di kilogrammo, metro e secondo. [1, p.15]

L’intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza 5.4 × 1014 hertz e che ha un’intensità radiante in quella direzione di (1/683) watt per steradiante. [1, p. 18]

Per consentire le nuove definizioni, le costanti fisiche hanno dovuto essere misurate con grande precisione e con un alto grado di accuratezza. Questo lavoro ha richiesto oltre 10 anni e ha dato luogo a diverse scoperte tecnologiche. Frank Härtig afferma che si è trattato di una “competizione tra amici”: diversi istituti metrologici si sono contesi la misura più accurata e precisa per le costanti fisiche.

Per misurare il valore della costante di Planck sono entrati in competizione due metodi indipendenti. La bilancia Kibble, che ha vinto, compensa il peso di una massa di prova contro la forza prodotta quando una corrente elettrica attraversa una bobina di filo sospeso in un campo magnetico. Due diverse bilance Kibble, una al NIST e l’altra al National Research Council del Canada, hanno fornito lo stesso valore per h: 6.62607015×10-34 J s.

Bilancia Kibble

Il metodo che non ha vinto, chiamato il metodo di conteggio, in realtà ha reso possibile la determinazione del numero di Avogadro. Il gruppo di Härtig al PTB ha realizzato sferette incredibilmente precise arricchite nell’isotopo silicio-28 e misurato i loro volumi per via interferometrica.

Interferometro sferico in grado di misurare fino a pochi nanometri.

Robert Vocke e Savelas Raab del NIST hanno poi lavorato per determinare le proporzioni precise degli isotopi di silicio nel reticolo cristallino con la spettrometria di massa. Con il volume preciso della sfera e la composizione del reticolo cristallino nota, gli scienziati hanno potuto determinare il valore di NA come 6.02214076×1023 mol-1.

Va tuttavia ricordato che la prima idea di un metodo di conteggio venne all’italiano Claudio Egidi, un ricercatore del prestigioso istituto di metrologia Galileo Ferraris (oggi INRiM) che la pubblicò nel 1963 su Nature [2] ma non fu presa in considerazione.

Molti ricercatori che hanno collaborato a questa impresa, intervistati da C&EN, hanno descritto il compito di ridefinire le unità SI come punto culminante della loro carriera scientifica, un’opportunità unica di far parte di un evento destinato a cambiare un’epoca. Hanno sottolineato il cambiamento filosofico nel passaggio da definizioni basate su artefatti e quantità terrestri a costanti fisiche che manterranno il loro significato oltre la Terra. Härtig afferma che ciò permetterà a “altre culture intelligenti di capire ciò che intendiamo quando parliamo di ”kilogrammo”, “secondo”, ecc.

Bill Phillips, Nobel per la Fisica 1997   Frank Härtig

I libri di testo scientifici dovranno essere rimaneggiati in base alle nuove definizioni? Andando in classe, quei libri di testo riscritti potrebbero effettivamente rendere le cose più facili per gli studenti che affrontano il concetto di mole. Pedagogicamente, dice Marcy Towns della Purdue University, la nuova definizione non è un grande cambiamento. “Se si legge la letteratura didattica”, spiega, “gli studenti comprendono la definizione della mole in termini di 6.022´1023 particelle, e gli insegnanti usano molto questa definizione piuttosto che quella basata su 0.012 kg di C-12”.

Su questo sono abbastanza d’accordo, mi sembra più arduo spiegare a studenti della scuola dell’obbligo le definizioni di metro, secondo e kilogrammo…qualche suggerimento didattico?

Infine, un’osservazione: la settima grandezza fondamentale del SI fu introdotta nel 1960 per rimarcare la natura particellare della materia che non emergeva dalla definizione di massa, e fu chiamata amount of substance, unità di misura mole (mol). Sulla parola “substance” (it: sostanza, fr: substance, de: substanz, es: sustancia, el: ουσία per limitarci all’eurozona) si accese un vivace dibattito sulle principali riviste di didattica chimica, J. Chem. Educ., Educ. Chem., ecc., sia perché la parola “sostanza” ha significati diversi in discipline diverse, sia perché il concetto di sostanza (pura) è ritenuto un nodo concettuale all’apprendimento della chimica (Leonello Paoloni, Nuova Didattica della Chimica, Bracciodieta, Palermo, 1982, pp. 89-91). È comunque un fatto che la chimica cominciò ad affermarsi come scienza nella seconda metà del XVIII secolo quando furono stabiliti metodi per determinare il grado di purezza delle sostanze rendendo così operativo il concetto di sostanza (pura).

Fu proposto di sostituire sostanza con materia, qualcuno propose perfino il cambio di nome in chemical amount ma il nome è rimasto amount of substance. Voi che ne pensate?

Bibliografia

[1] Bureau International des Poids et Mesures, The International System of Units (SI) Bozza, 9th edition 2019. https://www.bipm.org/utils/en/pdf/si-revised-brochure/Draft-SI-Brochure-2018.pdf

[2] C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.

L’aria di Katowice e le biomasse.

Luigi Campanella, già Presidente SCI

Per capire l’aria che tira a Katowice nella COP24 è veramente istruttiva la discussione che si è svolta nella giornata di sabato e di cui sono stati dalla stampa riportati ampi resoconti. In occasione della plenaria di chiusura del 49° meeting del SBSTA (Subsidiary Body for Scientific and Technological Advice), dopo l’approvazione di numerosi documenti, anche importanti, a sostegno dell’accordo di Parigi del 2015 sul clima, la discussione si è impantanata sull’approvazione del documento su Research and Systematic observations preparato nella settimana.

Si tratta di un documento in cui il SBSTA saluta come “benvenuta” (in inglese welcomed) una serie di dichiarazioni, lavori e documenti scientifici, tra i quali la Dichiarazione sullo stato globale del clima, il Bollettino sui gas-serra, la dichiarazione sui progressi conseguiti nel Sistema globale di osservazione del clima, la dichiarazione del programma di ricerca sul clima mondiale, le osservazioni terrestri da satellite. Una frase ha innescato la polemica, la sostituzione richiesta da alcuni Paesi della parola “welcomed”, che per l’appunto saluta come benvenuta la serie con “noted” cioè ha preso atto. Su questa alternativa si è discusso per oltre 2 ore.

La differenza non è solo terminologica: se si dà il benvenuto ad un documento poi non si può procedere in direzione opposta a quella indicata in termini di emissione di gas serra, di uso del carbone quale combustibile di poIitica energetica. I Paesi che hanno chiesto di prendere atto e non di dare il benvenuto sono Arabia Saudita, Kuwait, Federazione Russa e Stati Uniti, tutti Paesi nei quali gli interessi economici legati alle fonti energetiche fossili sono rilevanti. Il risultato è stato che il documento non trovando un’unanimità non è stato approvato, suscitando per tale conclusione numerose proteste con dichiarazioni di adesione al testo di benvenuto. Il 7% della popolazione (quello corrispondente ai suddetti 4 Paesi), ha così bloccato un’approvazione importante perché capace di formalizzare l’adesione a documenti di provenienza strettamente scientifica e tecnologica.Mentre avviene tutto questo, a dimostrazione dello scontro sul clima in atto nel mondo, non solo orientale, ma anche occidentale, l’editrice Alkes ha distribuito un interessante documento sulle fake news in campo ambientale in particolare affrontando un tema di grande attualità, quello relativo alle biomasse (http://www.nuova-energia.com/index.php?option=com_content&task=view&id=5548&Itemid=113). Proposta come una possibile soluzione rispetto a produzioni energetiche capaci di riciclare gli scarti e rispettose dell’ambiente di recente è stata attaccata in quanto concorrenziale con un ben più “degno” uso delle aree ad essa dedicate, quello per le produzioni alimentari, in quanto economicamente non sostenibile per le PMI, in quanto collegata a deforestazioni selvagge, in quanto inquinante. In effetti sappiamo che si tratta di critiche effettive, ma parziali, il discorso è complesso.

Oggi in Italia le bioenergie impegnano circa 300 mila ettari pari a circa il 2,3% della superficie agricola, dunque in Italia non c’è concorrenza fra le due cose; la superficie forestale italiana in 50 anni si è raddoppiata (da 5,5 a 11 ) milioni di ettari, dunque anche senza colture dedicate le disponibilità di biomassa sono significative (30 milioni di tonnellate di biomasse ligno-cellulosiche); le centrali a biomasse non sono inceneritori e richiedono specifiche autorizzazioni per essere realizzate; in Italia sono stati realizzati oltre 1500 impianti a biogas per una potenza complessiva di circa 12GW bene integrati nel contesto agricolo nazionale (si tenga però presente che SE si fa uso di tecniche intensive di coltivazione ed allevamento il biogas contiene una porzione di energia primaria tratta dal petrolio).

E’ chiaro che le biomasse DA SOLE non sono una soluzione al problema energetico anche data la loro bassa densità energetica per unità di superficie, l’inquinamento ambientale evidenziabile in contesti cittadini e anche il ciclo di vita LCA che (considerando l’energia di trasporto o i contributi primari fossili) ne abbassa la sostenibilità; tuttavia il loro uso può essere un contributo, la cui utilità dipende dal contesto, al passaggio a forme rinnovabili e sostenibili di energia primaria in un quadro energetico nazionale da rinnovare significativamente.

In conclusione, per rendere realmente utile alla produzione di energia pulita una centrale a biomasse, il legislatore, dovrebbe anche chiarire cosa ci possa finire dentro, perché norme troppo vaghe sono altamente pericolose per la comunità, visto che, come detto, lì dentro ci potrebbero finirebbero pure materiali che di bio non hanno proprio niente.

https://www.tuttogreen.it/centrali-a-biomasse-sono-davvero-eco/

Lo strano caso della chiesa di S. Lamberto e della foresta di Hambach.

Claudio Della Volpe

Mentre prosegue l’incontro di Katowice, COP24, voglio raccontarvi una storia esemplare delle contraddizioni in cui si trova la transizione energetica in Europa e in particolare in quella Germania che rappresenta una sorta di “paese guida” europeo; vedremo fra un momento che questo ruolo di guida nasconde in realtà parecchia polvere sotto il tappeto. Tutti i commentatori si sono dilungati sulle contraddizioni polacche, Katowice è a pochi chilometri da grandi miniere di carbone e la Polonia non intende rinunciarvi. Katowice è la capitale del carbone. Ma la Germania è un esempio ancora migliore.

I due luoghi di cui parlo oggi sono nella Renania, la zona occidentale della Germania al confine con Olanda, Belgio, Lussemburgo e Francia; a nord abbiamo la Renania Settentrionale-Westfalia (Nordrhein-Westfalen), capoluogo Dusseldorf e a sud la Renania Palatinato (Rheinland-Pfalz), capoluogo Magonza, entrambe, insieme alla Saar (Saarland), costituiscono un bacino minerario storico della Germania.Questa regione occidentale è ricca di carbone sia di tipo antracitico che lignitico, che si è formato nel corso di decine di milioni di anni dalla degradazione più o meno completa di enormi foreste che ricoprivano la zona. Non è l’unica regione della Germania con questa risorsa, ma è quella con il più alto tasso di lignite. La lignite (alta umidità relativa superiore al 21%, incompleta carbonificazione) è di limitato pregio perché è meno energetica per unità di massa e dunque più marcata fonte di inquinamento ambientale ma anche climatico rispetto ad altri tipi di carbone.

Si presenta con colore da bruno a nero, tanto da essere chiamata carbone bruno; ha un potere calorifico superiore (PCS, senza escludere l’energia di evaporazione dell’acqua) inferiore a 24 MJ/kg (5.700 kcal/kg) , considerando la sostanza senza ceneri (contro una media di 35 dell’antracite e di 42 del petrolio).

La Germania è ad oggi la principale produttrice mondiale di lignite, uno dei principali esportatori ma soprattutto utilizzatori di questo combustibile fossile da cui ricava buona parte della propria elettricità; soprattutto da quando nel 2011, dopo l’incidente di Fukushima ha deciso di spegnere le centrali nucleari entro il 2030. Dunque la verde Germania, con la più alta quantità di rinnovabili al mondo conserva un segreto, tutto sommato ben custodito, nel fatto che mentre chiudeva le sue centrali nucleari le sostituiva con un buon numero di centrali a carbone, che costituiscono oggi la sua “base produttiva” elettrica con quasi 300TWh anno, una quantità pari al consumo totale italiano di energia elettrica.

Se si guardano i numeri sul sito della AGEB, si vede che effettivamente la Germania dal 1995 pur avendo diminuito l’uso del nucleare, dell’antracite… e del gas naturale, e pur avendo certamente incrementato l’efficienza complessiva delle sue centrali ed ovviamente pur avendo incrementato di parecchio l’uso delle rinnovabili, che coprono una parte significativa del consumo, ha incrementato l’uso della lignite. Anzi la lignite è stata uno dei mezzi per uscire dalla crisi del 2008. Nonostante l’impetuosa crescita delle rinnovabili, il paese non raggiungerà il taglio previsto delle emissioni al 2020 per parecchi punti di scarto.

Questa scelta è solo economica dato che si tratta di una risorsa interna e a basso costo per lo meno economico, ma come vedremo con alti costi ambientali; si sarebbe potuto fare diversamente, incrementando ulteriormente le rinnovabili, si sarebbero potute usare centrali a gas che invece sono state chiuse o anche basandosi, come fa l’Italia, sulla produzione in eccesso di altri paesi che volentieri vendono la loro energia elettrica in quanto i loro impianti nucleari (o idroelettrici ) DEVONO liberarsi dell’eccesso di produzione anche senza mercato interno. In quasi tutta Europa questi impianti sono in eccesso rispetto al fabbisogno, immani cattedrali di capitale fisso che se rimangono prive di remunerazione si mascherano dietro i pochi posti di lavoro supportati e urlano la loro fame di profitto ogni giorno. Non potete regolare la produzione di una centrale nucleare, dovete tirarla sempre al massimo, un sistema rigidissimo; ed è da dire che anche le centrali a carbone sono parecchio rigide da questo punto di vista, al contrario di quelle a gas, sono adatte solo a far da “base” e sono state usate così dai tedeschi.

I due casi a cui facevo riferimento all’inizio sono proprio questo, il costo ambientale e culturale della lignite; la foresta di Hambach che vedete qui sotto è meno di un decimo (200 ettari) della foresta originale ricca di alberi secolari e al cui confine si apre la più grande miniera a cielo aperto di lignite di tutta Europa, denominata anch’essa Hambach (a sinistra nella foto).Notate nella parte inferiore della foto lo scavo ripidissimo. La collina artificiale che vedete, che si viene a creare a causa dell’estesa coltivazione superficiale della miniera, Sophienhöhe, 6 km ad est della città Julich all’estremità NE della miniera è la più alta d’Europa, 293 metri sul livello del mare ma anche quasi 600m sopra il punto più basso degli scavi, che a loro volta costituiscono il punto più basso del territorio europeo, con quasi 300m di dislivello negativo.

Durante quest’anno è venuta a compimento una lotta fra gli ambientalisti radicali tedeschi e la RWE, la compagnia che estrae la lignite; grazie alla dura opposizione esercitata dagli ambientalisti anarchici che hanno dormito sugli alberi per settimane e grazie anche alle vittime che ci sono state durante questo periodo (il giornalista Steffen Meyns, che si era arrampicato per seguire l’operazione, era morto cadendo da una passerella tra due alberi), l’abbattimento della foresta che era stato programmato è stato interrotto dalla magistratura anche se la lotta in tribunale continuerà per altri anni.L’altro episodio analogo ha avuto conclusione opposta e costituisce l’altra faccia della medaglia. La chiesa di S. Lamberto, localmente nota come Immerather Dom, che vedete sotto, era un esempio di stile neoromanico situata a Immerath, una frazione di Erkelenz. Risalente al XII secolo nella sua forma originaria ed ampliata in anni successivi, è stata abbattuta a gennaio 2018, seguendo il destino del resto della cittadina, per far posto ad una miniera di lignite di proprietà della solita RWE.Ma pensate che l’intera cittadina di Immerath si trovava sul percorso previsto per l’estensione della miniera di Garzweiler, il sito di estrazione di lignite operato dalla società tedesca RWE; già nei primi anni 2010 la società aveva demolito e ricostruito gran parte degli edifici di Immerath su un nuovo sito, incluso il cimitero (esumando e trasferendo i corpi già sepolti).La chiesa stessa è stata ricostruita altrove in forma moderna. Stavolta non ci sono stati conflitti duri (oltre la resistenza pacifica dei verdi) ma pagamenti, scambi economici e poi silenzio contro devastazioni ambientali.Potreste dire che forse per una vecchia chiesa non vale la pena di far baccano; ma guardiamo le cose più da vicino.Panoramica della miniera di Garzweiler. Sullo sfondo le centrali termiche che utilizzano la lignite estratta. Da http://www.mining-technology.com/projects/rhineland/

Un buco gigantesco di dimensioni analoghe a quelle di Hambach con una serie non banale di effetti collaterali; infatti lo scavo altera in modo irrimediabile la falda acquifera.

100 milioni di tonnellate di lignite vengono estratte dalle varie miniere della zona e, per tale produzione, vengono rimossi e spostati annualmente circa 450 milioni di metri cubi di argille, sabbie e conglomerati sovrastanti lo strato di lignite (nell’area infatti si individuano facilmente significative colline artificiali).

Lo strato di lignite si trova a varie profondità e per estrarlo occorre quindi abbassare la falda acquifera (in termini tecnici tale operazione è chiamata dewatering). In tutta l’area, sono quindi in azione giganteschi e sofisticati sistemi di pompaggio in grado di estrarre annualmente enormi quantità di acqua di falda senza compromettere, stando ai dati ufficiali, il fabbisogno idrico delle comunità ubicate nelle vicinanze delle cave.

Così come descritti, ad un lettore possono sembrare dati un po’ freddi ma, se confrontiamo le superfici utilizzate,credo che risulti chiara la situazione esistente. A tale scopo sono state messe a confronto solo le  superfici di scavo delle tre miniere con quelle  di Roma e Milano.Immagini riprese da Google maps alla stessa scala. Le tre miniere sono al centro. Inden la più piccola, Hambach la più grande e Garzweiler quella più in alto. A destra in alto il comune di Milano ed  a sinistra l’estensione di Roma all’interno del Grande Raccordo Anulare (GRA).

La figura ci dice che l’area oggetto di scavo ( da assommare poi a quella utilizzata per lo stoccaggio dei sedimenti che ricoprono lo strato di lignite) è più grande di quella del comune di Milano e grande come l’area di  Roma all’interno del GRA. A questo si deve aggiungere che l’attività estrattiva ha comportato la distruzione di villaggi e la loro ricollocazione in altre aree; dal 1948 sono state spostate circa 30.000 persone.

da http://astrolabio.amicidellaterra.it/node/526

Ecco questi sono gli effetti nella verde Germania (che è certamente dotata del più ampio apparato fotovoltaico europeo) delle contraddizioni della transizione energetica. A voi ogni ulteriore commento.In questa vignetta i cicloamatori tedeschi fanno dire alla Merkel: Oh, dite che le bici sono fatte dal carbone? Grande opportunità per l’estrazione mineraria!

da https://www.roadbike.de/news/angela-merkel-und-das-fahrrad-was-die-kanzerlin-auf-der-eurobike-nicht-gesagt-hat.865692.9.htm#1

per approfondire

http://dataenergia.altervista.org/portale/?q=consumo_produzione_energia_elettrica_germania

https://gloria.tv/article/Ca4PVUKybkpK1tJoqVkNfZN6D

COP24, cosa ci aspettiamo.

Luigi Campanella, già Presidente SCI

E’ partito il 3 dicembre in Polonia, più precisamente in Slesia, Katowice, la COP 24 (Conferenza delle Parti all’interno della più generale Conferenza delle Nazioni Unite sul clima).

Sembra un’ironia, ma Katowice si trova a 150 Km dalla centrale elettrica a carbone, indicata nel 2014 dalla C.E. come la più dannosa nell’Unione Europea. Sono attese le linee guida, il cosiddetto Rule book, per rendere operativo l’accordo di Parigi del 2015.

Si tratta forse di uno degli ultimi appelli ancora validi per salvare il nostro pianeta. Gli scienziati parlano di solo 12 anni da ora rimasti per agire in modo decisivo per salvare in Pianeta.

Durerà 11 giorni e le attese per gli esiti dell’evento sono molto forti, anche se il carattere tecnico più che politico della manifestazione, raffredda molti entusiasmi. Il punto fondamentale riguarda il rispetto dell’intesa per limitare a due gradi centigradi il riscaldamento globale. Correlati ad esso sono i problemi relativi ai finanziamenti della decarbonizzazione, all’adattamento ed al trasferimento di tecnologie sostenibili innovative, ai meccanismi e agli attori delle fasi di controllo. Secondo gli esperti l’Europa si trova nelle condizioni, rispetto a questi problemi, di conseguire i risultati attesi ed, addirittura, di modificarli in meglio, andando ben oltre il 55% di riduzione delle emissioni entro il 2030.

All’evento partecipano 30000 fra delegati e visitatori provenienti da tutto il mondo. Il mancato carattere politico, a cui prima si accennava, ha fatto considerare da qualcuno COP24 come inutile. Credo sia errata tale valutazione. L’evento polacco fa parte di un percorso definito, ogni tappa del quale ha un suo significato: annullarla avrebbe effetti molto negativi rispetto alla fiducia dei cittadini nel buon esito del processo in atto. D’altra parte per esso si possono individuare elementi di fiducia quali il disaccoppiamento fra crescita del PIL e delle emissioni, l’aumento del ricorso alle energie rinnovabili, gli impegni di contenimento delle emissioni. Su quest’ultimo punto pesa il fatto che esso non riguarda tutti i Paesi firmatari dell’accordo di Parigi, dal quale in particolare gli USA si sono ritirati. Anche in questo caso però a parziale consolazione c’è da dire che ampie Regioni degli USA, come California, New York, Washington ed altre istituzioni americane hanno di fatto annunciato il loro continuato impegno. Quindi credo che sia necessario dare fiducia e credibilità all’incontro, alternativa al quale sarebbe solo sperare nelle singole iniziative con ben più scarse probabilità di successo.

Si veda anche

http://www.climalteranti.it/2018/12/09/un-momento-di-chiarezza-alla-cop24/

e

http://www.climalteranti.it/2018/12/02/raccontare-la-cop24-i-5-errori-da-non-commettere/