Quanto costa produrre un chilo di berillio?

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, ex Presidente SCI

 E’ una domanda che non mi ero mai fatta, più interessato a vedere il prezzo unitario del reagente chimico. Sono però venuto recentemente a conoscenza di un lavoro di Nuss P e Eckelman MJ (2014) Life Cycle Assesmentof Metals. A Scientific Assessment of Metals PLoS ONE 9(7) pubblicato sulla rivista PLOS ONE come articolo open-access, cioè che può essere liberamente letto su Internet e citato, purchè si dia credito agli autori.

Ho così scoperto alcune cose che non conoscevo. Prima di tutto i metalli in uso sono passati dalla dozzina di cento anni fa, alla sessantina di oggi. Basta pensare alle superleghe, necessarie per turbine e motori jet, che hanno visto via via inserire nell’acciaio renio, tantalo e afnio.

E’utile dividere la raccolta di metalli in tre fasi: raccolta e concentrazione del minerale greggio, fusione o separazione, e infine raffinazione. Tutte e tre le fasi hanno elevate richieste di energia, in particolare la raffinazione. Naturalmente gli autori sono riusciti a calcolare le richieste energetiche dei tre passaggi (anche attraverso dati pubblicati e qualche estrapolazione) e quindi hanno potuto produrre tabelle sulla domanda energetica cumulativa (CED), sulla acidificazione, sulla eutrofizzazione, sulla tossicità umana-

Rimando gli interessati al lavoro su PLoS ONE. Voglio solo citare due grafici. Nel primo:

 berillio1

vengono paragonati i dati dei singoli metalli per il potenziale di riscaldamento globale (nero) e per i danneggiamenti all’ecosistema e alla salute umana (rosso).

Nel secondo :

berillio2

vengono invece paragonate la quantità di CO2 globale emessa per metallo nel 2008 (a sinistra) e la domanda di energia cumulativa per metallo (a destra)

Il lavoro pubblicato su PLoS ONE (IF 3,5) è accessibile http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0101298

Si tratta di 12 pagine di testo con 78 pagine di “Supporting Information” che riportano e discutono i dati per i singoli atomi.

Vi faccio l’esempio del berillio, con l’aiuto del lavoro suddetto e di quello citato dagli autori:

http://beryllium.eu/about.beryllium-and-beryllium-alloy/fcts-and-figures/beryllium-extraction

Nel 2008 gli USA hanno prodotto per estrazione circa l’80% del berillio mondiale, seguiti dalla Cina 10%, Madagascar, Mozambico e Portogallo (tutti e tre insieme 1%). Virtualmente tutto il berillio statunitense è ricavato in Utah dalla bertrandite (Be4Si2O7(OH)2) che contiene in realtà 0.3-1.5% di berillio. Il recupero di Be è ca. dell’80% . Per ricavare il Be, la bertandite è sciolta con acido solforico e il residuo insolubile (SiO2, e alluminio precipitato come allume) rimosso. La soluzione solforica viene estratta con solvente organico con il berillio che passa nella fase organica che è poi lavata con ammonio carbonato acquoso. Questa fase è ripetuta più volte, dopo di che la fase organica è trattata con una soluzione di carbonato di ammonio acquoso che precipita berillio idrossido. Per trasformare quest’ultimo in berillio, si tratta l’idrossido con una soluzione di ammonio bifloruro e il precipitato scaldato per produrre berillio floruro, che viene poi ridotto a berillio per trattamento con magnesio fuso in un crogiuolo e raffinato per fusione in una fornace a vuoto.

Il berillio è usato per produrre leghe berillio rame , usate per contatti elettrici, elettrodi per saldature a punti: la capacità di combinare forza, conducibilità e resistenza a temperature elevate fornita da leghe rame-berillio permette ai progettisti di usare terminali elettrici, fatti con queste leghe, di sezioni  minori, rispetto a quelle possibili con altre leghe. Il berillio ha anche trovato impieghi come materiale strutturale per aerei per alte velocità, missili, e satelliti per comunicazione. Il berillio è anche usato nei reattori nucleari come moderatore di neutroni.

Il consumo di berillio negli USA è stato, nel 2009, pari a 120 tonnellate per un valore di ca 17 milioni di dollari.

La depurazione delle acque come arte (parte 2)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Mauro Icardi (siricaro@tiscali.it)

Nel primo articolo, dopo avere preso spunto per parlare della depurazione delle acque reflue da un romanzo, facevo notare come una vasca di ossidazione di un impianto di depurazione sia un reattore biologico. Il chimico che si occupa del controllo di processo deve, nel tempo, imparare a riconoscere quelli che possono essere i segnali di un possibile malfunzionamento dell’impianto oltre che dalle analisi giornaliere che esegue, anche osservando durante i sopralluoghi esterni se si notano segnali che possono far pensare ad anomalie nella fase di areazione ed ossidazione biologica. E deve anche prestare attenzione a percepire eventuali odori che gli possano far capire se nell’impianto si stia verificando uno scarico “anomalo”, cioè lo sversamento nella rete fognaria di inquinanti o scarichi che per la loro composizione possono essere nocivi o tossici per il reattore biologico stesso. Purtroppo ancora oggi persiste il malcostume di liberarsi illegalmente di qualche refluo che dovrebbe avere destinazione diversa (trattamento direttamente su depuratore aziendale o smaltimento come rifiuto). Invece la pratica di risparmio su questi costi aziendali, scaricando oneri e problemi sul depuratore centralizzato, ed in ultima analisi sulla collettività in molti casi ancora persiste. La crisi attuale temo possa invogliare a continuare in questo comportamento illegale e incivile. Gli impianti di depurazione più grandi e centralizzati possono in qualche caso avere in ingresso impianto delle stazioni automatiche di analisi per diversi parametri ( ossigeno disciolto, temperatura, ammoniaca, nitrati, conducibilità). Ed è in questo caso più agevole capire che si sta verificando una situazione critica  e porvi rimedio. Per esempio destinando il flusso anomalo alle vasche di omogeneizzazione, deviando o bypassando il flusso. Ma molti impianti di piccole dimensioni spesso non ne sono forniti. Quindi l’esperienza ed il “naso” del chimico possono fare la differenza. “Guai se un chimico non avesse naso” scrive Primo Levi nel capitolo “Arsenico” del suo “Il sistema periodico”. Il naso, la capacità di osservazione e la prontezza di riflessi del chimico sono in questo caso più che mai necessari. Alcuni scarichi sono facilissimi da identificare. Per esempio quelli di idrocarburi per l’effetto di galleggiamento di film oleosi che molte (troppe) volte abbiamo visto dopo  naufragi di petroliere, e per il caratteristico odore.

Altri scarichi come quelli di composti inorganici a base di cromo o ferro o cadmio possono essere identificati dal colore del refluo.

Altri tipi di scarichi sono molto riconoscibili, ma a volte occorre fare un po’ di attenzione. I tensioattivi si presentano con immagini tipo queste, che si riferiscono al problema delle schiume nel Fiume Olona in provincia di Varese. Lo scorso anno la risoluzione di questo problema anno ha impegnato per mesi gli enti di controllo, i gestori degli impianti, e anche le associazioni ambientaliste della zona.
 Quando situazioni come queste si presentano negli impianti occorre attivarsi per salvaguardare il reattore biologico. Ma qualche volta occorre distinguere se il problema per esempio della grande presenza di schiume sia dovuto allo scarico anomalo, o invece a problemi di altra origine. Per esempio il malfunzionamento del ricircolo della miscela areata nella vasca di ossidazione, che può far formare schiume sulla superfice della vasca di ossidazione. Sono situazioni ovviamente rare, ma mi sono capitate. E occorre sapere distinguere l’aspetto delle schiume da tensioattivi da quelle invece che indicano disfunzioni nella tipologia e nel comportamento dei microrganismi che costituiscono il fango attivo. Quando si è alle prime armi non sempre si riesce a distinguere immediatamente l’aspetto di una schiuma sottile biancastra e persistente presente sulle unità di trattamento (attribuibile ad eccesso di tensioattivi), da una schiuma marrone che spesso straborda dalle vasche di ossidazione, (bulking da filamentosi) oppure ancora schiuma spessa e grigiastra che indica invece il bulking viscoso. Ma le capacità di osservazione possono venire in aiuto, ed ovviamente l’esperienza. Oltre all’utilizzo dell’osservazione microscopica dei fiocchi di fango attivo al microscopio.
 Identificato il problema il chimico che controlla il processo torna a fare ricorso a tutte le nozioni apprese nel tempo. Per risolvere il problema può semplicemente dosare reagenti coagulanti (a base di sali  trivalenti di Alluminio o Ferro), oppure effettuare dosaggi controllati di disinfettante (ipoclorito di sodio). Intervenire con modifiche di gestione (variazione del rapporto di ricircolo della miscela areata per variare il carico del fango), fino a suggerire modifiche dell’impianto con l’adozione dei selettori. Cioè bacini di contatto rapido tra il liquame in ingresso ed il fango di riciclo, posto all’ingresso della vasca di areazione. Quest’ultima soluzione è ovviamente quella che richiederà un certo tempo di realizzazione.
Da queste altre informazioni si può capire come affermare che la depurazione sia un arte non sia del tutto fuori luogo.  Arte ormai praticata e codificata in innumerevoli testi specifici.  Forse meno antica di quella di cui ci raccontava Primo Levi quando ci parlava del mestiere del chimico che si occupa di vernici, e che faceva risalire addirittura a Noè che riceve le istruzioni da Dio per rivestire l’arca di pece. Ma anche chi si occupa di depurazione può far risalire le origini dell’arte che pratica ai bacini di sedimentazione delle acque che risalgono agli egizi.
Quindi il chimico che si occupa di depurazione si deve attivare per preservare il reattore biologico. Che se ben gestito e ben funzionante gli permetterà di avere nel sedimentatore finale una buona separazione del fango attivo dal liquame depurato. Qui le strade dei principali processi dell’impianto di depurazione si dividono: la linea acque dalla linea fanghi. Il terzo ed ultimo racconto sull’arte della depurazione tratterà proprio della linea di trattamento dei fanghi residui.

Due nuove riviste

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di C. Della Volpe

Nel 1665, fu pubblicato il primo giornale scientifico: Philosophical Transactions of the Royal Society a Londra Inghilterra. Nel 2014, si stima ci siano 29,147 giornali scientifici attivi (Fraser and Dunstan 2010; click citations for links),che pubblicano circa  700,000 lavori ogni anno (Hull 2010), contribuendo ai 55 milioni di lavori che si stima siano mai stati pubblicati.  (Jinha 2010).” (dall’editoriale di PNIS)

La recente e totalizzante attenzione alla qualità della pubblicazione insieme con la globalizzazione dell’economia hanno portato in effetti alla crescita di un incredibile numero di nuove riviste. Oggi ve ne presento due: JOUR e PNIS, che credo susciteranno il vostro interesse.

Le due riviste, di tipo generalista, che quindi potranno sfidare Nature e Science sul loro terreno sono basate su due criteri assolutamente opposti:

La prima, JOUR, infatti punta a massimizzare il rifiuto dei lavori nella convinzione che un alto numero di rifiuti si coniughi con la massima qualità; la seconda invece PNIS, dichiara che accetterà ogni tipo di lavoro sia esso vero o falso.

Capisco che queste due scelte antitetiche e provocatorie possano risvegliare in voi qualche dubbio, ma vi assicuro che uno sguardo alle pagine web ed ai loro articoli vi faranno capire subito di cosa si tratta.

Per esempio PNIS ha già pubblicato un articolo sulla tavola periodica ma anche un secondo sull’ingrigimento dei capelli che fra l’altro usa come cavia una famosa personalità

Inoltre proprio questa ultima rivista si propone di avere due tipologie di volumi (denominate HARD e SOFD) con due ben differenti trend del loro Impact factor, che riporto in coda al post.

Insomma senza indugi passo a mostrarvi I link delle due nuove riviste:

Journal of Universal Rejection (http://www.universalrejection.org/)

 NewBanner

e

Proceeding of the Natural Institute of Science (http://www.pnis.co/)

 webheader_neweditorial1

Buona lettura.

Fotosintesi artificiale.

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

Il concetto di cella di foto elettrosintesi sensibilizzata con un colorante è stato di recente sviluppato presso l’Università della Carolina del Nord al Centro per la Ricerca di frontiera sull’Energia Solare con due motti guida: Fallo semplice, Lascia lavorare le molecole.

EFRC_photosynthesis meyer_thomas  Solar-energy-caption2

Risultati recenti dimostrano infatti che in quanto realizzato le molecole possono lavorare sia assorbendo la luce sia utilizzando l’input luminoso per realizzare la scomposizione dell’acqua in idrogeno e ossigeno attraverso l’azione combinata con ossidi semiconduttori. Queste ricerche si collocano nella risposta che la ricerca vuole dare alla crescente domanda di energia, che deriva dalla società civile,in particolare per le emergenze del Terzo Mondo, con la convinzione che le risorse energetiche siano finite ,con oltre l’85% dell’energia fornita dagli idrocarburi, con un crescente impatto sui cambiamenti globali del clima. Sono necessarie nuove soluzioni che forniscano tecnologie rinnovabili, indipendenti dal carbonio, o con esso integrate, caratterizzate da densità energetiche sufficienti da potere alimentare il nostro pianeta. Il sole fornisce in un’ora più di quanto richiesto in termini energetici da tutto il mondo in un anno. Il problema è che di notte il sole non c’è e lo stesso avviene con il cielo nuvoloso. E’ quindi necessario convertire l’energia solare per poterla immagazzinare ed utilizzare quando la luce del sole non è disponibile. Proprio a tal fine presso l’Università della Carolina del Nord si è sviluppato il progetto di cui sopra basato sulla Fotosintesi Artificiale. Quella naturale, come è noto, avviene nei mitocondri delle piante verdi dove la luce del sole viene assorbita ed utilizzata per dare energia al complesso macchinario molecolare che converte CO2 ed H2O in carboidrati. Gli stessi processi molecolari sono alla base del processo artificiale di fotosintesi, ma integrati con materiali a base di ossidi allo stato solido. Il cuore del dispositivo è un assemblaggio cromoforo-catalizzatore, il primo assorbe la luce, il secondo ossida l’acqua. Per la scomposizione dell’acqua l’assemblaggio suddetto è supportato su nano-particelle di TiO2 del diametro di 5-10 µ.TiO2 è un ossido semiconduttore utilizzato come pigmento nelle tinture bianche e negli schermi per la radiazione solare ultravioletta. La luce è assorbita dal cromoforo creando nella molecola un elettrone ad alta energia che viene rapidamente iniettato nel semiconduttore e trasferito attraverso un circuito esterno ad un catodo esterno dove riduce i protoni ad idrogeno. La perdita di elettroni da parte dell’assemblaggio attiva il catalizzatore verso l’ossidazione dell’acqua e dopo che sono stati persi 4 elettroni si forma l’ossigeno. Sebbene il concetto iniziale fu per primo descritto nel 1999 due limiti dovevano essere superati prima di realizzare un dispositivo funzionale. Così la superficie fosfonata per legare l’assemblaggio cromoforo-catalizzatore alla superficie dell’ossido semi conduttore era stabile solo in ambienti acidi .mentre era auspicabile che lo fosse anche in ambiente basico, con tamponi basici nei quali la velocità di ossidazione era circa un milione di volte maggiore. Una seconda difficoltà derivava dallo spessore di 5-10 µm del film sulle nano-particelle di TiO2, troppo elevato da superare da parte degli elettroni iniettati per arrivare al catodo dove produrre idrogeno.

figure_DSPEC

Entrambi questi limiti vengono superati nel nuovo dispositivo applicando una tecnica chiamata a deposizione di strati atomici, basata sulla esposizione di un reattivo, un gas precursore dell’ossido, del tipo Al(CH3)3 , TiCl4 alla superficie del film sulle nano particelle di TiO2 . Dopo la reazione con la superficie e l’esposizione all’acqua in un secondo tempo si produce un sottile strato di Al2O3 o di TiO2 . Ripetendo il processo si formano sulla superficie sottili strati di ossido a spessore controllabile. Il risultato è promettente anche per il futuro con l’ipotesi di celle tandem che da un lato producono ossigeno scomponendo l’acqua al fotoanodo .e dall’altro riducono la CO2 a formiato o singas 2:1 (H2 :Co)al fotocatodo.

http://uncnews.unc.edu/2014/01/14/unc-researchers-harness-energy-day-use-night/

Noterelle sull’energia elettrica (parte 5)

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Claudio Della Volpe

I post precedenti di questa serie sono pubblicati qui, qui , qui e qui.

Adesso non ci sono più ostacoli ad affrontare la questione forse più scottante fra quelle da cui siamo partiti: ma è vero che le rinnovabili italiane attuali, e non solo italiane, sono uno spreco economico ed energetico?

Premetto che non entrerò nel merito delle leggi e delle regole attuali e in continuo cambiamento, ma cercherò piuttosto di fare un discorso generale. Non mi interessa il nostro paese fra 5-10 anni ma fra 50-100 anni almeno.

Come è la situazione italiana ed europea al momento? Nell’ultimo semestre i dati italiani sono i seguenti:

     noterelle51

Dati dal sito di Terna; come si vede c’è una diminuzione del consumo e della produzione complessivi ma c’è un incremento di alcuni settori; in particolare del FV; complessivamente nel primo semestre le rinnovabili hanno fornito il 40.2% della produzione e il 34.7 della richiesta totale, di cui il FV ha in particolare fornito l’8.9% della produzione netta e il 7.7 della richiesta, dati di tutto rispetto per i quasi 180kmq di installato.

Risultati analoghi si sono avuti in altri paesi europei; per esempio in Spagna la produzione eolica ha coperto nel primo trimestre 2014 il 47.7% della produzione totale con una percentuale dell’eolico che ha superato il nucleare e si è affermata come prima fonte elettrica del paese iberico (27.7%).

In Germania, ad esempio, lo scorso 9 giugno sono stati prodotti 23.1GWh nell’ora di picco tramite la rete di 1.4 milioni di unità FV, una quantità equivalente al 50.6% dell’energia totale necessaria all’intero paese.

Questi numeri dimostrano che è in atto un cambio epocale; ma in realtà sono anche in atto delle enormi resistenze da parte delle forze economiche, sociali e politiche che rappresentano il sistema energetico tradizionale, quello basato sui fossili di tutti i tipi.

Questo cambiamento è stato catalizzato dalle leggi, alcune delle quali molto favorevoli, che hanno consentito di pagare l’energia prodotta dalle rinnovabili molto al di sopra del valore di mercato e dando ad essa priorità di dispacciamento, ossia imponendo di usare questa elettricità invece di quella generata altrimenti. Questo ha generato in alcuni casi degli assurdi e degli abusi, che però non dipendono dalla tecnologia ma dallo strapotere del mercato e del profitto. Vediamo come stanno le cose dei prezzi e dei costi.

Da una analisi del Polimi (http://www.autorita.energia.it/allegati/docs/13/RappPolitecnicoRinn.pdf) si evince che i costi di produzione di Fv ed eolico pur essendo calati sono comunque elevati:

noterelle52

Quelli dell’eolico sono inferiori e dipendono dalle dimensioni dell’impianto, tanto da essere concorrenziali con quelli del fossile su scala di grandi impianti (sopra i 2MW di potenza utile): variano infatti da 200 euro per MWh a circa 70, che è più o meno il PUN, ossia il prezzo di vendita dell’energia elettrica; anche se c’è da dire che il PUN è una quantità che negli ultimi tempi va incontro a forti oscillazioni e che il suo valor medio che qui ho riportato potrebbe essere di per se poco significativo.

Ancora più interessante è il fatto che costi simili si hanno a livello mondiale; occorre dire che se si cerca di evincere tali costi dai documenti ufficiali si hanno montagne di dati da esplorare; io ho cercato di fare un lavoro del genere sul documento di Bloomberg (http://www.unep.org/pdf/Green_energy_2013-Key_findings.pdf), un sito di informazione e gestione finanziaria dedicato alle rinnovabili e da SolarBuzz un sito specializzato in rinnovabili FV.

In questo caso i costi si possono stimare aggiungendo il valore dell’investimento totale stimato da questi documenti, dalla produzione attesa e stimata totale, tenendo conto della riduzione della produttività con la vita dell’impianto e dal costo della manutenzione. C’è anche da dire che tali conti si possono fare in due modi: o considerando l’investimento annuo e la produzione attesa come se fossero collegati, anno per anno, oppure considerando ogni volta il totale investito e il totale della produzione attesa; non conoscendo la durata effettiva degli impianti di produzione è difficile avere stime inattaccabili.

Il risultato è che i costi variano a seconda della durata stimata dell’impianto (da 25 a 40 anni) del costo della manutenzione che si aggira su valori che sono variamente stimati dall’1% all’anno al 10% del costo di investimento; in tutti questi casi il costo di produzione varia dal valore massimo simile a quello stimato da Polimi (ma più basso, 300 $/MWh nel 2013) a poco più di 100$/MWh sempre 2013; probabilmente la verità sta nel mezzo e c’è comunque in tutti i casi un forte trend di riduzione del costo di produzione del manufatto FV.

La conclusione è che effettivamente il FV AL MOMENTO costa più del resto dell’energia elettrica, mentre l’eolico può avere un costo di produzione comparabile specie nei grandi impianti; a questo occorre aggiungere un’altra considerazione che è valida sia per il FV che per l’eolico.

Quando si dice che abbiamo nel tal momento o nel tale periodo di tempo prodotto energia elettrica da rinnovabile occorre tenere presente le due cose seguenti:

  • dato che sia l’eolico che il FV sono contraddistinte da una certa incostanza, che può essere solo parzialmente ridotta da previsioni del tempo più precise, durante il loro uso occorre sempre tenere “attive” centrali di altro tipo che possano intervenire rapidamente alla bisogna; questo comporta un costo complessivo non banale e riduce la effettiva “rinnovabilità” del sistema; una alternativa definitiva sarebbe quella di costruire gli impianti rinnovabili con una quota di accumulo; tentativi generali (non dedicati al FV o all’eolico) in questo senso sono stati fatti fin dal 1944 e vanno sotto il nome di pompaggi o accumuli di pompaggio, Pumping Storage, PS; per esempio il tentativo tedesco di Goldistahl, in Turingia
  • noterelle53

la cui logica viene esemplificata nella figura . Ma anche tentativi analoghi fatti in USA, soprattutto negli stati verso il Pacifico.

noterelle54

In un grafico di un lavoro USA sul tema(http://www.hydro.org/wp-content/uploads/2011/07/PS-Wind-Integration-Final-Report-without-Exhibits-MWH-3.pdf) si mostrano gli impianti PS a livello mondiale e sopra una certa dimensione:

noterelle55

Come vedete gli impianti italiani di pompaggio attualmente usati per pompare di notte l’elettricità dal nucleare francese sono qui rappresentati come impianti PS e basta! Ossia potrebbero essere usati per uno scopo diverso. A livello mondiale al 2005 gli impianti di pompaggio superavano i 100GW di potenza installata. I costi sono ovviamente alti, ma è chiaro qui che dal 1944 si sarebbe potuto fare molto di più e meglio. Al momento la ridotta quota di territorio disponibile e i costi elevati (sia economici che energetici) rendono questo tipo di scelta molto difficile. Una alternativa sono i metodi di accumulo elettrochimici (batterie e condensatori) o chimici (vettori energetici come l’idrogeno), tutti in fase primordiale, tutti da sviluppare per opera principalmente dei chimici. Vale la pena di notare che la tecnologia esistente è quella delle cosiddette batterie in flusso, per esempio quelle al vanadio, in cui due coppie di ossidoriduzione del medesimo elemento coprono sia la parte anodica che catodica e la dimensione può essere aumentata a volontà; il vanadio tuttavia è un elemento non così comune.

 115056468420_photo_vrb_2small

La trasformazione dei sistemi in flusso in sistemi anche a basso costo è in atto, per esempio usando reagenti organici come i chinoni, ma conservando lo schema di base.

batteria_organicaC’è una questione da approfondire un momento che ha a che fare con i motori elettrici; nei sistemi di accumulo come Goldisthal il progetto prevedeva dei motori sincroni tradizionali; tali motori sono stati sostituiti in corso d’opera con motori asincroni; la differenza fondamentale è la possibilità di lavorare sia in pompaggio che in generazione a velocità diverse con ottimizzazione dell’efficienza.

Si tratta della più importante innovazione del progetto; essa costituisce la prima applicazione mai realizzata di generatori/motori di questa dimensione in un impianto idroelettrico in Europa. In sostanza le turbine hanno un punto di ottimo della loro operatività in termini dei loro parametri. Ma quando sono accoppiate con un motore generatore a velocità variabile, le velocità di operazione possono essere cambiate in un certo intervallo dei parametri ottimali della turbina sincrona, operando in tal modo nelle migliori condizioni.

Per poter avere un maggiore risparmio energetico, oltre all’utilizzo di motori ad alta efficienza, possiamo usare i convertitori di frequenza (chiamati anche inverter) che hanno lo scopo di andare a variare la velocità di un motore elettrico quando non è necessario che funzioni alla velocità nominale. Attraverso l’utilizzo di un inverter possiamo ridurre i normali consumi anche del 60 %. Le applicazioni principali di un convertitore di frequenza si hanno a livello industriale nell’utilizzo di pompe, ventilatori e compressori dove è spesso indispensabile una regolazione della velocità di questi dispositivi.

Un motore asincrono trifase collegato direttamente alla rete, per sua natura girerà costantemente alla velocità nominale. Nel caso in cui fosse utilizzato per azionare una pompa o un ventilatore e le esigenze dell’impianto richiedessero di operare a portata variabile, sarebbe necessario prevedere un sistema di regolazione meccanico per controllare la portata del fluido; la regolazione della portata dei fluidi è ottenibile normalmente attraverso l’ausilio di dispositivi di tipo meccanico/idraulico a perdita di carico tipo valvole di strozzamento, serrande, sistemi di bypass, ecc.

Utilizzando un inverter per comandare il motore, è possibile regolare la portata del fluido agendo direttamente sulla velocità del motore attraverso la variazione della frequenza.

Se si considera un ciclo produttivo che richiede alla pompa o al ventilatore di dimezzare la portata, automaticamente l’inverter dimezzerà la velocità del motore e, ricordando che la potenza richiesta dal carico varia con il cubo della velocità, l’assorbimento energetico scenderebbe da 100 % a solo un ottavo di quello nominale.” (http://tesi.cab.unipd.it/43423/1/Mirco_Soncin.pdf)

Non so al momento quanti impianti italiani di pompaggio siano dotati di inverter capaci di ottimizzazione come quelli di Goldistahl, ma certamente l’accumulo è il futuro delle rinnovabili e i motori asincroni con inverter sono uno dei futuri dell’accumulo.

  • qualcuno fa notare che al momento l’energia FV in particolare rappresenterebbe energia fossile differita, in quanto per produrre pannelli a basso costo si usano energie sporche come il carbone; la cosa mi fa arrabbiare in quanto dato che la percentuale di rinnovabili è bassissima sul piano mondiale è OVVIO che la quota immagazzinata di energia rinnovabile nei nostri beni e servizi sia bassa; in certi paesi è più alta, come da noi dove appunto il 40% dell’energia elettrica (che sappiamo essere in Italia circa ¼ dell’energia totale al momento) è rinnovabile; il 40% di ¼ è il 10% e questo è un caso favorevole, la percentuale mondiale è circa un terzo; per cui è CHIARO che solo un 3-4 % del FV in media è prodotto da rinnovabile ma non può che essere così per decenni finchè la gigantesca transizione energetica non vada avanti producendo esempi virtuosi di self-breeding, cioè di posti dove tutto è da rinnovabile, come per esempio potrebbe diventare la fabbrica di batterie prevista dalla Tesla e dalla Panasonic (http://www.teslamotors.com/sites/default/files/blog_attachments/gigafactory.pdf)

Queste considerazioni hanno portato vari autori a ricalcolare l’EROEI del FV e dell’eolico sulla base della necessità dei sistemi di accumulo; abbiamo già citato in un precedente post di questa serie il lavoro di Weissbach (Weißbach D, Ruprecht G, Huke A, Czerski K, Gottlieb S, Hussein A. Energy in- tensities, EROIs (energy returned on invested), and energy payback times of electricity generating power plants. Energy 2013;52:210e21.) che limita a non più di 3 l’EROEI del FV con accumulo, un valore veramente basso dato che questo EROEI era l’EROEI dei sistemi energetici del XVIII secolo (e aggiungo è anche l’EROEI del petrolio e del gas da shale, che va oggi così tanto in voga.)

Tuttavia in tutti questi lavori e calcoli si fa a meno di considerare quale sia il VERO EROEI del fossile, che viene sparato a valori galattici (50-80 o giù di lì) dalla semplice trascuratezza del suo decommissioning, ossia del costo energetico necessario a ripristinare lo stato dei luoghi (atmosfera, ambiente, salute) PRIMA del loro uso.

Per fare capire di cosa stiamo parlando avevo provato a calcolare la energia necessaria a rimediare ad uno solo dei grossi problemi FUTURI del fossile, l’effetto del GW che sta portando alla fusione dell’Antartide occidentale, prevista completarsi nei prossimi 2-9 secoli con l’effetto di alzare il livello del mare di 3 metri(). La conclusione era che che ci voleva tanta energia per mille anni quanta ne produciamo oggi. Ma c’è un altro conto non fatto da me, indegno assistentucolo, ma dalla Società americana di fisica (Direct-Air-Capture-of-CO2-with-Chemicals, 2011) a pag. 22 e 40 sono calcolati i costi termodinamici per l’estrazione della CO2 atmosferica allo scopo di riportarne i valori a prima dell’era industriale.

noterelle56

Il calcolo termodinamico porta al risultato che il lavoro minimo necessario(pag 22) è di 0.66GJ per ton di CO2 estratta; il lavoro effettivo (pag 40) è circa 15-20 volte superiore a questo, quindi circa 10GJ per ton di CO2 estratta; considerando che in atmosfera c’è un eccesso stimato di circa 1000 Gton di CO2, e che ogni ton di petrolio può fornire 42GJ di energia termica (o 16GJ di elettricità), il lavoro necessario è dell’ordine di 10 TJ, ossia all’incirca da 250 a 350 Gton di petrolio (a seconda della miscela calore/elettricità), che equivalgono al consumo attuale mondiale di energia primaria per 25-30 anni o di solo petrolio per un secolo.

Allora quanto è il costo VERO dell’energia fossile? Quale è il vero EROEI dell’energia fossile? Ripristinando la parità di condizioni di ambiente, clima e salute? Ditemelo voi, ma certo è molto più basso di quelli calcolati senza decommissioning.

In effetti è vero che le energie rinnovabili sono costose e complesse da gestire, ma quelle fossili (o nucleari) sono TERRIBILMENTE più costose e complesse.

Scopriamo con difficoltà che i costi VERI dell’energia sono più alti, parecchio più alti, di quelli che paghiamo adesso; nei fatti stiamo vivendo a sbafo consumando ambiente, risorse non rinnovabili.

Ed è ora di finirla.

La realtà è che non abbiamo alcuna scusa; se vogliamo sopravvivere come specie, qualunque sia il costo economico od energetico siamo obbligati a questa transizione energetica che necessiterà di 50-100 anni e ad essa dobbiamo dedicare le nostre energie; non sarà solo una transizione energetica, sarà una transizione SOCIALE, implicherà cambiare i nostri paradigmi economici e sociali, costruire una società adeguata ad essere umana e stabile per i prossimi 10.000 anni; come nei trascorsi 10.000 anni ci siamo abituati a considerare normale la crescita quantitativa, il mito del progresso, il mito di Prometeo, così dovremo abituarci a considerare normale la stabilità quantitativa della produzione, ma nulla ci impedisce o ci impedirà di accrescere la nostra felicità o il nostro benessere, eccetto che noi stessi e le leggi della fisica.

*****************************************************************

A riprova di quanto antico sia il mito di Prometeo o del progresso e il suo limite, ma anche la loro coscienza, riporto qui la traduzione di un celeberrimo pezzo di Platone.

Platone. Protagora, il mito del progresso.

Ci fu un tempo in cui esistevano gli dei, ma non le stirpi mortali. Quando giunse anche per queste il momento fatale della nascita, gli dei le plasmarono nel cuore della terra, mescolando terra, fuoco e tutto ciò che si amalgama con terra e fuoco. Quando le stirpi mortali stavano per venire alla luce, gli dei ordinarono a Prometeo e a Epimeteo di dare con misura e distribuire in modo opportuno a ciascuno le facoltà naturali. Epimeteo chiese a Prometeo di poter fare da solo la distribuzione: “Dopo che avrò distribuito – disse – tu controllerai”. ………….

 

Ma Epimeteo non si rivelò bravo fino in fondo: senza accorgersene aveva consumato tutte le facoltà per gli esseri privi di ragione. Il genere umano era rimasto dunque senza mezzi, e lui non sapeva cosa fare. In quel momento giunse Prometeo per controllare la distribuzione, e vide gli altri esseri viventi forniti di tutto il necessario, mentre l’uomo era nudo, scalzo, privo di giaciglio e di armi. Intanto era giunto il giorno fatale, in cui anche l’uomo doveva venire alla luce. Allora Prometeo, non sapendo quale mezzo di salvezza procurare all’uomo, rubò a Efesto e ad Atena la perizia tecnica, insieme al fuoco – infatti era impossibile per chiunque ottenerla o usarla senza fuoco – e li donò all’uomo. All’uomo fu concessa in tal modo la perizia tecnica necessaria per la vita, ma non la virtù politica. Questa si trovava presso Zeus, e a Prometeo non era più possibile accedere all’Acropoli, la dimora di Zeus, protetta da temibili guardie. Entrò allora di nascosto nella casa comune di Atena ed Efesto, dove i due lavoravano insieme. Rubò quindi la scienza del fuoco di Efesto e la perizia tecnica di Atena e le donò all’uomo. Da questo dono derivò all’uomo abbondanza di risorse per la vita, …….

 

La perizia pratica era di aiuto sufficiente per procurarsi il cibo, ma era inadeguata alla lotta contro le belve (infatti gli uomini non possedevano ancora l’arte politica, che comprende anche quella bellica). Cercarono allora di unirsi e di salvarsi costruendo città; ogni volta che stavano insieme, però, commettevano ingiustizie gli uni contro gli altri, non conoscendo ancora la politica; perciò, disperdendosi di nuovo, morivano. Zeus dunque, temendo che la nostra specie si estinguesse del tutto, inviò Ermes per portare agli uomini rispetto e giustizia, affinché fossero fondamenti dell’ordine delle città e vincoli d’amicizia. Ermes chiese a Zeus in quale modo dovesse distribuire rispetto e giustizia agli uomini: «Devo distribuirli come sono state distribuite le arti? Per queste, infatti, ci si è regolati così: se uno solo conosce la medicina, basta per molti che non la conoscono, e questo vale anche per gli altri artigiani. Mi devo regolare allo stesso modo per rispetto e giustizia, o posso distribuirli a tutti gli uomini?« «A tutti – rispose Zeus – e tutti ne siano partecipi; infatti non esisterebbero città, se pochi fossero partecipi di rispetto e giustizia, come succede per le arti. Istituisci inoltre a nome mio una legge in base alla quale si uccida, come peste della città, chi non sia partecipe di rispetto e giustizia».

Ancora sull’Università italiana: una narrazione diversa .

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Guido Barone

Sul numero 3 de La Chimica & l’Industria 2014 ( e anche su questo blog) è apparso un articolo a firma di sei dei Componenti del Direttivo del Gruppo Senior della SCI (gruppo cui aderisco anche io) dal titolo “La trasformazione del mondo universitario italiano nella seconda metà del secolo passato fino ad oggi”. L’articolo è corposo e su molti punti si può essere d’accordo, ma mi permetto qui di avanzare alcune critiche sparse che cercherò di raccogliere per punti.

barone_fotoConsiderazione preliminare: essendo firmato praticamente dal Direttivo di un Organo formale della Società Chimica ed essendo stato pubblicato su di una rivista ufficiale della SCI stessa, questo articolo potrebbe aspirare a stabilire una verità storica sull’evoluzione delle Riforme dell’Università italiana; siamo però sempre nell’ambito della “Saggistica” e non della “Storia” (vedi la distinzione nell’articolo di Simonetta Fiori su Repubblica del 14/09/2014 con le citazioni di Judt e di Snyder).

Le considerazioni, che qui espongo quasi a caldo, soffrono ovviamente della frammentarietà della memoria. Avendo più tempo si potrebbe tentare di recuperare, se ancora ne esistono copie, altri documenti (decreti leggi a parte) pubblicati all’epoca.

Nel concreto, nel secondo paragrafo dell’articolo citato, sui primi provvedimenti legislative degli anni ’60, la mia impressione soggettiva è che gli Autori abbiano fatto uno schiacciamento prospettico, attribuendo alla famosa Legge 2314 (o Legge Gui, dall’allora Ministro della PI) cose che non c’erano, come i Dipartimenti e il Dottorato di ricerca. Nella Legge si accennava solo ai Diplomi brevi e alla possibilità di coordinamento tra più Istituti (allora strettamente monocattedra). Questo errore nasce probabilmente da un ricordo troppo generico delle forze in gioco in quel periodo di cui parlerò fra un attimo. Inoltre l’apertura alla iscrizione di diplomati provenienti da tutti gli Istituti Tecnici e professionali risale probabilmente al 1965 e non ad una legge del 1969, che invece prevedeva l’abolizione della Libera Docenza. Già negli anni precedenti valeva comunque la regola che gli Assistenti che non la conseguivano entro il decimo anno dovessero passare ad altre amministrazioni pubbliche (scuole secondarie o altro). Infine nell’articolo di Chim. & Ind. non si pone in evidenza che nella Legge Gui tutta la democratizzazione prevista era la presenza, molto limitata, nei Consigli di Facoltà di soli due Professori Incaricati e di due Assistenti Ordinari (!!!).

La Legge 2314 era stata presentata nell’ambito di un processo di rinnovamento e ammodernamento complessivo della società italiana auspicato dalle forze politiche che in quegli anni, in parte dal Governo, in parte dall’opposizione, stavano progettando il varo del primo Centro-Sinistra. Nell’Università si fronteggiavano da un lato la generazione dei Professori Ordinari e dei Rettori che avevano fatto carriera sotto il fascismo e che difendevano con le unghie e con i denti le loro posizioni di privilegio, spesso legate alle attività professionali esterne; o addirittura a fenomeni di corruzione interna e gestione allegra dei proventi delle Cliniche mediche e degli Studi professionali che sfruttavano i docenti precari, i borsisti e il personale non docente universitario. Dall’altro erano schierati i Professori Ordinari più giovani e fuori dai circuiti professionali, come molti scienziati e letterati: costoro avevano finito per prendere il sopravvento all’interno dell’ANPUR la loro associazione di categoria: solo alcuni di essi però esprimevano cautamente delle posizioni politiche per non rompere con l’ala ultraconservatrice ancora troppo potente. Decisamente politicizzati erano invece i parlamentini locali degli studenti, riconosciuti e finanziati dal Ministero PI e raccolti nell’Organismo Rappresentativo Universitario Nazionale ORUN: qui a livello nazionale prevalevano i cattolici di sinistra e i socialisti, seguendo il filo dell’evoluzione politica in atto. I gruppi neofascisti e qualunquisti avevano qualche forza solo locale, in particolare a Roma dove il Rettore li utilizzò spregiudicatamente, fino agli scontri che portarono all’uccisione dello studente Paolo Rossi (si chiamava proprio così !) che provocò una reazione molto forte a livello nazionale. Da allora la riforma cominciò a camminare più speditamente, appoggiata di fatto dalle forze progressiste interne all’Università, anche se il braccio di ferro era da un lato sulla democratizzazione e dall’altro sull’adeguamento delle strutture alla crescita degli iscritti (triplicati dopo il 1965). Da molti anni infatti, pur muovendosi su di un piano parallelo agli studenti e ai professori, anche l’Associazione Nazionale degli Assistenti (UNAU) stava conducendo la sua battaglia riformatrice, volta soprattutto ad eliminare le figure precarie (Assistenti Straordinari, Incaricati, Volontari), troppo alla mercé dei “baroni” più retrivi. Anche nell’UNAU prevalevano le posizioni di centro sinistra (socialisti e cattolici di sinistra) che trovavano appoggio nel Parlamento nelle corrispondenti forze politiche. L’obiettivo era di emendare in senso più democratico la Legge Gui. Più ambigua era la posizione del PCI la cui ala sinistra cercava di dare spazio alle istanze riformatrici provenienti dall’interno dell’Università, appoggiando di volta in volta gli emendamenti del PSI, ma riservandosi poi una opposizione finale alla legge 2314 nel suo complesso.

00451_1

Mi sono riservato qualche considerazione a parte sulle posizioni dell’Associazione Nazionale dei Professori Universitari Incaricati (ANPUI): anche questa era una associazione di categoria, ma le sue posizioni erano più radicali e generali di quelle espresse dall’UNAU e dall’ANPUR. Ne parlo perché molti di noi non eravamo assistenti, ma solo incaricati annuali esterni e quindi docenti precari, ma con gli stessi obblighi didattici dei Professori Ordinari. Ne parlo soprattutto perché nel gruppo dirigente la maggioranza era formata da noi chimici oltre che da qualche fisico e letterato. E’ da questo gruppo che vennero fuori le proposte del Dottorato, del Dipartimento e del “Docente Unico” (per analogia con la carriera dei Magistrati), figura poi ripresa a vario titolo anche di recente. La nostra insistenza, appoggiata più debolmente da Professori Ordinari rinnovatori e Assistenti, portò a vari incontri con il Ministro che alla fine ci trascinò persino ad un incontro con il Presidente del Consiglio di allora Aldo Moro. Non ne sortì nulla, ma l’impressione era che il Ministro Gui avesse compreso almeno in parte le nostre ragioni e la nostra buona fede, ma si rendeva conto che se si toccava appena un poco più a fondo il suo disegno, questo sarebbe diventato intrinsecamente contraddittorio. Alla fine lo scontro sociale e la estremizzazione delle lotte studentesche portarono a crisi di governo e all’abbandono della legge 2314. Nel novembre 1969 si tentò un Congresso di unificazione tra UNAU e ANPUI, sperando di avere maggior forza per imporre il rilancio di un nuovo Disegno di Legge che recepisse le proposte che avevamo portato avanti come ANPUI, ma il timore che prevalessero istanze troppo radicali portò ad un rimescolamento delle posizioni: la fusione non ebbe luogo, le due vecchie associazioni di categoria si sciolsero, dando però vita a due nuove diverse formazioni: l’ANRIS con posizioni di centro destra e l’ANDS, di sinistra, che riprendeva le proposte dell’ANPUI ma accoglieva anche le istanze di tutti i ricercatori precari. barone1(vedi al riguardo “Alfonso Maria Liquori e il Risveglio scientifico a Napoli negli anni 60” di P. Greco, L. Mazzarella e G. Barone, Saggi Bibliopolis, Cap VI,6, 2013, recensito mesi addietro sia su Chim&Ind che su questo Blog). Le nostre proposte furono in un primo momento riprese da un DdL del nuovo Ministro Fiorentino Sullo, ma nello stile di questo personaggio si trattò di una fuga in avanti e una bolla di sapone. (Per la cronaca, Sullo si era reso protagonista anche di un’altra fuga in avanti molto pericolosa per l’establishment, che prevedeva l’abolizione della proprietà privata dei suoli edificabili!!!! I suoi conterranei De Mita e Mancino lo fecero rapidamente fuori politicamente).

Nel frattempo il Governo introdusse la figura del Professore Aggregato con minori poteri degli Ordinari (ma molti Colleghi con qualche ambizione di carriera si rifiutarono di essere parcheggiati in questo che alcuni definirono “cimitero di elefanti”). Quindi il Governo stabilizzò a tempo indeterminato tutti i professori incaricati, in precedenza confermati per almeno tre anni consecutivi. Di fatto quasi tutte le Facoltà si aprirono nel 1973 a questa categoria di docenti che in molte situazioni (ma non sempre) ebbero anche un’azione propulsiva nell’innovazione didattica e della ricerca. Si dovette arrivare alla legge 382/1980 del Ministro Ruberti che introdusse appunto i Dipartimenti, il Dottorato e il cosiddetto Docente Unico su due fasce (?!?): P. Ordinari e P. Associati. Questo risultato fu contrattato con i sindacati universitari aderenti alle Confederazioni dei lavoratori, che di fatto erano succeduti alle associazioni di categoria. La 382/1980 introdusse la figura del Ricercatore che riassorbì ope legis quasi tutte le figure precarie. Su questo provvedimento che introdusse anche l’autonomia universitaria distorta lascerei campo alle considerazioni riportate nell’articolo del Direttivo Senior su Chim. & Ind..

Consentitemi però ancora due considerazioni relative alla seconda metà e alle considerazioni finali dell’articolo dei Colleghi Senior di cui diversi punti sono per altro condivisibili.

  1. A) Mobilità dei docenti e “sprovincializzazione”: al di là di imporre ai figli dei professori di fare carriera in altre università (non in nuove, create appositamente !!!), non si può invocare il sistema americano senza prevedere che un giovane docente o ricercatore possa cambiare università a patto che gli venga messo a disposizione un adeguato finanziamento iniziale e spazi adatti per costruire nuovi laboratori sperimentali ben attrezzati (non a tutti basta una buona biblioteca ed una scrivania!). Questo concetto va ribadito con forza nei confronti del Governo, ma anche della Confindustria: a lungo è stata coltivata, da parte delle forze politiche riformiste, l’illusione che le Piccole e Medie Industrie potessero costituire l’asse portante del rilancio del Sistema Paese, con solo un poco di fondi e libertà di ristrutturarsi licenziando. Gli investimenti in R&S, debbono servire, come per la Grande Industria, ad assumere i rischi dell’innovazione e della concorrenza internazionale (non a finanziare la pubblicità!!). Quanti reali successi ebbero a suo tempo i Progetti Finalizzati del CNR ? o servirono in gran parte a finanziare la ricerca universitaria e la pubblicità delle Imprese?
  2. B) Il disastro del 3+2: se ne è parlato con posizioni contraddittorie anche durante il XXV Congresso SCI, tra chi voleva migliorarli (ma non si diceva in che direzione) e chi voleva ritornare alla vecchia Laurea a ciclo quinquennale. E’ inutile che fingiamo di frustrarci solo per l’egoismo e la pigrizia del sistema universitario: la Laurea breve fu inventata come evoluzione dei diplomi per venire incontro, ma con 10-15 anni di ritardo (!!), alle esigenze dell’industria europea che già all’epoca della loro istituzione non ne aveva più bisogno. Nota bene: disastri maggiori che a Chimica e a Chimica Industriale sono stati combinati nelle vecchie Lauree quadriennali, dove la compressione a tre anni potrebbe avere successo, ma per le quali la magistrale biennale è diventata un riempitivo in cui si ripetono cose già studiacchiate e che gli studenti credono già di padroneggiare. Questo è un rischio che si sta correndo anche nelle nostre Lauree. E’ forse di nuovo troppo tardi, ma bisogna pensare probabilmente ad una Laurea quadriennale con un percorso professionalizzante definito da subito (i fisici hanno istituito la Laurea breve in Optometria, ad esempio) e che preveda anche insegnamenti formativi di base in economia e in management. Per chi ci volesse ripensare e volesse optare per la ricerca di base o per quella industriale. Si potrebbe prevedere una biforcazione al 2/3 anno con qualche penalizzazione di recupero. Ma ancora una volta bisogna convincere, oltre che il Governo, la Confindustria a stimolare i suoi associati a sviluppare forme di aggregazione o di cooperazione tra le PMI per sostenere l’assorbimento e l’utilizzo ottimale delle potenzialità culturali dei vari tipi di laureati senza regalarli alla concorrenza estera. Il percorso quadriennale di base dovrebbe invece sfociare comunque in un Dottorato (di 4/5 anni secondo la specializzazione e il tipo di Tesims)

In cauda venenum: Considerazione finale molto cattiva: Non è che qualcuno degli estensori dell’articolo su Chim.&Ind. abbia una qualche rimossa nostalgia della 2314 o della Università di Elite ??

per approfondire: http://www.bnnonline.it/index.php?it/290/fondo-documenti-di-storia-contemporanea-movimento-studentesco-napoli-1967-1970

La depurazione delle acque come “arte”

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Mauro Icardi*

L’articolo di Giorgio Nebbia pubblicato su questo blog lo scorso 18 Agosto (L’acqua vera) mi da lo spunto per scrivere di depurazione e di ciclo idrico, visto che sono uno dei tanti

bravi nostri colleghi chimici che si occupano in silenzio di analisi delle soluzioni acquose nelle aziende di distribuzione, nelle agenzie di igiene pubblica, nelle fabbriche

Me ne occupo ormai da venticinque anni, e mi sono reso conto che spesso i non addetti ai lavori hanno delle idee piuttosto confuse su quello che facciamo. E quindi riporto un altro interessante passaggio:

mi rendo conto che può sembrare non gratificante dedicarsi all’analisi e allo studio dei liquami zootecnici o dei reflui degli impianti di depurazione urbana, anche se si tratta, solo in Italia, di alcuni miliardi di metri cubi all’anno, da cui potrebbero essere ricavate altre soluzioni forse non potabili, ma utilizzabili in agricoltura (e, con un po’ di furbizia, anche come fonti di metano). La chimica modesta è spesso molto utile per il, paese.

Ringrazio ancora Giorgio Nebbia.

E prima di iniziare a parlare di depurazione di acque reflue vorrei fare un’altra citazione. Questa è tratta da un libro di Piero Bianucci, giornalista, scrittore e divulgatore scientifico, fondatore nel 1981 dell’inserto “Tuttoscienze” del quotidiano “La stampa”. Nel 1994 scrive un romanzo pubblicato da Rusconi, che vince anche il premio Pirandello come opera prima. Si intitola “Benvenuti a bordo”. Lo scrive con l’ambizione di usare lo stile letterario di Piero Chiara. La trama è curiosa e singolare. Arcangelo Menoli, di Brindisi, vede un vecchio dragamine in disarmo della marina militare nel porto della città pugliese. Decide di acquistarlo dopo qualche peripezia burocratica, di trasportarlo a Torino e di farne un ristorante ormeggiato sul Po. Il ristorante però non riesce a decollare, ed alla fine il Menoli finisce per trasformarlo in un rifugio notturno, un alcova, per coppie clandestine e non, desiderose di una intimità che per una ragione o un’altra non riescono a trovare. E gli affari cominciano a prosperare, fino a quando una piena del Po si porta via il dragamine e i sogni del Menoli.

  icardi1

Ma visto che il romanzo parla di un dragamine ancorato sul Po, l’autore racconta la storia ,comune a tanti altri corsi d’acqua in Italia, del progressivo degrado del fiume, dell’inquinamento che a poco a poco finisce per far sparire i pesci, ed allontanare anche chi,fino agli anni del dopoguerra aveva come destinazione per gli svaghi estivi le rive dei fiumi, che si potevano raggiungere più facilmente e con meno spesa delle ancora non abbordabili spiagge del mare. E della costruzione dell’impianto di depurazione della città di Torino.

Il boom economico, il benessere hanno come rovescio della medaglia l’aumento dell’inquinamento. E già alla fine degli anni sessanta la situazione appare grave. Fiumi coperti da nuvole di schiume da detersivo,acqua che in qualche caso è multicolore.

Torino si dota di un grande impianto di depurazione che raccoglie le acque reflue del capolouogo e dei comuni della cintura. Un impianto che tratta, la ragguardevole cifra di duecento milioni di metri cubi di acque reflue all’anno.

 icardi2

Io sono un Torinese trapiantato in quel di Varese ormai da decenni. Ma torno spesso nella mia città natale. In uno di questi ritorni vidi questo libro sulle bancarelle di Via Po, che frequentavo anche quando ero studente. Mi attrasse la copertina. Credo che il vero lettore non abbia bisogno di recensioni,a volte i libri si scelgono d’istinto.

Lo aprii, e lessi questo brano, che ovviamente mi incuriosì e mi spinse immediatamente all’acquisto.

Più che una tecnica,la depurazione è un arte,forse l’unica per la quale il ventesimo secolo passerà alla storia. Non sarà dunque fuor di luogo delineare i principi fondamentali della cultura fognaria”.

Il preambolo può sembrare lungo. Era a mio parere necessario.

La storia comincia da molto lontano. Dalle testimonianze ed i ritrovamenti archeologici di Mohenjo-daro città che presentava una vasta rete di canali in mattoni che convogliavano le acque reflue provenienti dalle abitazioni. Siamo nel 2500 aC circa. Ma nell’antichità le fognature più moderne ed efficienti vengono realizzate dai romani. La loro maggior realizzazione in questo campo rimane la cloaca massima iniziata nel VI secolo aC.

São_Cucufate_roman_canalização

Rovine di una fognatura dei tempi dell’impero romano (Vidigueira, Portogallo).

Con la caduta dell’impero romano non vengono più costruite fognature, e quelle esistenti vengono abbandonate. Bisogna arrivare fino al XVII secolo, quando l’esigenza di costruirle riparte dalla forte urbanizzazione di Parigi, e poi nel XIX secolo a Londra.

E sono proprio gli ingegneri inglesi ed americani a sviluppare il processo a fanghi attivi ancora oggi usato in quasi tutti gli impianti di depurazione a schema classico. Lo sviluppo prende origine alla fine dell’ottocento , per migliorare il processo allora usato per la depurazione delle acque reflue con i filtri percolatori a biomassa adesa. L’areazione dei liquami viene utilizzata inizialmente per ridurre l’odore che si sviluppa dai reflui fognari. Ma ci si accorge che l’areazione del refluo produce un fango. Aerando un liquame contenente sostanze biodegradabili si forma una specie di fanghiglia costituita da colonie di microorganismi aerobi purificando il refluo. Al processo si fa poi seguire una sedimentazione secondaria, e dopo questa operazione il refluo viene sottoposto ad una disinfezione finale, e quindi scaricato nel corpo idrico. I fanghi attivi separati nel sedimentatore finale, sono in parte ricircolati nel bacino di areazione. Questa operazione è fondamentale per mantenere nello stesso una concentrazione ottimale di biomassa sospesa e per depurare al meglio il liquame. Quando mi capita di parlare con studenti universitari in visita all’impianto dove lavoro, cerco di far capire a loro alcune cose. Un bacino di aerazione di un impianto di depurazione o vasca di ossidazione, è sostanzialmente come un qualunque reattore chimico o biochimico. Ma con alcune importanti limitazioni. Cioè il fattore temperatura, che nel corso dell’anno tende a variare. Nel principale impianto che seguo, la temperatura nel bacino di areazione in inverno scende intorno ai 10-12°C,mentre in estate arriva al massimo a 20°C. Molti autori ritengono i processi di depurazione assimilabili ad una reazione chimica del primo ordine cinetico che risponde a questo schema: dx/dt = k(x0-x).  Quidi dx/dt è la velocità di reazione, x0 la quantità di sostanze biodegradabili (praticamente il Bod del refluo fognario da trattare), x la quantità di sostanze eliminate durante il tempo di permanenza nel bacino di areazione. La costante cinetica k varia al variare della temperatura. Kt = k20. 1,065 (t-20). Anche il tempo di permanenza è variabile,visto che la portata dei reflui in arrivo all’impianto è variabile. I bacini di aerazione sono progettati per tenere conto di queste variazioni. Ma il chimico addetto al controllo di processo deve sostanzialmente controllare un reattore nel quale non è stato lui ad avere impostato alcuni parametri fondamentali. Nel corso delle visite degli studenti non dimentico mai di farlo notare. Va detto che la tecnica degli impianti a fanghi attivi è ormai consolidata. Ma quando si inizia a lavorare su un impianto di trattamento delle acque reflue, ci si rende conto abbastanza presto che se è fondamentale avere ben presente la teoria, occorre anche sviluppare una sorta di sesto senso. Cercare di capire in anticipo che cosa può aver provocato inconvenienti, o riduzione della capacità depurativa. Sbalzi termici,ingresso di liquame con concentrazioni elevate di sostanze tossiche o inibenti. E’ una sensibilità che richiede (come per qualunque altro lavoro) la crescita di una esperienza sul campo. Altro esempio che spesso mi piace citare è questo: se io costruisco due impianti di depurazione identici, ma che trattano liquami di diversa provenienza, è quasi certo che incontrerò problemi di gestione diversi, e sarò chiamato ad eventualmente intervenire in maniera diversa. Ecco perché, concordando con Piero Bianucci si può definire la depurazione un arte più che una tecnica. Ma nel praticare quest’arte l’insight, l’abito mentale del chimico è di grande aiuto. Fondamentale per acquisirne al meglio i segreti, i piccoli trucchi.

L’argomento depurazione come “arte” non si può esaurire con questo articolo. E quindi seguendo lo schema che su questo blog ci ha fatto conoscere meglio l’energia elettrica, penso sia giusto scrivere ancora qualche cosa con articoli successivi, per rendere la lettura più agevole.

* Mauro Icardi è tecnico di laboratorio presso una azienda che si occupa della gestione integrata delle acque in provincia di Varese.

Non fidarsi mai di compiacere il potere

 Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Giorgio Nebbia nebbia@quipo.it

Haber1Cadono quest’anno ottanta anni dalla morte del chimico tedesco Fritz Haber (1868-1934), grande e controverso protagonista del ventesimo secolo. Nel corso dell’Ottocento era cresciuta rapidamente la popolazione mondiale e la richiesta di alimenti che potevano essere ottenuti con coltivazioni agricole intensive che impoverivano i terreni delle principali sostanze nutritive fra cui quelle azotate. Justus von Liebig (1803-1873), nella metà dell’Ottocento, aveva chiarito che la fertilità dei terreni avrebbe potuto essere reintegrata se fossero stati addizionati con sostanze azotate e aveva indicato come concime il nitrato di sodio che veniva scavato nell’arido altopiano cileno. Era così cominciato lo sfruttamento dei giacimenti, non certo illimitati, di nitrati la cui esportazione stava facendo la fortuna economica del Cile. La dipendenza dai nitrati cileni, costosi e distanti migliaia di chilometri, rallentava lo sviluppo economico e agricolo europeo.

220px-Nitrate-ion-2DOltre che come concime i nitrati erano importanti per la fabbricazione degli esplosivi, dalla polvere da sparo ai più potenti esplosivi organici, come il tritolo che richiedevano acido nitrico come i prodotti della nascente industria delle sintesi organiche di coloranti e medicinali.

Alla fine dell’Ottocento c’era un gran fermento fra i chimici per trovare dei surrogati del nitrato del Cile. L’azoto era disponibile in quantità grandissime nell’atmosfera ma l’azoto gassoso anche puro, può essere “fissato” con altri elementi, soltanto con mezzi fisici, pressione e temperatura, molto energici. Nel 1898 Adolf Frank (1834-1916) e Nikodem Caro (1871-1935) avevano messo a punto un processo di fissazione dell’azoto atmosferico per reazione con carburo di calcio ottenuto in forno elettrico da calce e carbone; la calciocianammide così prodotta si prestava all’impiego come concime azotato. Gli svedesi Kristian Birkeland (1867-1917) e Sam Eyde (1866-1940) avevano inventato un processo di produzione dell’acido nitrico per reazione ad altissima temperatura, in un arco elettrico, dell’azoto con l’ossigeno dell’aria, ma il processo era costoso per l’elevato consumo di elettricità.

La vera soluzione fu trovata da Fritz Haber; nato a Breslavia da famiglia ebraica, aveva studiato a Berlino, Zurigo e Jena ed era diventato professore alla Scuola Superiore Industriale di Karlsruhe dove raggiunse grande fama per i suoi studi sulla termodinamica delle reazioni fra gas. Altri chimici avevano tentato senza successo la sintesi diretta dell’ammoniaca per combinazione di azoto e idrogeno, una sintesi durante la quale si libera calore e che ha luogo con buoni rendimenti soltanto se la miscela è tenuta ad elevata pressione e a bassa temperatura, due condizioni difficilmente conciliabili.

Haber studiò sistematicamente le condizioni di pressione e temperatura a cui si potevano ottenere rese soddisfacenti di ammoniaca e osservò che i rendimenti miglioravano in presenza di adatti catalizzatori come osmio o uranio. Le condizioni per la produzione di ammoniaca sintetica furono l’oggetto di un brevetto del 1908 subito acquistato dalla grande industria chimica BASF presso la quale Karl Bosch (1874-1940) perfezionò e applicò il processo industrialmente usando un catalizzatore di ferro. La prima fabbrica di ammoniaca sintetica fu aperta ad Oppau nel 1913, alla vigilia della prima guerra mondiale.

Haber-Bosch_it.svg

Il processo pensato per produrre i concimi per sfamare milioni di terrestri, ebbe la prima applicazione per produrre esplosivi che uccisero milioni di persone. Con una reazione studiata anni prima da Wilhelm Ostwald (1853-1932) era infatti possibile trasformare l’ammoniaca in acido nitrico, la materia necessaria per gli esplosivi che la Germania avrebbe avuto difficoltà a fabbricare per il blocco delle importazioni del nitrato cileno; senza la sintesi dell’ammoniaca ottenuta da Haber la Germania avrebbe potuto resistere in guerra solo pochi mesi.

Clara_Immerwahr

Clara_Immerwahr

Haber spinse il suo patriottismo fino a suggerire l’uso in guerra come gas asfissiante del cloro che fu impiegato per la prima volta contro i soldati francesi il 22 aprile 1915 a Ypres, nel Belgio. Un evento già ricordato in questo blog da Marco Taddia
https://ilblogdellasci.wordpress.com/perle/errori-di-guerra/
La moglie Clara Immerwahr (1870-1915), una chimica anche lei, che Haber aveva sposato nel 1901, cercò di dissuadere il marito dal barbaro impiego digas tossici in battaglia; quando seppe dell’attacco di Ypres si uccise, dieci giorni dopo, il 2 maggio, con un colpo di pistola. L’assegnazione ad Haber del premio Nobel per la chimica nel 1918 suscitò vivaci polemiche.

Finita la “grande” guerra la Germania era sommersa dai debiti per irisarcimenti ai vincitori; ancora una volta Haber, per aiutare il suo paese, pensò di estrarre l’oro dall’acqua di mare che ne contiene 6 milligrammi per ogni mille metri cubi; fu attrezzata una nave-laboratorio ma l’impresa fallì. Intanto Haber era diventato una celebrità internazionale e anche un uomo ricchissimo; grazie al suo processo già nel 1929 il 40 percento dell’azoto industriale usato nel mondo era sotto forma di ammoniaca sintetica.

Tragico destino quello di Haber. Quando Hitler salì al potere nel 1933 decise di sbarazzarsi di “quell’ebreo di Haber”; benché Haber si fosse convertito al cristianesimo e nonostante le pressioni di molti autorevoli colleghi, Hitler fu irremovibile. Haber dovette dare le dimissioni dalle sue cariche e dall’insegnamento e riparò in Inghilterra; nel 1934, già malato, si mise in viaggio verso la Palestina, dove era stato invitato, ma durante il viaggio morì a Basilea, nel gennaio di quell’anno.

Vari parenti di Haber furono assassinati nei campi di concentramento nazisti. Il figlio della prima moglie, Hermann (1902-1946) emigrò negli Stati Uniti dove si uccise, oppresso dal ricordo del contributo del padre all’uso dei gas di guerra. Ludwig (1921-2994), figlio della seconda moglie Charlotte Nathan, anche lei, come Clara, una ebrea convertita al cristianesimo che Haber aveva sposato nel 1919, emigrò negli Stati Uniti dove si occupò di storia della chimica e scrisse un libro intitolato: ”The Poisonous Cloud. Chemical Warfare in the First World War” (1986).librohaber

Haber resta una delle figure rilevanti nella storia della chimica, anche se il suo zelante impegno nella guerra chimica ne ha offuscato la reputazione; un esempio di intreccio perverso fra scienza, successo e politica e di come sia pericoloso per uno studioso fidarsi del potere.

L’odore dei libri

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Gianfranco Scorrano, ex Presidente SCI

Tanti anni fa, poco dopo la fine della seconda guerra mondiale, iniziai la mia vita scolastica apprendendo a leggere: una scoperta fantastica. Mi appassionava leggere il giornale che mio padre di tanto in tanto acquistava ed ero francamente attirato dall’odore acre che la stampa (forse il solvente che serviva a sciogliere l’inchiostro) si portava dietro. In famiglia mi convinsero a studiare, alla fine della quarta elementare, sacrificando le vacanze estive per fare l’esame di ammissione alla scuola media, “saltando” così la quinta elementare. La promessa di ricevere in regalo, in caso di successo, un volume di una enciclopedia (di proprietà della maestra), fu decisiva: purtroppo, però, non fu mantenuta, creando una grossa disillusione nel giovane scolaro.

La passione dei libri mi è comunque rimasta. Però, sviluppando la mia carriera di chimico, ho poi guardato a questa affezione con occhio anche attento non solo a quello che vi è scritto, ma anche come il libro è “fatto”.

Cominciamo dalla carta. Tanto per dare una impressione della complessità della preparazione della carta date un’occhiata allo schema sopra riportato. E guardiamo qualche punto interessante. Dopo lo scortecciamento e il taglio in chips, il legno è sottoposto alla lisciviazione alcalina per sciogliere le parti solubili: grosso modo possiamo calcolare la composizione del legno così: cellulosa 45%, emicellulosa 30%, lignina 20% e estraibili vari: terpeni, resine, acidi grassi (circa 5%).

fig1libri

La cellulosa è il polimero del glucosio:

Lignina   fig2libri                                                                  Cellulosa

fig3libri

L’emicellulosa è anch’esso un polimero ma di zuccheri diversi, inoltre ha una struttura ramificata e non fibrosa. La caratteristica principale delle emicellulose è la loro facile idratabilità, e quindi capacità di sciogliersi in acqua.

La lignina è insolubile in acqua, negli acidi minerali forti, negli idrocarburi; è solubile nelle soluzioni acquose di alcali; quella estratta dal legno si presenta come una polvere, per lo più di color bruno, priva di struttura cristallina.

Ecco quindi che la chimica interviene per recuperare dal legno la cellulosa che serve per fare la carta: la separazione della cellulosa da emi-celllulosa , lignina ed altro avviene per lavaggio con soluzione alcalina acquosa.

Un altro punto cruciale è quello del trattamento chimico superficiale: questo può consistere di molti prodotti per vari scopi. A solo titolo di esempio vi riporto il trattamento, usato per circa 140 anni dal 1850, con rosina o colofonia, essenzialmente costituito da acido abietico, e solfato di alluminio:

rosina o acido abietico fig4libri

L’aggiunta di rosina sulla superficie della carta è necessaria per rendere la carta idrofobica e perciò stampabile con inchiostro che non diffondesse sulla superficie ma che restasse leggibile. Per favorire l’assorbimento della rosina veniva aggiunto come mordente il solfato di alluminio [Al2(SO4)3], efficiente, ma…

Il solfato di alluminio reagisce con acqua secondo la reazione

Al2(SO4)3 + 6H2O –> 2Al(OH)3 + 3H2SO4

producendo così un ambiente acido [una soluzione al 5% di Al2(SO4)3 in acqua ha un pH inferiore a 2,9]. Naturalmente questo significa che la carta trattata con solfato di alluminio pian piano sviluppa, con l’umidità atmosferica, una acidità ben sufficiente ad idrolizzare il legame acetalico del glucosio portando quindi alla distruzione della carta.

[Il solfato di alluminio è anche citato nel libro di Alberto Cavaliere, La Chimica in versi,

L’allume tipico,

quello ordinario,

è assai notevole,

d’un uso vario,

ma più s’adopera

come mordente;

si trova libero

diffusamente.]

Dal 1990 l’uso del solfato di alluminio nella preparazione della carta viene evitato, sostituito da resine sintetiche, ureiche e melamminiche.

Naturalmente anche in tempi moderni la chimica ci è d’aiuto nel considerare quali prodotti di decomposizione si possono formare nel tempo. Per esempio il lavoro di Strlic et al apparso su Anal.Chem., 2009,8617-8622 riporta analisi sugli odori dei libri vecchi. Gli autori hanno adoperato la seguente tecnica. 10 mg di campione (pezzettino di libro) viene posto in una fiala da 20 ml del tipo “spazio di testa” e predegradato ad 80°C per 24 ore. I volatili organici (VOC) sono quindi estratti per 1 ora a temperatura ambiente con fibre per la microestrazione in fase solida. Il campione è quindi analizzato con la tecnica GC/MS. In questo modo gli autori trovano che la rosina produce varie aldeidi, chetoni, nonché 2-etil esanolo; la lignina produce acido acetico, esanale, e furfurale; la cellulosa in particolare furfurale e acido acetico.

640px-Acido_acetico_struttura.svg

acido acetico

200px-Hexanal

esanale

120px-Furfural_structure

furfurale

Tutti questi prodotti derivano dalla degradazione lenta, naturale, del materiale di cui è fatta la carta. Certamente altri composti volatili organici derivano dalle colle (utilizzate per incollare i fogli) e dalla stampa (inchiostri).

Il miscuglio è l’odore dei libri. Ma forse quello che si sente, dopo la lettura, è il sapore di quello che vi è scritto.

Impianti biomedici

Nota: si ricorda che le opinioni espresse in questo blog non sono da ascrivere alla SCI o alla redazione ma al solo autore del testo.

a cura di Luigi Campanella, ex Presidente SCI

Gli impianti biomedici sono sostanze estranee all’interno del corpo umano che devono sopravvivere per lunghi anni in condizioni fisiologiche e meccaniche anche difficili.

biom2Malgrado questa difficoltà gli impianti biomedicali metallici vengono largamente usati per sostituire o ricostruire tessuti duri come le ossa dei denti. Gli impianti metallici sono particolarmente utili nelle applicazioni dove sono imposti carichi elevati in ragione della loro affidabilità meccanica, molto superiore a quello dei materiali polimerici e ceramici concorrenti dei metalli nella realizzazione di impianti biomedicali, tanto che si può affermare che circa l’80% degli impianti biomedicali correnti è realizzato in materiale metallico.

Il modulo di Young è una caratteristica che descrive la risposta di un materiale allo stress ed alla fatica. Quando il metallo di un impianto viene a contatto con tessuti originali del corpo si crea una forte disomogeneità fra materiali vicini per i valori del modulo di Young ed a questa corrisponde una caduta di biocompatibilità.

Stress_Strain_Ductile_MaterialLa ricerca è quindi centrata su nuove leghe che possano presentare valori del modulo di Young molto prossimi a quelli delle ossa. Alcuni acciai inossidabili, e alcune leghe Cu-Cr-Mo, titanio e sue leghe sono i materiali metallici più promettenti da questo punto di vista. In particolare le leghe di titanio, generalmente categorizzate in fase alfa e beta con queste ultime ancora più rispondenti, risultano promettenti con la ricerca centrata sulla individuazione di metalli liganti non tossici e non allergenici al tempo stesso capaci di abbassare il valore del modulo di Young avvicinandolo a quello delle ossa umane. Per la scelta degli alleganti possono essere invocati criteri tecnici e fisiologici (tossicità biocompatibilità). biomateriali1I metalli più idonei su questa doppia base sono niobio .tantalio e zirconio, mentre il nichel che è stato utilizzato per un certo tempo è oggi escluso per motivi collegati alle sue forti capacità allergeniche. Il modulo di Young può poi essere ulteriormente abbassato con opportuna modulazione della direzione di crescita dei cristalli o introducendo un certo grado di porosità.