L’avvertimento arriva da lontano

In evidenza

Mauro Icardi

In questi giorni sto nuovamente riflettendo sulla situazione del ciclo idrico. Rifletto sull’acqua. Condizione non nuova, ma che si lega alle notizie che ci mostrano la fine di una stagione invernale che non ha decisamente più senso definire anomala. Gli inverni, perlomeno nel nordovest in Italia sono più caldi, ma quel che è peggio anche avari di precipitazioni. E questa situazione si ripercuote ovviamente nei problemi ordinari di gestione, sia dal punto di vista della fornitura di acqua destinata ad uso potabile, che per il raggiungimento di limiti maggiormente restrittivi per gli impianti di depurazione.

Prima di proseguire nella mia riflessione, vorrei però ricordare una pubblicità progresso risalente al 1976 che venne pubblicata su quotidiani e periodici in quell’anno.

Credo che questa immagine sia decisamente interessante. Segnala un problema che in quegli anni forse non preoccupava la maggior parte delle persone. Forse i problemi percepiti erano ben altri. Inflazione, terrorismo, disoccupazione. Ma gli anni 70 sono anche quelli in cui il problema ambientale emerge prepotentemente. E il settore idrico non fa eccezione. Come già altre volte ho ricordato, nel 1976 viene promulgata la legge 319/76, ma meglio ricordata come “Legge Merli”. L’Italia compie il primo importante passo per una migliore gestione delle risorse idriche. Ma più specificatamente inizia a dotarsi di una serie di impianti per il trattamento delle proprie acque di rifiuto. Il cammino iniziato 43 anni orsono, non è ancora completato. Si sono fatti molti passi avanti, ma ancora pendono procedure di infrazione per mancata o incompleta depurazione degli scarichi fognari.

La situazione è sinteticamente descritta in questo articolo.

http://www.gruppohera.it/gruppo/com_media/dossier_depurazione/articoli/pagina22.html

Quello che invece mi interessa come tecnico del settore è fare presente come, nelle zone d’Italia più soggette a lunghi periodi di siccità, e scarso innevamento invernale, si stia sempre più verificando un fenomeno che deve essere monitorato. I fenomeni di siccità ravvicinati e frequenti provocano sempre più spesso periodi di asciutta dei corsi d’acqua minori, e forti riduzioni della portata dei fiumi principali, per esempio Ticino e Po.

Questa foto si riferisce alla secca del fiume Lambro nell’Agosto del 2015, e credo che valga molto più di ogni parola. La filosofia progettuale degli impianti di depurazione ha sempre cercato un ragionevole equilibrio tra costi di realizzazione e qualità delle acque in uscita. Queste ultime venivano recapitate in corpi idrici dove avveniva l’ultima parte del processo depurativo. I flussi di portata erano valutati, ma non si ipotizzavano situazioni di asciutta perlomeno per i grandi fiumi. Fino all’inizio del nuovo millennio, dove i sistemi di canalizzazione e trattamento dei reflui erano efficienti e correttamente gestiti, si sono visti notevoli miglioramenti. Si erano faticosamente riequilibrate la condizioni favorevoli per gli ecosistemi fluviali, e per il mantenimento della biodiversità degli stessi. Ora queste situazioni rischiano di essere nuovamente compromesse. E quindi credo sia giunto il momento di capire che l’acqua è ormai già più preziosa della benzina. E non dal punto di vista meramente economico, ma dal punto di vista del suo essere indispensabile per la nostra stessa vita. E quindi lancio un ulteriore appello. Accorato e profondamente sentito. Difendiamo e tuteliamo la risorsa acqua. Ma per fare questo dobbiamo creare sinergie. Università, enti di ricerca, enti di controllo e gestori. E cittadini, non ultimi. Che però non solo debbono essere correttamente informati, ma devono pensare a modificare stili di vita, e abitudini consolidate. Prima che i fiumi muoiano. E prima di dover fare la fila davanti all’autobotte parcheggiata davanti a casa per avere acqua. L’acqua è un diritto universale. Ma è un diritto a cui si arriva con l’impegno. Con le corrette scelte di gestione del territorio e del patrimonio idrico. L’acqua è certamente un diritto universale, ma non garantito. Ricordiamolo ogni volta che apriamo il rubinetto di casa, o pigiamo il pulsante dello scarico del nostro wc.

Per fare qualche riflessione.

http://www.nimbus.it/clima/2019/190301InvernoItalia.htm

https://www.mbnews.it/2016/02/emergenza-siccita-nel-molgora-ce-solo-lacqua-scaricata-dai-depuratori/

https://lecconotizie.com/cronaca/lecco-cronaca/laghi-in-secca-i-geologi-serve-una-gestione-idrica-diversa/

La coperta.

In evidenza

Luigi Campanella, già Presidente SCI

La coperta delle risorse naturali è corta e il benessere dell’umanità è minacciato dal riscaldamento del clima; per fortuna abbiamo già a portata di mano tutti gli strumenti necessari per uno sviluppo sostenibile. Lo annuncia Paul Hawken, padre del “capitalismo naturale”, dalla cui opera è nato il concetto di Green Economy.

Hawken e il suo team di 70 scienziati e economisti hanno compilato un elenco delle cento soluzioni più efficaci per combattere l’effetto serra, dando al tempo stesso una spinta all’economia globale. Da questo studio è nato un libro “Drawdown” (Penguin), che trae il titolo dal momento nella storia in cui la concentrazione di gas a effetto serra in atmosfera comincerà a calate. Un momento che, procedendo nella direzione attuale, potremmo non raggiungere mai.

Dice Hawken :“Nessuno dei modelli stilati finora dalle istituzioni impegnate nella lotta ai cambiamenti climatici o da scienziati indipendenti è in grado di raggiungere quel momento, perché tutti si occupano principalmente di energia. Al massimo, riescono ad ottenere l’inversione del trend delle emissioni, ma non un calo della CO2 già emessa in atmosfera. Partono dal presupposto che arrivando al 100 per cento di produzione energetica da rinnovabili avremo risolto il problema, ma non è vero. Ci sono altri campi oltre all’energia, dal cibo agli edifici, dall’utilizzo del territorio all’istruzione delle donne, che sono altrettanto importanti. Tra le novità più sorprendenti che abbiamo scoperto, dopo aver analizzato tutti i dati e superata la revisione di altri scienziati, c’è l’importanza del ruolo delle donne. Mettendo insieme l’impatto dell’istruzione femminile e quello della pianificazione familiare si scopre che l’educazione delle bambine sta in cima alla lista delle azioni contro i cambiamenti climatici, perché facendola avanzare da qui al 2050 avremmo 1,1 miliardi di persone in meno rispetto al trend attuale, con tutte le conseguenze positive sui minori consumi di risorse. L’eliminazione degli sprechi alimentari e la diffusione di una dieta ricca di proteine vegetali invece che animali (ma non completamente vegetariana) sono altri contributi per salvare il nostro pianeta.

Per ottenere una vera inversione di tendenza lo sguardo va allargato a tutte le attività umane:si pensi che l’allevamento di animali da macello produce globalmente la stessa quantità di emissioni di tutte le centrali elettriche del mondo.

In ogni caso però il primo posto in graduatoria per efficacia, è occupato dalla

-definitiva messa al bando degli idrofluorocarburi dagli impianti di refrigerazione;la sostituzione con altri refrigeranti, in base all’accordo firmato l’anno scorso da oltre 170 Paesi, comincerà quest’anno e proseguirà fino al 2028, ma è essenziale che gli impianti siano svuotati correttamente, perché il 90 per cento delle emissioni avvengono a fine vita.

-la fotosintesi, quindi si tratta di fermare la deforestazione, avviare progetti di massa per ripiantare moltissimi alberi e riconvertire i pascoli con sistemi silvo-pastorali , in cui si alleva il bestiame su terreni alberati, con ottimi risultati sia per gli animali che per l’ambiente. Sono tutte azioni semplici quelle che suggeriamo-conclude Hawken– non c’è bisogno di rompersi la testa per applicarle”.

Commenti alla PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA

In evidenza

15 marzo 2019

Gruppo di scienziati energia per litalia

Commenti alla

PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA 31/12/2018

Introduzione

Nella conferenza COP21 di Parigi (2015) si è unanimemente riconosciuto che il cambiamento climatico è il più preoccupante problema per l’umanità e si è individuato un percorso per fermarlo: la transizione dai combustibili fossili alle energie rinnovabili entro il 2050. Nella COP24 del dicembre scorso a Katowice il segretario dell’ONU Guterres ha dichiarato però che “il mondo è fuori rotta” e gli scienziati dell’IPCC hanno lanciato “un’ultima chiamata” per salvare il pianeta.

Il Piano Nazionale Integrato per l’Energia e il Clima presentato dal Governo deve necessariamente inserirsi in questo quadro. Nel Piano sono presentate molte proposte sulle quali non si può non essere d’accordo, come, la necessità di riorganizzare e potenziare i sistemi di accumulo, l’autoconsumo e la formazione di comunità energetiche. Altri punti pienamente condivisibili sono: l’urgenza di superare le attuali criticità nella distribuzione dell’energia e nell’integrazione del mercato, l’individuazione di meccanismi per risolvere il problema della povertà energetica, la necessità di aumentare i fondi e ridurre la frammentazione nei finanziamenti delle ricerche sull’energia e di promuovere un’azione di informazione e formazione delle persone
Chi si aspettava però un piano capace di riportare l’Italia nella “rotta giusta” e di rispondere “all’ultima chiamata” degli scienziati rimarrà deluso.

Energia primaria e mix energetico

Il Piano prevede una diminuzione del consumo di energia primaria, da 155 Mtep nel 2016 a 135 Mtep nel 2030: si tratta di una diminuzione di poco maggiore (5%) rispetto a quanto accadrebbe senza le misure proposte dal Piano stesso. Il mix energetico al 2030 non cambia molto rispetto a quello del 2016: viene confermata l’uscita dal carbone, ma il petrolio diminuisce solo da 36% al 31%, il gas rimane addirittura invariato al 37% e le rinnovabili aumentano soltanto dal 18% al 28%. Questi dati sono molto deludenti, tanto più che in questo modo al 2030 la quota delle rinnovabili sarebbe ancora minore sia di quella del petrolio che di quella del gas, prese separatamente. Per il mix energetico il Piano si spinge al 2040, prevedendo che la fonte prevalente di energia primaria saranno ancora i combustibili fossili (circa 65%). Questi obiettivi riguardo il mix energetico, del tutto insoddisfacenti, sono la conseguenza inevitabile di un Piano che si preoccupa di facilitare e potenziare, anziché di limitare, l’approvvigionamento e l’utilizzo di gas e petrolio. Evidentemente nella stesura del Piano ci sono state forti pressioni delle lobby che hanno interessi nella ricerca ed estrazione di idrocarburi, nell’importazione di GNL e nella messa in opera di strutture per la sua di distribuzione, e nel completamento della TAP, che pure una delle forze politiche che guida il paese sembrava volesse eliminare. Fa parte di queste pressioni il ricatto “diminuzione oil & gas uguale perdita di posti di lavoro”, anche se tutti gli studi dimostrano che il bilancio fra posti persi e posti creati nella transizione dai combustibili fossili alle energie rinnovabili sarà positivo perché l’intensità di lavoro nelle rinnovabili (industria manifatturiera) è più alto di quello che si ha nell’industria estrattiva [1,2].

Persino nel settore dell’energia elettrica, in cui le rinnovabili sono partite da una posizione molto avvantaggiata grazie all’idroelettrico preesistente, secondo il Piano più di un terzo della produzione elettrica verrà ancora da fonti fossili nel 2030. In questo settore si potrebbe certamente fare di più perché nel 2018 c’è stata una diminuzione del 27% nel costo dei pannelli fotovoltaici. Inoltre, la quantità di celle fabbricabili con un lingotto di silicio puro è destinata ad aumentare ulteriormente grazie al progresso tecnologico e si ritiene che ben prima del 2030 si svilupperanno pannelli con moduli flessibili di uso più generale. Il Piano prevede, e non si può che essere d’accordo, l’individuazione di aree idonee per la realizzazione di nuovi impianti di eolico e fotovoltaico, il repowering e rewamping degli impianti già esistenti, il potenziamento dell’obbligo di quota minima negli edifici nuovi o ristrutturati e snellimento delle pratiche burocratiche. La previsione di raggiungere con le rinnovabili 187 TWh nel 2030 (38.7% della produzione elettrica) è però deludente e notevolmente inferiore alla previsione del Coordinamento FREE (210 TWh) [3].

Per quanto riguarda la riduzione delle emissioni, il Piano si adagia sulle prescrizione della UE (riduzione delle emissioni del 40% al 2030), mentre il Parlamento europeo ha già chiesto che la riduzione sia portata 55%. Anche chi aspettava misure più conseguenti al tanto sbandierato principio “chi inquina paga” sarà deluso. Nel Piano, infatti, non c’è traccia della carbon tax [4], provvedimento molto delicato, ma necessario per la transizione energetica.

Risparmio ed efficienza

In base alle norme europee, nel periodo 2021-2030 siamo tenuti a ridurre il consumo di circa 51 Mtep. Il Piano afferma che si raggiungerà questo obiettivo risparmiando ogni anno lo 0,8% di energia rispetto ai consumi dell’anno precedente. Questo risparmio si otterrà, in gran parte adeguando e potenziando gli strumenti di sostegno già in vigore: (i) il meccanismo dei Certificati Bianchi; (2) le detrazioni fiscali per gli interventi di efficienza energetica e il recupero del patrimonio edilizio esistente; (iii) il Conto Termico; (iv) il Fondo Nazionale per l’Efficienza Energetica. Un forte contributo dovrà poi venire dal settore dei trasporti.

Il Piano prevede grandi risparmi di energia termica derivanti da una forte diffusione delle reti di teleriscaldamento alimentate da centrali termoelettriche a cogenerazione,

biomasse, o termovalorizzazione dei rifiuti (Figura 47), mentre insiste molto meno sulla opportunità di diffondere l’uso di solare termico e di pompe di calore.
La difficoltà di ridurre i consumi energetici aumentando l’efficienza è materia di vasta discussione nella letteratura scientifica [5,6]. Per raggiungere l’obiettivo prefisso sarà necessaria l’attuazione di un serio programma informativo e formativo per i cittadini, molto più incisivo dei tentativi fatti finora. Bisogna partire dal concetto di sufficienza, cioè convincere le persone e, se necessario, obbligarle mediante opportune disposizioni di legge, a ridurre l’uso dei servizi energetici. Per consumare meno, bisogna anzitutto “fare meno”: meno viaggi, minor velocità, meno luce, meno riscaldamento. Se poi tutto quello che si usa dopo aver adottato la strategia della sufficienza è più efficiente, si avrà un risparmio ancora maggiore: è il fare meno (sufficienza) con meno (efficienza).

La recente proposta di aumentare il limite di velocità in autostrada a 150 km/ora e il continuo aumento del numero, delle dimensioni e della potenza delle auto che costituiscono il parco macchine italiano non contribuiscono certamente a ridurre i consumi. Il Piano non affronta questi argomenti.

Trasporti

Nel settore dei trasporti le politiche del Piano sono deludenti. Anzitutto c’è un equivoco, purtroppo molto diffuso, dovuto anche a disposizioni di legge precedenti: si parla di “carburanti alternativi” indicando con questo nome biocarburanti, elettricità da rinnovabili, idrogeno e a volte anche gas naturale, cose che non potrebbero essere più diverse fra loro. Ad esempio (pag. 88) , “Ci si propone di accelerare quanto previsto dal comma 10 del D.Lgs 275/2016…… per la sostituzione del parco autovetture, autobus e mezzi di servizio in modo che le Pubbliche Amministrazioni …. siano obbligate all’acquisto di almeno il 30% entro il 2022, il 50% entro il 2025 e l’85% entro il 2030 di veicoli elettrici e veicoli ibridi con ricarica esterna, a metano e a idrogeno, nonché elettrici o metano nel caso degli autobus”.

Il Piano è chiaramente orientato per continuare con l’uso dei combustibili fossili. Manca qualsiasi accenno a una data indicativa per il phase out dei veicoli a benzina e diesel, fissata per il 2025 in Olanda e per il 2040 in Francia e Regno Unito. Il Piano a parole sostiene la diffusione della mobilità elettrica per persone e merci, ma si propone come obiettivo soltanto 1,6 milioni di auto elettriche “pure” nel 2030, in contrasto con stime molto superiori di altre fonti che si basano anche sulla forte riduzione nel costo delle batterie che avverrà nei prossimi anni. Ma l’energia elettrica che sarà usata nei trasporti nel 2030 sarà ancora prodotta per quasi il 40% usando combustibili fossili, per cui la penetrazioni delle rinnovabili nel settore dei trasporti stradali è affidata prevalentemente ad una selva di norme e agevolazioni per l’uso dei biocarburanti (vide infra).

Il Piano, in accordo con le compagnie petrolifere, incoraggia l’uso del metano non solo per la produzione di elettricità, ma anche come “combustibile ponte” per la mobilità. E’ vero che a parità di energia prodotta, il metano genera il 24% in meno di CO2 rispetto a benzina e gasolio, ma questo non basta per combattere il cambiamento climatico in modo sostanziale. Inoltre, va tenuto presente che Il metano è un gas serra 72 volte più potente di CO2. Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, passando dal carbone e dal petrolio al metano c’è il rischio di peggiorare la situazione riguardo gli effetti sul clima [7]. Anche per quanto riguarda l’inquinamento, gli studi più recenti [8] indicano che il particolato prodotto dalla combustione del metano è, come massa, inferiore a quello prodotto dal gasolio, ma le particelle sono in numero superiore e più piccole, quindi potenzialmente più pericolose per la salute. Pertanto, non ha senso considerare il metano come combustibile “pulito” e come fonte energetica “alternativa” al carbone e al petrolio [9]. Questo importante concetto è ignorato dal Piano che ha per obiettivo nel 2040 una quota del 37% di energia primaria da metano, la stessa del 2016.

Nel Piano non c’è alcuna recriminazione sul fatto che le case automobilistiche italiane continuano a produrre auto a benzina o diesel e si dedicano in particolare alla fabbricazione di auto di lusso e/o di SUV, utilizzando incentivi diretti o indiretti. La FCA ha annunciato che, accanto ai SUV Alfa Romeo e Lancia che già produce, costruirà a Modena, dove gli operai della Maserati sono sotto occupati, una nuova super sportiva ad alta gamma a partire dall’autunno 2020. Ci si dovrebbe interrogare su quale sia il “valore sociale” di questo tipo di “lavoro” e sarebbe anche opportuno chiedersi per quanto tempo potranno andare avanti queste produzioni prima di trovare rifugio, ancora una volta, negli ammortizzatori sociali. Nel frattempo sempre FCA ha annunciato, in grave ritardo rispetto ai concorrenti tedeschi e francesi, la produzione di un veicolo elettrico, la 500, a partire dalla seconda metà del 2020 a Mirafiori, dove nel frattempo verranno messi in cassa integrazione per un anno 3.245 dipendenti, tra operai e dirigenti [10].

Approvvigionamenti di combustibili

l consumo di gas, che era di circa 85 Gm3 all’anno nel periodo 2005-2008, è diminuito negli ultimi anni (75,2 Gm3 nel 2017). Le previsioni SNAM sono per un consumo di 74,3 Gm3 nel 2027 e per una più decisa diminuzione negli anni successivi (70.9 Gm3 nel 2030) [11]. Gli attuali canali di fornitura del metano sono, dunque, più che sufficienti. Nonostante questo, il Piano insiste per la diversificazione degli approvvigionamenti dall’estero di gas e sostiene la necessità di agire su tre fronti: 1) ottimizzare la capacità di importazione e di distribuzione di gas naturale liquefatto (GNL); 2) aprire la TAP entro il 2020 per consentire l’importazione da 8.8 a 18 mld di m3 all’anno; 3) partecipare al progetto EastMed. L’intendimento del Piano, già contenuto nella Strategia Energetica Nazionale del precedente governo, è fare dell’Italia un hub del gas: un report di SNAM chiarisce infatti che importiamo più gas di quello che serve, per poi esportarne circa l’8% a paesi del Nord Europa.

Per quanto riguarda il GNL, il Piano parte dalla considerazione che sono già su strada più di 2000 veicoli pesanti che usano questo combustibile. Prevedendo una forte crescita nel numero di questi veicoli, il Piano sostiene la necessità di sviluppare una rete di distribuzione GNL lungo i 3000 km di autostrade, mentre dovrebbe incoraggiare con iniziative concrete il passaggio del trasporto merci dalla strada alla rotaia o alle vie marittime, che pure a parole dice di voler sostenere coniando due nuovi tipi di incentivi, Ferrobonus e Marebonus.

C’è il rischio reale di costruire infrastrutture per il gas che rimarranno inutilizzate o sotto utilizzate, con spreco di denaro pubblico. Poi, al solito, ci saranno forti pressioni perché “ormai ci sono e quindi vanno utilizzate”, come accade per le centrali termoelettriche a carbone, la cui chiusura è condizionata alla concessione di compensazioni per il mancato uso, e le centrali a turbogas che vanno remunerate anche se funzionano solo parzialmente, perché troppo numerose. Poiché in futuro per vari motivi si produrrà e si userà sempre più energia elettrica, sarebbe meglio investire ancor di più di quanto previsti nel Piano in sistemi di accumulo dell’elettricità, piuttosto che in impianti di stoccaggio geologico del gas di importazione, con tutte le problematiche di sicurezza che ne derivano (vedi deposito di Minerbio).

Più in generale, le compagnie petrolifere, non avendo interesse nel carbone, sono d’accordo per la progressiva sostituzione delle centrali termoelettriche a carbone con centrali turbogas a metano, vedendo in questa trasformazione non solo un interesse economico, ma anche il modo di ridurre le preoccupazioni dell’opinione pubblica. Le compagnie petrolifere hanno anche capito che l’uso del gasolio per i trasporti non sarà difendibile a lungo dopo il diesel gate e le notizie sul più recente accordo delle industrie automobilistica tedesca di rallentare, per contenere i costi, lo sviluppo di tecnologie in grado di ridurre le emissioni dei motori a benzina e a gasolio [12]. Ufficialmente le compagnie petrolifere sostengono che è necessario usare il gas come energia ponte in attesa che le rinnovabili siano “mature”, ma in realtà, come è emerso alla World Gas Conference (Washington, 29 giugno 2018), pensano al gas come il combustibile “pulito” del futuro. Quindi c’è una forte spinta anche nel settore dei trasporti per passare al gas, spacciandolo per fonte alternativa al pari dell’energia elettrica. Ma è provato che, se anche l’energia elettrica fosse tutta ottenuta dal gas, sarebbe ugualmente più conveniente perché i motori elettrici sono 3-4 volte più efficienti di quelli a combustione [9].

Biocarburanti

Quello sui biocarburanti è un discorso molto delicato perché tocca grandi interessi economici e molti incentivi, ma è necessario fare chiarezza anche su questo argomento. Come già fece la Strategia Energetica Nazionale del precedente governo, l’attuale Piano incoraggia l’uso di biocarburanti al fine di rimpiazzare i combustibili fossili con fonti rinnovabili. A questa presa di posizione non è certamente estraneo il fatto che ENI ha puntato sulle bioraffinerie, abbondantemente pubblicizzate sulle pagine dei quotidiani fino ad affermare che “in Italia il carburante si otterrà anche dalle bucce di mele” [13].

In linea generale, può essere utile ottenere biocarburanti da prodotti di scarto, ma va anche detto che i prodotti di scarto sono in piccola quantità rispetto al consumo di carburanti. Ecco allora che il biometano di cui parla il Piano non sarà ottenuto solo da scarti e rifiuti, ma dallo “sviluppo di una filiera agricolo/industriale per la produzione di biometano sia da matrice agricola, sia da rifiuti” come chiarisce SNAM [11]. Bisogna rendersi conto che la produzione di biometano o biocarburanti liquidi di prima generazione da prodotti agricoli dedicati non è una soluzione per la mobilità sostenibile. D’altra parte, i biocarburanti di seconda generazione, che sfruttano una frazione maggiore della biomassa non sono affatto in uno stato avanzato.

L’Unione Europea, nel tentativo di abbattere la produzione di CO2, ha concesso agli Stati membri di fornire sussidi per la produzione di biodiesel da miscelare al gasolio di origine fossile. In Italia il biodiesel viene prodotto da ENI in massima parte con olio di palma proveniente da Paesi equatoriali. E’ noto [14] che il biodiesel prodotto in questo modo genera quantità di CO2 maggiori del gasolio fossile perché per creare piantagioni di olio di palma vengono abbattute foreste tropicali che hanno un’azione positiva sul clima. Per rimediare a questo errore, che gli scienziati avevano segnalato da tempo, il Parlamento Europeo, nel gennaio 2018 ha votato per escludere entro il 2020 l’olio di palma dai sussidi per il biodiesel. Il provvedimento però non è stato ancora approvato dalla Commissione Europea. Nel frattempo, la Norvegia è stata presentata una petizione per chiedere all’Esecutivo comunitario di rispettare gli impegni presi con il Parlamento UE per far cessare subito i sussidi e anticipare entro il 2025 la messa al bando dell’olio di palma nei biocarburanti prevista al momento per il 2030. E’ il solito ricatto: ormai le bioraffinerie ci sono e bisogna usarle, altrimenti si perdono posti di lavoro.
Su un piano più generale, per rappresentare un’alternativa credibile ai combustibili fossili i biocarburanti devono (a) fornire un guadagno energetico (EROEI>1), (b) offrire benefici dal punto di vista ambientale, (c) essere economicamente sostenibili e (d) non competere con la produzione di cibo. Molto spesso queste condizioni, in particolare la prima e l’ultima, non sono verificate.
I biocarburanti non possono giocare un ruolo importante nelle transizione energetica semplicemente perché l’efficienza della fotosintesi naturale è molto bassa (0,1-0,2%) e la ricerca scientifica mostra che non è possibile aumentarla in modo significativo. E’ evidente che il trasporto (a volte su lunghe distanze) e il processo di raffinazione delle biomasse contribuiscono ad abbassare ulteriormente l’EROEI dei biocarburanti, ma dati attendibili su questo parametro non vengono mai forniti dai produttori. Ma gli scienziati sanno che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è più di 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocarburanti [15]. Questo spiega perché gli esperti, al contrario di quanto si propone il Piano, non prevedono una sostituzione significativa dei  combustibili fossili con biocarburanti, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici, oltre a non produrre CO2, non inquinano, sono quattro volte più efficienti dei motori a combustione interna, sono molto più facili da riparare e meno costosi da mantenere. Un ultimo grande vantaggio dell’alimentazione elettrica è che l’energia si può ottenere senza occupare suolo agricolo, ma collocando i pannelli fotovoltaici sui tetti e su altre aree inidonee alla agricoltura.

La non sostenibilità dei biocarburanti in Italia balza all’occhio anche dai dati riportati nel Piano (Figure 14 e 15): il 50% della produzione delle 997 mila tonnellate di materie prime consumate nel 2017 veniva dall’Indonesia, il 38% da altri paesi e solo il 12% dall’Italia; la materia prima è era costituita in gran parte da olii vegetali (in particolare, olio di palma), con un 5% di colture dedicate (grano, mais, soia), che probabilmente erano il principale contributo italiano.

Sicurezza e energetica

Il Piano prevede (pag. 191) che la dipendenza energetica, essenzialmente dovuta all’importazioni di petrolio e metano, diminuisca dal 77,5% nel 2016 al 72,7% nel 2025, al 71,2% nel 2030 e al 67,2 neo 2040. Con una diminuzione così lenta, non si capisce come faremo ad eliminare i combustibili fossili entro il 2050.

Il Piano si prefigge di assicurare la sicurezza energetica aumentando e differenziando le connessioni internazionali sia per la rete gas che per quella elettrica e con la formazione di scorte di sicurezza per il petrolio. Come già sottolineato, c’è il rischio concreto di costruire infrastrutture, specie nella visione di fare dell’Italia un hub del gas, che rimarranno inutilizzate o sotto utilizzate. La vera sicurezza energetica, quella che potrebbero fornirci le energie rinnovabili, non viene perseguita.

Ricerca, innovazione, formazione, cultura

Per quanto riguarda la ricerca, il Piano lamenta giustamente la scarsa disponibilità di fondi, la frammentazione dei finanziamenti e la carenza di coordinamento. Andrebbe sottolineata anche la necessità che la politica si giovi della disponibilità e dell’esperienza degli scienziati, cosa che negli ultimi anni non è avvenuta.

Per quanto riguarda i fondi per l’innovazione, nel Piano viene giustamente sottolineato che l’innovazione nel settore della sostenibilità ecologica ed energetica deve avere priorità, discorso che può sembrare ovvio, ma che ovvio non è poiché si premia ancora l’innovazione nelle ricerche petrolifere e nell’energia nucleare. Anche se il futuro è già presente, il passato non vuole passare.

il Piano si propone anche di rivedere il sistema degli incentivi e a questo proposito riporta che da una recente indagine del Ministero dell’Ambiente sono state individuate 57 misure che hanno un impatto in campo energetico per un totale di 30,6 mld€ nel 2017; di questi, 16,9 mld€ sono costituiti da sovvenzioni ai combustibili fossili (altro che“carbon tax”!), mentre i sussidi a fonti con impatto ambientale favorevole ammontano a 13,7 miliardi. Dunque, l’uso dei i combustibili fossili, responsabili per il cambiamento climatico e i danni alla salute dell’uomo, è ancora oggi incentivato più delle energie rinnovabili, che ci salveranno da queste sciagure.

Conclusione

In base agli accordi di Parigi e al successivo riesame della situazione presentato a Katowice si devono ridurre le emissioni di CO2 del 45% entro il 2030 e a zero al 2050. Il primo obiettivo che ogni Paese dovrebbe proporsi oggi è quindi una rapida transizione energetica. Non sembra che il Piano proposto dal Governo sia molto efficace per svolgere questo compito, poiché non prevede e tanto meno propone una forte riduzione dell’uso dei combustibili fossili e una forte espansione delle rinnovabili. Non accenna neppure alla necessità di facilitare, con opportune strutture stradali, la mobilità ciclistica, che ha anche un forte potenziale turistico.

Nel Piano c’è un ossequioso rispetto per gli obiettivi che l’Unione Europea si è data per il 2030, ma non ci sono idee originali e tanto meno proposte concrete per andare oltre quegli obiettivi, come converrebbe ad un Paese come l’Italia che ha abbondanti energie rinnovabili, una affermata industria manifatturiera, scarsissimi combustibili fossili, forte dipendenza energetica dall’estero e che è molto colpita nella sua vocazione turistica e culturale dai cambiamenti climatici e dall’inquinamento. Bisognerebbe finalmente capire che per avere energia abbiamo “bruciato” più di quello che si poteva “bruciare”, che l’agricoltura deve essere utilizzata solo per l’alimentazione e che il futuro è nell’energia elettrica rinnovabile.

Quello proposto dal Governo è un Piano che sembra non rendersi conto che la transizione energetica dai combustibili fossili alle energie rinnovabili è non solo necessaria, ma inevitabile e che assecondarla e anticiparla è una grande opportunità di crescita economica e riduzione dei costi causati dagli impatti ambientali e climatici. Compito del Piano dovrebbe essere anche quello gettare le basi per il passaggio dal consumismo e dall’usa e getta dell’economia lineare ad una economia circolare caratterizzata dalla sobrietà. L’Italia, che per decenni ha caricato pesanti debiti sulle spalle delle future generazioni, può e deve trovare nella transizione energetica l’occasione per un netto cambiamento di rotta che le permetterebbe anche di assumere un ruolo di guida all’interno della Unione Europea.

[1] http://www.irena.org/publications/2018/Apr/Global-Energy-Transition-A-Roadmap- to-2050
[2] M.Z. Jacobson, et al., Joule, 2017, 1, 108-21. http://dx.doi.org/10.1016/j.joule.2017.07.005

[3] https://energiaoltre.it/wp-content/…/11/Position-paper-Coordinamento-FREE-2.pdf [4] https://www.rivistamicron.it/corsivo/la- -e-possibile-a-patto-che/
[5] http://www.eueduk.com/bedazzled-energy-efficiency/

carbon-

tax

8

[6] E. Shove, BuildingResearch&Information, 2018, 46(7), 779.
[7] priceofoil.org/2017/11/09/burning-the-gas-bridge-fuel-myth/
[8] T. Wang et al., Environ. Sci. Technol., 2017, 51, 6990.
[9] https://www.transportenvironment.org/sites/te/files/2018_10_TE_GNC_e_GNL_per_au to_e_navi_ITA.pdf
[10] http://www.hdmotori.it/2018/12/04/fiat-500-elettrica-mirafiori-cassa-prezzi-uscita/
[11] pianodecennale.snamretegas.it/includes/doc/2/2019012208362018- decennale_web.pdf.
[12] https://www.repubblica.it/economia/rubriche/eurobarometro/2018/09/29/news/auto _diesel-207618352/?ref=search.
[13] Si veda, ad esempio, Corriere della Sera, 5 gennaio 2018.
[14] https://www.transportenvironment.org/news/biodiesel-increasing-eu-transport- emissions-4-instead-cutting-co2.
[15] E. Williams et al., Environ. Sci. Technol., 2015, 49, 6394

ENERGIA PER L’ITALIA (http://www.energiaperlitalia.it/energia-per-litalia/) è un gruppo di docenti e ricercatori di Università e Centri di ricerca di Bologna, coordinato dal prof. Vincenzo Balzani (vincenzo.balzani@unibo.it ; tel: 335 264411)

Energia per l’Italia

Vincenzo Balzani (coordinatore), Dipartimento di Chimica “G. Ciamician”, Università Nicola Armaroli, ISOF-CNR

Alberto Bellini, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Giacomo Bergamini, Dipartimento di Chimica “G. Ciamician”, Università Enrico Bonatti, Columbia University, Lamont Earth Observatory, ISMAR-CNR

Alessandra Bonoli, Dipartimento di Ingegneria Civile, Chimica, dell’Ambiente e dei Materiali, Università

Carlo Cacciamani, Dipartimento della Protezione Civile Nazionale Romano Camassi, INGV

Sergio Castellari, INGV

Daniela Cavalcoli, Dipartimento di Fisica ed Astronomia, Università

Marco Cervino, ISAC-CNR

Maria Cristina Facchini, ISAC-CNR

Sandro Fuzzi, ISAC-CNR

Luigi Guerra, Dipartimento di Scienze dell’Educazione «Giovanni Maria Bertin», Università

Giulio Marchesini Reggiani, Dipartimento di Scienze Mediche e Chirurgiche, Università Vittorio Marletto, Servizio IdroMeteoClima, ARPA

Enrico Sangiorgi, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Leonardo Setti, Dipartimento di Chimica Industriale, Università
Micol Todesco, INGV
Margherita Venturi, Dipartimento di Chimica “G. Ciamician”, Università Stefano Zamagni, Scuola di Economia, Management e Statistica, Università Gabriele Zanini, ENEA-Divisione MET

Sicurezza del lavoro all’Università e nella Scuola.

In evidenza

Claudio Della Volpe

Da quasi 5 anni mi occupo di sicurezza sul lavoro nella mia università; la cosa andò così. Sono sempre stato iscritto ad un sindacato (non vi dico quale, potreste immaginarlo; anche se devo dire che i sindacati non si muovono molto per i docenti universitari, siamo considerati tutto sommato dei privilegiati).

Ad un certo punto il mio sindacato mi contatta e mi chiede di presentarmi come Rappresentante dei lavoratori per la sicurezza. 5 anni fa la cosa non mi impressionò particolarmente; all’epoca vedevo le pur rare richieste da parte dell’ufficio della Sicurezza Prevenzione e Protezione come delle richieste a volte eccessive e comunque molto burocratiche.

Il Rappresentante dei Lavoratori è previsto dalla Legge 81/08 ed è una figura che serve ai lavoratori di qualunque tipo e attività a monitorare, senza obblighi, ma a monitorare cosa succede nel proprio ambiente di lavoro ed eventualmente a fare presenti problemi alla controparte, ossia al Datore di lavoro, oppure nel caso estremo agli organismi esterni di controllo: ispettorati del Lavoro, UO delle ASL e Magistratura del Lavoro.

Attenzione non è che non fossi attento alla sicurezza nel mio laboratorio e nemmeno che fossi contrario, ma mi sentivo sicuro delle mie procedure e dunque poco propenso a perdere altro tempo.

Beh devo dire che questa esperienza mi ha cambiato la vita e mi è servita a rendermi conto che mi sbagliavo.

Prima di 5 anni fa non avevo mai letto la legge 81/08; voi sapete cosa è?

E’ la legge che regola nel nostro paese le questioni relative alla sicurezza sul lavoro. Ha sostituito la precedente 626 che già fu una vera rivoluzione.

Secondo una stima del 2017 della Agenzia per la Salute e la sicurezza sul lavoro europea il costo degli incidenti e delle malattie sul lavoro nell’Europa a 27 è poco meno di 500 miliardi di euro, ossia dell’ordine di 1000 euro a testa all’anno.

(https://osha.europa.eu/en/about-eu-osha/press-room/eu-osha-presents-new-figures-costs-poor-workplace-safety-and-health-world)

che corrispondono a più del 3% del PIL.

Sempre in Europa si stima che il numero di morti sul lavoro (eccettuati quelli avvenuti in itinere, ossia per incidenti stradali legati al lavoro e che sono una percentuale elevata del totale almeno in Italia) sia dovuto come segue:

https://visualisation.osha.europa.eu/osh-costs#!/

In Europa metà di tutti i morti sul lavoro sono legati ad un tumore preso sul posto di lavoro, un quarto a malattie circolatorie ed un altro quarto scarso a malattie muscolo scheletriche anche su base autoimmune e solo il 2% ad incidenti veri e proprii.

Questi dati sono importanti perchè poi quelli che compaiono sui giornali sono solo quel 2%; dunque un enorme numero di morti (ed incidenti e malattie) che hanno a che fare col lavoro non le vediamo quotidianamente.

In quel 2% però non ci sono tutti i morti per incidenti violenti; una parte è mascherata da incidenti stradali per andare al lavoro o tornare a casa.

Infine tenete presente che il numero di morti per cause di lavoro nel mondo è dominato da quelli dovuti alle malattie cardiocircolatorie; in Europa invece il numero dominante è quello dei tumori.

Diciamo subito una cosa; queste statistiche non sono articolate a livello di singolo paese per quanto riguarda le cause di morte; dunque non sono in grado di dirvi se quel 2% vale anche in Italia; supponiamo per un istante che sia vero.

Allora se fosse così in quel 2% ci sarebbero i circa 1000 morti all’anno per motivi di lavoro per INCIDENTE. Se moltiplichiamo il valore per 50 per avere il totale avremmo una stima (ripeto non ho i dati specifici per l’Italia) di quasi 50.000 morti all’anno per motivi legati al lavoro: sarebbero l’8% di tutti i morti di un anno.

Siete sbalorditi? Beh è normale quasi nessuno ci pensa o semplicemente lo sa.

Ma è solo una stima, probabilmente sono di meno. Probabilmente la distribuzione percentuale per l’Italia è diversa, probabilmente le statistiche europee sulla mortalità sono fatte diversamente dalle nostre.

Potete anche criticarmi perchè parto con queste ipotesi di calcolo tutto sommato molto approssimate; ma sono giustificato; in realtà c’è una notevole confusione statistica. Noi chimici ed in genere scienziati della Natura siamo abituati a valori esatti, deviazioni standard valutate con notevole precisione.

Invece in un settore come quello dela sicurezza sul lavoro non potete immaginare quante approssimazioni e mancanze ci siano; a partire dal fatto che i valori ufficiali INAIL riguardano solo gli assicurati INAIL e non tutti i lavoratori lo sono; per legge. A partire dal fatto che i dati non sono aggiornati in tempo reale e vengono cambiati spesso DOPO l’anno considerato; questo perchè le stime sono soggette a conclusioni giuridiche che arrivano in ritardo sui fatti nudi e crudi.

Ecco perchè sono nati molti gruppi di lavoro, siti internet dedicati a questo tema che cercano di denunciare tutti i casi che vengono alla luce, per esempio l’Osservatorio Indipendente di Bologna gestito da un pensionato, Carlo Soricelli.

http://cadutisullavoro.blogspot.com/

Ma torniamo alla questione che da il titolo al post.

L’università.

Bene allora diciamo subito che a norma della legge 81 art 2 comma a è un lavoratore fra l’altro: l’allievo degli istituti di istruzione ed universitari e il partecipante ai corsi di formazione professionale nei quali si faccia uso di laboratori, attrezzature di lavoro in genere, agenti chimici, fisici e biologici, ivi comprese le apparecchiature fornite di videoterminali limitatamente ai periodi in cui l’allievo sia effettivamente applicato alla strumentazioni o ai laboratori in questione;

Questo comporta da parte del Datore di lavoro una serie di obblighi a partire da una formazione generale e specifica della durata di 12 ore almeno.

Questa formazione deve esere somministrata PRIMA dell’accesso ai laboratori o dell’uso delle apparecchiature.

Da voi si fa? Nella mia Università noi RLS ossia rappresentanti dei lavoratori (siamo 6 al momento di cui solo io docente) siamo riusciti a spingere l’Università a iniziare questo percorso. I corsi devono essere somministrati da personale qualificato in classi di non più di 35 persone e seguiti da un test di verifica.

L’Università, come molte altre istituzioni statali (ospedali, forze armate, scuole in genere, carceri, etc ) è prevista esplicitamente nella 81/08 ma vi si dice anche che saranno emanate norme specifiche a causa delle condizioni particolari di svolgimento del lavoro; in realtà a parte un caso (quello dei volontari) tali norme non sono state emanate, lasciando la situazione in colpevole assenza e costringendo molte istituzioni ad arrangiarsi. Si dice che in Italia ci siano troppe leggi; beh qua invece mancano.

Per le Università inoltre esiste una legge specifica, il decreto ministeriale 363/98, che non è mai stata abrogata ma nemmeno aggiornata e dunque rimane valida con ulteriore problema.

Il Datore di Lavoro dell’Università è il Rettore a meno che non abbia delegato ad altri, per esempio ai Direttori di Dipartimento, delega che prevede prima di tutto la possibilità di spendere, di avere autonomia di spesa sul tema. Dunque in genere il Rettore è il responsabile di ultima istanza se si verificano problemi; e sicuramente lo è per la mancata formazione degli studenti ma anche del personale, compresi noi stessi, che pure possiamo essere considerati preposti degli studenti e dei tecnici. Nelle scuole il Datore di Lavoro è il Dirigente scolastico.

Il tema è complesso ma assolutamente urgente; non conosco casi specifici di altre Università a parte il famoso “caso Catania”, che ha avuto l’onore di un film (Col fiato sospeso), e che per quanto mi consta è la punta dell’iceberg. Conoscendo le condizioni di lavoro dellla mia Università so che ci sono molti punti da migliorare o perfino da iniziare ad affrontare: locali interrati non derogati (quanti laboratori sono interrati senza motivi tecnici e opportune metodiche di gestione?), misure antincendio non attuate (le Università sono luoghi a rischio incendio alto a causa del numero dei frequentanti), documenti di valutazione del rischio non realistici o veritieri, e potrei continuare a lungo.

Non aspettiamo un secondo caso Catania, non potremmo sopportarlo di fronte ad una opinione pubblica molto critica con l’università; facciamoci parte dirigente in un processo di aggiornamento e di attuazione delle norme di sicurezza in tutte le Università a partire dai nostri laboratori.

Concludo dicendo che molte scuole tecniche su questo sono anni luce avanti.

Elementi della tavola periodica. Zinco, Zn.

In evidenza

Rinaldo Cervellati

Lo Zinco (Zn) è l’elemento n. 30 della Tavola Periodica, il ventitreesimo elemento più abbondante nella crosta terrestre. L’origine del suo nome è oscura ma è certo che era riconosciuto come metallo a se stante centinaia di secoli a. C., e i suoi minerali erano usati per la fabbricazione dell’ottone. Nel libro della Genesi viene menzionato Tubal-cain, discendente di settima generazione da Adamo, come dotato di una reale maestria nella lavorazione dei metalli [1]. T.C. Mitchell [2] sostiene che egli scoprì la possibilità di fucinatura a freddo e di bombatura del ferro meteorico. Tubal-cain è stato descritto anche come il primo chimico [3]. Un fatto certo è che una lega contenente l’87% di zinco è stata trovata in rovine preistoriche in Transilvania e che zinco metallico è stato prodotto nel 13° secolo a.C. in India riducendo il minerale calamina (figura 1) con sostanze organiche come la lana [1].

Figura 1               Calamina                                           zinco metallo in lastra

Il metallo fu riscoperto in Europa da Andreas Sigismund Marggraf[1] nel 1746, riducendo il minerale calamina (un miscuglio di silicato idrato di zinco e carbonato di zinco) con carbone.

Oltre alla calamina, principali minerali dello zinco sono sfalerite o blenda (solfuro di zinco e ferro), smithsonite (carbonato) e franklinite (ossido misto di ferro, zinco e manganese). In seguito a processi geologici e chimici, lo zinco si è concentrato a livelli particolarmente elevati in certi luoghi del pianeta piuttosto che in altri. Il minerale può essere estratto da queste zone quando la concentrazione di zinco supera il 5%. Le aree più ricche di zinco si trovano principalmente in Nord e Sud America, Australia, Asia e, in misura minore, in Europa.

Le risorse minerarie sono stimate a circa 220 milioni di tonnellate di riserve di zinco attualmente sfruttabili. Il consumo mondiale annuo di zinco è attualmente di circa 9,7 milioni di tonnellate. Poiché il riciclaggio rappresenta circa il 39% del consumo di zinco, le riserve si esaurirebbero a un tasso annuo di 5,9 milioni di tonnellate. L’aumento del riciclaggio compenserà la crescita futura dei consumi. Sulla base del consumo costante e senza ipotizzare futuri successi esplorativi, le riserve di zinco sfruttabili dureranno per un periodo di circa 55 anni. Tuttavia, se si aggiungono le riserve di minerale potenzialmente disponibili in futuro, le risorse totali sono stimate in 1.900 milioni di tonnellate, un valore che soddisferebbe il fabbisogno di zinco per diversi secoli all’attuale tasso di estrazione annuale [4,5].

Lo zinco può essere ottenuto mediante arrostimento dei suoi minerali con formazioni di ossido e successiva riduzione dell’ossido di zinco con carbone (ZnO + C → Zn + CO), seguita da distillazione del metallo alla temperatura di 750 °C. Un altro metodo di estrazione è quello per via elettrolitica. Dopo aver ottenuto l’ossido dal minerale, è trattato con acido solforico e la soluzione risultante è inviata a una cella elettrolitica con anodo costituito da una lastra di piombo e catodo da una lastra di zinco puro, la reazione complessiva è:

ZnSO4 + H2O → Zn + H2SO4 + 1/2O2

Si ottengono così catodi di zinco puro.

Lo zinco è al quarto posto fra i metalli più utilizzati al mondo, preceduto nell’ordine da ferro, allumino e rame. La quantità di energia necessaria per produrre zinco dai suoi minerali è bassa rispetto all’energia necessaria per produrre altri metalli non ferrosi (alluminio, rame) utilizzati in edilizia, come mostra il seguente grafico, tratto da [4]:

Ancor meno energia è necessaria per produrre zinco per riciclaggio.

Lo zinco presente in natura contiene cinque isotopi stabili.

Lo zinco è un metallo bianco-azzurrognolo, brillante che esposto all’atmosfera si ricopre più o meno lentamente di una patina bianca. È questa patina che conferisce allo zinco la sua lunga durabilità. La superficie di zinco metallico reagisce infatti con l’ossigeno atmosferico (O2) in presenza di acqua (H2O) per formare idrossido di zinco (Zn(OH)2). L’idrossido di zinco reagisce con il biossido di carbonio atmosferico (CO2) per formare idrossicarbonato di zinco (2ZnCO3.3Zn(OH)2) che è il componente principale della patina (figura 2).

Figura 2 Formazione della patina protettiva, tratta da [4]

Lo zinco è fragile a temperature ordinarie ma malleabile a 100-150°C. È un buon conduttore di elettricità e brucia in aria al calor rosso con sviluppo di nuvole bianche dell’ossido.

Lo zinco metallico ha moltissimi impieghi industriali, dalla galvanizzazione di metalli per prevenirne l’ossidazione (grondaie), alle zamak (leghe a base di Zinco, Alluminio, Magnesio, Antimonio e Rame) usate nella produzione di parti di autoveicoli, pannelli solari, elettrodomestici, giocattoli, bottoni e cerniere. Alcune grondaie in lega di zinco possono durare fino a 100 anni perché la patina è insolubile in acqua, impedendo ogni ulteriore reazione con ossigeno e CO2[2]. Cilindretti di zinco sono usati come contenitore (e polo negativo) nelle pile Leclanché (zinco-carbone). Lo zinco è anche usato in lega per la fabbricazione di oggetti di oreficeria e argenteria. Leghe molto importanti sono l’ottone (Zn-Cu), il bronzo commerciale (Cu 90%, Zn 10%), l’alpaca o argento tedesco (Zn-Cu-Ni), e la lega con alluminio < 5% da fonderia. Grandi quantità di zinco servono a produrre pressofusi, ampiamente utilizzati dalle industrie automobilistica, elettrica e informatica. I composti organometallici dello zinco sono usati nella sintesi di numerose sostanze organiche.

Una lega denominata Prestal®, costituita da zinco al 78% e il 22% di alluminio è quasi forte come l’acciaio, ma è facile da modellare quanto la plastica (superplasticità). Il Prestal® è così plastico da poter essere modellato in forma di pressofusi relativamente poco costosi.

Secondo una statistica del 2016 (US Geological Survey), i dieci Paesi con la produzione maggiore di zinco sono stati: Cina (4.5 milioni tonnellate), Perù (1.3), Australia (0.85), USA (0.78), Messico (0.71), India (0.65), Bolivia (0.46), Kazakistan (0.44), Canada (0.31) e Svezia (0.25).

La Cina è dunque il più grande paese produttore a livello mondiale e un importante consumatore del metallo. I consumi cinesi sono stati la causa principale della rapida crescita dei prezzi.

Lo zinco è potenzialmente riciclabile al 100%. Una stima afferma che il 60% dello zinco disponibile a fine vita è recuperata ed effettivamente riciclata [4,6]. In Europa, il 95% del laminato di zinco usato è riciclato. Il successo del riciclaggio dello zinco laminato è dovuto a un mercato molto ben organizzato (figura 3):

Figura 3 Riciclaggio dello zinco, tratta da [4]

Lavorati contenenti zinco come ferro o acciaio zincato possono diventare una fonte di materiali per il riciclaggio alla fine delle loro vite utili (“vecchi rottami”). Questi materiali sono raccolti e processati in base alla loro composizione (quantità dello zinco e degli altri metalli nella lega) e facilità di elaborazione. Inoltre, a causa di potenziali perdite durante la fabbricazione e la lavorazione (ad esempio, scorie, residui, scarti, ecc.), una certa quantità di zinco diventa disponibile per il riciclaggio già durante la fase di lavorazione stessa (“nuovo rottame”).

Secondo la composizione del rottame, il riciclaggio può avvenire per ri-fusione o rimandato direttamente al processo di raffinazione [6].

Lo zinco ha un solo numero di ossidazione, 2+, quindi il suo ossido è ZnO. Di questo importantissimo composto abbiamo parlato in un precedente post

(https://ilblogdellasci.wordpress.com/2016/02/29/zinco-e-ossido-di-zinco-una-riscoperta/)

che contiene anche una satirica clip tratta dal film Ridere per ridere di John Landis (1977). Vale comunque la pena ricordare che l’ossido di zinco contenuto nelle preparazioni farmaceutiche, igieniche e cosmetiche non può essere riciclato.

Lo zinco è un elemento fondamentale per la vita animale (esseri umani compresi) e vegetale.

Esiste un intervallo di concentrazione di zinco ottimale per ciascun organismo vivente. All’interno di questo intervallo gli organismi viventi possono regolare la loro concentrazione interna per soddisfare i requisiti metabolici (figura 4).

Figura 4 Salute e apporto di zinco,tratta da [4]

Lo zinco è un importante oligoelemento per gli esseri umani in quanto occupa il 3° posto, dopo il magnesio e il ferro. È essenziale per la crescita, lo sviluppo del cervello, la protezione della pelle, il corretto funzionamento del sistema immunitario, la digestione, la riproduzione, il gusto, l’olfatto e molti altri processi fisiologici. Il corpo umano non è in grado di sintetizzare lo zinco di cui ha bisogno, deve quindi introdurlo con l’alimentazione. Cereali, legumi, frutta secca, uova, latticini e carni rosse sono alcuni dei cibi più ricchi in zinco.

L’Organizzazione mondiale della sanità (OMS) raccomanda un apporto giornaliero di 10 mg/giorno per i bambini, 12 mg/giorno per le donne e 15 mg/giorno per gli uomini. Alcuni gruppi di popolazione hanno un fabbisogno di zinco più elevato e pertanto sono più a rischio di carenza di zinco: bambini e adolescenti, donne incinte, sportivi, anziani, ecc. Se queste condizioni ottimali non sono soddisfatte e vi è un deficit può verificarsi una carenza.

I sintomi legati a una carenza di zinco sono: riduzione dei sensi di gusto e olfatto, problemi della pelle, letargia mentale e riduzione della fertilità.

La varietà nella dieta di una persona dipende principalmente da fattori culturali e socio-economici. Poiché la quantità di zinco varia secondo il tipo di alimentazione, su scala globale molti adulti e bambini ne assumono troppo poco. Nei paesi in via di sviluppo, la carenza di zinco è al quinto posto tra i primi 10 fattori di rischio per la salute umana; l’OMS ha stimato circa 800.000 morti l’anno per carenza di zinco [4].

A differenza degli esseri umani gli ecosistemi sono raramente soggetti a una mancanza di zinco, ma possono essere sottoposti a un eccesso.

Come mostrato in figura 5 lo zinco è naturalmente presente nell’ambiente: rocce, suolo, acqua e aria hanno sempre contenuto naturalmente concentrazioni variabili di esso.

Figura 5 Intervalli conc. Zn in diversi ecosistemi, tratta da [4]

Nel corso della loro evoluzione, tutti gli organismi viventi hanno utilizzato lo zinco disponibile nel loro ambiente per specifiche funzioni del loro metabolismo, adattandosi alla concentrazione naturale di zinco nel loro ecosistema. Inoltre, hanno sviluppato meccanismi per mantenere condizioni di vita ottimali quando questo livello di concentrazione dovesse variare di poco dalla norma. Ma se la concentrazione di zinco cambia radicalmente, le condizioni di vita non sono più ottimali e il funzionamento dell’ecosistema viene alterato. Per questo motivo vengono condotti studi ecotossicologici per valutare il rischio per l’ambiente di un eccesso di zinco.

In questi studi è presa in considerazione solo la concentrazione di zinco disciolto perché la parte insolubile non ha alcun effetto su di essi. La concentrazione di zinco disciolto è influenzata dalle proprietà dell’ambiente quali pH, durezza dell’acqua, carbonio organico disciolto e temperatura. Pertanto, qualsiasi studio sull’impatto ambientale dello zinco deve tenere conto delle caratteristiche specifiche dell’ecosistema in questione e della concentrazione di zinco disciolto, non della concentrazione totale.

Studi ecotossicologici hanno dimostrato che le concentrazioni di zinco negli ecosistemi europei, originate da attività umane (come la corrosione atmosferica di zinco laminato e acciaio zincato, usura di pneumatici di veicoli, fertilizzanti e alimenti per animali, ecc.) o emissioni naturali (principalmente da attività vulcanica), rimangono fortunatamente per ora nei limiti delle condizioni di vita ottimali.

Bibliografia

[1] CRC, Handbook of Chemistry and Physics, 85th, p. 4-35

[2] T. C. Mitchell, Tubal-cain, in New Bible Dictionary (IVF, 1962), 1302.

[3] Tubal-Cain Acclaimed as Pioneer Chemist, in The Science News-Letter, Society for Science & the Public, 30 agosto 1941, p. 142,

[4] https://www.vmzinc.com

[5] https://www.zinc.org/

[6] IZA (International Zinc Association),

https://www.initiative-zink.de/fileadmin/iz_web_dateien/D_O_K_U_M_E_N_T_E/Broschueren/IZA_Broschueren/IZA_Closing_the_Loop_new.pdf

[1] Andreas Sigismund Marggraf (1709-1782) chimico prussiano, allievo di Caspar Neumann discepolo di Stahl, assistente del chimico Spielmann, seguì le lezioni di Friedrich Hoffmann e di Johann Juncker. Nel 1734 si recò a Freiberg in Sassonia per studiare metallurgia con Henckel. Fu poi direttore del Laboratorio Chimico dell’Accademia Prussiana delle Scienze e della Classe di Filosofia Sperimentale della stessa Accademia. Aderì alla teoria del flogisto di Stahl-Juncker ma il suo profondo interesse per la scienza chimica, il perfezionamento di strumenti analitici e l’uso della bilancia anticiparono alcuni aspetti della rivoluzione chimica lavoisierana. https://www.encyclopedia.com/people/science-and-technology/chemistry-biographies/andreas-marggraf

[2] La durata dello zinco può essere ridotta da alcuni inquinanti acidi, che aumentano il tasso di corrosione. Il principale inquinante è il biossido di zolfo (SO2) che reagisce con la patina formando solfato di zinco, che è solubile in acqua e corrosivo. Il biossido di zolfo è emesso da alcuni impianti industriali, impianti di riscaldamento centralizzati a olio e traffico stradale. Di conseguenza, il tasso di corrosione è maggiore in aree urbane o industrializzate rispetto a un ambiente rurale.

Dorothy Maud Wrinch (1894-1976)

In evidenza

Rinaldo Cervellati

Dorothy Maud Wrinch nacque il 13 settembre 1894 a Rosario (Argentina), figlia di Hugh Edward Hart Wrinch, ingegnere britannico, e Ada Souter, casalinga. Poco dopo la sua nascita, la famiglia Wrinch tornò in Inghilterra. Dorothy crebbe a Surbiton, un sobborgo sul Tamigi, 18 km a sud-ovest di Londra. Frequentò la scuola elementare e le superiori a Surbiton. Nel 1913 vinse una borsa di studio per il Girton College, un college residenziale per donne a Cambridge, dove studiò matematica e filosofia. In particolare, fu fortemente influenzata dal matematico e filosofo Bertrand Russell[1], del quale divenne amica. Nel 1916 fu l’unica donna a superare con onori gli esami della prima parte (matematica) del progetto Tripos per la matematica dell’Università di Cambridge.

Il successivo anno accademico (1916-17) Wrinch rimase a Girton, dove studiò e passò la seconda parte (filosofia) del progetto Tripos, che la qualificò per studiare la logica simbolica con Russell.Dorothy Maud Wrinch al Girton

Rimase al Girton anche l’anno seguente, come ricercatrice. Nel periodo della sua vicinanza intellettuale a Russell, Wrinch potrebbe aver avuto un legame romantico con il fratello Frank e probabilmente ebbe un attaccamento infelice con un altro dei suoi discepoli, Raphael Demos, ma le fonti biografiche differiscono sul fatto che Wrinch avesse piuttosto desiderato una relazione sentimentale con Russell [1 a, b].

Bertrand Russell

Nel 1918 Wrinch accettò una docenza all’University College di Londra. A Londra Wrinch frequentò l’Aristotelian Society, partecipando ai dibattiti sulla natura della fisica, della biologia e della psicologia, e divenne amica di D’Arcy Thompson[2]. Fu stretta compagna intellettuale di Harold Jeffreys[3], e alcuni osservatori contemporanei pensarono che fossero fidanzati e che potrebbe essere stata la rottura di questo impegno che incoraggiò Jeffreys a entrare in psicoanalisi, che all’epoca era di moda a Cambridge.

Nell’autunno del 1918 Wrinch partecipò a uno studio universitario sulle espansioni asintotiche al King’s College di Londra, iniziò a insegnare all’University College e continuò comunque a lavorare con Jeffreys sulla filosofia del metodo scientifico.

Dorothy Wrinch a Londra

Si trasferì in un appartamento a Mecklenburgh Square di proprietà della allora amante di Russell, Colette O’Neil. Nel 1920 il Girton College assegnò a Wrinch una borsa di studio della Yarrow Research di quattro anni con libertà di lavorare su qualsiasi area a sua scelta.

Nello stesso 1920 ottenne il master e l’anno successivo il dottorato in matematica dall’University College di Londra.

Nel 1922 Wrinch sposò il suo supervisore al King’s College di Londra, il fisico matematico John William Nicholson[4]. Nicholson era stato di recente nominato direttore del College di matematica e fisica del Balliol College di Oxford, dove Wrinch lo raggiunse. La coppia ebbe una figlia, Pamela, nata nel 1927. Il libro di Wrinch (con lo pseudonimo Jean Ayiling) sulla genitorialità, Retreat from Parenthood, dedicato a Russell, fu un saggio sociologico piuttosto che un manuale su come crescere e educare bambini.

Altra immagine di Wrinch

La salute mentale di Nicholson si deteriorò alla fine degli anni ’20 e nel 1930 fu certificato come malato di mente. I due coniugi si separarono nel 1930, da quest’anno Wrinch si legò intellettualmente ed emotivamente al matematico Eric Neville[5] in un’amicizia che durò fino al 1961.

Durante il periodo oxfordiano Wrinch trovò il tempo per approfondire la sua educazione matematica, conseguendo un master (1924) e un dottorato (1929); fu la prima donna a conseguire un dottorato in scienze a Oxford (il Dipartimento di Scienze includeva la Matematica).

Mentre Wrinch stava approfondendo le sue conoscenze, pubblicò 42 articoli di matematica, fisica matematica e filosofia della scienza, tutti con il suo nome da nubile, che usò per tutta la sua carriera[2].

Nel 1931 Wrinch ottenne da Oxford una dispensa per studiare biologia, cosa che fece in università e laboratori di Londra, Parigi, Vienna e Berlino. In particolare, applicò concetti matematici alla struttura di proteine e cromosomi, che portarono al suo primo lavoro in biochimica, pubblicato su Nature nel 1934 [3]. Questo lavoro le valse nel 1935 una borsa di studio quinquennale della Fondazione Rockefeller per continuare le ricerche sull’applicazione di metodi matematici in biologia.

Nel 1937 presentò una nuova teoria della struttura delle proteine in una riunione dell’Associazione Britannica per l’Avanzamento della Scienza. La teoria era incentrata sull’esistenza di legami ciclici tra gli amminoacidi che costituiscono le proteine, struttura detta Cyclos (ciclone)[4].

Wrinch con la sua ipotesi di struttura

Sebbene la teoria fosse attraente per la simmetria matematica che possedeva e la sua capacità di spiegare molte proprietà delle proteine [5,6], tanto da essere sostenuta da molti, compreso Irving Langmuir [7,8], fu presto attaccata dai cristallografi britannici, i quali affermarono che la teoria non era conforme ai loro dati sperimentali. Inoltre, il chimico americano Linus Pauling calcolò che i legami del cyclos erano troppo instabili per persistere oltre un certo tempo. Pauling e Wrinch si impegnarono in un dibattito sempre più aspro attraverso le pagine del Journal of the American Chemical Society. Alla fine, entrambi hanno avuto torto: gli aminoacidi si combinano nelle proteine formando lunghe catene e legami tipo ciclone sono stati evidenziati nella segale cornuta (una malattia fungina delle graminacee).

Wrinch discute la sua struttura

Nel 1937 ottenne il divorzio da Nicholson sulla base della malattia mentale del marito.

Nel 1939 Wrinch e sua figlia si trasferirono negli Stati Uniti, in parte perché il rettore dell’Università di Oxford e il segretario agli Esteri Lord Halifax le consigliarono che sarebbe stata molto più utile là per sostenere lo sforzo bellico inglese attraverso attività di ricerca e conferenze divulgative.

Wrinch incolpò Pauling per la sua iniziale difficoltà nel trovare una sistemazione accademica negli Stati Uniti. Dopo essere stata visiting professor per un anno presso la Johns Hopkins University di Baltimora, Maryland, nel 1941 Wrinch ottenne una cattedra di ricerca in contemporanea in tre college femminili in Massachusetts: Amherst College, Mount Holyoke College e Smith College. Otto Charles Glaser[6], biologo e vicerettore dell’istituto maschile Amherst College, che era un convinto sostenitore della teoria del ciclone di Wrinch, fu determinante nel sostenere la sua candidatura. I due si sposarono quello stesso anno. Nel 1942 Wrinch ottenne una cattedra a tempo pieno presso lo Smith College, e nel 1943 divenne cittadina americana. Ha continuato a fare ricerca in biochimica fino al 1965 pubblicando i risultati sulle riviste più qualificate [2].

Il suo lavoro più noto di questo periodo è l’applicazione della trasformata di Fourier all’analisi dei dati cristallografici a raggi X [9].

Si è ritirata a Woods Hole nel 1971 ed è morta a Falmount (MA) l’11 febbraio 1976.

 

Opere consultate

William L. Losch, Dorothy Maud Wrinch Brithish-American mathematician and biochemist,

https://www.britannica.com/biography/Dorothy-Maud-Wrinch

D.C. Hodgkin, Obituary, Nature, 1976, 260, 564.

Dorothy Maud Wrinch Wikipedia

Bibliografia

[1] a)  M.Senechal, I died for beauty : Dorothy Wrinch and the cultures of science, Oxford: Oxford University Press,Oxford, USA, 2012; b) P.G. Abir-Am, Synergy or clash: Disciplinary and marital strategies in the career of the mathematical biologist Dorothy M. Wrinch (1894-1976)’ in: P.G. Abir-Am & D. Outram (eds.), Uneasy careers and intimate lives, Women in Science, 1789-1979,  Rutgers University Press, New Brunswick, Canada, 1987.

[2] L’elenco completo dei lavori di Dorothy Maud Wrinch si trova in http://wikler.net/marjoriesenechal/wrinch/wrinch-papers.htm

[3] D.M. Wrinch, Chromosome behavior in terms of protein pattern., Nature, 1934, 134, 978-979.

[4] D.M. Wrinch, On the pattern of proteins. Proc. Royal Society, 1937,160, 59-86.

[5] D.M. Wrinch, The cyclol hypothesis and the globular proteins. Proc. Royal Society, 1937, A 161, 505-524.

[6] D.M. Wrinch, The cyclol theory and the “globular” proteins., Nature, 1937, 139, 972-973.

[7] D.M. Wrinch, I. Langmuir, The Structure of Insulin Molecule. J. Am. Chem. Soc., 1938, 60, 2247-2255.

[8] I. Langmuir, D.M. Wrinch, Nature of the Cyclol Bond., Nature, 1939, 143, 49-52.

[9] D.M. Wrinch, Fourier Transforms and Structure Factors, published by the American Society for X-ray and Electron Diffraction, January 1946.

[1] Bertrand Arthur William Russell (1872 – 1970) britannico, pensatore preminente del XX secolo è stato matematico, logico, filosofo, storico, scrittore, critico sociale, divulgatore, attivista politico. Nel 1950 gli fu assegnato il Premio Nobel per la letteratura “in riconoscimento ai suoi vari e significativi scritti nei quali egli si erge a campione degli ideali umanitari e della libertà di pensiero”. Nel 1945 aveva pubblicato la poderosa opera (A) History of Western Philosophy And Its Connection with Political and Social Circumstances from the Earliest Times to the Present Day (Ed It.: Storia della Filosofia Occidentale). Il libro fu aspramente criticato dai filosofi di professione: Russell fu accusato di generalizzazioni e omissioni, ciononostante diventò un successo popolare e commerciale, ed è rimasto in stampa fin dalla sua prima pubblicazione. Sta di fatto che Russell è riuscito a far capire la filosofia al grande pubblico scrivendo in modo chiaro e comprensibile talvolta alleggerendo gli argomenti più difficili con humor tipicamente britannico. Grazie, Bertrand!

[2] Sir D’Arcy Wentworth Thompson (1860-1948) è stato un biologo scozzese, matematico e studioso di classici. Fu un pioniere della biologia matematica, viaggiò per spedizioni nello Stretto di Bering e ricoprì la carica di professore di storia naturale all’University College, Dundee per 32 anni, poi a St Andrews per 31 anni.

[3] Sir Harold Jeffreys (1891 – 1989) è stato un matematico, statistico, geofisico e astronomo britannico, docente di matematica, poi di geofisica e infine professore di Astronomia all’Università di Cambridge.

[4] John William Nicholson (1881 -1955) fisico matematico inglese è noto soprattutto per i suoi studi spettroscopici che lo portarono a scoprire nuovi elementi. Confinato nel Warneford Hospital fino alla sua morte nel 1955

[5] Eric Harold Neville (1889 – 1961) matematico inglese, noto per i suoi studi di geometria differenziale.

[6] Otto Charles Glaser (1880 – 1951) zoologo statunitense. È stato assistente di biologia all’Università del Michigan, poi professore di Biologia all’Amherst College del Massachusetts dal 1916 al 1948.

Elementi della tavola periodica: Zolfo, S.

In evidenza

Mauro Icardi

Zolfo: simbolo chimico S, numero atomico 16, massa atomica 32.07 u.  Appartiene alla famiglia dei non metalli, e di quegli elementi arcaici, noti fin dall’antichità. Lo zolfo si lega nei miei ricordi di studio e personali anche alla Sicilia e alle sue miniere. E alle descrizione di Dante nel Paradiso: “E la bella Trinacria che caliga tra Pachino e Peloro , sopra il golfo che riceve da Euro maggior briga non per Tifeo ma per nascente zolfo

E naturalmente, così come per il rame, anche lo zolfo richiama i ricordi d’infanzia. Usato nella coltivazione della vite, per combattere l’oidio quello che i nonni e zii chiamavano il “mal bianco”, termine usato ancora oggi. La malattia di origine fungina, causa la copertura della foglia della vite con delle macchie di colorazione grigio-biancastra e polverulenta, che ricoprono tutti gli organi verdi della pianta. La pianta che viene attaccata dal fungo ingiallisce e cade. Nei pomeriggi d’estate girovagando nei locali dove venivano conservati i sacchi, ho potuto ancora vedere qualche sacco proveniente proprio dalla Sicilia.

Per quanto riguarda l’origine dei depositi di zolfo, si possono distinguere due meccanismi di formazione:

  1.     Origine Sedimentaria

I giacimenti di origine sedimentaria si possono far risalire 25 milioni di anni fa, in terreni detti EVAPORITI perché formatisi per evaporazione di acque marine in ambienti lagunari, e con climi caldi e asciutti. L’evaporazione dell’acqua e la fioritura di alghe fecero diventare l’ambiente, ricco di pesci e di organismi dal corpo racchiuso in un guscio calcareo, sempre più povero di ossigeno, fino a provocare la morte di quasi ogni specie vivente.

La sostanza organica caduta sul fondo venne attaccata da organismi capaci di vivere in assenza di ossigeno (batteri anaerobici) e col trascorrere dei secoli si formò dapprima gesso e quindi carbonato di calcio e zolfo.

Questa la sequenza delle reazioni:

2CaSO4 + 2CH4(o batteri anaerobici) – – > Ca (HS)2 + CaCO3 + CO2 + 3H2O

Ca (HS)2 + CO2 + H2O – – – > CaCO3 + 2 H2S

E per ultimo stadio:

3H2S + CaSO4 – – – > 4S + Ca (OH)2 + H2O

2 Origine vulcanica

Nelle emanazioni di vulcani allo si trovano H2S, SO2 ed altri vapori di zolfo.
Tali composti, in presenza di acqua, reagiscono fra loro e depositano lo zolfo formando incrostazioni e masse che in qualche caso sono state usate in alternativa all’estrazione mineraria vera e propria.
Le più note solfatare sono quelle di Pozzuoli (Na), Montefiascone, Latera, Pomezia (tutte nel Lazio), isola di Vulcano e del Vesuvio , conosciute ampiamente già in epoca romana.

Una delle più note reazioni per la genesi vulcanica è la seguente:

2H2S + O2 – – > 2S + 2 H2O + 527 kJ

ed anche in presenza di anidride solforosa:

2H2S +SO2 – – > 3S + 2H2O.

Dal punto di vista squisitamente lessicale i giacimenti sedimentari si chiamano solfare, mentre quelli di origine vulcanica solfatare.

Il trasporto al mare dello zolfo, sotto forma di ione solfato, avviene tramite dilavamento del terreno e delle rocce e infiltrazione in falde freatiche. Nelle acque degli oceani esso viene utilizzato dalle alghe marine per la produzione di una betaina contenente zolfo, il dimetilsolfonio propionato (DMSP). In seguito alla morte delle alghe questa sostanza viene liberata, scomponendosi a formare lo ione acrilato e il dimetilsolfuro (DMS), che tende a passare allo stato gassoso.

Il DMS gassoso viene ossidato dai gas atmosferici originando un aerosol di sale solfato che funziona come nucleo di condensazione, venendo circondato dalle goccioline d’acqua che daranno così origine alle nubi.
Sotto questa forma lo zolfo perviene nel terreno con le precipitazioni, a beneficio delle piante terrestri, delle quali favorisce la crescita. La sua presenza aumenta inoltre la velocità di erosione delle rocce, con un conseguente maggior flusso di nutrienti a beneficio degli organismi marini.
Il passaggio all’atmosfera dello zolfo può anche essere causato da eruzioni vulcaniche o attività antropica, in seguito all’impiego di combustibili che contengano questa sostanza. Viene così prodotta anidride solforosa (SO2), che si ossida all’aria ad anidride solforica (SO3). L’anidride solforica viene facilmente convertita in acido solforico, e in presenza di inquinanti può originare un aerosol, contenente in prevalenza solfato di ammonio, all’origine di quelle che vengono definite piogge acide.

Lo zolfo trova impiego non solo nei processi industriali quali quelli per la produzione di acido solforico, e la vulcanizzazione della gomma, ma anche per la produzione di saponi e detergenti allo zolfo. Questi vengono usati principalmente per la detersione delle pelli grasse. Essendo lo zolfo un componente della cheratina viene chiamato anche il “minerale della bellezza” principalmente per pelle, unghie e capelli.

Non va dimenticata l’importanza dello zolfo negli aminoacidi. Il nostro organismo trae zolfo principalmente da due aminoacidi: la cisteina e la metionina, aminoacidi solforati. Si tratta di aminoacidi che il nostro organismo deve assumere attraverso l’alimentazione. Essendo costituenti delle proteine, è chiaro come gli alimenti più ricchi di zolfo siano il pesce, il manzo, il pollo, ma anche uova, legumi, asparagi, cipolla, aglio, germe di grano e cavolo. A titolo personale, nonostante il caratteristico odore, io preferisco integrare la mia quantità di zolfo attraverso il consumo di cipolle, aglio e cavoli. Una scelta personale, ma in qualche modo guidata anche da una sorta di istinto primario.

Probabilmente questo elemento potrebbe avere per qualcuno una cattiva fama. Questo per il suo essere associato in moltissime pagine letterarie con il diavolo. E anche nelle diverse leggende relative ai vari “ponti del diavolo sparsi in Italia. Per esempio a Lucca e a Lanzo tra i tanti. Vorrei ricordare la leggenda del ponte di Lanzo, che sentii narrare dalla mia insegnante di scuola elementare, Mariagrazia Rozzi.

Un tempo gli abitanti dei casolari e delle baite periferiche di Lanzo, per raggiungere il borgo erano costretti ad un largo giro, e dovevano superare il torrente Stura più a monte, in prossimità dell’abitato di Germagnano. Anche i collegamenti tra Lanzo e la sponda destra del fiume avvenivano su precari ponti in legno. Venne quindi decisa la costruzione di un nuovo ponte, ma ogni volta avversità naturali e crolli improvvisi ne ritardavano la realizzazione. Il Diavolo, avendo visto frustrati gli sforzi degli aitanti del paese, si offerse di costruire egli stesso un ponte che non sarebbe crollato. Ma in cambio avrebbe preteso l’anima del primo che lo avesse attraversato. Gli abitanti accettarono l’offerta e quando il ponte fu finito fecero passare per primo un cagnolino. Il Diavolo, furioso per l’affronto subito, sbatté con violenza le sue zampe sulle rocce intorno formando le caratteristiche “Marmitte dei Giganti”, visibili ancora oggi dietro la Cappella di San Rocco che si trova all’imbocco del ponte dalla parte di Lanzo. Un’altra versione invece dice che lasciò l’impronta di una zampa proprio sul ponte, sparendo poi, sempre arrabbiato e lasciando dietro di sé il classico odore di zolfo.

Ma per restare in tema letterario e riallacciarsi ad una sorta di contrappasso dantesco, il diavolo stizzito e iracondo finisce male. Infatti nell’apocalisse il diavolo viene gettato proprio in uno stagno di fuoco e zolfo:

“E il diavolo, che li aveva sedotti, fu gettato nello stagno di fuoco e zolfo, dove sono anche la bestia e il falso profeta: saranno tormentati giorno e notte per i secoli dei secoli.”

Una piccola rivincita per il povero cagnolino!

 

Nota del Postmaster.

Il ciclo dello zolfo è molto interessante per vari motivi, fra i quali le varie ipotesi fatte per il ruolo climatico del DMS; qui sotto una rapresentazione alternativa del ciclo dello zolfo e le due ipotesi CLAW e anti-CLAW sul ruolo del DMS.

L’ambiente al Portico della Pace.

In evidenza

Vincenzo Balzani

PORTICO DELLA PACE

luogo interculturale interreligioso interconfessionale intergenerazionale di incontro e di lavoro di tutte le donne e uomini costruttori di pace a Bologna

Portico della Pace, 2 marzo 2019, Piazza Maggiore, Bologna

Buon pomeriggio, grazie per la presentazione, sono molto contento di essere qui per partecipare, con tutti voi, a questo presidio. Siamo qui, in tanti, per dimostrare che è possibile organizzare una resistenza pacifica e democratica contro chi chiude confini, alza muri, rifiuta cooperazione e solidarietà, provoca ed esalta le disuguaglianze.

Mi è stato chiesto di parlare dell’ambiente, una parola che oggi, nel suo significato più comune, si riferisce al clima, all’inquinamento e alla natura considerata come un patrimonio da proteggere. Ma l’ambiente non riguarda solo la natura; l’ambiente è anche l’insieme delle condizioni sociali e culturali in cui viviamo. L’ambiente comprende il pianeta e anche noi che ci viviamo sopra.

Quello dell’ambiente, quindi, è un tema, e anche un problema, molto importante. Un grande scrittore, Italo Calvino era solito dire: “Se vuoi capire bene le cose importanti, prima di tutto devi guardarle da lontano”. Uno dei primi uomini che ha visto da lontano la Terra è stato William Anders, un’astronauta della missione Apollo 8 che, nel 1968, la vigilia di Natale, era in orbita attorno alla Luna. All’improvviso apparve agli astronauti uno spettacolo che nessuno prima aveva mai visto: il sorgere della Terra, la Terra che usciva dal cono d’ombra della luna. Sbalordito, William Anders fece una fotografia, che ancor oggi è considerata fra le cento foto più importanti. Scattò quella foto e un attimo dopo disse: “Siamo venuti fin quassù per esplorare la luna e la cosa più importante è che abbiamo capito cos’è la Terra”. Aveva ragione Calvino: per capire le cose importanti, bisogna prima guardarle da lontano.

Quando si guarda la Terra da lontano, ci si rende conto quale sia la nostra condizione, il nostro ambiente: appare chiaro che siamo passeggeri di una specie di astronave che viaggia nell’infinità dell’universo. Su questa astronave siamo in tanti e così diversi: bianchi, neri gialli, ricchi e poveri, buoni e cattivi; nessuno se ne può andare, se non morendo, nessuno può arrivare da fuori: bisogna nascerci dentro. La Terra, dunque, è una astronave, ma un’astronave del tutto speciale perché non potrà mai atterrare da nessuna parte, non potrà mai attraccare a nessun porto per far rifornimento o scaricare rifiuti. E se qualcosa non funziona, se qualcosa si rompe dovremo ripararla da soli, senza neppure scendere.

Si capisce, allora, che siamo in un a situazione molto delicata. Quindi, questa astronave Terra, questo unico luogo dove possiamo vivere vivere, questa nostra casa Comune come la Chiama papa Francesco, va custodita con grande attenzione. Purtroppo, non lo stiamo facendo. Lo dicono gli scienziati come Lester Brown che ha scritto un libro per ammonire che siamo vicini al collasso, siamo sull’orlo del baratro; lo dice anche papa Francesco nell’ enciclica laudato si’:

“Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi”.

Che la situazione sia critica lo aveva già capito, tempo fa, un grande filosofo, Hans Jonas:

... è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente, sono le immani dimensioni causali di questo potere ad imporci di sapere che cosa stiamo facendo e di scegliere in che direzione andare”.

Se dobbiamo imporci di sapere cosa stiamo facendo, vuol dire che stiamo sbagliando qualcosa, che non abbiamo capito come si deve vivere su questa Terra, su questa allora astronave. Cerchiamo allora di capire insieme cosa c’è che non va.

Dobbiamo vivere, e per vivere ci vogliono risorse. L’unica risorsa proveniente dall’esterno su cui possiamo contare è la luce del sole. Tutte le altre risorse dobbiamo prenderle dalla Terra. Ora la Terra ha dimensioni “finite”, è quella che è, non è grande come la voglio io: siccome la Terra ha dimensioni finite, le risorse della Terra sono limitate. Sembrerebbe un concetto ovvio, ma evidentemente non lo è se papa Francesco nell’enciclica deve scrivere:

“L’idea di una crescita infinita, che tanto entusiasma gli economisti, è basata sul falso presupposto che esiste una quantità illimitata di risorse”.

Falso presupposto, perché non è vero che le risorse sono illimitate. Sono limitate, e dobbiamo tenerne conto in tutto quello che facciamo. Ne deriva che il PIL (prodotto interno lordo), parametro che è basato sull’idea di una crescita infinita, è un non senso.

Poi c’è l’altra faccia della medaglia: ogni volta che si utilizzano risorse, si producono rifiuti. Esempio: uso la risorsa carbone, produco il rifiuto anidride carbonica CO2. E siccome la Terra ha dimensioni finite, anche lo spazio disponibile per collocare I rifiuti è limitato. Altro concetto che sembrerebbe ovvio, ma evidentemente neanche questo lo è se papa Francesco nell’enciclica deve scrivere:

“L’uomo pensa di essere di fronte ad una natura che può essere sfruttata senza problemi perché gli effetti negativi dello sfruttamento possono essere eliminati”.

Non è affatto vero che i rifiuti possono essere eliminati; non possiamo metterli in un non luogo che appunto non c’è. I rifiuti dobbiamo tenerceli qui, sulla Terra.

Vediamo ora perché la situazione risorse/rifiuti è insostenibile. Prendiamo il caso della risorsa più importante, che è l’energia. La nostra principale fonte di energia oggi sono i combustibili fossili. Sapete quanti ne consumiamo? Attenzione: ogni secondo, e i secondi passano in fretta, ogni secondo al mondo consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105 mila metri cubi di gas. Ogni secondo. E ogni secondo, bruciando queste enormi quantità di combustibili fossili, produciamo e immettiamo nell’atmosfera 1000 tonnellate di anidride carbonica. Quindi, stiamo consumando con una rapidità incredibile una grande risorsa, i combustibili fossili e allo stesso tempo immettiamo nell’atmosfera quantità enormi di rifiuti: l’anidride carbonica, responsabile del cambiamento climatico e altre sostanze, come le famigerate polveri sottili che danneggiano la salute.

Questo discorso si può estendere a tutti gli altri tipi di risorse e di rifiuti. 100 o a anche solo 50 anni fa c’erano molte risorse non ancora usate e non c’erano tutti i rifiuti che abbiamo prodotto. Ecco allora che in questi ultimi 100 anni l’uomo, con una frenetica attività resa possibile dalla grande diponibilità di energia fornita da combustibili fossili e dai progressi della scienza e delle tecnica, ha modificato profondamente il pianeta. Gli scienziati dicono infatti che stiamo vivendo in una nuova epoca, a cui hanno dato il nome Antropocene. Nel passato le epoche erano scandite da cambiamenti nella Natura: oggi l’uomo è più forte della natura e si è creato una sua epoca: l’Antropocene.

Negli ultimi 20 anni però, le persone che guardano non solo al presente ma anche al futuro hanno capito che non si può andare avanti così. Lo hanno capito scienziati, filosofi, anche gente non colta, pochissimi fra i politici. Hanno capito che in un mondo limitato come è la nostra astronave Terra non si può avere una crescita infinita. Hanno capito che bisogna cambiare.

Per prima cosa, bisogna smettere di usare i combustibili fossili per tre motivi: intanto sono una risorsa non rinnovabile e quindi in via di esaurimento, per cui verrebbero in ogni caso a mancare alle generazioni future; poi, l’inquinamento che causano è molto pericoloso per la salute dell’uomo (in Italia, abbiamo, ogni anno, circa 80.000 persone che muoiono prematuramente); e c’è un terzo motivo che è di gran lunga il più importante: l’anidride carbonica che immettiamo nell’atmosfera bruciando i combustibili fossili provoca il cosiddetto effetto serra: avvolge il pianeta come in un manto permettendo alla luce solare di giungere sulla superficie della Terra, ma poi impedisce, almeno parzialmente, al calore di uscire. L’effetto serra provoca poi il cambiamento climatico. Come certamente sapete nel dicembre 2015 in una conferenza indetta dall’ONU a Parigi le delegazioni di tutti i 195 paesi presenti hanno riconosciuto che il cambiamento climatico è oggi il pericolo più grave che per l’umanità. Questo significa che dobbiamo diminuire da subito l’uso dei combustibili fossili e cessare del tutto di usarli entro il 2050.

La cosa è possibile se sostituiamo l’energia che fino ad oggi ci hanno fornito i combustibili fossili con le energie rinnovabili generate dall’unica risorsa che ci viene da fuori, la luce del Sole: possiamo convertire direttamente la luce solare in elettricità col processo fotovoltaico e utilizzare anche l’energia solare che genera il vento (energia eolica) e la pioggia (energia idrica). Purtroppo non c’è tempo per illustrare i molti pregi e i pochi difetti delle energie rinnovabili. Ricordo solo che il processo fotovoltaico è un vero miracolo della scienza poiché converte l’energia solare in energia elettrica con un’efficienza del 20%, quando la fotosintesi naturale, che utilizza la luce solare per fornirci chimica, ha un’efficienza minore del 0,5%. Ricordo anche che già oggi l’eolico fornisce, senza dare problemi, una quantità di energia pari a quella che produrrebbero, con infiniti problemi, 180 centrali nucleari.

Se fino ad oggi la civiltà è progredita utilizzando energia termica generata dalla combustione di carbone, petrolio e metano, in futuro non sarà più così: il progresso della civiltà è ormai affidato all’utilizzo, diretto e indiretto, dell’energia solare per generare energia elettrica.

Fotovoltaico, eolico e idroelettrico sono forme di energia già utilizzabili, ma fanno fatica ad affermarsi perché il loro sviluppo è ostacolato da interessi economici e di potere legati alle grandi compagnie petrolifere, come la nostra ENI; ENI oggi per l’Italia è come una palla al piede che ci impedisce di correre verso il futuro. Ha pozzi di metano e petrolio in molte parti del mondo, in particolare in Africa, e ora grazie a un permesso del presidente Trump comincia a sforacchiare anche nell’Artico.

Potremmo riassumere la situazione dicendo che il futuro (le energie rinnovabili) è già presente, ma il passato (i combustibili fossili) non vuole passare. Il passato viene tenuto in vita artificialmente perché coinvolge molti interessi. E se poi continuando ad usare i combustibili fossili si aggrava il cambiamento climatico e aumenta il numero di poveri costretti a lasciare i paesi africani, a noi ricchi poco importa: continueremo a fermarli chiudendo i porti, lasciandoli affogare nel Mare Nostrum o morire nei campi di concentramento in Libia. E noi ricchi potremo continuare senza problemi a scegliere in quale paese dell’Africa andare in vacanza: per esempio in Egitto, con cui facciamo affari importanti nel campo dei combustibili fossili e anche nel commercio delle armi, affari che forse impediscono sia fatta luce sul caso Regeni.

Abbiamo molti motivi, dunque, perché sia portata a termine la transizione dai combustibili fossili alle e energie rinnovabili e dobbiamo batterci perché questo avvenga il più rapidamente possibile.

La transizione energetica, pur necessaria, non è però sufficiente per garantire un futuro sostenibile. Perché c’è un problema più generale, che investe tutte le risorse che prendiamo dalla Terra. Oggi il mondo funziona con la cosiddetta economia lineare: prendiamo le risorse dalla Terra, costruiamo quello che ci serve (spesso anche quello che non serve) lo usiamo e alla fine lo gettiamo nei rifiuti: è l’economia dell’usa e getta, il consumismo. Un sistema economico di questo tipo non è sostenibile perché è basato su due falsità che abbiamo già avuto modo di notare: non c’è una quantità infinita di risorse a cui attingere, e non è possibile eliminare i rifiuti. E sappiamo anche che l’accumulo di rifiuti, vedi anidride carbonica, può causare gravi problemi.

Se vogliamo raggiungere almeno un certo grado di di sostenibilità, bisogna passare dall’economia lineare dell’usa e getta all’economia circolare: che significa prelevare dalla Terra le risorse nella minima quantità possibile, usarle in modo intelligente per produrre cose che funzionino bene, che se si rompano possano essere riparate o usate per altri scopi, e che infine vengano raccolte in modo differenziato per poterle riciclare e ottenere così nuove risorse.

Ma anche questa seconda transizione, dall’economia lineare all’economia circolare non può garantirci un futuro sostenibile se non ci abituiamo a consumare di meno, a vivere adottando il criterio della sufficienza e della della sobrietà, che non vuol dire essere meno felici.

Non c’è tempo per approfondire l’argomento, ma prima di chiudere vorrei soffermarmi brevemente sul problema più grave che affligge oggi l’umanità: è il problema delle disuguaglianze. Quando vado a fare conferenze nelle scuole parlo ai ragazzi delle disuguaglianze: in Italia, dove il 5% più ricco ha risorse economiche pari al 90% più povero; negli Stati Uniti dove accanto ad un folto gruppo di miliardari convivono 46 milioni di poveri che che mangiano una volta al giorno con i food stamps, i buoni pasto forniti dal governo. Ma la cosa che più impressiona gli studenti è questa pagina di giornale nella quale è scritto che al mondo ci sono “tre uomini ricchi come l’Africa”. L’Africa, la nostra vicina di casa, l’Africa, di cui tanto si parla, magari senza saperne nulla.

Se avessi avuto modo di proiettare, avrei potuto mostrarvi 4 o 5 figure molto interessanti sull’Africa: provo a riassumerle brevemente.

  • l’Africa: è talmente grande che dentro all’Africa ci starebbero la Cina, gli Stati Uniti, l’India, l’Europa occidentale, parte dell’Europa orientale e il Giappone;
  • L’Africa ha una popolazione di 1,1 miliardi di persone; la popolazione della Nigeria, attualmente 200 milioni, nel 2050 supererà la popolazione degli USA;
  • l’Africa è molto povera da punto di vista economico, ma è molto ricca di risorse naturali e di minerali pregiati
  • molti stati, direttamente come fa la Cina o indirettamente tramite multinazionali stanno spolpando l’Africa. Alex Zanotelli, uno che di Africa se ne intende, ha detto che “Per aiutare l’Africa i paesi ricchi dovrebbero anzitutto smettere di portare via le sue risorse ”.Infine, vi sarà capitato di guardare nel computer le foto del mondo di notte: avrete visto quante luci ci sono in tutta Europa, mentre l’immensa Africa è quasi tutta buia. In Africa 400 milioni di persone non hanno elettricità. Senza elettricità non ci può essere progresso economico, scientifico, politico, culturale. L’Africa è tutta buia di notte perché non ha energia elettrica, ma di giorno gode di una immensa quantità di energia solare. l’Africa è benedetta dall’energia solare.

Ecco allora di cosa c’è bisogno in Africa: sviluppare il fotovoltaico e le altre tecnologie connesse alle energia rinnovabili. Un Governo italiano che si rispetti dovrebbe avere un Ministero dedicato all’Africa, non per colonizzarla come fece il fascismo, non per portarle via risorse come fanno oggi molti stati, non per estrarne il petrolio inquinando il territorio come fa ENI, ma per aiutarla ad utilizzare le sue immense risorse di energie rinnovabili.

Un’Africa non più buia, ma piena di luce, non sarebbe né un peso né una minaccia per l’Italia e per l’Europa.

Industria farmaceutica italiana prima in Europa.

In evidenza

Luigi Campanella, già Presidente SCI

La recente notizia del superamento da parte dell’Italia del gigante Germania per quanto riguarda la produzione di farmaci – per esattezza 31,2 miliardi contro 30,1-non può che essere al tempo stesso motivo di soddisfazione e di riflessione. La soddisfazione deriva soprattutto dai caratteri di questo sorpasso da ascrivere all’export italiano nel settore cresciuto da 1,3 miliardi nel 1991 agli attuali 24,8 miliardi,di fatto il 55 % dell’export hi tech del Paese:tale dato è indicatore della fiducia che i farmaci prodotti in Italia riscuotono nel mondo. Tale soddisfazione deriva anche dalle statistiche in termini di allungamento della vita media-quasi 10 anni dal 1978 ad oggi – e di ridotta mortalità per le prime 5 cause di decesso (malattie del sistema cardiocircolatorio, tumori, malattie del sistema respiratorio, patologie dell’apparato digestivo, HIV/AIDS). A tale soddisfazione non può però non accompagnarsi una riflessione:come nello stesso Paese tali descritte eccellenze coesistano con zone d’ombra e con situazioni di crisi?

Di recente il dibattito su Industria 4.0 ha messo a fuoco quali siano le innovazioni e le direttrici di questa nuova concezione industriale. Se si va ad esaminarne i contenuti non si può fare a meno di osservare che l’industria farmaceutica è stata quella che più li ha interpretati e realizzati. Molti paradigmi dell’ ìndustria farmaceutica sono mutati dall’anno zero, quello cruciale del 1978, nel quale nacque il Servizio Sanitario Nazionale. Negli ultimi 10 anni grazie all’accelerazione tecnologica supportata dalla rivoluzione digitale e dai Big Data le innovazioni hanno trasformato il mondo dei farmaci, che non sono più solo un prodotto, ma fanno parte di un processo di cura più complesso ed interconnesso a diagnostica di precisione, sensoristica, medical device e kit. Tale innovazione per tornare a vantaggio della filiera richiede che i singoli operatori si integrino a sistema, come appunto industria4.0 sostiene., e un sistema per funzionare deve basarsi su regole certe, stabili e condivise, su modelli nuovi di finanziamento, su partecipazione e comunicazione inside e outside continue ed attive.

Credo che uno dei grandi meriti dell’industria farmaceutica sia proprio nell’avere in parte anticipato i tempi pervenendo alla configurazione anzidetta pure nelle difficoltà correnti.

Due questioni in particolare bene interpretano industria 4.0 con riferimento alla farmaceutica: con la serializzazione, la piena attuazione della direttiva sulle falsificazioni di farmaci e la condivisione con le altre associazioni di categoria della ottimizzazione del trasporto nel pieno rispetto della buona pratica di laboratorio. La serializzazione – volgarmente assimilabile alla tracciabilità – segna nel campo dei farmaci una vera e propria rivoluzione: non si tratta solo di produrre e gestire , ma di attuare un sistema di verifica sull’intero ciclo di vita del prodotto (produzione, trasporto, immagazzinamento, vendita, consumo). Per quanto riguarda il secondo punto, il trasporto, si pensi che quello di farmaci rappresenta l’8% del totale trasportato e che da disfunzioni di esso derivano problemi alla distribuzioni con interruzioni o alterazioni che possono mettere in pericolo la vita di malati. Sono due esempi di come fare sistema comporti avanzamenti nella soluzione di problemi anche gravi. Tornano ancora una volta i capisaldi di Industria 4.0 : sicurezza,comunicazione e partecipazione, digitalizzazione. Chi si adegua prima -seguendo l’esempio della farmaceutica – sopravvive meglio e ha più possibilità di crescere, come la farmaceutica stessa ha dimostrato. Anche la Chimica sta percorrendo la stessa strada:dopo la Chimica 1.0, quella del carbone ,la Chimica 2.0, quella del petrolio, la Chimica 3.0,quella delle specialties, siamo alla Chimica 4.0 quella della digitalizzazione, che rende continuo lo scambio di dati fra utente ed utente, fra utente e macchina, superando la discontinuità di Chimica 3.0. Da questa conoscenza scambiata, da questa partecipazione globale nascono le banche dati ed i Big data ai quali prima si accennava sul piano gestionale e nasce il contributo della Chimica all’economia circolare che sostituisce il modello lineare. La circolarità è una caratteristica che si basa sullo partecipazione ad un anello : si riceve (conoscenza e materia) e si offre lo stesso tipo di merce.

Il processo di progressiva trasformazione dell’industria simbolizzato dalla sigla Industria 4.0 interessa l’economia e la società e richiede la formazione di nuove professionalità. Ecco perché l’università viene coinvolta in misura significativa. Fa piacere quindi osservare che qualcosa si muove nella direzione di una collaborazione fra atenei ed imprenditori. In questa logica si è costituito a Milano il Made, nuovo Centro di Competenza guidato dal Politecnico e nato con l’obbiettivo di fornire alle imprese , in particolare di piccola e media dimensione, tre specifici servizi: orientamento, formazione, supporto a progetti di innovazione. Dispone di 2000 mq e sarà organizzato in isole multifunzionali dove le imprese costituenti il Made mostreranno ad altre imprese cosa sia possibile fare con le nuove tecnologie (realtà aumentata, robotica, tecnologie di Big data e Cybersecurity), gettando le basi per indurre queste ad entrare nel Centro o a divenirne clienti. I partner del Centro sono 39,sia pubblici che privati, fra i quali 4 atenei, l’Inail ed alcune istituzioni di ricerca. Quello della formazione è proprio il punto debole di un altro settore delle attività antropiche, l’agricoltura. Oggi non si può parlare,al contrario dei settori di cui prima si è discusso,di agricoltura 4.0. L’agricoltura italiana conserva ancora per certi aspetti la dimensione artigianale:è in limite di cultura che solo si può superare con una formazione adeguata degli addetti,che li renda in grado di confrontarsi con sensori, algoritmi, GIS. I giovani devono essere incoraggiati su questa strada: siano bene accolti quindi start up e spin off. Ancora una volta l’università è chiamata in causa:risponda presente, è in gioco il futuro del nostro settore più tradizionale

Elementi della tavola periodica: Rame, Cu

In evidenza

Mauro Icardi

Rame: simbolo chimico Cu, numero atomico 29, peso atomico 63,546. Elemento conosciuto praticamente da sempre, se si pensa che in Turchia sono stati rinvenuti oggetti in rame risalenti al 7000 a.C.

Ötzi il corpo mummificato di un uomo risalente al 3200 a.C. ,rinvenuto sulle Alpi , ha come corredo un’ascia con la punta di rame.

E’ un metallo duttile, malleabile, e dopo l’argento è il migliore conduttore di elettricità e di calore. Si può trovare in natura allo stato di rame nativo, oppure sotto forma di sali come il solfuro rameoso o calcosite (Cu2S), solfuro di ferro e rame o calcopirite (CuFeS2), e nei composti quali la cuprite (Cu2O). Il simbolo Cu che lo rappresenta deriva dall’abbreviazione di “Cuprum”, dal greco Kyprios, l’isola di Cipro dai cui giacimenti minerari si estraeva il metallo.

I principali paesi produttori di rame sono CILE (Produzione mineraria: 5.5 milioni di tonnellate), PERÙ (Produzione mineraria: 2,3 milioni di tonnellate). Il Perù ha sorpassato la Cina, diventando il secondo più grande produttore del mondo. Nel futuro è possibile che la produzione di rame del paese possa aumentare ulteriormente, CINA (Produzione mineraria: 1,74 milioni di tonnellate), STATI UNITI (Produzione mineraria: 1,41 milioni di tonnellate).

Il rame si utilizza nel processo cuproammoniacale per la produzione di seta artificiale, ed è usato come anticrittogamico. Io ricordo molto bene la preparazione della poltiglia bordolese da spruzzare sulle viti con l’irroratrice a spalla. Nelle estati trascorse dai nonni in Monferrato, ascoltavo con curiosità ed interesse le conversazioni relative alla coltivazione della vite, che si svolgevano a volte sulla piazza principale del paese. La poltiglia bordolese è il rimedio più antico contro la peronospora: per ottenerla si fa disciogliere 1 hg di solfato di rame in 10 litri di acqua, quindi si aggiunge 1 hg di calce spenta in polvere. Il prodotto va tenuto agitato e irrorato subito, altrimenti la calce, in sospensione, decanta sul fondo del recipiente. Oggi si preferiscono prodotti già pronti, in polvere bagnabile o allo stato colloidale, a base di ossicloruro di rame; possono essere mescolati allo zolfo e costituire così un rimedio anche contro l’oidio. Io però ricordo i contenitori all’inizio dei filari, con un lungo bastone per il mescolamento della sospensione, e l’utilizzo ancora per buona parte degli anni 70.

Del rame si fa presto esperienza, anche semplicemente togliendo la copertura isolante di un filo elettrico, oppure perché in qualche casa di campagna è usuale vedere pentole e tegami di rame, che in qualche caso sono diventati elementi di arredo. Nel tempo le pentole in rame sono state progressivamente abbandonate, in quanto la possibile solubilizzazione del rame da parte di acidi organici contenuti negli alimenti, poteva dar luogo ad intossicazioni.

Ma le notizie di cronaca ci hanno anche parlato dei furti di rame, tanto che è stato istituito presso il dipartimento della Pubblica sicurezza, direzione centrale della Polizia criminale, l’osservatorio nazionale su questo fenomeno. Negli ultimi anni i furti sono tendenzialmente diminuiti. Ricordo che invece erano frequenti negli anni 2008-2009 periodo che molti osservatori ed analisti fanno coincidere con l’inizio della crisi economica attuale. L’incremento dei prezzi delle materie prime, iniziato nei primi mesi del 2008 che vide salire il prezzo del petrolio al valore record di 147$ al barile il giorno 11 luglio 2008, la crisi alimentare mondiale e l’aumento del prezzo del grano, un’elevata inflazione globale, la minaccia di una recessione provocarono l’inizio di questo fenomeno.

Iniziarono furti di rame nei cimiteri, nelle sottostazioni elettriche. Si rimuovevano le guaine isolanti dai cavi elettrici, in qualche caso anche bruciandoli, con ovvie emissione di fumi tossici. La stabilizzazione della produzione, ed il calo conseguente del prezzo, oltre a maggiori controlli da parte delle forze dell’ordine hanno diminuito il fenomeno, che però non è stato eliminato completamente. Su un impianto di grosse dimensioni gestito dalla società per la quale lavoro, si è resa necessaria l’istituzione di un servizio di sorveglianza, dopo che si erano verificati ben tre fermi impianto a causa dei furti. Situazioni simili si sono verificate sulle linee ferroviarie.

Episodi di questo genere devono farci riflettere: la terra non può essere sovrasfruttata, anche per quanto riguarda l’estrazione di minerali. Le nuove tecnologie estrattive non potranno prescindere da un uso più attento e consapevole delle risorse. E anche le nostre abitudini personali dovranno necessariamente conformarsi alla constatazione (forse per molti non così semplice), che anche gli elementi chimici in futuro potranno diventare scarsi, o per meglio dire non più economicamente sfruttabili. Con tutte le conseguenze del caso.

L’andamento del mercato del rame può esser preso come termometro della situazione politico-economica internazionale, ma risente notevolmente anche di manovre speculative. Il prezzo infatti è influenzato non solo dal tenore del minerale e dai costi d’impianto, ma anche dalla situazione politica internazionale. Inoltre a periodi di scarsa disponibilità seguono periodi in cui le scorte si accumulano. Dal punto di vista della provenienza, il 60% del rame proviene dalle miniere; il restante 40% è ricavato dal riciclo dei rottami. I giacimenti da cui si estrae il metallo hanno un tenore medio dell’1,5%; sono quindi necessarie grandi operazioni di scavo, di concentrazione e di arricchimento. Per quanto riguarda il recupero i rifiuti di apparecchiature elettriche ed elettroniche potrebbero diventare delle vere e proprie miniere urbane o urban mining; basti pensare che da una tonnellata di schede elettroniche, si possono ricavare più di 2 quintali di rame.

Il rame è un normale componente dell’organismo umano. Un uomo adulto ne contiene da 70 a 180 mg. Questo metallo svolge un importante ruolo nella formazione del tessuto nervoso, osseo e connettivo, ed e presente in molti enzimi.

Dal punto di vista ambientale il rame è un metallo frequente nel regno animale e vegetale. Il catione monovalente (Cu+)) è parte integrante del pigmento respiratorio dei molluschi, l’emocianina.

Nelle acque superficiali la concentrazione di rame è normalmente di poco inferiore ad 1 mg/lt. Il rame monovalente in acqua viene rapidamente ossidato a rame bivalente (Cu++) che in gran parte viene adsorbito su solidi in sospensione o sedimenti.

Il rame è un elemento pericoloso per le pecore, che vanno soggette ad avvelenamento da questo metallo. Un episodio di questo genere è narrato dal veterinario inglese James Herriot in uno dei suoi libri (“Beato tra le bestie”) pubblicato in Italia nel 1977.

http://www.interno.gov.it/it/ministero/osservatori/osservatorio-nazionale-sui-furti-rame

https://copperalliance.it/industria-rame/dove-si-trova/

Una rappresentazione moderna del ciclo del rame

An ‘‘anthrobiogeochemical’’ copper cycle, from Earth’s core to the Moon, combining natural biogeochemical and human anthropogenic stocks and flows is derived for the mid-1990s. Although some aspects of the quantification have moderate to high uncertainty, the anthropogenic mining, manufacturing, and use flows (on the order of 104 Gg Cu/yr) clearly dominate the cycle. In contrast, the natural repositories of Earth’s core, mantle, and crust, and of the Moon, hold much higher stocks of copper (>1010 Gg) than do anthropogenic repositories (<106 Gg). The results indicate that the present anthropogenic rate of copper extraction exceeds the natural rate of renewal by 􏰁106.

Citation: Rauch, J. N., and T. E. Graedel (2007), Earth’s anthrobiogeochemical copper cycle, Global Biogeochem. Cycles, 21, GB2010, doi:10.1029/2006GB002850.

Elizaveta Karamihailova (1897-1968)

In evidenza

Rinaldo Cervellati

Elizaveta Karamihailova è stata una pioniera della fisica nucleare all’inizio del XX secolo, istituì i primi corsi pratici di fisica delle particelle in Bulgaria ed è stata la prima donna a ottenere un titolo di professore in quel Paese.

Elizaveta nacque a Vienna nel 1897 da Ivan Mikhaylov, bulgaro, e Mary Slade, inglese, entrambi studenti all’università della capitale austriaca, lui di medicina, lei di musica. Elizaveta trascorse così gran parte della sua infanzia a Vienna, finché nel 1909 la famiglia si trasferì a Sofia, la capitale della Bulgaria, dove Ivan sarebbe diventato uno dei chirurghi più famosi del paese contribuendo alla costruzione dell’Ospedale della Croce Rossa, diventandone direttore a titolo gratuito. Con un padre chirurgo e una madre musicista, Elizaveta crebbe in un ambiente multiculturale, artistico e scientifico.

Si iscrisse al Sofia Girls’ College, dove si diplomò nel 1917, dopodiché partì per studiare all’Università di Vienna.

Elizaveta Karamihailova

Nel 1922 Karamihailova ottenne il dottorato in fisica e matematica discutendo la tesi “A proposito di figure elettriche su materiali diversi, in particolare cristalli”, sotto la guida di Karl Przibram. Karamihailova continuò il suo lavoro presso l’Institute for Radium Studies di Vienna, interessandosi particolarmente alla radioluminescenza. Nell’autunno del 1923 tornò brevemente in Bulgaria e lavorò come “ricercatore ospite” nell’Istituto di Fisica dell’Università di Sofia. Ben presto Karamihailova tornò a Vienna all’Institute of Radium Studies e iniziò un lavoro sulla trasmutazione degli elementi bombardati con particelle alfa. Nel 1931 Karamihailova e Marietta Blau[1] osservarono uno specifico tipo di radiazione precedentemente sconosciuta emessa dal polonio, che in seguito avrebbe portato James Chadwick alla scoperta dei neutroni. Nel frattempo frequentò corsi di ingegneria elettronica al Politecnico di Vienna.

Elizaveta Karamihailova in laboratorio

Poiché Elizaveta non era austriaca, non poteva essere assunta come assistente di ricerca, pertanto lavorò con un contratto temporaneo. Quando nel 1933 il contratto terminò, fu quasi costretta ad abbandonare la ricerca ma fu in grado di mantenersi attraverso lezioni private mentre continuava a lavorare in laboratorio senza retribuzione.

Nel 1935, dopo più di un decennio senza molte soddisfazioni, il talento di Elizaveta e il suo contributo alla scienza ottennero finalmente un riconoscimento. Fu infatti premiata con una borsa di ricerca triennale Alfred Yarrow Scientific, istituita per consentire alle scienziate di talento di proseguire la ricerca dal Girton College di Cambridge. Lavorò quindi al Cavendish Laboratory dell’Università di Cambridge, uno dei più importanti istituti di ricerca atomica e nucleare dell’epoca[2].

Karamihailova nel suo studio

Karamihailova tornò in Bulgaria nel 1939, dove fu nominata docente di Atomistica Sperimentale e Radioattività all’Università di Sofia. Istituì un corso di fisica atomica, introducendo le conoscenze acquisite nei suoi studi in Austria e Inghilterra e importando alcune delle sue attrezzature.

Karamihailova e suoi studenti

Lo scoppio della seconda guerra mondiale interruppe ogni ulteriore espansione delle attività di ricerca nucleare.

Nonostante il suo formidabile intelletto e la sua statura scientifica, Elizaveta era una persona semplice e amichevole che fraternizzava con i suoi studenti ed era rispettata e amata da loro. Non era particolarmente interessata alle correnti politiche che attraversavano il suo paese durante la seconda guerra mondiale. “Era anticomunista e aveva orrore per tutte le armi”, ha ricordato Mary Cartwright, una collega di Cambridge. Questa avversione avrebbe potuto costarle caro dopo l’invasione sovietica della Bulgaria nel 1944. Fu intrapresa un’epurazione dell’intero sistema educativo per eliminare gli anticomunisti. Elizaveta non fu rimossa ma il suo nome apparve in una lista di “scienziati inaffidabili”. Non perse la cattedra, ma fu trasferita all’Istituto di Fisica dell’Accademia Bulgara delle Scienze, dove ricevette il titolo di professore ordinario. Il divieto di viaggiare all’estero le impedì di interagire e collaborare con altri scienziati. Continuò tuttavia a lavorare nel campo della radioattività.

Omaggio a Elizaveta Karamihailova

I timori di Elizaveta sugli effetti delle radiazioni erano fondati e lei, come molti dei suoi colleghi ne subirono le conseguenze. Elizaveta Karamihailova morì di cancro nel 1968.

Opere consultate

Women in Science, European Communities, 2009, pp. 142-144

[1] Vedi il volume 2007 in bulgaro qui linkato.

[2] All’epoca i principali istituti di ricerca in fisica e chimica nucleare e delle radiazioni erano tre: L’Istituto del Radio a Parigi, in Francia, il Cavendish Laboratory a Cambridge, in Inghilterra e L’Istituto di Ricerca sul Radium a Vienna, in Austria.

Un’antica controversia fotochimica: William Fox Talbot e il brevetto della stampa al collodio

In evidenza

Andrea Turchi

Premessa

Nel maggio del 1854 lo scienziato inglese William Fox Talbot, noto per i suoi studi di ottica e inventore della calotipia, un originale processo di sviluppo fotografico, citò davanti alla corte di Londra un fotografo, James Henderson, accusandolo di utilizzare la calotipia senza pagare le royalties previste dal brevetto che lo stesso aveva registrato alcuni anni prima, nel 1841.

La causa, che Talbot perse, ha una peculiare importanza storica perché permette di esemplificare la profonda connessione tra il progresso delle conoscenze nelle tecniche fotografiche e lo straordinario sviluppo della chimica come disciplina che avvenne nei primi decenni del XIX secolo. Inoltre quella causa mise in luce l’importanza economica e commerciale che stava assumendo la fotografia, la cui nascita e affermazione tanto doveva alle conoscenze chimiche.

Chimica e fotografia a braccetto

Probabilmente non c’è settore della tecnica in cui l’importanza della chimica sia stato più grande che nella fotografia. I processi tradizionali di impressione, fissaggio, sviluppo e stampa fotografici sono essenzialmente chimici e tutti coloro che si dedicarono alla fotografia nella prima metà del XIX sec. avevano conoscenze chimiche (sia pure solo empiriche) ben solide[1].

Impressione delle immagini e ossidoriduzioni

Un antesignano del processo di impressione fotografica fu l’inglese Thomas Wedgood che all’inizio del XIX secolo aveva notato che una carta rivestita con nitrato d’argento risultava fotosensibile, ossia si anneriva nei punti colpiti dalla luce. L’annerimento dei sali d’argento era già noto ai chimici del XVIII sec.: nel 1727 il tedesco Johann Heinrich Schulze si accorse che un recipiente di vetro che conteneva un impasto d’argento, gesso e acido nitrico cambiava colore se esposto alla luce; applicando un oggetto sul vetro si otteneva così l’impronta dello stesso nell’impasto. Schulze chiamò scotophorus (portatrice di tenebre) l’impasto contenuto nel recipiente. Più tardi il grande chimico inglese Robert Boyle annotò l’annerimento del cloruro d’argento (che però attribuì all’azione dell’aria), mentre fu Carl Wilhelm Scheele che per primo mostrò il diverso comportamento chimico tra zone annerite e zone chiare dei sali d’argento, mostrando che facendo digerire il composto fotosensibile con ammoniaca solo la parte non fotosensibilizzata veniva dissolta.

L’annerimento del sale d’argento è, come noto, un processo ossidoriduttivo complesso che comporta la perdita di un elettrone da parte dell’alogeno, per azione di un fotone, e la conseguente riduzione dello ione argento. La conoscenza di questo processo ampliò il panorama chimico dei processi ossidoriduttivi aggiungendosi alla tradizionale riduzione termica e a quella, successiva, elettrochimica, che avevano permesso l’individuazione e l’isolamento di molti nuovi elementi[2].

Talbot era riuscito a preparare una carta a elevata sensibilità fotografica (da lui chiamata fotogenica) immergendo un foglio di carta in una soluzione ‘debole’ (ossia poco concentrata) di NaCl e, dopo averlo asciugata, trattandolo con una soluzione concentrata di AgNO3. In questo modo Talbot otteneva una carta al cloruro d’argento più sensibile di quella ottenuta con soluzioni concentrate di NaCl, utilizzate in precedenza per essere certi di ‘saturare’ tutto l’argento presente [fig.1]. Fig. 1: Disegno fotogenico ottenuto con la tecnica di Talbot (fonte: https://azlein14.wordpress.com/2011/04/04/salted-paper-and-photogenic-drawings-ii/)

Talbot non poteva dare una spiegazione microscopica del suo procedimento, incomprensibile se si ragionava solo sulla base legge delle proporzioni definite.

In realtà l’annerimento delle immagini non è un processo solo ‘atomico’, ma dipende dal contesto molecolare e cristallino in cui avviene. La maggiore sensibilità della carta fotogenica di Talbot sta nel fatto che nel cristallo di AgCl vi è un inserimento interstiziale di ioni Ag+ in eccesso stechiometrico. Gli ioni ridotti danno luogo a una breve reazione redox a catena che porta alla formazione di cluster di atomi di argento, che costituiscono i centri di sviluppo dell’immagine [fig.2].

Fig.2: Catena di reazioni redox che portano alla formazione del cluster d’argento.

Questo processo dipende fortemente dalla grandezza dei cristalli e questo spiega il successo storico dell’uso della gelatina e del collodio nella preparazione dei supporti fotografici, in quanto permettono un processo di cristallizzazione più lento e regolare rispetto alle soluzioni acquose.

Fissaggio delle immagini e nuovi composti chimici

Wedgood non era riuscito a risolvere il problema di rendere stabile l’immagine impressionata su carta: dopo un po’ di tempo tutta la carta si anneriva per azione della luce. Un passo in avanti decisivo in tal senso fu compiuto nel 1824 dal francese Nicéphore Niepce, un geniale inventore, che ‒ utilizzando, probabilmente senza saperlo, le osservazioni di Scheele ‒ sfruttò il diverso comportamento di una sostanza fotosensibilizzata per separarla dalla parte che non aveva reagito alla luce. Dopo vari tentativi (con fosforo, resina di guaiaco,ecc.) Niepce utilizzò il bitume di Giudea, un asfalto già usato da tempo dagli incisori[3] che ha la particolare proprietà di indurire se sottoposto alla luce. Niepce usò dapprima il bitume come materiale sensibile per la fotoincisione calcografica.

Una lastra di rame ricoperta di bitume veniva associata a un disegno e sottoposta alla luce; le parti coperte dal disegno, al contrario di quelle scoperte, non indurivano e venivano dissolte con olio di lavanda così da formare un negativo dell’immagine su lastra metallica; questa poi viene usata come matrice per la stampa di positivi. Questo processo permetteva per la prima volta di riprodurre un disegno originale in un numero indefinito di copie, ponendo le basi per la commercializzazione su vasta scala delle riproduzioni artistiche. Niepce usò questa tecnica per la riproduzione fotografica, che chiamò eliografia: inseriva una lastra di rame (o di peltro) ricoperta di bitume all’interno di una camera oscura dove avveniva l’impressione dell’immagine. La parte non impressionata veniva dissolta dall’olio di lavanda e si otteneva un negativo. In questo modo Niepce ottenne la prima fotografia della storia con una veduta del cortile della casa di Niepce nel villaggio di Saint Loup de Varenne [fig.3].

Fig.3: La prima eliografia realizzata da Niepce nel 1826. L’immagine originale è attualmente conservata nella collezione Gernshiem dell’Università del Texas (fonte: http://100photos.time.com/photos/joseph-niepce-first-photograph-window-le-gras)

Ne 1839, alcuni anni dopo gli esperimenti di Niepce, Louis Jaques Mandé Daguerre, un artista che aveva inventato il Diorama, una teatro di straordinarie e realistiche illusioni ottiche, annunciò di aver trovato un modo per fissare le immagine impressionate nella camera oscura. Daguerre trattava con iodio una lastra di rame argentata per formare ioduro d’argento fotosensibile. Dopo essere stata impressionata nella camera oscura, la lastra veniva sottoposta a vapori di mercurio che condensava sulle parti dell’immagine impressionata (in pratica formando un’amalgama con l’argento). Lo ioduro non impressionato veniva asportato con una soluzione di sale; la lastra veniva poi lavata e asciugata. In questo modo Daguerre otteneva un positivo di grandissima finezza, che chiamò dagherrotipo [fig.4].

Fig. 4: Ritratto di Louis Jacques Mandé Daguerre. Dagherrotipo eseguito da Jean Baptiste Sabatier-Blot nel 1844 (fonte: https://jarrahotel.com/illustration-representing-theories-of-jean-baptiste.html

Rispetto agi altri metodi il dagherrotipo aveva il grande vantaggio di dare un positivo diretto (in quanto le parti colpite dalla luce risultano più chiare per via dell’amalgama) e di non aver bisogno di fissaggio perché l’annerimento prosegue nel tempo solo per le parti non esposte, aumentando il contrasto dell’immagine. Di contro, il grande svantaggio del dagherrotipo era il fatto che consisteva in una immagine unica e non riproducibile, a guisa di un ritratto dipinto.

Niepce e Daguerre non erano chimici, anche se il primo si dilettava in esperimenti. Eppure usavano con disinvoltura sostanze chimiche ben definite: il motivo è che operavano in un ambiente intellettuale nel quale riverberavano sicuramente le nuove conoscenze della chimica. Un ambiente che aveva prodotto la sistematizzazione della conoscenze dovuta a Lavoisier e la conseguente rigorosa definizione delle proprietà delle sostanze. Nei primi decenni del XIX sec. la chimica aveva prodotto un grande accumulo di osservazioni sperimentali sul comportamento delle sostanze, identificando nuove classi di composti e di elementi. In particolare, ai tempi di Daguerre si stavano affermando i grandi laboratori chimici, ben organizzati e ricchi di strumentazione, che permettevano una precisa caratterizzazione delle sostanze. Protagonista in tal senso furono Jöns Berzelius e Justus Liebig. Il primo codificò i comportamenti delle sostanze in principi normativi e fondò metodi di sperimentazione chimica rigorosi e controllati, che furono poi modello per i laboratori di tutta Europa. Il secondo istituì grandi laboratori chimici, ben organizzati e ricchi di strumentazione, vero e proprio luogo si scambio di informazioni dei chimici di tutta Europa.

Fu in questo contesto scientifico che Daguerre iniziò i suoi esperimenti fotografici con lo iodio nel 1833. L’elemento era stato scoperto da Bernard Courtois e isolato da Charles-Bernard Desormes e Nicolas Clément solo venti anni prima mentre le sue proprietà erano state indagate da appena 10 anni. Come detto, Daguerre non era uno studioso della chimica ma conosceva il lavoro di Courtois sullo iodio e questo dimostra come la comunicazione delle scoperte scientifiche si diffondesse allora rapidamente in ambienti non specializzati, anche se è da notare che il milieu culturale dell’epoca era piuttosto ristretto, in particolare dal punto di vista geografico[4], e ciò favoriva lo scambio di informazioni.

Inoltre, non appena   l’invenzione del dagherrotipo fu divulgata nel 1839, l’astronomo e matematico inglese ‒ nonché provetto chimico ‒ John Frederick William Herschel [fig.5],

Fig. 5: Ritratto di Sir John Frederick William Herschel. Stampa da una negativa al collodio del 1867 (fonte: https://www.britannica.com/biography/John-Herschel)

cercò di scoprire i segreti della tecnica, in particolare dell’operazione di fissaggio. Alcuni anni prima Herschel aveva preparato l’acido tiosolforico, che lui aveva chiamato iposolforico, e utilizzò con successo il sale di sodio per solubilizzare[5] lo ioduro d’argento non impressionato. Nel giro di pochissimo tempo Daguerre modificò il suo procedimento sostituendo come agente fissante il sale con il tiosolfato di sodio[6], a dimostrazione del corto circuito rapidissimo tra fotografia e chimica in quel periodo.

Sviluppo delle immagini e catalisi

Le prime fotografie richiedevano tempi di posa lunghissimi, incompatibili con figure in movimento. Per la prima foto ottenuta da Niepce era stato necessario un tempo di posa di alcune ore, mentre per il dagherrotipo, grazie all’azione di sviluppo del mercurio, il tempo di posa era sceso ad alcuni minuti.

Fu però John Talbot a trasformare l’atto fotografico da posa statica a istantanea, aprendo la strada alla moderna fotografia. Tra tutti i protagonisti della nascita della fotografia, Talbot è con Herschel quello ad avere il più alto profilo scientifico e a svolgere il suo lavoro con un vero e proprio programma di ricerca. Talbot aveva idee molto chiare sulle trasformazioni chimiche che avvengono nei processi fotografici. Così, nella sua comunicazione nel 1839 al Royal Society sul suo metodo di sviluppo, scriveva che: «Il nitrato d’argento che diventa nero per azione della luce non è più la stessa sostanza di prima. Di conseguenza se l’immagine, prodotta dalla luce solare,viene successivamente sottoposta a un qualunque processo chimico, le parti chiare e scure si comporteranno diversamente: non c’è evidenza, dopo che tale azione ha avuto luogo, che tali parti bianche e nere siano soggette a ulteriori mutamenti spontanei. Anche se ciò avvenisse non segue che il cambiamento tenderà a farle assomigliare l’una all’altra».

Talbot scoprì nel 1841 che, trattando carta iodizzata[7] con una miscela formata da una soluzione concentrata di AgNO3 in acido acetico glaciale e da una soluzione satura di acido gallico in egual volume, si otteneva una carta di tale sensibilità che erano sufficienti pochi secondi di esposizione per formare l’immagine, di contro le lunghissime pose necessarie per altri processi, come la dagherrotipia. Talbot chiamò la carta così preparato “al calotipo” (dal greco kalós, “bello”) [fig.6]

Fig. 6 Ritratto di William Fox Talbot ottenuto nel 1864 con il metodo della calotipia (fonte: https://en.wikipedia.org/wiki/Henry_Fox_Talbot)

e interpretò correttamente il fenomeno, attribuendo all’acido gallico la capacità catalitica nell’autosviluppo dell’immagine latente, ossia di quella che si forma per effetto della luce ma che è troppo debole per essere correttamente visualizzata.

La scoperta dello sviluppo fotografico rivoluzionò la storia del ritratto, aprendo la strada all’istantanea, ossia all’attuale modo comune di collezionare immagini. Fu un rivolgimento anche sociale: i procedimenti base della produzione delle carte fotosensibili potevano essere facilmente standardizzati e quindi commercializzati, aprendo la strada alla grande diffusione della fotografia. Non solo, ma la rapidità con cui avveniva l’impressione estese grandemente il campo dei soggetti fotografici: non più solo ritratti in posa di regnanti e riproduzioni di paesaggi, a somiglianza delle tecniche pittoriche, ma immagini della vita quotidiana e di persone comuni. Queste innovazioni tecnologiche incrociarono perciò le esigenze degli strati emergenti della società borghese, fornendo loro possibilità di espressione e di autorappresentazione.

L’acido gallico, un raffinato catalizzatore redox

L’azione dell’acido gallico sull’immagine latente è oggi spiegata a partire dai cluster di Ag che si formano durante l’impressione fotografica. L’acido gallico, come altri agenti riducenti quali l’idrochinone, ha la capacità di ridurre solo l’alogenuro attivato presente nei granuli dove si sono formati i cluster. Dal punto di vista termodinamico questa reazione redox è possibile anche per i cristalli non attivati ma è molto più lenta, quindi è cineticamente sfavorita. La grande abilità e, insieme, la grande fortuna di Talbot, fu di aver trovato un agente riducente molto efficiente per lo sviluppo dell’immagine latente ma non aggressivo nei confronti delle parti non attivate dell’alogenuro, come sarebbe accaduto invece con i comuni agenti ossido riduttivi inorganici.

Gli storici della fotografia hanno dibattuto a lungo sulla originalità del processo inventato da Talbot e su quale fosse la fonte di informazioni che lo condussero all’uso dell’acido gallico. In particolare, gli studi si sono concentrati sulla conoscenza che Talbot poteva aver avuto dei lavori con l’infuso delle noci di galla del reverendo Joseph Bancroft Reade, vicario di Stone (nel Buckinghamshire), singolare figura di religioso  a cui interessava più la microscopia che non i compiti pastorali. La questione ebbe notevole rilievo all’epoca di Talbot perché nelle cause che lui intentò per violazione del suo brevetto, gli avvocati avversi ne contestarono l’originalità in quanto l’uso dell’acido gallico come sviluppatore sarebbe risalito agli esperimenti originali di Reade.

In realtà, il proposito originale di Reade era di ottenere immagini ingrandite su carta proiettate dal microscopio; siccome in genere queste risultavano troppo sbiadite, Reade cercò un metodo per ottenere carte più sensibili. Reade aveva letto da Wedgood che il cuoio rendeva il nitrato d’argento più sensibile e, secondo la sua testimonianza, si fece dare dalla moglie un suo guanto per fare delle prove di impressione fotografica: «La signora Reade fu così gentile di darmi un paio di guanti di pelle chiari così da ripetere gli esperimenti di Wedgwood». Al rifiuto della moglie di un secondo paio di guanti Reade Reade, partendo dall’idea che la sensibilità del cuoio fosse dovuta al tannino, con cui solitamente viene trattato il cuoio, si diresse verso l’uso della carta all’infuso di noci di galla che contiene tannino al 50%. Forse questo ricordo così gustoso è ricostruito ad arte[8], come altre volte è capitato nella storia della scienza.

È più probabile che Reade fosse giunto all’uso delle noci di galla perché all’epoca circolava già l’idea che alcune sostanze organiche rafforzassero la fotosensibilità dell’AgNO3, che tra l’altro era un prodotto usato anche in cosmesi e quindi in combinazione con emulsionanti organici (lo stesso Reade aveva sperimentato l’uso della colla di pesce). Inoltre, nella letteratura tecnica dell’epoca erano note le reazioni dei sali metallici con l’estratto di noci di galla nella formulazione degli inchiostri, con i quali anche Reade aveva avuto a che fare.

Sta di fatto che Reade non parlò mai esplicitamente dell’uso di acido gallico che si forma durante la macerazione delle noci di galla per preparare la tintura, e nella quale è presente per il 3%. Lo stesso Reade riconobbe a Talbot tutti i meriti della scoperta dell’uso dell’acido gallico come agente sviluppatore in fotografia e a sé stesso solo quello dell’iniziatore. Per farlo Reade usò un’efficace immagine sportiva: «Io lanciai la palla e Talbot la prese». Sta di fatto che ci sono prove storiche che Talbot era venuto a conoscenza degli esperimenti di Reade e che, in un ambito scientifico più avanzato e accurato, li aveva finalizzati al suo scopo. Forte delle sue competenze chimiche, Talbot concentrò la sua attenzione sull’acido gallico: con ogni probabilità conosceva il procedimento originale del chimico svedese Carl Wilhelm Scheele per l’estrazione dell’acido gallico dall’infuso di galla, ripreso da Berzelius in un suo trattato molto diffuso in quegli anni.

Il brevetto

Talbot brevettò il suo metodo di impressione e sviluppo fotografici l’8 febbraio 1841 con il titolo Metodi per ottenere immagini o rappresentazioni di oggetti. [fig.7]

Fig. 7: Frontespizio del brevetto di Talbot (fonte: http://www.nonesuchsilverprints.com/art-of-silver/PDFs/Fox%20Talbot%20Patent%208842%20-%201841.pdf)

Nel brevetto compariva la preparazione della carta iodizzata e di quella al calotipo, il processo di impressione in camera oscura, quello di fissaggio tramite lavaggio con KBr e NaCl e l’ottenimento del positivo. In quest’ultima fase del processo si usava una seconda carta al calotipo che veniva accoppiata al negativo separandolo con una lastra di vetro e fissando il tutto con viti in un telaio che veniva esposto alla luce. Successivamente si sottoponeva il positivo alle stesse procedure di sviluppo e fissaggio del negativo.

Anche se il brevetto non abbonda di specifiche tecniche, è notevole il travaso di contenuti squisitamente scientifici in un ordinamento giuridico-economico. Talbot aveva esitato a lungo prima di depositare il brevetto, e ciò avvenne dopo che aveva presentato le sue scoperte in diverse occasioni: nel 1839 aveva sottoposto il suo metodo alla Royal Society e nel 1840 [fig.8]

“The Art of Photogenic Drawing” by Fox Talbot. Photo books for auction at Christies, St. James’s London on 31 May 2007.

Fig. 8 Frontespizio della comunicazione di Talbot alla Royal Society nel 1839 (fonte: http://www.photohistories.com/photo-books/15/photogenic_drawing)

aveva allestito a Londra una mostra di fotografie realizzate con il suo metodo. Ciononostante Talbot prese una decisione che pochi decenni prima, nell’epoca dei Faraday e dei Priestley, non sarebbe stato concepibile, e questa novità rappresentò il risultato tangibile dell’incontro diretto e irreversibile tra impresa scientifica e impresa economica.

La novità non stava certo nel fatto che le scoperte scientifiche fossero il motore del progresso tecnico-industriale ‒ basti pensare al contemporaneo sviluppo dell’industria chimica del cloro-soda ‒ ma che il lavoro del singolo scienziato diventasse rapidamente questione economica di estremo rilievo. Non è un caso che ciò sia avvenuto prima di tutto con la fotografia, nella quale il tasso necessario di competenze scientifiche è molto alto. A distanza di quasi due secoli, oggi assistiamo gli estremi esiti di questo connubio, per esempio con la Celera Genomics di Craig Venter, nella quale aspetti scientifici e imprenditoriali sono del tutto indistinguibili.

La controversia

Nel periodo successivo a quello in cui Talbot aveva depositato il suo brevetto, si diffusero altri supporti fotografici. Era noto che il vetro costituiva un supporto molto più efficiente della carta: il problema era come far aderire l’alogenuro al supporto. Anche in questo caso fecero la loro comparsa le sostanze organiche: lo stesso Talbot propose e brevettò una lastra all’albume che, anche se poco sensibile, permise di ottenere una vera e propria istantanea di un oggetto in movimento[9] illuminato da una forte scintilla elettrica.

Ma il sistema che ebbe maggior successo fu la lastra al collodio inventata dall’inglese Frederick Scott Archer nel 1851: su una lastra di vetro veniva versata una sospensione di KI in collodio[10] che, una volta asciugata, veniva immersa in una soluzione di AgNO3: dopo l’impressione la lastra veniva sviluppata in una soluzione di acido gallico. La tecnica al collodio umido ebbe un rapido sviluppo (soprattutto dopo la grande Esposizione universale di Londra del 1851) sostituendo rapidamente la dagherrotipia e la stessa calotipia. Tuttavia Talbot riteneva che i fotografi che utilizzavano quella tecnica violassero il suo brevetto che si basava sull’acido gallico come sviluppatore e fece causa nel 1854 a due fotografi londinesi: James Henderson e Martin Silvester Laroche. Per Talbot la sostituzione del supporto cartaceo con quello al collodio non costitutiva fatto rilevante in quanto la chimica del processo era la medesima, incentrata sull’azione catalizzatrice dell’acido gallico. La difesa di Henderson sosteneva invece che la tecnica al collodio era diversa da quella della calotipia in quanto dai due procedimenti si ottenevano risultati apprezzabilmente diversi. Un esperto della difesa, lo scienziato Robert Hunt, sostenne anche che l’acido gallico era diverso dall’acido pirogallico[11] di cui si serviva Henderson [fig.9]:

Fig. 9: Acido gallico e “acido pirogallico”

 

Talbot però ebbe a controbattere che le due sostanze svolgevano la medesima azione chimica di agente riducente.

La controversia Talbot-Laroche precedette quello con Henderson. Al termine del lungo e complesso dibattimento, nel quale Talbot fece intervenire a suo supporto[12] anche William Thomas Brande, scopritore del litio e tra i più influenti chimici dell’epoca, il tribunale si pronunciò dando ragione alla difesa. Infatti sentenziò che, malgrado si dovesse riconoscere a Talbot il merito dell’invenzione del metodo della calotipia e, in particolare, dell’uso del’acido gallico come rivelatore, il metodo al collodio era sostanzialmente differente da quello al calotipo e che quindi la richiesta di indennizzo da parte di Talbot a Laroche era insussistente.

Per Talbot fu un duro colpo: lo scienziato aveva investito molto del suo nelle ricerche sulla carta al calotipo e si trovò a fronteggiare anche le richieste per danni avanzate da due citati, che avevano dovuto per un certo tempo interrompere la loro attività legate alle lastre al collodio umido. Talbot fu così costretto a risarcire Henderson con 150 ₤. La sconfitta di Talbot fu invece accolta molto positivamente dai numerosi fotografi dell’epoca (solo a Regent street c’erano 20 negozi di fotografi che usavano all’epoca il metodo al collodio), che si vedevano liberati dai vincoli brevettuali del calotipo e del dagherrotipo[13].

Conclusioni

La vicenda giudiziaria di Talbot è molto significativa perché rappresenta bene quel difficile incrocio tra ragioni scientifiche, progresso tecnico-industriale e motivazioni commerciali che si andava realizzando nei primi decenni del XIX secolo. La chimica, in particolare, aveva in tal senso un ruolo rilevante in quanto le competenze chimiche erano presenti sin dall’alba delle prime grandi produzioni industriali. Basti pensare che pochi anni prima della invenzione di Talbot, nel 1825, si avviava a Glasgow la produzione della soda secondo il metodo Leblanc, il primo vero e proprio procedimento industriale chimico, fondamentale per la lavorazione del vetro, dei saponi e dei candeggianti.

Rispetto alla produzione della soda, nella fotografia il prodotto finale non è però un composto chimico, ma un procedimento tecnico nel quale la chimica ha un notevole ruolo. Quel che Talbot non comprese, probabilmente, era che il riconoscimento della primazia intellettuale della scoperta chimica non poteva coincidere con i diritti del brevetto: Talbot si ostinò a cercare di dimostrare che quello al collodio e quello al calotipo erano lo stesso processo in quanto medesimo era il procedimento di riduzione chimica nella fase di sviluppo. Ma questo non significava che l’intero processo al collodio potesse essere riassunto nel brevetto di Talbot. Storicamente, lo scienziato inglese si trovava, come dire, a metà dell’opera: pur consapevole dell’importanza commerciale della sua invenzione, Talbot era ancora mentalmente legato a un’epoca precedente in cui il lavoro dello scienziato doveva comunque primeggiare rispetto alle altre istanze della società. Così Talbot andò incontro a una cocente sconfitta, anche se la sua figura di scienziato non ne rimase intaccata e non sono stati mai disconosciuti i suoi meriti di fondatore dello sviluppo e della riproduzione a stampa fotografica.

Nel prosieguo del secolo,e ancor più in quello seguente, i rapporti tra esigenze industriali, commerciali e chimiche divennero sempre più stringenti e la Rivoluzione industriale suggellò quel rapporto tra pari che è durato per secoli e che oggi deve trovare un nuovo equilibrio per la formidabile spinta delle nuove tecnologie informatiche, per le quali la distinzione tra esperienze scientifiche e applicazioni industriali è semplicemente insussistente. Così, Il pennello della natura, romantico titolo che Talbot diede al primo libro illustrato con le sue fotografie, ha ormai un sapore di cose lontane, molto lontane.

Ringraziamenti

Ringrazio sentitamente Antonio Seccia, litografo, calcografo, litografo, costruttore di torchi storici, profondo conoscitore dei metodi tradizionali di stampa, per i preziosi consigli.

Bibliografia e sitografia utilizzate

·       Berzelius B.B., Trattato di chimica, Napoli 1839, in https://books.google.it/books?id=18S24Ods7PQC&pg=PA157&lpg=PA157&dq=scheele+acido+gallico&source=bl&ots=4bhk4VVxUx&sig=INwwKGFN8Pn8CiL3QTC43Cu9RUM&hl=it&sa=X&ved=2ahUKEwjDiOaNtrDeAhUOWhoKHeUdBI8Q6AEwAnoECAcQAQ#v=onepage&q=scheele%20acido%20gallico&f=false

  • De Franceschi J., La fotografia del Novecento. Studio dell’emulsione argento-gelatinosa attraverso indagini non invasive su campioni dal 1908 al 1980, Tesi di Laurea del Corso d Laurea Magistrale in Scienze chimiche per la Conservazione e il Restauro, Università Ca’ Foscari di Venezia, A:A 2014-15 in http://dspace.unive.it/bitstream/handle/10579/7121/834394-1187735.pdf?sequence=2
  • Leicester H. M., Storia della chimica, ISEDI, Milano, 1978

·       Newhall B., L’immagine latente, Zanichelli, Bologna, 1980

·       Singer Ch., Holmyard E.J., Hall A.R., Williams T.I., Storia della tecnologia, Vol 4*, Bollati-Boringhieri, Torino, 2013

  • Talbot H. F., Some Account of the Art of Photogenic Drawing Or, the process by which Natural Objects may be made to delineate themselves, without the aid of the Artist’s Pencil, Royal Society, London, Received 28th Jan 1839 Read 31 Jan 1839 in http://www.lens-and-sensibility.eu/en/kalotypie/kalotypie.php

·       Torracca E., Il periodo della chimica classica in Storia della chimica, Marsilio editori, Venezia, 1989

  • Watt S., The elements: Silver, Benchmark book, New York, 2003

·       Weeks M. E. The discovery of the Elements, JCE, vol. 9, n. 11, 1932

[1] Naturalmente un grande impulso alla fotografia fu dato anche dall’ottica fisica e geometrica e dalle arti figurative, che usavano da tempo la camera oscura per la riproduzione di immagini dal vero.

[2] Nel primo decennio del XIX sec. furono scoperti ben 14 elementi chimici.

[3] Nella calcografia, per esempio, la lastra di rame viene ricoperta con un impasto di bitume, cere e gomma, che viene inciso con una punta dall’incisore. Sulla lastra viene versato l’acido nitrico che incide il rame laddove lasciato scoperto dal bitume. La lastra viene pulita, inchiostrata e usata come matrice per la stampa.

[4] Nei primi decenni del XIX sec. il cuore delle ricerche chimiche si collocava tra Francia, Inghilterra e Germania.

[5] In realtà non si tratta di una semplice solubilizzazione, in quanto nel lavaggio si forma il tiosolfato doppio di sodio e argento. Da notare che per i chimici degli anni Trenta del XIX secolo era ormai del tutto normale che un sale ‘appena’ modificato dalla luce avesse una ‘solubilità’ del tutto diversa da quello non impressionato e questo dimostra come si fosse rapidamente raffinato lo studio del comportamento chimico delle sostanze.

[6] Il successo del tiosolfato di sodio come agente fissante fu tale che fino a tempi recenti i fotografia hanno continuato ad usare come fissatore il tiosolfato chiamandolo iposolfito, ossia con l’errato nome iniziale dato da Herschel.

[7] Nel tempo si era scoperto che il bromuro e lo ioduro di Ag erano più sensibili del cloruro. Per preparare la sua carta iodizzata Talbot immergeva in una soluzione di KI una carta spennellata con AgNO3.

[8] L’obiezione più fondata a questo ricordo è che i guanti, i particolare quelli chiari da donna, venivano conciati all’allume e non al tannino.

[9] L’oggetto era un copia del Times, a celebrare l’anglocentricità delle tecniche fotografiche del tempo.

[10] Il collodio è fondamentalmente nitrocellulosa, composto sintetizzato per la prima volta nel 1845 dal chimico tedesco Christian Friedrick Schönbein, solo sei anni prima dell’invenzione di Archer, a ulteriore dimostrazione di come chimica e fotografia progredissero allora di pari passo.

[11] L’acido pirogallico differisce dal gallico perché manca del gruppo carbossilico. In effetti, l’attribuzione del termine ‘acido’ per il pirogallico, dovuto al fatto che veniva preparato per pirolisi dell’acido gallico, è impropria perché si tratta di un alcole polivalente. Hunt disse che differivano tra loro come l’aceto dallo zucchero e, strutturalmente parlando, non aveva tutti i torti.

[12] Talbot cercò di convincere a testimoniare anche sir John Frederick William Herschel, suo amico e grande estimatore. Ma Herschel, pur riconoscendo il valore delle scoperte di Talbot, si rifiutò, intuendo la differenza tra primato scientifico e primato commerciale.

[13] La dagherrotipia era libera in Francia ma non in Inghilterra, dove era sottoposta a brevetto, forse per motivi extracommerciali, dovuti alle continue ruggini politiche tra i due Stati.

Elementi della tavola periodica: Azoto, N.

In evidenza

Mauro Icardi

Azoto: simbolo chimico N, numero atomico 7, peso atomico 14,007.  Un gas senza colore, né odore. Appartenente alla serie dei non metalli. Tra tutti gli elementi del quinto gruppo, l’unico che si trova libero (allo stato biatomico) in natura. Capace di formare legami doppi e tripli. L’80% del volume totale dell’atmosfera è occupato da questo elemento. L’aria quindi è la principale fonte di azoto della terra.

In natura esso si presenta in forme diverse, più o meno disponibili per gli organismi viventi.  E’ sempre stato al centro degli approfondimenti nel lavoro che svolgo. Si può ritenere il propagatore degli eterni dilemmi della chimica. Se da tempo ci si interroga sulla chimica, se essa sia portatrice di benefici, oppure la responsabile di ogni nefandezza, a partire dall’ottimo libro di Luciano Caglioti “I due volti della chimica: Benefici o rischi?”, allo stesso modo ci si può porre la domanda per l’azoto: amico o nemico?

Ovviamente le attività dell’uomo hanno prodotto, in particolare negli ultimi tre secoli, un certo cambiamento nella composizione dell’aria sia in termini di concentrazione delle specie già presenti, sia in termini di rilascio di “nuovi” composti. Nel caso dei composti dell’azoto è necessario aggiungere ad N2 e NO anche il biossido di azoto (NO2), l’ammoniaca (NH3), gli acidi nitrico (HNO3) e nitroso (HNO2)

L’azoto venne scoperto nel 1772 da Daniel Rutherford, e contemporaneamente anche da Henry Cavendish in Inghilterra e da Carl W. Scheele in Svezia. Fu Lavoisier a dimostrare che si trattava di un elemento chimico. La presenza di ben tre legami covalenti impartisce alla molecola biatomica dell’azoto un’elevata stabilità. Per questa ragione, viene ampiamente utilizzato come gas inerte a livello industriale. L’azoto liquido è usato come refrigerante per il congelamento tramite immersione, per il trasporto dei prodotti alimentari, per l’immagazzinamento stabile dei campioni biologici.

L’azoto è anche componente delle proteine e degli acidi nucleici.
La proverbiale inerzia chimica dell’azoto molecolare, però, complica notevolmente la sua fissazione e quindi il suo impiego da parte degli organismi viventi come fonte di azoto indispensabile nella sintesi degli amminoacidi e delle proteine.

A questo punto vediamo di focalizzare l’attenzione sul ciclo dell’azoto.

Osservando questa immagine si nota una fitta trama di interconnessioni. Diversi sono anche i compartimenti dove le reazioni che rimettono in circolo l’azoto, tramutandolo da una forma all’altra, avvengono: il suolo, le piante, ma anche le stesse proteine e gli amminoacidi, costituenti degli organismi.

E’ possibile raggruppare l’insieme dei processi che determinano il ciclo dell’azoto in 3 gruppi di reazioni:

  1. Le reazioni di azotofissazione
  2. Le reazioni di ammonificazione
  3. Le reazioni di nitrificazione/denitrificazione

L’azotofissazione consiste in una serie di reazioni, che possono avvenire sia per via biologica che chimica, attraverso le quali viene attivata la conversione dell’azoto molecolare ad azoto organico in modo da renderlo disponibile per il metabolismo delle piante. Le leguminose sono piante che possiedono nelle proprie radici batteri azoto fissatori, in grado di arricchire il suolo di sostanze nutritive azotate. La fissazione biologica è mediata da microrganismi come l’Azobacter e il Rhizobium, ed è resa possibile da un enzima, la nitrogenasi, che catalizza la reazione che produce la rottura del triplo legame covalente stabile presente nella molecola di azoto. Una stima quantitativa è riportata nella figura seguente dal lavoro di Fowler e coll. citato in fondo:Nelle reazioni di ammonificazione si parte da composti organici complessi contenenti azoto. Le sostanze azotate, già derivate da processi di decomposizione della sostanza organica, vengono ulteriormente demolite in sostanze più semplici grazie all’azione di organismi presenti nei suoli, come funghi e batteri, che le utilizzano per fabbricare le proprie molecole essenziali (proteine e amminoacidi). La restante parte di azoto in eccesso viene liberata sotto forma di ioni ammonio  o di ammoniaca.Nelle reazioni di nitrificazione si ha l’ossidazione dello ione ammonio. Questo processo è a carico di alcune specie di batteri che ne traggono energia per le loro attività metaboliche.

Questo processo particolarmente attivo nei suoli caldi e umidi caratterizzati da valori di pH vicino a 7, si svolge attraverso due reazioni ossidative: la nitrosazione e la nitrificazione. La prima consiste nell’ossidazione dell’ammonio a nitrito ed è mediata da microrganismi come i Nitrosomonas:

NH4+ + 3/2 O2 → 2H+ + NO2 + H2O

La seconda reazione di ossidazione porta alla formazione dei nitrati mediata dai Nitrobacter:

NO2 + 1/2 O2 → NO3

In questo modo l’azoto rientra in circolo nella rete alimentare, considerato che il nitrato è la specie chimica attraverso la quale la maggior parte dell’azoto viene assimilata dalle piante attraverso le radici.

In ultimo con la denitrificazione i nitrati vengono scissi in seguito alle attività di alcuni batteri che vivono nel terreno (es Pseudomonas). Questi batteri scindono i nitrati liberando l’azoto che torna all’atmosfera. La denitrificazione avviene soprattutto in terreni saturi d’acqua con poca disponibilità di ossigeno e in presenza di materia organica decomponibile.

Da notare come le reazioni di nitrosazione, nitrificazione e denitrificazione siano quelle usate anche nei processi di trattamento biologico delle acque reflue.

Dopo la scoperta e l’industrializzazione del processo Haber-Bosch per la sintesi dell’ammoniaca, utilizzando come fonte di azoto l’aria atmosferica, il ciclo stesso nel tempo è risultato alterato.

La produzione mondiale di fertilizzanti azotati è cresciuta ,e si è verificato l’accumulo di forme reattive di azoto nella biosfera. Gli inconvenienti principali sono stati quelli dell’eutrofizzazione, del rilascio di tossine algali, e la perdita di biodiversità. I processi produttivi umani convertono all’incirca 120 milioni di tonnellate/anno di azoto in forme più reattive. E’ intuitivo capire che il problema dello sbilanciamento del ciclo dell’azoto non è di facile soluzione. Nell’articolo “A safe operating space for humanity” uscito nel Settembre 2009 su “Nature”, Johan Rockstrom ed i suoi collaboratori hanno proposto la riduzione di questo prelievo di azoto riducendolo a 35 milioni di tonnellate/anno.

Per lavorare in questa direzione occorrono più fondi per la ricerca , e come sempre un’informazione precisa, per rendere l’opinione pubblica più informata e attenta. E allo stesso tempo dobbiamo ricordarci che stime risalenti al 2008 ci ricordano che il 48% dell’umanità e stata sfamata grazie ai concimi prodotti dall’ammoniaca di sintesi. E che nel frattempo la produzione mondiale di fertilizzanti ha raggiunto attualmente i 190 milioni di tonnellate, di cui poco più di 110 milioni di azoto, 45 di fosforo e 35 di potassio. Sono le sfide che ci attendono nel futuro.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3682748/

Fowler D et al. 2013 The global nitrogen cycle in the twenty-first century. Phil Trans R Soc B 368: 20130164. http://dx.doi.org/10.1098/rstb.2013.0164

Un contributo a Discussion Meeting Issue ‘The global nitrogen cycle in the twenty-first century’.

Due aromi utilizzati nelle sigarette elettroniche possono danneggiare le cellule polmonari

In evidenza

Rinaldo Cervellati

La notizia è stata riportata da Tien Nguyen in un recente numero di Chemistry & Engineering newsletter on line. Le due sostanze sospette sono il diacetile e il suo omologo 2,3-pentandione.

                  Diacetile                         2,3-pentandione

Il diacetile, comunemente utilizzato nell’industria alimentare per il suo aroma di burro, è sotto esame fin dai primi anni del 2000. Gli studi rivelarono una possibile correlazione fra questa sostanza e l’insorgenza di bronchiolite obliterante, una malattia che provoca tosse secca e respiro sibilante, osservata per la prima volta negli operai delle fabbriche di popcorn degli USA

Nel 2012, la US Flavor and Extract Manufacturers Association ha stabilito limiti di esposizione sul posto di lavoro per il diacetile (e il suo omologo 2,3-pentanedione) e ha raccomandato che i contenitori di queste sostanze rechino un’etichetta con l’avvertimento che l’inalazione di vapori provenienti dai contenitori potrebbe provocare gravi danni.

Il diacetile è anche il composto più comune fra diverse centinaia di sostanze aromatizzanti utilizzate nelle sigarette elettroniche, uno studio del 2016 su 51 prodotti per sigaretta elettronica ha rilevato che più della metà conteneva 2,3-pentanedione.

Un gruppo multidisciplinare di ricerca, coordinato dai Dott. Joseph Allen & Quan Lu della Harvard TH Chan School of Public Health a Boston, ha valutato l’effetto delle due sostanze aromatizzanti su colture di cellule epiteliali bronchiali e ha proposto un possibile meccanismo di come potrebbero compromettere la funzionalità polmonare. (H-R. Park Sci et al., Transcriptomic response of primary human airway epithelial cells to flavoring chemicals in electronic cigarettes., Sci. Rep. 2019, DOI: 10.1038 / s41598-018-37913-9).

D.J.Allen

Quan Lu

 

 

 

Lo studio si concentra inizialmente sugli effetti del diacetile e del 2,3 pentanedione sulle cellule epiteliali. Queste cellule rivestono le vie respiratorie dei polmoni e le mantengono pulite, ricorda il genetista Quan Lu, condirettore della ricerca. Esistono in tre forme: cellule ciliate, caliciformi e basali. Le cellule ciliate, simili a capelli, lavorano con quelle caliciformi che producono muco per spazzare via la polvere e gli agenti patogeni dalle vie aeree. Le cellule basali possono trasformarsi in uno degli altri due tipi di cellule epiteliali.

I ricercatori hanno trattato tutti e tre i tipi di cellule epiteliali con soluzioni di diacetile, 2,3-pentanione e con una soluzione inerte (controllo). L’esposizione alle sostanze aromatiche ha portato a una diminuzione del numero di cellule ciliate, rispetto all’esposizione alla soluzione di controllo. Usando una tecnica genetica, chiamata RNA-seq, il gruppo ha monitorato i livelli di RNA delle cellule, consentendo di osservare quali geni hanno cambiato la loro espressione dopo l’esposizione alle sostanze aromatiche. Molti dei geni con livelli di espressione più bassi dopo l’esposizione sono stati coinvolti nella ciliogenesi, il modo in cui le cellule basali si trasformano in cellule ciliate. Avere meno cellule ciliate lungo le vie aeree significa che i polmoni hanno meno protezione contro corpi estranei che possono causare infiammazioni. Questo lavoro ha permesso di ipotizzare un possibile meccanismo con cui queste sostanze producono i danni osservati.

Un’indagine commissionata dallo US Public Health Commission ha riportato che gli aromi aggiunti contribuiscono al fascino che i giovani hanno per la sigaretta elettronica: dal 2011 al 2015 l’uso di sigarette elettroniche fra gli studenti delle scuole superiori negli Stati Uniti è cresciuto del 900%, portando il Presidente della Commissione a dichiarare che questo fenomeno potrebbe comportare grossi problemi per la salute pubblica. Nel tentativo di ridurre l’uso di sigarette elettroniche tra i giovani, nel novembre 2018 il commissario della FDA (Food and Drug Administration), Scott Gottlieb, ha proposto politiche per limitare la vendita di prodotti aromatizzati per sigarette elettroniche (senza includere menta, mentolo o aromi di tabacco) nei negozi in cui i minorenni devono presentare un documento di identità per fare acquisti.

I ricercatori di Harvard hanno in programma di testare un insieme più ampio di sostanze chimiche aromatizzanti e di sviluppare anche una tecnica di laboratorio per esporre le cellule agli aromatizzanti aerosolizzati, che imiterebbe meglio il modo in cui le cellule dei polmoni vengono esposte a queste sostanze.

Maciej L. Goniewicz del Roswell Park Comprehensive Cancer Center, che studia la tossicità dei composti aromatizzanti nelle sigarette elettroniche, afferma che studi cellulari controllati come questo sono importanti perché consentono agli scienziati di studiare l’impatto delle singole sostanze chimiche in vitro, che possono essere difficili da investigare in vivo.

                                         Maciej L. Goniewicz

Tuttavia afferma che può non essere corretto estrapolare questi risultati e applicarli alla salute umana. Nel valutare i rischi per la salute Goniewicz aggiunge che è importante tenere presente che i loro rischi sono relativi. Ad esempio, fumare sigarette espone le persone a migliaia di sostanze chimiche, quindi è possibile che anche ammettendo una certa tossicità degli aromatizzanti, le sigarette elettroniche possano essere meno pericolose di quelle tradizionali. Ponderare i rischi dipenderà dalle autorità di regolamentazione, che necessiteranno però di più dati sperimentali e epidemiologici per fare raccomandazioni attendibili.

Negli USA la FDA (Food and Drug Administration) non si è espressa in maniera nettamente negativa sull’uso del diacetile nel liquido per le sigarette elettroniche.

Anche in Europa si è registrato un aumento del mercato delle sigarette elettroniche, a eccezione dell’Italia, dove si è verificato un netto calo dal 2013 al 2015.  Dal 1 gennaio 2018 le sigarette elettroniche sono passate sotto il controllo diretto del Monopolio di Stato, come il tabacco tradizionale. Una ulteriore tassa che rischia di soffocare un intero settore e alimenta una battaglia combattuta a suon di leggi, sanzioni e ricorsi. Non tutti i liquidi per sigaretta elettronica contengono infatti nicotina, molti contengono solo l’aroma del tabacco, insieme ad altri aromi aggiunti.

Wikipedia, alla voce Diacetyl in lingua inglese riporta letteralmente:

In 2016, diacetyl was banned in eliquids / ecigarettes in the EU under the EU Tobacco Products Directive.

Ma le cose non stanno così. Andando a esaminare attentamente il documento citato a sostegno della frase precedente, disponibile in tutte le lingue dell’Unione Europea:

http://europa.eu/rapid/press-release_IP-16-1762_it.htm

si può notare che in nessun punto è menzionato il divieto del diacetile, gli aromi sono citati solo al punto 2 che recita:

Le sigarette e il tabacco da arrotolare non potranno più avere aromi caratterizzanti come mentolo, vaniglia o caramello, che mascherano il gusto e l’odore del tabacco. Nel caso di prodotti con una quota di mercato superiore al 3 % (come il mentolo), il divieto sarà applicato a partire dal 2020.    

 

Nota del blogmaster: si vedano anche

– pag. 20 del rapporto dell’ISS http://old.iss.it/binary/publ/cont/16_44_web.pdf

http://news.doccheck.com/it/2857/sigarette-elettroniche-un-polmone-al-popcorn-per-favore/

 

…per i miracoli ci stiamo attrezzando!

In evidenza

Claudio Della Volpe

Giorni fa il collega Gustavo Avitabile mi ha scritto una mail raccontandomi un episodio avvenuto nel contesto dell’Università di Napoli, dove sono nato e cresciuto; e dunque mi scuserete se, prendendomela a cuore, lo racconto anche a voi. Secondo Gustavo è off-topic sul blog, ma non credo.

Gustavo è un chimico molto bravo e ormai in pensione, si è occupato di raggi X e didattica al computer; ma è anche il Gustavo che insieme ad altri amici di Napoli, come Ugo Lepore, Pina Castronuovo, Guido Barone, Luciano Ferrara, Vittorio Elia hanno fatto di me quel che sono oggi, Gustavo (e Ugo) mi hanno anche fatto il primo esame (nell’estate di 50 anni fa! sono proprio vecchio). E dunque a questa intellettualità napoletana che ha fatto il 68 e ha ancora il buon gusto di indignarsi io devo questo post.

Di cosa parliamo?

L’Università Federico II fa una serie di conferenzedi cui vi mostro la locandina ed in una di queste il prof. Alessandro De Franciscis, 15° presidente dell’Ufficio delle constatazioni mediche di Lourdes, ha raccontato la sua esperienza e anche la storia di Lourdes. Conferenza indubbiamente brillante e vivace, come nella personalità del relatore, tipicamente partenopea, ma anche capace di far indignare Gustavo, perchè poco fondata scientificamente perchè di fatti si passa dalle remissioni spontanee ai miracoli senza soluzione di continuità e senza soprattutto metodo scientifico; la conferenza è visibile su YouTube, potete seguirvela, dura un’ora e mezza e capisco se vorrete farne a meno, ma è piacevole; una sera che non avete di meglio da fare vale la pena al posto del Festival di Sanremo o di altre amenità. Vedrete che la parte finale del titolo, la verifica, è mancata.

Vi accorgerete di quel che dice Gustavo; la conferenza parte bene, il relatore ricorda che le remissioni spontanee sono sempre esistite, ma si finisce male, con l’enumerazione dei 70 miracoli riconosciuti dalla Chiesa Cattolica. Ora è questo che Gustavo rimprovera all’Università di Napoli, con una mail inviata a tutti i colleghi che non è passata, che è stata censurata diciamo così, di non aver saputo garantire il contesto; solo un collega del pubblico, intervenuto a titolo personale il prof. Pignata ha fatto notare i punti deboli del relatore, la mancanza di elementi di controllo e verifica nell’approccio “miracolistico”, la mancanza di considerazione degli aggravamenti ingiustificati come delle remissioni spontanee.

Quel che nessuno ha detto bene e che forse Gustavo avrebbe voluto sentir dire lo dirò io qui.

Cosa sono i 70 miracoli riconosciuti di Lourdes o se volete anche i 7500 casi di guarigioni elencate ma non riconosciute come miracoli? Sono una parte della numerosa congerie di “remissioni spontanee” elencate per esempio in questa pagina:

https://noetic.org/research/projects/spontaneous-remission

E in questo libro scaricabile gratis: http://library.noetic.org/library/publication-bibliographies/spontaneous-remission

Si tratta di 3500 casi analizzati in dettaglio su 800 riviste pubblicate in 20 lingue, dunque al livello dei 70 miracoli, ma circa 50 volte di più. In fondo a Lourdes ci sono andati solo alcune decine di milioni di persone, ma sono una minima parte della popolazione mondiale.

Per quelli che hanno meno tempo consiglio il bel post della counselor in psicosomatica Luciana Giordo: https://www.psicosomatica.eu/remissioni-spontanee/ molto ben scritto o i riferimenti citati allla fine.

La remissione spontanea da malattie anche traumatiche normalmente inguaribili è un fenomeno ben documentato ma ancora non spiegato, nel quale elenco i 70 casi provati di Lourdes rientrano bene; dice la Giordo: se andate su Medline il numero di riferimenti per le chiavi di ricerca “spontaneous remission” o “spontaneous regression”, passa dai 10.603 del periodo 1966-1992 ai 20.502 attuali. Insomma ampio data base sul quale però lo studio non è altrettanto esteso; e questo è il limite della scienza. Le remissioni spontanee da malattie molto gravi (eccettuati i casi fasullli, gli errori, le diagnosi sbagliate etc.) sono non miracoli ma eventi rarissimi ed inaspettati ed al momento non spiegati.

L’interazione corpo-psiche è un argomento poco studiato; certamente c’è la chimica dietro, ma c’è anche un mistero: cosa è l’autocoscienza? Cosa rende noi e tanti altri animali coscienti di se stessi; cosa ci fa comunicare col nostro gatto o col nostro cane e rende noi capaci di guarire spontaneamente (la percentuale è ridottissima, 1/100.000 non vi illudete, se avete un tumore andate dal medico) e lui capace si di guardarsi allo specchio ma non riconoscersi? Non lo sappiamo. Dobbiamo studiarci e tanto.

http://www.treccani.it/enciclopedia/il-rapporto-tra-mente-e-cervello_(XXI-Secolo)/

Ecco questo è il punto; quale è la base materiale della coscienza e dell’autocoscienza e dunque di tutte quelle interazioni fra corpo e mente, per lo più inconsce, automatiche ma potentissime che sperimentiamo continuamente? Milioni di reazioni chimiche, migliaia di enzimi e di sequenze reattive, un “sistema” di reazioni complesse della cui complessità stiamo appena accorgendoci; questo è il cervello, la base fisica; ma la mente, il sistema informatico che è basato sul cervello, il programma che ci gira, il software se volete (so di essere impreciso, ma ci sta, non sono un esperto) dove sta e cosa fa, come comunica col resto, dove sta scritto? La scienza dei sistemi complessi, i meccanismi della retroazione che esploriamo tramite sistemi di equazioni differenziali non lineari, questo contesto che tende ad unire mente e cervello, la tomografia NMR unita alle neuroscienze se volete, questo è mancato nella conferenza, dando spazio al miracolismo; ognuno può pensarla come gli pare ed essere religiosi non è in contrasto per forza con il fare scienza, ma la cosa dovrebbe essere detta e distinta più chiaramente di quanto ha fatto De Franciscis (e ci sta, lui è dichiaratamente cattolico e dichiaratamente di parte) e soprattutto di come gli hanno consentito di fare l’Università di Napoli e anche l’intellighenzia partenopea, che invece dovrebbe essere garante e che a volte dimentica di aver fatto il ’99 e anche il ’68 e si riduce al più modesto presente.

Un’ultima considerazione per giustificare come mai questo apparente OT non sia poi OT; non solo per motivi generali, politici, I care, direbbe Vincenzo, io come intellettuale DEVO occuparmi della società e delle ricadute della scienza, ma anche per un motivo di merito; cosa è una remissione spontanea o se volete col linguaggio di De Franciscis un miracolo? E’ un evento inaspettato, un cigno nero, un accadimento NON LINEARE! Dunque di esso ci occupiamo con i metodi che conosciamo che usiamo per questo: i sistemi lontani dall’equilibrio come il nostro corpo e quello di ogni essere vivente o la biosfera sono proprio il luogo deputato agli eventi non lineari che studiamo con la retroazione, la dialettica, i metodi della termodinamica irreversibile, le equazioni differenziali; ecco perchè non siamo OT (Off Topic).

Bravo Gustavo per esserti indignato, ma non avevo dubbi; su Gustavo si può contare. Un abbraccio e un ricordo grato a te e agli altri chimici ribelli di Napoli (dei quali ho fatto parte e mi scuserà chi non è stato ricordato) da un ex studente.si veda anche: http://www.cicap.org/emilia/miracolo/

http://www.medbunker.it/2013/10/guarire-miracolosamente-o-spontaneamente.html

Precursori dell’Adenina nella sintesi abiotica nello spazio

In evidenza

Diego Tesauro

Tra le ipotesi sull’origine della vita terrestre nelle ultime decadi, ha avuto maggiori fautori l’ipotesi che i primi organismi viventi avessero alla base la molecola dell’RNA. L’RNA quindi avrebbe svolto il ruolo sia di catalizzatore delle reazioni nelle cellule che di trasmettitore dell’informazione. Solo successivamente la maggiore stabilità del DNA e delle proteine avrebbero portato alla sostituzione dell’RNA. Il mondo basato sull’RNA richiede la sintesi abiotica dei nucleotidi e la loro partecipazione nelle reazioni di replicazione dell’RNA non enzimatica. Entrambe le due funzioni mostrano delle criticità non risolte. In questo intervento mi vorrei focalizzare sulla sintesi dei nucleotidi in particolare di una delle basi, l’adenina, per cui di recente sono stati osservati alcuni precursori chiave nella sintesi.

Storicamente la presenza dell’adenina di origine extraterrestre, e quindi di sintesi abiotica, è stata rilavata alla fine degli anni sessanta nella famosa meteorite carbonacea di Murchison (https://it.wikipedia.org/wiki/Murchison_(meteorite)), fonte di innumerevoli molecole organiche di origine prebiotica. Una possibile via sintetica abiotica era già stata proposta da Oro et al. all’inizio degli anni sessanta in una pubblicazione sulla rivista Nature [1]. In questo schema la sintesi prevede la presenza del cianuro di idrogeno e l’ammoniaca come reagenti, verosimilmente presenti nell’atmosfera primordiale terrestre. Per poter spiegare la sintesi dell’adenina nelle nubi idi gas molecolare, da cui hanno origine per contrattazione gravitazionale i sistemi planetari, Chakrabarti ha proposto successivamente che l’adenina si possa formare attraverso l’oligomerizzazione di HCN nella fase gassosa in quattro fasi: HCN → H2C2N2 → NH2CH(CN)2 → NH2(CN)C = C(CN)NH2 → H5C5N5 in cui il primo step è una dimerizzazione del cianuro di idrogeno per dare la cianometanimmina [2] .

Figura 1 I due isomeri geometrici della cianometimmina

Figura 2 Sintesi attraverso due vie dei due isomeri geometrici della cianometimmina

Tuttavia, eseguendo calcoli teorici, negli ultimi decenni, la formazione del dimero di HCN, non sembra verificarsi in maniera efficiente nelle condizioni del mezzo interstellare (ISM). Pertanto il meccanismo di formazione e la possibilità di rilevare la molecola nelle nubi interstellari è di cruciale importanza per spiegare la formazione dell’adenina. La cianometanimmina presenta due diversi isomeri geometrici: l’isomero Z e l’isomero E (Figura 1). Pur essendo l’isomero Z più stabile dal punto di vista energetico fino ad oggi nell’ISM era stato rilevato solo l’isomero E. Solo recentemente è stata osservata la presenza di entrambi gli isomeri geometrici nella nube molecolare quiescente G + 0.693 del Centro Galattico mediante le osservazioni del radiotelescopio 30 m dell’IRAM sul Pico Veleta della Sierra Nevada in Spagna, nel dominio delle onde millimetriche [3]. Il rapporto osservato di abbondanza relativa tra i due isomeri [Z/E] è circa 6. Questo valore è estremamente maggiore rispetto a quanto previsto teoricamente dalle due vie di formazione chimica precedentemente proposte (in fase gassosa o sulla superficie dei grani di polvere della nube). Infatti la prima via prevede la reazione del radicale ciano con la metanimmina con formazione dei due isomeri nel rapporto 1.5 mentre l’alternativa, avente come reagenti il cianogeno e due atomi di idrogeno, mostra un rapporto nel prodotto tra gli isomeri intorno a 0,9 (Figura 2). Invece il rapporto [Z/E] osservato è in buon accordo con l’equilibrio termodinamico alla temperatura cinetica del gas (130-210 K). Poiché l’isomerizzazione non è possibile nell’ISM, le due specie potrebbero essersi formate ad alta temperatura. Nuovi modelli chimici, inclusa la chimica delle superfici su grani di polvere e reazioni in fase gassosa, dovrebbero essere esplorati per poter spiegare questi risultati. Qualunque sia il meccanismo di formazione, l’elevata abbondanza di Z-HNCHCN mostra che i precursori dell’adenina si sono formati nell’ISM. Ancora più recentemente è stata osservata per la prima volta anche la presenza di idrossiacetonitrile o glicolnitrile (Figura 3) in una protostella di tipo solare in formazione in IRAS 16293-2422 B, una zona della nebulosa oscura r Ophiuchi (Foto 1) [4]. La rilevazione è stata ottenuta mediante il radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array) in Cile (Foto 2), osservando a frequenze comprese tra 86,5 GHz e 266,5 GHz Sono state identificate in totale 15 transizioni di glicolnitrile.

Figura 3 Sintesi del Glicolnitrile e sue reazioni per produrre Adenina e Glicina

 

Foto 1 Il complesso Rho Ophiuchi cloud, una nebulosa oscura di gas e polveri localizzata ad 1° a sud dalla stella ρ Ophiuchi della costellazione dell’Ofiuco. Trovandosi a circa 131 ± 3 parsecs, (430 anni luce) è una delle zone di formazione di sistemi planetari più vicine al sistema solare.

Foto 2 Alcune delle antenne del Radiotelescopio interferometrico ALMA sull’altopiano di Chajnantor delle Ande cilene (https://www.eso.org/public/italy/teles-instr/alma/)

Anche questa molecola è coinvolta nella sintesi dell’adenina. Nel mezzo interstellare (ISM), il glicolnitrile potrebbe formarsi su superfici di grani ghiacciate attraverso la reazione tra formaldeide e cianuro di idrogeno. Questo composto, in presenza di ammoniaca e cianuro di idrogeno a pH basico, è in grado di accelerare il processo di sintesi dell’adenina. Inoltre in una miscela eutettica ghiaccio-acqua in presenza di ammoniaca, si può ottenere dal glicolnitrile la glicina. Quindi questa molecola gioca un ruolo chiave nella sintesi abiotica e nella chimica dei nitrili nell’ISM. Inoltre i dati mostrano la presenza della molecola sia nel core caldo interno che nell’involucro esterno freddo di IRAS16293 B, pertanto ci si può spiegare la sua presenza (e di composti organici quali la glicina) in oggetti appartenenti alle zone remote dei sistemi planetari come le comete e gli asteroidi. Molti punti restano però oscuri per cui è necessario condurre ulteriori esperimenti nonché elaborare dei modelling per avere una visione completa della chimica in fase gassosa a bassa densità e nelle interfaccia dei sistemi eutettici a bassa temperatura.

[1] J. Oro Mechanism of Synthesis of Adenine from Hydrogen Cyanide under Possible Primitive Earth Conditions Nature 1961, 1193-1194)

[2] S. Chakrabarti, S.K. Chakrabarti Astronomy and Astrophysics, 2000, 354, L6-L8 doi astroph/0001079

[3] V. M. Rivilla, J. Martín-Pintado, I. Jiménez-Serra, S. Zeng, S. Martín, J. Armijos-Abendaño, M. A. Requena-Torres, R. Aladro, D. Riquelme Abundant Z-cyanomethanimine in the interstellar medium: paving the way to the synthesis of adenine Monthly Notices of the Royal Astronomical Society: Letters, 2019, 483(1), L114–L119. doi 10.1093/mnrasl/sly228

[4] S. Zeng, D. Quénard, I. Jiménez-Serra, J. Martín-Pintado, V M. Rivilla, L. Testi, R. Martín-Doménech First detection of the pre-biotic molecule glycolonitrile (HOCH2CN) in the interstellar medium Monthly Notices of the Royal Astronomical Society: Letters, 2019, 484(1), L43–L48. doi:10.1093/mnrasl/slz002

 

 

Scienziate che avrebbero potuto aspirare al Premio Nobel: Ellen Gleditsch (1879-1968)

In evidenza

Rinaldo Cervellati

Ellen Gleditsch è stata uno dei primi specialisti in radiochimica, misurò l’emivita del radio e confermò l’esistenza degli isotopi. Come esperta cristallografa, ha dato importanti contributi alla scienza nel laboratorio di Marie Skłodowska-Curie. Fu la seconda donna a occupare una cattedra universitaria in Norvegia.

Ellen nacque il 28 dicembre 1879 a Mandal (Norvegia), prima di 11 figli. Suo padre, un insegnante di storia naturale, e sua madre, intellettuale e sostenitrice dei diritti delle donne, fecero in modo che tutti i figli fossero impegnati in attività culturali e musicali oltre a frequentare la scuola regolare.

Una giovane Ellen Gleditsch

Fu la prima della classe alla scuola di farmacia nel 1902. Nel 1903, Gleditsch fu invitata a studiare nel laboratorio del chimico Eyvind Bødtker[1] all’Università di Oslo e presto divenne la sua assistente. Nel 1905 superò l’esame di ammissione all’università[2] ma su suggerimento e con il sostegno di Bødtker decise di proseguire gli studi a Parigi.

Nel 1907 iniziò a lavorare nel laboratorio di Marie Curie, già famosa avendo vinto il Premio Nobel per la fisica nel 1903 (insieme al marito Pierre Curie e a Henry Becquerel). Ellen si dimostrò una risorsa inestimabile per il laboratorio di Curie, eseguendo “cristallizzazioni frazionate”, una tecnica difficile in cui pochi scienziati erano competenti. Con questa tecnica Gleditsch riuscì a purificare il radio. Lavorò a stretto contatto con Curie per cinque anni analizzando minerali radioattivi alla ricerca di uranio e radio e, dopo aver lasciato il laboratorio, vi tornò più volte per supervisionare gli esperimenti. In questo periodo pubblica almeno cinque lavori [1-4].

Ellen conseguì la Licenciée en sciences degree (licenza in scienze) dalla Sorbona nel 1911 e nello stesso anno ottenne una borsa di studio presso l’Università di Oslo.

Ellen Gleditsch dottore in scienze

Dopo un anno nella capitale norvegese, vinse una borsa della American-Scandinavian Foundation (la prima borsa di studio assegnata a una donna) per studiare negli Stati Uniti, e colse al volo l’occasione. Fece domanda a due prestigiose scuole degli USA chiedendo di lavorare nei loro laboratori ma entrambe le domande furono rifiutate, in un caso su base di genere.

Nonostante fosse stata respinta, si recò all’Università di Yale, nel laboratorio di Bertram Boltwood[3] , dove trascorse un anno per completare le sue ricerche sul tempo di emivita del radio stabilendolo in 1686 anni [5], che è rimasto lo standard per molto tempo prima di essere corretto a 1620 anni.

La misurazione di Ellen ha aperto la strada a diverse importanti scoperte, poiché l’emivita del radio poteva essere utilizzata come parametro per lo studio della radiochimica di altri elementi. Gli scienziati che l’avevano rifiutata cambiarono idea sul fatto di avere donne nei loro laboratori. Nel giugno 1914, ricevette un dottorato onorario per il suo lavoro sulla radioattività dallo Smith College di Northampton, nel Massachusetts.

Ellen tornò all’Università di Oslo nel 1914 e nel 1917 divenne la seconda donna ad essere eletta all’Accademia delle Scienze di Oslo. Dodici anni più tardi, dopo un’ardua procedura di nomina, è diventata la seconda donna a ricoprire una cattedra universitaria in un’università norvegese (università di Oslo). A Oslo avviò con successo un gruppo di ricerca in radiochimica. Durante gli anni ’30, continuò a produrre articoli in inglese, francese, tedesco e norvegese. Nel 1939 è stata nominata membro del comitato internazionale per la cooperazione intellettuale, del quale aveva fatto parte Maria Curie alcuni anni prima.

Ellen Gleditsch in laboratorio

Sebbene il suo risultato scientifico più celebre sia stato la determinazione del tempo di emivita del radio, Gleditsch ha anche svolto un ruolo importante nel confermare l’esistenza degli isotopi. Quando nel 1913 il chimico britannico Frederick Soddy avanzò l’ipotesi che gli atomi di un elemento potevano avere pesi atomici[4] diversi, Ellen, insieme ad altri ricercatori, inviò un campione di piombo che aveva purificato a un importante scienziato negli Stati Uniti. Il suo campione era l’unico abbastanza puro da provare l’esistenza degli isotopi.

Fervente sostenitrice delle donne nella scienza per tutta la sua vita, è stata co-fondatrice della Norwegian Women Academics Association nel 1919 e, dal 1926 al 1929, ha ricoperto il ruolo di presidente della International Federation of University Women, posizione che le ha permesso di viaggiare e tenere conferenze.

Quando la Norvegia fu occupata durante la seconda guerra mondiale, nascose gli scienziati e continuò a usare la sua casa per gli esperimenti. Durante un’incursione nel suo laboratorio nel 1943, le scienziate riuscirono a nascondere i minerali radioattivi ma tutti gli uomini furono arrestati.

Si ritirò dall’università nel 1946 e iniziò a lavorare con l’UNESCO partecipando a iniziative per porre fine all’analfabetismo. Nel 1952 fu nominata alla commissione norvegese che lavorava per il controllo delle armi atomiche. Nello stesso anno si dimise dall’UNESCO per protesta contro l’ammissione della Spagna fascista di Francisco Franco.

Ellen Gleditsch in conferenza

Nel 1962, all’età di 83 anni, ricevette un dottorato onorario dalla Sorbona, la prima donna a ricevere un tale onore.

Ellen Gleditsch morì, stroncata da un ictus, il 5 giugno 1968. In suo onore è stata istituita la Ellen Gleditsch Scholarship Foundation con lo scopo di sostenere aspiranti scienziati.

Opere consultate

The gifted cristallographer. Epigenesys https://www.epigenesys.eu/en/science-and-you/women-in-science/773-ellen-gleditsch

Marelene F. Rayner-Canham, Geoffrey W. Rayner-Canham, A Devotion to Their Science: Pioneer Women of Radioactivity, Chemical Heritage Foundation, 1997, pp. 51-75 https://books.google.com.mx/books?id=YAbzjGWdIA0C&pg=PA73&lpg=PA73#v=onepage&q&f=false

  1. Lykknes, L. Kvittingen, A. K. Børresen, Appreciated Abroad, Depreciated at Home. The Career of a Radiochemist in Norway: Ellen Gleditsch (1879–1968)., 2004, 95, 576-609.

Bibliografia

[1] Mme Curie et Mlle Gleditsch, Action de l’émanation du radium sur les solutions des sels de cuivre., Radium, 1908, 5(8), 225-227 https://hal.archives-ouvertes.fr/jpa-00242300/document

[2] E. Gleditsch, Sur le radium et l’uranium contenus dans les mineraux radioactifs., Comptes Rendus, 1909, 148, 1451.

[3] E. Gleditsch, Ratio Between Uranium and Radium in the Radio-active Minerals., Comptes Rendus, 1909, 149, 267.

[4] E. Gleditsch, Sur les rapports entre l’uranium et le radium dans les mineraux radioactifs., Radium, 1911, 8(7), 256-273.

[5] E. Gleditsch, The life of Radium., American Journal of Science., 1916, 41, 112-124.

[1] Eyvind Bødtker (1867 – 1932) farmacista e chimico norvegese si è occupato principalmente di omologhi del benzene e di composti aliciclici. La maggior parte della sua carriera si è svolta all’università di Christiana dove è stato professore dal 1918.

[2] Il Matriculatium exam o Examen artium, corrispondeva all’esame di maturità di oggi, dopodiché gli alunni ricevevano il titolo di “studenti” poiché era anche il requisito per accedere all’università. Fino al 1923 questo esame non era tuttavia obbligatorio per gli studi di farmacia. Questo spiega perché Gleditsch aspettò fino al 1905 per iniziare i suoi studi universitari di chimica.

[3] Bertram Borden Boltwood (1870 – 1927), radiochimico statunitense stabilì che il piombo è il prodotto finale del decadimento dell’uranio. Professore alla Yale University.

[4] A quel tempo i chimici parlavano ancora in termini di peso. Di massa si cominciò a ragionare quando Francis Aston nel 1921 introdusse la whole-number rule, secondo cui le masse degli isotopi sono multipli interi della massa dell’atomo di idrogeno. A Francis Aston (1877-1945) fu assegnato il Premio Nobel per la chimica 1922 “per la sua scoperta, grazie all’utilizzo del suo spettrografo di massa, di isotopi di molti elementi non radioattivi e per la sua enunciazione della teoria del numero intero”. Volendo essere precisi, la massa di ciascun isotopo non è un intero causa il difetto di massa durante la sua formazione in cui si libera energia.

Nanoparticelle da batteri, funghi e estratti vegetali.

In evidenza

Luigi Campanella, già Presidente SCI

Le nano-scienze studiano i materiali nelle componenti più piccole di cui sono composti, quindi a livello atomico e molecolare. Alcune delle applicazioni più moderne ed attuali dei nano-materiali sono la protezione da scritte e graffiti di vetri, carrozzerie, pannelli pubblicitari, l’azione di contrasto allo sporco ed all’umidità su superfici di vetro o specchio; l’azione idrorepellente, l’attività antivegetativa su imbarcazioni e cabine marine.

Per grandi applicazioni si utilizzano dispersioni delle nanoparticelle in alcool; tali applicazioni sono sempre più diffuse e variate, allargando i campi di interesse e di studio. Alcune nano particelle hanno dimostrato proprietà di inibizione della crescita di microorganismi, altre sono state applicate alla decontaminazione delle acque reflue da uranio. Tutto ciò mette in evidenza come le nano-particelle rappresentino promettenti opzioni per la chimica sostenibile. In alcuni casi, la maggior parte in realtà, la loro preparazione comporta metodi e processi non ecocompatibili; da qui l’importanza di superare questo limite con metodi di sintesi delle nanoparticelle che siano riconducibili alla green chemistry.

Nasce così la nanotecnologia verde come combinazione delle nanotecnologie con la chimica verde, che punta a creare nano-materiali sostenibili e sviluppare applicazioni per ridurre i residui dannosi a salute ed ambiente da smaltire. Il risanamento di terreni inquinati è uno dei problemi che rientrano in questa casistica. Questo può avvenire in situ senza la necessità di scavare ed ex situ con rimozione del terreno seguita da trattamento adeguato in condizioni controllate. La nanotecnologia verde ha trovato applicazioni proprio nei metodi di risanamento in situ, ovviamente i più ambiti per la maggiore semplicità operativa. Il primo aspetto da considerare per dare credito al carattere green è quello relativo alla preparazione/sintesi rispettosa di ambiente e salute. Le sintesi tradizionali avvengono per via chimica, che può essere con tecnologia tradizionale o con tecnologia green: nel primo caso si utilizzano spesso solventi tossici e condizioni sperimentali estreme, consumi energetici elevati, mentre nel secondo caso si impiegano reagenti green, per lo più estratti naturali, condizioni ambientali miti, catalisi chimica con ridotti consumi energetici. Successiva alla sintesi è la caratterizzazione che avviene con tecniche diverse XRD, UV, FTIR.

Sono note due classi di nano-materiali ,l’organica e l’inorganica, la prima costituita principalmente da carbonio, la seconda da metalli nobili come l’oro e l’argento. Un’altra classificazione distingue le nano-particelle in naturali, sintetiche, ingegnerizzate, a seconda della loro origine; quelle metalliche rientrano in quest’ultima classe.

I microrganismi hanno talvolta la capacità di ridurre gli ioni metallici conducendo alla sintesi di materiali in nanoscala; ciò avviene attraverso l’azione di enzimi extracellulari secreti dai microorganismi. I batteri hanno una speciale affinità per i materiali e questa proprietà di legarli li rende particolarmente utili nel nanobiorisanamento. Oltre ai batteri analoghi usi hanno i funghi ed i lieviti, questi ultimi in particolare nei casi di sintesi di grandi quantità di nano particelle, in ragione dell’elevato contenuto proteico di questi microorganismi. Infine in letteratura si trovano molti esempi di sintesi di nanoparticelle a partire da estratti di piante. Esistono numerosi articoli nella bibliografia scientifica che, in funzione delle nano particelle che si vogliono sintetizzare, indicano la piante o il microorganismo più idoneo.

Alcuni esempi: per la sintesi di nanoparticelle di argento i microrganismi o le piante più adatti sono il lievito del pane, lo staffilococco, la magnolia,la trigonella e il ficus; per quelle di oro aspergillus penicillium ed eucalipto; per quelle di ferro escherichia coli, papaya, tè verde, rosmarino.

Questo fra l’altro getta luce sulla pretesa di alcuni che le nanoparticelle che si ritrovano nei cibi o nell’ambiente siano tutte sintomo di inquinamento. Non sembra sia così e secondo alcuni anzi talune nanoparticelle hanno un ruolo nella crescita delle piante. Diciamo che c’è molto da studiare.

Dopo la loro caratterizzazione le nanoparticelle vengono applicate al nanorisanamento del sistema in cui è richiesto di abbattere la concentrazione di composti pericolosi per l’uomo e per l’ambiente. L’azione delle nano particelle si può esplicare attraverso l’adsorbimento con conseguente rimozione dei composti adsorbiti o attraverso la loro proprietà di donatori elettronici che comporta una reazione con le specie ioniche metalliche e con gli elettronaccettori con la trasformazione di questi in specie meno tossiche; tale minore tossicità auspicata deve essere però testata.

Alcuni dei problemi che assillano queste nuove tecnologie sono la perdita di attività nel tempo delle nanoparticelle, il trasporto di queste, l’azione tossica nei confronti dei biocatalizzatori, spesso indispensabili per lo sviluppo di una reazione. I microorganismi del suolo ,ad esempio, sono estremamente importanti per il ciclo naturale dei nutrienti nell’ambiente, proteggendo anche il suolo da eventuali composti contaminanti. Dovendo decidere sul metodo più adatto per risanare un sito contaminato vanno tenuti in conto numerosi aspetti, quali l’efficienza, la complessità, il rischio, la disponibilità di risorse, il tempo necessario, giungendo alla conclusione che non esiste un metodo che soddisfi completamente ed inducendo quindi la convinzione di ricorrere ad una multi-tecnologia.

Alcuni riferimenti.

Nanochem Res 3(1): 1-16, Winter and Spring 2018

Sustainability 2018, 10, 913; doi:10.3390/su10040913

J Nanomed Nanotechnol
 Volume 5 • Issue 5 • 1000233


­ M.H. Siddiqui et al. (eds.), Nanotechnology and Plant Sciences,
DOI 10.1007/978-3-319-14502-0_2

Anshup A, Venkataraman JS, Subramaniam C, Kumar RR, Priya S, Kumar TS, Omkumar RV, John A, Pradeep T. (2005). Growth of gold nanoparticles in human cells. Langmuir, 21 11562–11567.

Chaudhuri GR, Paria S. (2012). Core/shell nanoparticles: classes, properties, synthesis mechanisms, characterization, and applications. Chem Rev, 112 (4) 2373-433.

Dwivedi AD, Gopal K. (2010). Biosynthesis of silver and gold nanoparticles using Chenopodium album leaf extract. Colloids Surf A Physicochem Eng Asp, 369 (1–3) 27–33.

Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650. Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650.

Inaugurazione ufficiale dell’Anno Internazionale della Tavola Periodica

In evidenza

Rinaldo Cervellati

Il 29 gennaio a Parigi, nella sede dell’UNESCO (Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura), ha avuto luogo la cerimonia ufficiale inaugurale dell’International Year of Periodic Table (IYPT).

Ne ha parlato Laura Howes su Chemistry & Engineering News del 30 gennaio (The International Year of the Periodic Table officially kicks off in Paris, C&EN, 97 (5))

Il 2019 coincide con il 150° anniversario del primo articolo di Dmitri Mendeleev che proponeva una classificazione degli elementi conosciuti in un sistema basato sulle loro proprietà fisiche e chimiche, da lui stesso chiamato sistema periodico. Molti interventi alla cerimonia di apertura di martedì 29 hanno riguardato il lavoro di Mendeleev e la sua Tavola Periodica che gli permise di prevedere le proprietà di elementi non ancora noti, che vennero poi effettivamente scoperti in base a queste previsioni. Mendeleev è stato un “vero genio della chimica”, ha detto il premio Nobel Ben Feringa durante il suo discorso di apertura.

Feringa ha anche affrontato un tema condiviso in molti altri interventi: l’importanza della collaborazione internazionale. I chimici “hanno un linguaggio universale che usa gli elementi e le molecole e non ha confini” ha affermato Feringa.

Oltre ai discorsi, l’inaugurazione del 29 gennaio ha previsto tavole rotonde e spettacoli musicali. Fuori dall’auditorium principale, i delegati hanno preso parte a dimostrazioni pratiche di chimica e hanno potuto ammirare una serie di tavole periodiche. Questa collezione comprendeva diversi Tavole realizzate dall’insegnante giapponese Nagayasu Nawa e un Tavola da muro del 1885 scoperta da Alan Aitken mentre stava pulendo l’Anfiteatro delle Conferenze all’università di St. Andrews nel 2014.

Questa Tavola potrebbe essere il più antico esempio al mondo di una tavola periodica usata a scopo didattico.

Parlando alla cerimonia di apertura, la presidente della American Chemical Society, Bonnie Charpentier, ha affermato che l’ACS spera che le società scientifiche e le istituzioni educative si riuniscano nel 2019 per condividere l’importanza della chimica e della tavola periodica. “Non vedo l’ora di vedere tutti i modi in cui si festeggerà l’IYPT e discutere su come possiamo lavorare insieme”, ha aggiunto, rivolgendosi alla platea.

La cerimonia di apertura è stata solo l’inizio dell’IYPT. Eventi e convegni sono stati pianificati per tutto l’anno. Queste manifestazioni includeranno anche il sostanziale apporto, troppo spesso dimenticato o ignorato, delle donne scienziate che hanno contribuito al completamento della Tavola con la scoperta di nuovi elementi e più in generale al progresso delle scienze chimiche.

L’IYPT, con il suo tema sugli elementi come linguaggio comune per la scienza, ha pertanto lo scopo di migliorare la consapevolezza globale e l’educazione nelle scienze di base.

Alla cerimonia inaugurale ha partecipato anche il nostro collega Marco Taddia che rappresenta la Società Chimica Italiana nel Working Party on History of Chemistry di EuChemS (Società Europea di Chimica). Sicuramente Marco scriverà su questa cerimonia su La Chimica & l’Industria, rivista ufficiale della SCI.

In questo 2019 cade anche il 100°anno di fondazione della IUPAC (Unione Internazionale di Chimica Pura e Applicata), con lo scopo di promuovere la comunicazione internazionale nelle scienze chimiche attraverso un linguaggio standardizzato condiviso da tutti i settori, accademico, industriale e pubblico. Come ricordato nel precedente post la IUPAC ha convocato un gruppo di lavoro con il compito di dare una raccomandazione aggiornata sulla struttura della Tavola periodica.

La chimica di Star Trek

In evidenza

Claudio Della Volpe

Alla base della tecnologia di Star Trek c’è una macchina che si vede poco ma che giustifica allo spettatore attento tutte le incredibili cose che si possono fare sulle astronavi della Federazione (dei Pianeti Uniti, che lasciatemi dire, oggi a due minuti dalla mezzanotte nucleare, è ancora più incredibile del resto): il replicatore.

Do per scontato che abbiate anche solo sentito nominare Star Trek anche se non siete appassionati di fantascienza; io sono un lettore di fs da sempre, da quando ho letto Dalla Terra alla Luna; in realtà lo sono diventato nel tempo passando dalla fs ingenua, ipertecnologica degli anni iniziali a quella mano a mano più sottile, psicologica e intelligente, una vera letteratura fantastica, ma mica tanto, che aveva attratto anche persone come Primo Levi.Bene, alla base dell’universo di Star Trek c’è una macchina fantastica che è in grado di ricostituire qualunque oggetto le sia richiesto o che abbia in memoria usando la sua capacità di trasformare energia in materia e formarla a partire dagli atomi e dalle molecole sintetizzate; anche se la riproduzione non è esattissima per evitare di poter sintetizzare esseri viventi dal nulla; un limite etico che richiama le 3 leggi della robotica di Asimov. Nell’universo di ST questo avviene solo quando si teletrasportano esseri già viventi, senza crearli ex-novo. Fa anche il contrario ritrasformando in energia qualunque materia e dunque costituendo un perfetto dispositivo di riciclo. Dunque dovremmo farne una sorta di “santo Graal” del blog.

Senza il replicatore le astronavi della Federazione avrebbero ben poco spazio dovendo trasportare cibo e ricambi; anche l’aria viene ricreata e riciclata dal replicatore, eliminando così molti problemi delle nostre piccole astronavi planetarie.

Il replicatore di ST è basato sulla medesima fisica immaginaria che permette di trasferire le persone e le cose da un punto all’altro dell’universo.

Quando furono inventate le stampanti 3D ci fu chi fece un parallelo fra il replicatore di ST e la nuova tecnologia; ovviamente le stampanti 3D sono una grande idea, ma molto lontana dal replicatore; ma si sa gli inventori non stanno a guardare e se non sanno che una cosa è impossibile è meglio.

Necessario ricordare poi che se dietro Star Trek c’è una fisica (ci hanno anche scritto un libro), dietro le applicazioni reali c’è una chimica molto bella.Sull’ultimo numero di Science è stato pubblicato un articolo che racconta di una nuova tecnologia di stampa 3D che manda in soffitta quella presente (eh si chi ha appena comprato una stampante 3D ci rimarrà male) e apre un intero mondo; la nuova tecnologia consente di stampare in blocco, non a strati, oggetti di forma complessa, anche se inglobano altri oggetti e con una superficie molto ben rifinita: il tutto è controllato da una reazione fotochimica e dalle proprietà fotochimiche del materiale usato, che è un polimero. La stampante è basata su un dispositivo che proietta radiazione in quantità ben controllata nello spazio in cui è contenuto un polimero liquido e fotosensibile; man mano che nell’intervallo di pochi minuti la radiazione si accumula nel liquido in opportuna quantità nelle diverse zone del volume di controllo, si inizia una reazione di polimerizzazione che si conclude rapidamente, a questo punto il polimero non reagito viene eliminato per semplice aggiunta di solvente ed aspirazione e rimane l’oggetto che ci serve. Idea semplice e potente. L’acronimo della nuova tecnica è CAL, Computed Axial Lithography; ci avrei visto bene Tomography, perchè ricorda l’inverso della tomografia; nella tomografia NMR o X le radiazioni consentono di ricostruire la forma dell’oggetto, mentre qui la radiazione consente di costruire l’oggetto, casomai analizzato prima con la tomografia.Il primo oggetto stampato è stato “Il pensatore” di Rodin.

Nature battuta dalla eterna rivale si rifà descrivendo magistralmente la tecnologia:

As the projector cycled through the images, which covered all 360 degrees, the container rotated by a corresponding angle. “As the volume rotates, the amount of light received by any point can be independently controlled,” says Taylor. “Where the total amount exceeds a certain value, the liquid will become solid.”This is because a chemical in the resin absorbs photons and, once it reaches a certain threshold, the acrylate undergoes polymerization — the resin molecules link together into chains to make a solid plastic.

La nuova tecnologia oltre a vantare una superficie finale di altissima qualità può anche usare polimeri senza adattatori di viscosità che servono al flusso nell’ugello della matrice; tutte tecniche ormai da gettar via; dalla luce all’oggetto grazie ad una chimica sofisticatissima. La radiazione generata dal proiettore mentre il contenitore del polimero ancora “liquido” ruota consuma poco a poco l’ossigeno che fa da scavenger ai radicali prodotti; appena la soglia di ossigeno scende la polimerizzazione parte veloce e da luogo all’oggetto così, tutto in una volta, come per magia; osservate il filmato .gif che non ho riprodotto sul blog per motivi di proprietà, ma che potete gustarvi sul sito di Nature. Si possono inglobare materiali di altro genere senza problemi. Il polimero usato è stato ottenuto da una miscela delle sostanze denominate comunemente BPAGDA e PEGDA (3:1) con una viscosità di circa 5200cp. Il fotoiniziatore che è l’antenna che permette di “accumulare” la luce in arrivo integrandone gli effetti è il canforchinone (CQ) (che si usa nelle polimerizzazione dentarie) insieme con l’etil 4-dimetilamminobenzoato (EDAB).canforchinone

BPAGDA

PEGDA

La fotochimica e la chimica dei materiali trasformano un sogno in realtà; speriamo che sia usato bene.

PS (Un sogno lo aveva anche Prince Jerry, giovane immigrato economico, laureato in chimica nel suo paese, ma si è infranto sui binari di Tortona.)

Gli elementi della tavola periodica: Arsenico, As.

In evidenza

Mauro Icardi

L’arsenico è un semimetallo. La parola Arsenico deriva dal termine persiano “Zarnik” ossia “ornamento giallo”. In seguito in greco antico il termine venne mutato in “Arsenicon”. Elemento n° 33 della tavola periodica; esiste in tre forme allotropiche: giallo, nero e grigio; la forma stabile è un solido cristallino grigio-argento, fragile, che si appanna velocemente in aria e ad alte temperature brucia per formare una nube bianca di triossido di arsenico. La forma cristallina gialla e una forma amorfa nera sono inoltre conosciute. Si può trovare in minerali quali l’arsenopirite (FeAsS), il solfuro giallo AS3S,l’ossido di arsenico o arsenolite (As2O3).

(Arsenopirite)

Non è estratto come tale perché deriva dalla raffinazione dei minerali di altri metalli, come rame e piombo. La produzione mondiale di arsenico, sotto forma del relativo ossido, è intorno a 50.000 tonnellate all’anno. La Cina è il paese esportatore principale, seguito da Cile e Messico.
E’ un elemento conosciuto ed usato fin dai tempi degli antichi romani. Gli assassini a quel tempo erano soliti utilizzarlo spalmato sui fichi, per compiere i loro delitti, in quanto i suoi composti sono praticamente insapori. E probabilmente a quel momento si può far risalire la cattiva reputazione di cui gode ancora oggi. In realtà l’uso come veleno, che ebbe il suo massimo favore nel Medio Evo, perse di importanza con l’evoluzione delle tecniche analitiche atte a determinarlo anche in tracce. Ma nonostante tutto è ricordato nella commedia, e poi nel successivo film di Frank Capra “Arsenico e vecchi merletti”, come sinonimo stesso di veleno.Credo che nella memoria di molti sia rimasto anche il capitolo de “Il sistema periodico” di Primo Levi, dove si racconta di come un giovane arrogante e sleale, non trovi di meglio che contaminare, proprio con l’arsenico, mezzo chilo di zucchero che regala ad un suo diretto concorrente. Il concorrente in questione è un altro ciabattino, onesto e signorile. Costui, insospettito dall’inaspettato regalo visto la rivalità che li divide, si recherà al laboratorio da poco aperto da Levi in società con l’amico Alberto Salmoni per farlo analizzare. Le suggestioni letterarie e storiche dell’Arsenico non sono finite, e lo stesso Levi lo ricorda, appena ha lo ha identificato come il contaminante dello zucchero: “ Ecco il precipitato giallo di solfuro, e l’anidride arseniosa, l’arsenico insomma, il Mascolino, quello di Mitridate e di Madame Bovary”.

Emma Bovary, protagonista del romanzo di Gustave Flaubert si suiciderà proprio ingoiando arsenico.

Mascolino invece ci rimanda all’etimologia derivante dal greco dove “Arsen” cioè maschio si riferirebbe alle proprietà ed alla potenza farmacologica di questo elemento. L’arsenico ed i suoi composti nel passato hanno avuto grande importanza in campo medico come farmaci. Composti organici dell’arsenico venivano impiegati per curare la sifilide e la tripanosomiasi, ma l’interesse delle terapie arsenicali è considerevolmente diminuito con l’avvento degli antibiotici. Anche in Italia si è utilizzata come curativa l’acqua arsenicale della valle anzasca.

https://ilblogdellasci.wordpress.com/2015/01/09/la-sorgente-miracolosa-della-valle-anzasca/

L’arsenico è stato molto usato in passato come erbicida, insetticida, conservante del legno, rodenticida e antiparassitario zootecnico. L’arseniuro di gallio viene usato come alternativa al silicio nella realizzazione di circuiti integrati.

Oggi l’arsenico è stato classificato dalla IARC (Agenzia Internazionale per la ricerca sul Cancro) come elemento cancerogeno certo per l’uomo. Il comitato di esperti di Fao ed OMS ha proposto una dose di riferimento per l’assunzione di Arsenico fissando un valore pari a 3 microgrammi/kg per chilo di peso corporeo che può provocare un rischio supplementare rispetto al rischio standard dello 0,5% in più di contrarre tumore al polmone. Ne abbiamo parlato in questo articolo del nostro blog dedicato anche la caso Bangladesh e alle riduzioni dei limiti accettabli nelle acque potabili.Per quanto riguarda il settore idrico l’OMS (Organizzazione Mondiale della Sanità) consiglia una concentrazione massima di 10 microgrammi litro nell’acqua destinata al consumo umano. Sebbene l’arsenico si possa trovare nelle acque superficiali, le acque sotterranee sono la principale fonte di arsenico nell’acqua. È quindi normale riscontrarne la presenza in acque provenienti da fonti collocate in particolare nelle zone di maggiore concentrazione, come Lombardia, Alto Adige, Campania, Toscana e Lazio. Anche vulcani e microrganismi liberano nell’atmosfera grandi quantità di arsenico. Ciò su cui non sembra esserci un accordo è l’incidenza che l’attività umana esercita su questi valori (si veda la nota in fondo). Alcuni ritengono che essa sia irrilevante, soprattutto per quanto riguarda la contaminazione delle falde acquifere. Altri, considerando anche la già citata capacità dell’arsenico di muoversi attraverso gli elementi (aria, acqua, terra), ritengono che l’alterazione di alcuni sistemi naturali abbia ampliato il ciclo dell’arsenico, provocandone la dispersione anche laddove questo elemento non è mai stato presente.

Il ciclo globale dell’Arsenico è mostrato qui sotto :

Referenze o file da consultare:

https://www.inail.it/cs/internet/docs/quaderno-arsenico.pdf?section=attivita

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=12&ved=2ahUKEwiuubWO_5ngAhXNyqQKHYIQDrkQFjALegQIBBAC&url=https%3A%2F%2Fwww.springer.com%2Fcda%2Fcontent%2Fdocument%2Fcda_downloaddocument%2F9783319543543-c1.pdf%3FSGWID%3D0-0-45-1608645-p180676916&usg=AOvVaw15riYwKo3RG5tskXfiKi73

In questo recentissimo articolo di H. Masuda Progress in Earth and Planetary Science (2018) 5:68 https://doi.org/10.1186/s40645-018-0224-3 scaricabile liberamente qui appresso

https://progearthplanetsci.springeropen.com/track/pdf/10.1186/s40645-018-0224-3

trovate una rappresentazione quantitativa del ciclo dell’arsenico che riporto qui sotto (tratta da Matschullat J (2000) Arsenic in geosphere – a review. Sci Total Environ 249:297–312 ) con analisi molto dettagliate:Come si vede, nonostante alcune incertezze,  anche in questo caso le cifre della produzione umana sono enormi anche se inferiori a quelle totali del ciclo naturale.

https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2009.1351  (segnalato da Rosangela Marchelli)

Economia e conoscenza.

In evidenza

Luigi Campanella, già Presidente SCI

La definizione non è mia ma di Paul Romer, premio Nobel per l’Economia 2018, a cui ha dedicato un bellissimo articolo Cesar Hidalgo.

La frase a cui mi riferivo è la seguente: “A differenza dei fattori classici di produzione,come il capitale ed il lavoro, la conoscenza è un bene non competitivo, ovvero può essere condiviso senza che si consumi e quindi come tale potrebbe effettivamente aumentare a livello pro capite, così costituendo il segreto della crescita economica.”

Il modello elaborato negli anni 90 ha affascinato molti giovani che hanno seguito con passione le orme dei maestri. 3 di loro hanno pubblicato un articolo divenuto un caposaldo di questa teoria ed il cui fuoco era sulla diffusione geografica della conoscenza : con una tecnica di corrispondenza , di abbinamento, ad ogni brevetto se ne può accoppiare un altro gemello. Confrontando i 2 brevetti gemelli è possibile verificare come la loro capacità di essere diffusi e conosciuti risenta in misura determinante della vicinanza geografica.

Questa conclusione impone di discutere perchè questo sia un limite ad una conoscenza che Romer aveva giudicato infinita. Per comprendere questo apparente contrasto sono stati svolti ampi dibattiti giungendo alla conclusione che il mondo di internet che sembrava destinato a decentrare i centri di conoscenza, quasi a fare svanire le città, invece non funzionava da elemento uniformante ma al contrario differenziante sempre di più. Un ulteriore elemento a giustificazione di quanto rilevato era rappresentato dalla coautorialità, un vero cappio della geografia intorno al collo della conoscenza. C’era poi un aspetto più generale. La conoscenza è trasportabile, può essere resa disponibile a tutti, ma non è trasferibile in toto: un chimico, quale io sono, sa di chimica, ma può non sapere di musica o sport e viceversa.

La misura della conoscenza totale non ha perciò senso rispetto a quella della conoscenza riferita a ciascuna attività economica. Vale certo il principio della correlazione; l’eventualità che un’economia entri in un certo mercato aumenta a seconda della correlazione fra quell’economia e quel mercato. Nella misura del totale della conoscenza in un’economia, portata avanti successivamente dalla stessa scuola, i rilievi non tenevano conto della correlazione, ma del grado di intensità. Confrontando esiti della misura per Paesi diversi si arriva alla conclusione che i Paesi con maggiore conoscenza totale erano anche i più ricchi: Singapore, ad esempio,con 4 milioni di abitanti, ha una conoscenza totale superiore all’Etiopia con i suoi 80 milioni di abitanti. La conoscenza produttiva non deve necessariamente correlarsi alla popolazione, è una quantità pro capite. Si intravede una delle tesi di questo tipo di studio: la conoscenza intesa come il nuovo PIL.

Per approfondire:

https://blogs.scientificamerican.com/observations/the-rise-of-knowledge-economics/

Scienziate che avrebbero potuto aspirare al Premio Nobel: Elizabeth Rona (1890-1981)

In evidenza

Rinaldo Cervellati

Elizabeth Rona è stata un chimico nucleare, una delle prime quattro persone a scoprire l’uso dei marcatori radioattivi in vari campi della scienza.

Elizabeth Rona nacque il 20 marzo 1890 a Budapest, in Ungheria, da Samuel Rona e Ida Mahler. Suo padre era un noto medico ebreo che installò uno dei primi schermografi a raggi X a Budapest e lavorò con i fondatori della terapia del radio al fine di introdurre questa tecnica anche in Ungheria. Elizabeth voleva diventare un medico come suo padre, ma Samuel credeva che sarebbe stato troppo difficile per una donna raggiungere questo traguardo. Stimolò comunque l’interesse della figlia per le scienze fin dalla giovane età, incoraggiandola a intraprendere studi universitari scientifici. Elizabeth si iscrisse quindi alla Faculty of Philosophy dell’Università di Budapest, studiando chimica, geochimica e fisica. Conseguì il dottorato di ricerca in chimica nel 1912, discutendo una tesi sulla cinetica della bromurazione degli alcooli primari, sotto la guida del Dr. Stefan Bugarszky, tesi che fu poi pubblicata con solo il suo nome [1].

Elizabeth Rona da giovane

Rona iniziò la sua formazione professionale nel 1912 al Kaiser Wilhelm Institute e all’istituto di Fisiologia Animale di Berlino studiando il comportamento dei lieviti come reagenti. Nell’ottobre 1913 si trasferì all’università di Karlsruhe con l’intenzione di lavorare con il noto chimico-fisico George Breding, ma fu consigliata di scegliere piuttosto Kasimir Fajans[1] che stava lavorando nel nuovo e eccitante campo della radioattività. Nel gruppo di Fajans fu benvenuta e trattata subito come qualsiasi altro membro del gruppo di ricerca. E’ del 1913 la scoperta di Fajans e del suo studente di dottorato Oswald Göhring del radionuclide di un nuovo elemento che fu poi chiamato protoattinio. Con Fajans, Rona ebbe un ottimo rapporto professionale e rimasero in corrispondenza costantemente. Per approfondire le conoscenze di radiochimica, Rona si recò, nell’estate 1914, all’University College di Londra, ma lo scoppio della prima Guerra Mondiale la costrinse a tornare in Ungheria. All’Istituto di Chimica dell’Università di Budapest completò una lunga ricerca sul radon, il gas nobile radioattivo emesso dal radio [2]. A quei tempi era tornato a Budapest anche George de Hevesy[2] che a Vienna aveva studiato (insieme a F. Paneth, 1887-1958) il radionuclide ThB[3] (oggi Pb-212) trovandolo identico al Pb-206-207-208, tranne che per la radioattività. Favorevolmente impressionato dal lavoro che Rona stava facendo sul radon, Havesy le chiese di verificare la scoperta di un nuovo elemento radioattivo, chiamato Uranio-Y (oggi Th-231), scoperto a Manchester, che Frederick Soddy[4] e A. Flecks non erano riusciti a confermare. Elizabeth seguì il consiglio di Hevesy e riuscì a separare U-Y da altri interferenti, dimostrando che si trattava di un emettitore β con un’emivita di 25 ore [3].

  1. Hahn e poi F.Soddy riverificarono il lavoro di Rona, da quel momento Elizabeth Rona non fu più “solo una giovane chimico”.[4]

Elizabeth Rona in laboratorio

Nelle discussioni con Hevesy, Rona introdusse per prima i termini “etichette isotopiche“ e “traccianti”, e nel lavoro citato in [3] notò che la velocità di diffusione dei nuclidi dipendeva dalla massa. Sebbene contenuta in una nota a piede di pagina questa osservazione è alla base dello sviluppo della tecnica di separazione con la spettrometria di massa, utilizzata anni dopo da altri scienziati [4]. Nel 1918 Hevesy lasciò Budapest, il suo posto fu affidato a Franz Tangl, noto biochimico e fisiologo dell’Università di Budapest che offrì a Rona una docenza. Insegnò quindi chimica a studenti selezionati che Tangl riteneva non avessero conoscenze sufficienti per seguire il suo corso. Rona divenne così la prima donna a insegnare chimica a livello universitario in Ungheria.

Dopo la fine della Grande Guerra, l’Ungheria attraversò un periodo di grande instabilità sociale e politica, Rona infine accettò l’invito di Otto Hahn a recarsi al Kaiser Wilhelm Institute dove collaborò a separare lo ionium (oggi noto come Th-230) [5]. Oltre alla sua competenza scientifica, Rona parlava correntemente inglese, francese, tedesco oltre ovviamente all’ungherese.

Dopo un breve ritorno in Ungheria, Rona si unì nel 1924 allo staff di Stefan Meyer[5] all’Istituto di Ricerca sul Radio di Vienna. Le sue ricerche a Vienna si focalizzarono sul polonio, come sorgente radioattiva alternativa al radio.

Nel 1926 si recò quindi a Parigi da Irène e Frederic Joliot-Curie[6] per studiare e impratichirsi delle tecniche di separazione degli isotopi del polonio. All’Istituto Curie, Rona sviluppò un metodo avanzato per la preparazione di sorgenti di polonio emittenti particelle α[7]. Riportò queste competenze all’Istituto di Ricerca di Vienna, insieme a una piccola sorgente molto concentrata di polonio. Ciò le permise di preparare esemplari di laboratorio di polonio, che furono usati in gran parte della ricerca successiva dell’Istituto.

Elizabeth Rona con  Berta Karlik, Elizabeth Kara-Michailova, e un’altra ricercatrice.

Le sue capacità la portarono a collaborare con diversi colleghi a Vienna, in particolare con Marietta Blau (1894-1970)[8] [6] e con Hans Pettersson[9]. Nel 1928, Pettersson le chiese di analizzare un campione di sedimento di fondo marino per determinarne il contenuto di radio. Dato che il laboratorio in cui lavorava era contaminato, Rona portò i campioni al laboratorio oceanografico della stazione di ricerca marina di Bornö in Svezia, che diventerà la sua destinazione di ricerca estiva per i successivi 12 anni, culminati nella raccolta dei risultati delle ricerche in un libro in collaborazione con altri componenti dell’Istituto di Vienna [7].

Le sue analisi con Berta Karlik[10] sulle emivite dell’uranio, del torio e dell’attinio fecero da apripista al metodo di datazione con radioisotopi [8]. A Rona e Karlik fu assegnato il premio Haitinger dell’Accademia Austriaca delle Scienze nel 1933, prime donne a ottenere questo prestigioso riconoscimento.

Nel 1934, Rona tornò a Parigi da Joliot-Curie, lo scopritore della radioattività artificiale. Si può quindi affermare che Elizabeth Rona fu pioniera nell’uso di isotopi radioattivi artificiali in medicina, così come lo era stata per quelli naturali [4].

L’anno seguente ritornò a Vienna per condividere ciò che aveva appreso con un gruppo di ricercatori fra i quali Pettersson e Ernst Føyn.[11] I loro studi si incentrarono sulla ricerca degli effetti causati dal bombardamento dei nuclei atomici con i neutroni. Nel 1932 il fisico inglese James Chadwick aveva fatto la scoperta sperimentale del neutrone, la particella neutra contenuta nel nucleo degli atomi, ipotizzata fin dal 1920. Fu presto scoperto che i nuclei di certi elementi bombardati con particelle α emettevano neutroni che a loro volta potevano essere usati come proiettili più efficaci delle particelle α.

Dopo l’annessione dell’Austria alla Germania nazista del 1938, Rona e Marietta Blau lasciarono l’Istituto di Ricerca sul Radio a causa delle loro origini ebraiche e della persecuzione antisemita che avevano subito in laboratorio. Rona tornò una prima volta a Budapest lavorando in un laboratorio industriale, ma nel giro di poco tempo il posto fu eliminato. Lavorò Dall’ottobre al dicembre 1938 in Svezia, quindi accettò un posto temporaneo per un anno all’Università di Oslo, che le era stato offerto da Ellen Gleditsch (v. nota 10). Al termine del suo anno a Oslo, Rona tornò in Ungheria dove fu chiamata a fare la preparatrice del radio per scopi medici al Radium-Cancer Hospital di Budapest.

Ma gli eventi della II Guerra Mondiale convinsero Rona a cercare di ottenere un visto per gli Stati Uniti. Con un visto turistico partì per gli USA all’inizio del 1941. Dopo un inizio molto incerto, incontrò, a un Convegno dell’American Physical Society, il fisico austriaco Karl Herzfeld[12], che la aiutò a farle avere un posto di insegnante al Trinity College di Washington, DC. Durante questo periodo, fu premiata con una borsa Carnegie per ricerche presso il Geophysical Laboratory del Carnegie Institute, lavorando sull’analisi dell’ acqua di mare e di sedimenti marini. Tra il 1941 e il 1942, ha condotto un lavoro alla Carnegie in collaborazione con l’Istituto oceanografico Woods Hole, misurando la quantità di radio nell’acqua di mare e nelle acque fluviali. Il suo studio, completato nel 1942, mostrò che il rapporto tra il radio e l’uranio era più basso nell’acqua di mare e più alto nelle acque di fiume.

Fu poi contattata per il Progetto Manhattan. Il suo status privo di cittadinanza non le impedì di lavorare per l’Ufficio di Ricerca e Sviluppo Scientifico, a cui fornì i suoi metodi senza compenso. Prima del Progetto Manhattan, il polonio era stato usato solo in piccoli campioni, ma il progetto proponeva di usare sia il polonio che il berillio per ottenere una reazione che costringesse i neutroni a essere espulsi e innescare la reazione di fissione richiesta per la bomba atomica. Gli impianti per trattare il plutonio, basati sulle sue specifiche, furono costruiti nel deserto del New Mexico nei laboratori di Los Alamos, ma a Rona non furono forniti dettagli. In effetti, la segretezza che circondò il progetto rende difficile sapere se qualcuno degli scienziati che non vi lavorarono direttamente sapesse in dettaglio a cosa servivano i propri contributi.

Elizabeth Rona in età matura

Rona lavorò anche per l’Ufficio sugli Effetti delle Radiazioni sugli Umani, lei stessa aveva utilizzato scarse protezioni e descrisse i danni alle ossa, alle mani e ai polmoni negli scienziati che studiavano la radioattività in un libro pubblicato nel 1978 due anni prima della morte [9].

Nel 1947, iniziò a lavorare presso l’Argonne National Laboratory dell’Università di Chicago concentrandosi sulle reazioni di scambio ionico e pubblicando diversi lavori per la Commissione per l’Energia Atomica degli USA. Nel 1948 fu naturalizzata cittadina statunitense. Nel 1950, iniziò un lavoro di ricerca presso l’Oak Ridge Institute of Nuclear Studies come chimico e scienziato senior in studi nucleari. In questo periodo, collaborò con la Texas A & M University sulla geocronologia dei sedimenti del fondo marino, datando i campioni in base alla stima del loro decadimento radioattivo. Si ritirò da Oak Ridge nel 1965 per andare a insegnare all’Istituto di Scienze Marine dell’Università di Miami. Rona si ritirò per la seconda volta nel 1976 e ritornò nel Tennessee. E’ morta a Oak Ridge il 27 luglio 1981.

Bibliografia

[1] E. Rona, Über die Geschwindigkeit der gegenseitigen Wirkung des Broms und der einwertigen, gesättigten aliphatischen Alkohole in wässeriger Lösung. (On the rate of mutual action of the bromine and the monohydric, saturated aliphatic alcohols in aqueous solution.), Z. Phys. Chem., 1913, 82U, 225-248.

[2] E. Rona, The diffusion constant and atomic diameter of the radium emanation. (in ungherese), Magyar Chemiai Folyóirat, 1917, 23, 156.

[3] E. Rona, About Uranium Transformations. (in ungherese), Mathematikai és Természettudományi Értesítő, Budapest, Hungary., 1914, 35, 350.

[4] M. Brucer, Elizabeth Rona (1891?-1981)., J. Nucl. Med., 1982, 23, 78-79.

[5] E. Rona, On the Ionium Content in Radium residues. (in tedesco)., Berichte der Deutschen Chemischen Gesellschaft (A and B Series),192255, 294–301.

[6] M. Blau, E. Rona, Application of the chemical photographic method for testing the chemical behavior of polonium. (in tedesco)., Sitzungsberichte Akademie der Wissenschaften Wein Math-naturwissenschaften, 19302A (139), 276–279.

[7] E. Rona, E. Föyn, B. Karlik, H. Pettersson, The Radioactivity of seawater. Elanders, Göteborg, Svezia, 1939.

[8] https://upclosed.com/people/elizabeth-rona/

[9] E. Rona,  How it came about: radioactivity, nuclear physics, atomic energy. Oak Ridge, Tennessee, Oak Ridge Associated Universities,1978.

[1] Kazimierz (Kasimir) Fajans (1887 – 1975) chimico fisico polacco di origine ebraica, poi nturalizzato statunitense, è stato un pioniere della scienza della radioattività e scopritore dell’elemento protoattinio.

[2] George Charles de Hevesy (1885 – 1966) è stato un radiochimico ungherese, Premio Nobel per la Chimica 1943: “per il suo lavoro sull’utilizzo degli isotopi come traccianti nello studio dei processi chimici”,  scopritore dell’elemento afnio.

[3] Va ricordato che a quei tempi i nuovi radionuclidi venivano ancora considerati “elementi”, ed era problematico inserirli nella tavola periodica. Il termine isotopo, che significa stesso posto, fu introdotto nel 1913 in un famoso articolo di F. Soddy e non fu subito accettato. Ne ha parlato Giorgio Nebbia su questo blog: https://ilblogdellasci.wordpress.com/2013/12/06/soddy-e-la-scoperta-degli-isotopi/

[4] Frederick Soddy ( 1877 – 1956) radiochimico inglese, dimostrò che la radioattività è dovuta alla trasmutazione di elementi in altri, Premio Nobel per la chimica 1921 “per il suo contributo alla conoscenza della chimica delle sostanze radioattive, e per i suoi studi sulle origini e la natura degli isotopi. Provò l’esistenza di isotopi di alcuni elementi radioattivi.

[5] Stefan Meyer (1872 – 1949) fisico austriaco impegnato nella ricerca sulla radioattività. Divenne direttore dell’Istituto per la Ricerca sul Radio a Vienna e ricevette il Premio Lieben nel 1913 per le sue ricerche sul radio.

[6] Famosissima coppia di scienziati. Irène, figlia di Marie Curie e Frederick Joliot, entrambi fisici interessati alle ricerche sulla radioattività ottengono entrambi il Premio Nobel per la Fisica 1935 “in riconoscimento della loro sintesi di nuovi elementi radioattivi”.

[7] A quei tempi la radioattività artificiale veniva prodotta per bombardamento con particelle α e il polonio, residuo del radio, era un ottimo emettitore alfa.

[8] Di Marietta Blau abbiamo scritto sul blog:

https://ilblogdellasci.wordpress.com/2018/04/18/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-marietta-blau-1894-1970/

[9] Hans Petterson (1888-1966), fisico e oceanografo svedese si interessò inizialmente di fisica atomica, per passare poi all’oceanografia. Professore di geofisica in Svezia e all’università delle Hawaii, fu a capo di diverse spedizioni oceanografiche. Autore di molti testi scientifico-divulgativi che hanno contribuito a diffondere l’interesse per l’ oceanografia al grande pubblico.

[10] Berta Karlik (1904-1990) fisico austriaco, ha scoperto gli isotopi radioattivi natutali dell’Astato studiando la loro emissione α e misurò il contenuto di uranio dell’acqua marina. Fu insignita per la seconda volta del Premio Haitinger nel 1947. Altre donne diedero importanti contributi in fisica nucleare e radiochimica, ad esempio Elizabeth Kara-Michailova (1897-1968) e Ellen Gleditsch (1879-1868).

[11] Johan Ernst Fredrik Føyn (1904 – 1984)  chimico e oceanografo norvegese, ha studiato la radioattività degli oceani marini e il loro inquinamento.

[12] Karl Ferdinand Herzfeld (1892 – 1978), fisico teorico austriaco naturalizzato americano si interessò di teoria cinetica dei gas, meccanica statistica e quantomeccanica. Dal 1926 si stabilì definitivamente negli USA.

Donne da ricordare e cose da ricordare per le donne (e per gli uomini).

In evidenza

Claudio Della Volpe

Nei numerosissimi post pubblicati in questo blog e scritti da Rinaldo Cervellati, dedicati alle donne scienziate che avrebbero potuto vincere il Nobel od avere comunque un ruolo di primo piano in ambito scientifico si è evidenziato ripetutamente il percorso difficile e lungo che si è seguito a partire dalla metà dell’800 fino ad oggi (non è ancora terminato) verso una effettiva parità delle opportunità di genere.

In occasione del 27 gennaio, giornata della memoria, quest’anno riprendiamo dall’oblio i nomi di alcune donne che si occuparono di Chimica nei momenti più bui per il nostro paese.

L’oscurità per le donne era cominciata presto, appena dopo la conquista del potere da parte del movimento fascista. Basta guardare la sequenza legislativa.

Negli anni fra il 1900 e il 1919 era iniziato, a partire dalla cosiddetta legge Carcano un percorso di emancipazione:

la legge 242/1902 che introduce il congedo di maternità, limita a dodici ore giornaliere l’orario massimo di lavoro per la manodopera femminile, vieta alle donne i lavori sotterranei e proibisce l’impiego delle minorenni nel lavoro notturno e per mansioni pericolose e insalubri;

fu seguita dal Regio decreto 1905 che apre alle donne l’insegnamento nelle scuole medie; dalla legge 816/1907 che vieta alle donne il lavoro notturno in ottemperanza alla convenzione di Brema del 1906;

poi la legge 520/10 che Istituisce la Cassa di Maternità per dare un sussidio fisso uguale per tutte durante il congedo obbligatorio

ed infine la Legge 1176/1919, la legge Sacchi, che cancella l’autorizzazione maritale e ammette le donne ad esercitare tutte le professioni, escluse quelle che «implicano poteri pubblici giurisdizionali o l’esercizio di diritti e di potestà politiche o che attengono alla difesa militare dello Stato»

Anna Maria Mozzoni antesignana dell’emancipazione della donna in Italia

Anna Kuliscioff

Maria Montessori

Eleonora Duse

Questo percorso emancipativo si interrompe bruscamente con il potere fascista; il governo più lungo nella storia dell’Italia unita, rimane in carica dal 31 ottobre 1922 al 25 luglio 1943; e già nel 1923 il neoministro Gentile realizza una famigerata riforma rimasta in vigore anche ben dopo la caduta del fascismo; in quella legge,

Regio Decreto 1054/1923, la cosiddetta Riforma Gentile (quella che ha escluso i chimici dall’insegnamento di Chimica nei licei) si inizia a proibire alle donne la direzione delle scuole medie e secondarie;

col Regio Decreto 2480/1926 si continua proibendo alle donne l’insegnamento della filosofia, della storia e dell’economia nelle scuole secondarie;

con le scelte economiche deflazionistiche che portarono alla cosiddetta quota 90 nel cambio si aumentarono le tasse del 20% sui salari e il 20 gennaio 1927 furono dimezzati con un decreto i salari femminili. Dopo l’instaurarsi delle crisi economica mondiale del 1929 la situazione portò ad ulteriori restrizioni per il lavoro femminile; nel 1933 al culmine della crisi si vietò alle donne (e ai pensionati) in cerca di occupazione di iscriversi nelle liste di collocamento. Negli anni successivi la pubblica amministrazione potè discriminare le donne nelle assunzioni, escludendole da una serie di pubblici uffici (Legge 22/1934) ed il Regio Decreto 15/10/1938, che vieta ai datori di lavoro pubblici e privati di assumere più del 10% di donne. Esclusi solo i lavori considerati particolarmente “adatti” alle donne. Tutte queste scelte restrittive oltre alle motivazioni economiche avevano come scopo di rafforzare l’idea che il compito delle donne era quello di stare a casa e fare e crescere i figli. In quindici anni, dal 1921 al 1936, la percentuale delle donne che svolgevano attività extradomestiche passò dal 32,5 per cento al 24 per cento. ( da L’avventurosa storia del femminismo di Gabriella Parca Arnoldo Mondadori Editore S.p.A. – Milano – Prima edizione Collana Aperta maggio 1976)

Marussia Bakunin, figlia di Mikail e zia di renato Caccioppoli

C’è da ricordare che nel 1925 le donne ebbero la possibilità di votare nelle elezioni locali; ma tali elezioni vennero eliminate l’anno successivo. Dovettero aspettare il 1945 per avere il diritto di votare alle politiche.

E’ questo il quadro in cui dobbiamo valutare la forza di carattere e l’impegno profuso da quelle donne che nonostante tutto studiarono e si laurearono impegnandosi nell’insegnamento e nella ricerca.

Ricordiamo qui quattro casi che hanno a che fare con le discriminazioni ebraiche ma che non sono gli unici casi di donne discriminate ovviamente.

I testi sono stati estratti da un sito molto bello dedicato alle donne nella scienza che vi invito a leggere:

http://scienzaa2voci.unibo.it/

Vita Nerina (chimica) a Bologna;

Nerina Vita nacque a Bologna il 29 settembre 1891. Frequentò l’istituto tecnico “Pier Crescenzi”, ottenendo la licenza fisico-matematica con sessantaquattro punti su ottanta il 25 ottobre 1909. Nel 1910 si iscrisse alla Facoltà di scienze matematiche, fisiche e naturali dell’Università di Bologna, laureandosi il 14 novembre 1914, in chimica pura, con la tesi: Sulla trasformazione degli alcaloidi (studio sul seme del lupino) (108/110). Suo relatore fu il noto chimico Giacomo Ciamician.

Nell’anno accademico 1914-15, dopo la laurea in chimica, si iscrisse alla Facoltà di farmacia del medesimo Ateneo. Il 30 gennaio 1916 scrisse poi una lettera al rettore sottoponendogli la propria domanda di congedo per trasferirsi nella stessa facoltà a Parma, città ove era allora domiciliata in quanto assistente nel laboratorio di chimica di quella università. Nel 1934 ottenne l’abilitazione alla libera docenza: a quel tempo era aiuto presso la cattedra di chimica industriale nella Scuola superiore di chimica industriale di Bologna. L’anno successivo passò un brevissimo soggiorno presso la Stazione zoologica di Napoli per apprendere la cosiddetta ‘tecnica Warburg’ per la misurazione del consumo di ossigeno nelle cellule.

Nel 1939, a seguito delle leggi razziali, venne dichiarata decaduta dall’insegnamento. Con la sorella Elda si recò allora clandestinamente in Svizzera: tornò in Italia solo alla fine della guerra. Venne riammessa all’insegnamento il 7 giugno 1945.

Tra il 1959 e il 1960, la direzione della pubblica istruzione la sollecitò affinché regolarizzasse la sua posizione di libera docente; Nerina rispose di non aver proceduto a causa delle proprie condizioni di salute malferma.

Clara Di Capua Bergamini (chimica) a Firenze;

Allorquando, nel 1938, le leggi razziali promulgate dal regime fascista privarono i cittadini italiani di origine ebraica dei diritti civili  e politici, Clara Di Capua era aiuto ordinario di chimica analitica, libero docente di chimica generale nonché professore incaricato di chimica applicata presso la Facoltà di medicina dell’Università di Firenze. In quanto ebrea e nonostante si dichiarasse aconfessionale fu estromessa dal proprio incarico. A nulla valse la sua operosità scientifica per la quale un anno prima era stata premiata.  Aveva sposato Mario Bergamini, libero docente di odontoiatria nel medesimo ateneo. Nel 1944 venne reintegrata come incaricato, libero docente e aiuto.

Angelina Levi (farmacologia) a Modena;

Nata ad Ancona il 10 maggio 1892 da Guido e Sara Carola Castelli, nel 1929 entrò in qualità di aiuto ordinario e libera docente di farmacologia e tossicologia nell’Istituto di farmacologia dell’Università di Modena, diretto da G.M. Piccinini. Nel 1931 fu ammessa nella Società dei naturalisti e matematici di Modena. Qui esordì con una comunicazione tenuta il 30 gennaio circa le proprietà curative di un principio chimico, la periplocina, estratto da una pianta asclepiadea assai diffusa in Italia ma ancora poco studiata, la Periploca graeca; principio che, sembrava, potesse essere validamente usato nella cura delle affezioni cardiache.
Lo studio degli effetti di droghe digitaliche sul sistema cardio-circolatorio fu al centro di altre due comunicazioni, entrambe pubblicate nel 1933 negli «Atti» della Società, relative ad una sostanza estratta da una pianta del genere Acokanthera, proveniente dalla Somalia, e fatta pervenire al laboratorio di Modena, per le necessarie analisi tossicologiche, dall’Istituto di patologia coloniale. I risultati evidenziarono la presenza di principi cardioattivi, le strofantidine, da utilizzare come farmaco naturale.
Le indagini farmacognostiche e chimiche rappresentavano, infatti, il filone principale delle  ricerche della Levi, la quale si era altresì occupata di sperimentazione animale allo scopo di verificare gli effetti della somministrazione di preparati iniettabili a base di ferro, piombo e zinco in organismi affetti da neoplasie. L’idea di fondo era quella di controllare la risposta del sistema reticolo endoteliale (un insieme di cellule del sistema immunitario) al quale, correttamente, si attribuiva un’azione di difesa dell’organismo. Ne erano scaturiti un paio di lavori, rispettivamente del 1928 e del 1930, pubblicati sull’«Archivio di farmacologia sperimentale e scienze affini» e «Arch. Inter. de Pharmacod. et de Therap. ».
Aveva quindi testato l’azione dell’arsenico in una serie di sperimentazioni analoghe di cui diede notizia nel 1935 anche sul «Bollettino della Società medico chirurgica di Modena».
Nello stesso anno erano pure uscite, nelle pagine del «Bollettino della Società italiana di biologia sperimentale», altre due note nelle quali esponeva i risultati di ricerche istologiche compiute sugli apparati nervosi terminali del muscolo gastrocmenico (il più superficiale dei muscoli della regione posteriore della gamba) di rane sottoposte ad una intossicazione cronica da glicerina, stricnina e curaro. Due anni dopo, aveva raccolto dati anche rispetto alla caffeina e alla nicotina e proceduto ad un esame comparativo degli effetti istologici di questi cinque farmaci.
La sua attività, spesso condotta in collaborazione con allievi interni dell’Istituto, venne bruscamente interrotta nel 1938, allorquando, a causa delle leggi razziali promulgate dal regime fascista fu radiata dall’Università di Modena per la sua origine ebraica. Come conseguenza indiretta del provvedimento assunto dall’ateneo, ovvero in assenza di una precisa disposizione del Consiglio direttivo, perse la qualifica di membro della Società dei naturalisti e matematici, ove,  su proposta del presidente Giorgio Negodi e all’unanimità, fu reintegrata nel 1945.
Negli anni seguenti partecipò attivamente alla vita della Società ricoprendo all’interno del Consiglio di presidenza la carica di revisore dei conti dal 1951 al 1955; indi, di consigliere fino al 1957. Continuò altresì a pubblicare negli «Atti»: nel 1948 riferì sulle proprietà analgesiche dei derivati della Cannabis; mentre, nel 1949  illustrò l’azione di alcune sostanze farmacologiche (mianesina, tionarcon, stricnina) sull’attività colinesterasica del tessuto nervoso centrale e del sangue.

Ada Bolaffi (chimica biologica) farmacista

Questo nome è presente su internet come quello di una donna chimica che subì gli effetti della legge del 1938 sulla discriminazione antiebraica, ma non ci sono dati biografici precisi; è anche elencata in nota nell’articolo di Albini e Vita-Finzi citato in fondo; laureata a Firenze fu libera docente a Milano; chi ne sa di più?

 

Aggiungerei un altro nome, ricordato dal bell’articolo di Albini e Vita-Finzi, che sono due soci della SCI, sul tema generale degli effetti delle leggi razziali del 1938; in quell’articolo si testimonia come la collettività ebraica e le donne reagirono alle nuove limitazioni; l’articolo, che è liberamente scaricabile al link qui sotto, ricorda fra l’altro la storia esemplare di Lia Foà che studiò nei corsi organizzati dalla comunità ebraica e completò gli studi universitari prima a Losanna e poi a Pavia e che testimonia della volontà di reagire della comunità ebraica e delle donne.

Ed infine, anche se non era una chimica, ricordo qui Enrica Calabresi, zoologa a Ferrara, che per non farsi deportare si suicidò.

In questo post non ci sono fotografie delle donne citate perché non ne ho trovate.

Riferimenti.

https://womenforwomenitaly.com/donne-leggi-dal-1902-ad-oggi/

http://www.memorieincammino.it/file/2017/01/Una-storia-poco-nota.-Le-leggi-razziali-e-la-chimica.-Milano-1941-di-A.Albini-e-P.Vita-Finzi.pdf

http://scienzaa2voci.unibo.it/

https://www.storiadifirenze.org/?temadelmese=ottobre-1938-lespulsione-dei-docenti-ebrei-dalluniversita-di-firenze

Economia circolare, fonti energetiche rinnovabili, cambiamento di stile di vita ….

In evidenza

Fabio Olmi*

 … tra indispensabile praticabilità reale e qualche “ma” tecnico (**).

Ormai non passa giorno che non compaiano sui giornali articoli sulla economia circolare, il riciclo dei materiali e la sostituzione delle energie di origine fossile con quelle rinnovabili. Questo sarebbe positivo e indice di aumento della sensibilità per tematiche di assoluta importanza per alimentare uno sviluppo sostenibile e cercare di combattere il riscaldamento globale, peccato che spesso si generalizzano situazioni al di là del possibile o peggio si contrabbandino idee sbagliate.

Il riciclo dei materiali

Affrontiamo brevemente la prima tematica. La promozione dell’economia circolare e la massimizzazione della raccolta differenziata dei rifiuti è senz’altro una pratica da spingere al più elevato tasso possibile[1], tuttavia la separazione di carta, plastiche, vetro e umido (organico), ciascuna incanalata nella propria filiera di recupero, non può mai esaurire tutto il materiale di rifiuto e sarà sempre accompagnata da una frazione NON differenziabile e, al momento, non più riciclabile. E anche nel recupero delle altre frazioni differenziate si ha sempre al loro interno una parte di materiale non più riciclabile e quindi non reimpiegabile all’interno delle singole filiere. Questo non sembra essere sufficientemente noto. Facciamo alcuni esempi.

Nella zona di Lucca sono ampiamente diffuse varie industrie per la fabbricazione della carta[2]. Ebbene anche questo materiale, che potrebbe sembrare riciclabile al 100%, comporta un residuo allo stato attuale non riciclabile: si tratta di vari tipi di rifiuti della lavorazione di polpa, carta e cartone che dipendono dal ciclo di lavorazione. Il Codice Europeo dei Rifiuti (CER) [3] indica, ad esempio, scarti della separazione meccanica nella produzione di polpa da rifiuti di carta e cartone, fanghi prodotti dai processi di disinchiostrazione del riciclaggio della carta , ecc. Un recente articolo apparso su La Repubblica[4] mette in evidenza il problema e l’industria locale ha progettato un termovalorizzatore per il recupero almeno energetico di quest’ultima frazione. Tuttavia l’opposizione dell’opinione pubblica ne ha bocciata la realizzazione. Dove vengono smaltiti gli scarti di produzione? Per ora per la maggior parte continuano ad intasare i depositi delle varie industrie. Di recente, dopo alcuni anni di ricerca e sperimentazione, il gruppo Sofidel[5] ha messo in produzione un materiale che sfrutta una frazione dei rifiuti di lavorazione della carta per produrre, miscelandoli con plastiche di riciclo, pancali. Il 12% del materiale di impasto è formato da residui della lavorazione della carta: speriamo che questo sistema consenta un buon riciclo di almeno parte di tali residui e che la ricerca consenta in futuro di aumentare sempre più il riciclo.

Altro esempio è il caso del tessile a Prato (il distretto tessile pratese è il più grande d’Europa e conta circa 7000 imprese di cui 2000 nel tessile in senso stretto: tessuti per l’industria dell’abbigliamento, filati per la maglieria, tessuti per l’arredamento, ecc.)       e il problema qui è diventato più acuto quando gli scarti del tessile, pari a circa 50.000 tonnellate annue, sono stati riclassificati da Rifiuti Solidi Urbani (RSU) a Rifiuti Speciali (RS) e gli impianti per smaltimento di RS in Toscana mancavano e mancano. Questi rifiuti sono di vario tipo (Codice CER 04): rifiuti da materiali compositi (fibre impregnate, elastomeri, plastomeri), materiale organico proveniente da prodotti naturali (ad es. grassi e cere), rifiuti provenienti da operazioni di finitura contenenti solventi organici, rifiuti da fibre tessili grezze, ecc.[6] È chiaro che, a parte criminali che hanno imboccato scorciatoie illecite, le aziende serie hanno trasportato i rifiuti finali della lavorazione all’inceneritore di Brescia o Terni o addirittura in Austria e i costi di smaltimento, ad esempio, dei ritagli e della peluria, sono raddoppiati, mettendo in crisi molte aziende. La peggiore soluzione per lo smaltimento di rifiuti classificabili come RSU (come quelli delle cartiere) è quella, largamente diffusa nel nostro paese, di gettarli in discarica. Invece anche questa frazione potrebbe essere valorizzata ricavando da essa energia in appositi impianti di termovalorizzazione. Marcello Gozzi, Direttore di Confindustria Toscana Nord, sostiene che non c’è economia circolare senza termovalorizzazione che trasforma in energia lo scarto ultimo del riciclo[7]. In questo modo si avrebbe come residuo finale solo una piccola quantità di ceneri. C’è chi sostiene che questo processo risulterebbe inquinante per l’aria e dunque per l’ambiente e per la salute. Esistono però ormai molti esempi di termovalorizzatori realizzati anche in centro di città come Vienna e, per rimanere in Italia, Brescia[8] che, fatti funzionare opportunamente a determinate temperature e

Fig.1 Schema di un sistema di economia circolare

con moderni sistemi di depurazione dei fumi, rendono estremamente bassi gli inquinanti nei fumi di scarico. Concludendo, non è sufficiente fare la sola differenziata e riciclare le singole frazioni differenziate: anche nel caso dell’attuazione integrale dell’economia circolare si avrà sempre una frazione finale di rifiuti , sia pure piccola, non più riciclabile.

Sfruttando un’immagine particolarmente chiara di questo processo riporto una figura (Fig.1) presente in un bellissimo, ampio e ben documentato articolo del prof. Vincenzo Balzani dell’Università di Bologna apparso recentemente sull’organo ufficiale della Società Chimica Italiana,“La chimica e l’industria”[9]. Anche se non riusciremo a sfruttare anche quest’ultima frazione dei nostri residui e dovessimo ricorrere all’uso della discarica questa accoglierebbe quantità di residui estremamente ridotte. Non c’è dubbio, infine, che nella costruzione dei nostri manufatti di ogni tipo, si dovrà prestare sempre maggiore attenzione a rendere facilmente separabili e recuperabili i componenti di natura diversa (metallo, plastica, vetro, ecc.) con cui vengono costruiti.

Le energie rinnovabili

Affrontiamo brevemente la seconda tematica. Le fonti di energia rinnovabile costituiscono la risposta al problema della disponibilità di energia sostenibile al più basso impatto inquinante e c’è chi sostiene che esse potrebbero soddisfare l’intero fabbisogno energetico dei vari Paesi sostituendo completamente i combustibili fossili (carbone, petrolio, gas naturale). Sempre nell’articolo precedentemente citato, il professor Balzani, dopo ad aver messo in chiara evidenza le difficoltà connesse alla transizione energetica dai combustibili fossili alle energie rinnovabili (e aggiunge dall’economia lineare all’economia circolare e dal consumismo alla sobrietà) riporta lo studio dettagliato fatto da M. Z Jacobson (e collaboratori) della Stanford University denominato WWS (wind, water, sunlight) che, in sintesi, sostiene che le energie rinnovabili possono sostituire completamente le fonti fossili entro il 2050 e presenta una roadmap di transizione per 139 paesi del mondo, compresa l’Italia, molto più spinta di quelle previste dagli accordi di Parigi[10]. Sostituire come sorgenti di sola energia le fonti fossili non è solo possibile ma è necessario promuoverlo sempre più rapidamente, stante i problemi causati da queste fonti fossili come cause principali del riscaldamento generale del pianeta e come inquinanti e pericolose per la nostra salute: può essere assunto a testimone di questi fatti il bel libro uscito recentemente del climatologo Luca Mercalli [11]. E’ scientificamente provato che, nella produzione di energia elettrica, si possono eliminare i combustibili fossili (centrali termiche di diverso tipo) e l’energia elettrica può alimentare vari altri processi compreso quello della mobilità, almeno sulla terra e, come risulta da alcune sperimentazioni fatte, anche via mare. Ma c’è di più: è notizia di questi giorni [12] che il gruppo Maersk, il colosso danese dei supercontainer, sarà carbon free entro il 2050. L’articolo di Luca Pagni prosegue : il gruppo ha annunciato che entro il 2030 sceglierà la tecnologia più appropriata per raggiungere emissioni zero e riporta il comunicato della società: “Non solo i governi, ma anche le imprese devono dare il loro contributo per contribuire a combattere il climate change”. Per sottolineare l’importanza della decisione è bene tener presente che l’80% delle merci viaggia per il mondo via mare e la sola nafta per uso marittimo contribuisce al 3% delle emissioni globali. Sembra invece assai problematico che i possibili sviluppi delle tecnologie portino alla sostituzione dell’attuale mobilità via aerea: come si possono rimpiazzare vantaggiosamente i reattori dei nostri attuali aerei? Il problema è ancora del tutto aperto.

Alcuni “ma”….

Fin qui alcuni aspetti propositivi per agire con successo sulle problematiche trattate. A questo punto ci sono però alcuni ma: che cosa succede per esempio in due essenziali processi industriali di base come quello per la produzione del cemento e quello per la produzione del ferro?

Il cemento rappresenta il materiale di più elevata produzione al mondo e anche l’Italia partecipava in ampia misura a questa produzione: abbiamo usato l’imperfetto perché il nostro Paese, a fronte di una produzione di 46 milioni di tonnellate nel 2006 [13], dopo la crisi del 2008, ha drasticamente ridotto la produzione e i dati del 2017 indicano un calo di oltre il 60% di questa produzione. Questo drastico ridimensionamento ha determinato la chiusura di molti impianti e la perdita del 30% di occupati. Nonostante questa situazione, che ancora non accenna a modificarsi, il cemento resta un prodotto di base indispensabile per gran parte dell’industria.

Il cemento viene prodotto con apposite apparecchiature in cementifici. Il materiale di partenza è costituito da una miscela opportunamente dosata di calcare e argilla che viene frantumata e omogeneizzata e immessa, dopo un preliminare riscaldamento, in un lungo tubo rotante inclinato riscaldato dalla combustione di rifiuti e/o carbone (l’impiego del gas metano non è economicamente conveniente in Italia). Portando la temperatura a circa 1450°C la miscela di rocce calcina e si trasforma in clinker di cemento (essenzialmente silicati di calcio). Dove si usa metano si potrà sostituire questo con biogas ottenuto dalla fermentazione di recuperi organici, ma la combustione è comunque necessaria allo sviluppo del processo: è impensabile che questo, almeno allo stato attuale della tecnologia, possa essere alimentato dall’elettricità.

C’è poi un altro processo industriale essenziale in cui la disponibilità energetica termica è connessa strettamente a trasformazioni chimiche indissolubilmente legate a combustibili fossili. Com’è noto in un altoforno viene introdotta una carica formata da minerale e carbon coke e un altoforno non potrà mai essere alimentato con energie rinnovabili o da elettricità da esse ricavata; cerchiamo di capire perché. La disponibilità del metallo più impiegato nell’industria, il ferro, è legata alla trasformazione dei suoi minerali che contengono ossigeno (in genere sono ossidi) e questo va da essi sottratto per ottenere il metallo come tale. Ebbene, la trasformazione in questione avviene in presenza di carbonio e quindi l’uso del carbone (coke) nell’altoforno non ha solo la funzione di raggiungere la necessaria temperatura di fusione del ferro ma, con un processo chimico combinandosi con l’ossigeno, rende possibile l’estrazione del ferro dai suoi minerali (con produzione di CO2).

Per la produzione di acciaio si utilizzano su ampia scala anche forni elettrici che impiegano rottami di ferro per produrre nuovamente acciaio. L’elettrosiderurgia in Italia produceva oltre 16 milioni di tonnellate di acciaio su un totale di 26,8 milioni di tonnellate e rappresentava il 62% dell’intera produzione[14]. Con la crisi dell’ILVA e la chiusura dell’altoforno di Piombino, oggi la produzione di acciaio in Italia si aggira sui 24 milioni di tonnellate e l’elettrosiderurgia ha aumentato la sua percentuale di produzione: l’Italia insieme alla Spagna costituisce il Paese a maggior produzione di acciaio con forni elettrici in Europa (in Germania la produzione da altoforno copre circa il 70% e quella da forni elettrici il 30% e su percentuali del genere si aggirano anche paesi come la Francia e il Regno Unito). E’ chiaro che questi forni si possono utilizzare solo come mezzi per riciclare il ferro di risulta da demolizioni di navi, treni, macchine, ecc., ma non potranno rimpiazzare gli altiforni nella produzione del metallo ferro dal minerale. C’è poi da tener presente che esistono due colli di bottiglia nell’impiego dei rottami di ferro: il primo è quello della impossibilità di far fronte alle richieste con una capacità di fornitura di rottami variabile e praticamente impossibile da programmare; il secondo è che il recupero non è di fatto del ferro ma di acciai di vario tipo che contengono elementi secondari (Ni, Cr, Mo, ecc.) e questi rendono difficile, se non talvolta impossibile, la loro separazione per ottenere il nuovo acciaio[15].

Nel tentativo di superare la produzione di acciaio dal minerale con altiforni si è venuto sviluppando una nuova tecnologia di estrazione del ferro, quella della produzione di “ferro ridotto” (sigla inglese di ferro ridotto diretto, DRI) cioè del cambiamento che il minerale di ferro subisce quando viene riscaldato in forno ad alte temperature (inferiori però a quella di fusione del ferro) in presenza di gas ricchi di idrocarburi (essenzialmente metano), come si evince da una bibliografia segnalatami gentilmente dal collega Della Volpe [16]. Si ottiene in questo modo un prodotto solido in grumi che solitamente viene compresso in bricchette (Fig.2) prima del raffreddamento e costituisce il prodotto commerciale

Fig. 2- Bricchette di ferro

chiamato HBI. In altre parole, ecco il nostro secondo ma…, si può eliminare il carbone coke sostituendo l’altoforno, ma non il carbonio dei gas riducenti necessari per produrre DRI e questi sono sempre fonti di energia fossile. Si sono anche messi a punto nuovi processi di “fusione diretta” in cui si riduce l’ossido di ferro del minerale direttamente a ferro metallico in uno stato fuso con ottenimento di un prodotto simile a quello dell’altoforno. Tra questi tipi di processi , di cui alcuni sono attivi in Sud Africa e in Australia) ricordiamo quello Corex che parte da minerale e da carbone (senza produzione di coke, che costituisce uno dei processi più inquinanti della tecnologia dell’altoforno). Il carbone viene gassificato e la produzione di vari gas, tra cui CO e H2, costituiscono la componente riduttiva del minerale: la riduzione diretta fornisce ghisa liquida simile a quella di altoforno. Anche eliminando gli altiforni, la trasformazione del minerale in ferro comporta sempre l’uso di carbone o gas naturali, ribadendo il concetto sottolineato in precedenza: per passare dal minerale di ferro all’acciaio è comunque necessario l’impiego di carbone o di gas naturale.

Tenendo presente le eccezioni dei due processi ricordati, per attuare la transizione dall’economia lineare a quella circolare e per la sostituzione delle energie di fonte fossile con quelle rinnovabili, per evitare il rapido riscaldamento del pianeta, saranno necessari interventi mirati di orientamento e stimolo di tipo politico sostenuti da altri di natura economico-finanziaria e profonde modifiche nel modello di sviluppo consumistico per orientarlo verso un modello meno energivoro e sostenibile basato sulla sobrietà.

Infine, è ormai chiaro che un elemento indispensabile al raggiungimento di un’economia circolare, sia legato al comportamento responsabile e adeguato di ciascuno di noi: ogni singolo nostro atto che vada incontro a una accurata differenziazione dei rifiuti e al responsabile utilizzo delle energie necessarie alla nostra vita dovrebbe essere attuato e promosso là dove è possibile. In questo campo mi ritengo fortunato perché, con la mia professione di insegnante di scuola secondaria di secondo grado, sono riuscito a interagire con molti studenti e sensibilizzarli sui temi ambientali, aumentando sicuramente la loro consapevolezza dell’esigenza di promuovere la qualità dell’ambiente orientando i loro comportamenti. Negli anni in cui ho insegnato al liceo “L. da Vinci” di Firenze, nei corsi sperimentali che avevo attivato alla fine degli anni ’70 del secolo scorso, ho suggerito e discusso letture e attuato pratiche di controllo della qualità ambientale (soprattutto sull’acqua e sull’aria della città) con gli studenti delle mie classi quarte. E inoltre, per allargare agli studenti dell’intero Liceo la sensibilità verso i problemi del rispetto ambientale, ho creato un “Gruppo ambiente” (Fig.3) promuovendo letture e incontri, come pure attività di pulizia di alcune spiagge toscane dai rifiuti di ogni genere abbandonati, in accordo con le amministrazioni locali di recupero rifiuti.

Fig.3 – Pagina iniziale del depliant che illustrava caratteristiche e attività del Gruppo Ambiente.

Si trattava forse ancora di un ambientalismo di tipo naif e ricordo che allora era parere diffuso che le energie rinnovabili potessero essere solo integrative di quelle fossili e, ancora, si parlava di green economy ma non di economia circolare. Ho però una nitida memoria , ora accompagnata da un velo di commozione, di quando, nei primi anni novanta del secolo scorso, invitai nel mio Liceo l’amico prof. Enzo Tiezzi, chimico di chiara fama dell’Università di Siena. I miei studenti di IV che avevano letto il suo libro “Tempi storici, tempi biologici[17] e quelli di V che avevano letto “I limiti dello sviluppo[18]parteciparono con grande interesse e numerosi interventi alla conferenza tenuta da Tiezzi sulle variazioni del clima sulla terra dove egli presentò i risultati di una ricerca da cui emergeva l’andamento del tutto parallelo tra l’incremento del valore della CO2 nell’atmosfera dovuta alle nostre combustioni e l’aumento dei fenomeni atmosferici di grande violenza (tempeste, uragani, tornado,…) verificatisi negli Stati Uniti.

Allora queste cose potevano sembrare preoccupazioni eccessive per eventi molto lontani nel tempo, sensibilità di una minoranza elitaria, purtroppo la realtà di oggi è ben più grave di quello che pensavamo e gli effetti dei cambiamenti climatici anche in varie parti del nostro Paese si registrano ormai nelle cronache quotidiane. Se non si riuscirà a livello mondiale a trovare concretamente il modo di intervenire sui fattori che determinano il riscaldamento globale, quale futuro lasciamo in mano ai nostri figli e nipoti?

(*) Fabio Olmi è un insegnante in pensione che si è occupato per anni di didattica della Chimica anche a livello ministeriale. La sua multiforme attività educativa e formativa è documentata nel suo sito web dove c’è anche un elenco dei molti articoli da lui pubblicati.

(**) L’articolo in forma ridotta è stato pubblicato sulla rivista Insegnare – CIDI, Roma, sezione Temi e problemi, il 15/12/2018

[1] ARPAT- Rapporto rifiuti urbani 2017: i dati sulla raccolta differenziata (RD) in Italia. La RD in Italia riferita all’anno 2016 risulta del 52,5% , dato assai modesto. Se poi si esaminano le percentuali di raccolta differenziata delle varie macro-aree del Paese si hanno i seguenti dati: 64,2% per le regioni settentrionali, il 48,6% per quelle del centro, il 37,6% per quelle meridionali.

[2] Silvia Pieraccini- La carta di Lucca modello di successo- Il sole 24ore-5/7/17. Il distretto cartario di Lucca, specializzato nel tissue (carta per usi igienico-domestici) nel 2016 ha avuto un fatturato di 4,4 miliardi di euro e contava circa 200 aziende con circa 10.000 addetti complessivi

[3] Il CER riporta nella categoria 03 i diversi 11 tipi di rifiuti

[4] Maurizio Bologni – Marmo, tessile, carta, l’impennata dei costi per smaltire i rifiuti- La Repubblica, 20/11/2018

[5] Il Gruppo Sofidel è uno dei più grossi produttori di carta per uso igienico e domestico (il suo brand più noto è carta “Regina”), ha oltre 6000 dipendenti in 13 paesi del mondo (in Italia a Porcari (Lucca) ne ha circa 1200) e ha una capacità produttiva di oltre 1 milione di tonn./anno. E’ un Gruppo orientato verso una produzione sostenibile, ha una forte produzione di energia da fonti rinnovabili, investe in efficienza energetica e in formazione continua del personale.

[6] Il Codice europeo CER contiene, alla tipologia 04, 11 categorie di rifiuti tessili.

[7] Ibidem 4.

[8]https://www.a2a.eu/index.php/it/gruppo/i-nostri-impianti/termoutilizzatori/brescia

[9] Vincenzo Balzani- Salvare il pianeta:energie rinnovabili, economia circolare, sobrietà- La Chimica e l’Industria n. 6, 11/2018, pag.20

[10] Ibidem 6, pag.7.

[11] Luca Mercalli- Non c’è più tempo-, Einaudi, Torino, 2018.

[12] Luca Pagni- Maersk, il colosso danese dei supercontainer, sarà carbon-free entro il 2050- Repubblica- Economia e Finanza, 5/12/2018.

[13] FILCA-CISL, Cemento, la produzione italiana si espande in tutto il mondo, 21 Aprile 2006.

[14] Siderweb- Forni elettrici, Italia prima in Europa, 27/4/2004.

[15] Daniell B.Muller, Tao Wang, Benjamin Duvalk, T.E. Graedel, Exploring the engine of anthropogenic iron cycles, Ed. Harward University, 2006

[16] F.Grobler, R.C.A. Minnit, The increasing role of direct reduced iron in global steelmaking- The Journal of South African Institute of Mining and Metallurgy, March/April 1999, p. 111. Bibliografia

[17] E. Tiezzi – Tempi storici, tempi biologici – Garzanti, Milano, 1984.

[18] AA.VV. I limiti dello sviluppo – Club di Roma diretto da Aurelio Peccei- EST Mondadori, Milano, 1972.

La Tavola Periodica fra chimica e fisica

In evidenza

Rinaldo Cervellati

Nel 2019 cade il 150° anniversario della pubblicazione della prima Tavola Periodica degli elementi. L’UNESCO ha voluto celebrare l’avvenimento proclamando il 2019 Anno Internazionale della Tavola Periodica degli Elementi.

Una delle prime riviste che ha fornito un contributo all’evento è stata Chemistry & Engineering news, affermando che nonostante la Tavola Periodica campeggi in ogni aula di chimica del mondo e sia uno dei simboli più riconoscibili della scienza chimica, storici e filosofi della chimica stanno ancora dibattendo su quale sia la migliore interpretazione della Tavola e di conseguenza la sua miglior rappresentazione [1].

Ripercorriamo brevemente la genesi già presentata in un post pubblicato su questo blog [2].

Nel 1869 il chimico russo Dmitri I. Mendeleev (1834-1907) pubblicò una tabella in cui i 56 elementi fino allora conosciuti erano ordinati in base al peso atomico crescente in gruppi orizzontali e periodi verticali in modo che ad ogni periodo corrispondevano elementi con proprietà fisiche chimiche simili e in ogni gruppo queste proprietà variavano allo stesso modo in cui variano le valenze degli elementi stessi. La tabella fu chiamata Sistema Periodico dallo stesso Mendeleev ed è mostrata in figura 1, tratta dal lavoro originale dell’Autore [3a].

Figura 1.

Il lavoro, intitolato Sulla dipendenza tra le proprietà e i pesi atomici degli elementi, fu pubblicato in un’oscura rivista russa [3a] quindi ripubblicato in tedesco sullo Zeitschrift für Chemie [3b]. La genialità di Mendeleev sta non solo nell’aver lasciato caselle vuote dove non trovava elementi che dovevano appartenervi, ma nell’aver previsto i pesi atomici e le proprietà chimiche di questi, che furono poi effettivamente scoperti (ad es. il germanio fra il silicio e lo stagno, ecc.).

Nel 1871 Mendeleev pubblicò la sua tavola periodica in una nuova forma, con i gruppi di elementi simili disposti in colonne piuttosto che in righe, numerate da I a VIII in corrispondenza delle valenze minima e massima dell’elemento[1].

Lemonick [1] sostiene che Mendeleev apparentemente organizzò la sua tavola in base al peso atomico crescente, ma diede piuttosto alle proprietà chimiche un ruolo decisivo. Ad esempio, il tellurio è leggermente più pesante dello iodio ma Mendeleev mise il tellurio prima dello iodio perché ha la stessa valenza di ossigeno, zolfo e altri elementi di quel gruppo.

Al tempo di Mendeleev nulla si sapeva circa la struttura interna degli atomi, il modello atomico di Rutherford è del 1909-1911, il concetto di numero atomico si deve a Moseley (1911), sicché Mendeleev non poteva sapere che il tellurio ha un minor numero di protoni – e quindi ha numero atomico inferiore. Quindi gli elementi nella Tavola periodica sono ordinati in base al numero atomico crescente.

Gli anni successivi al 1871 videro la scoperta di molti nuovi elementi che in base alle previsioni di Mendeleev andarono a riempire le caselle vuote e la tavola si arricchì di una colonna, quella dei gas nobili (gruppo 0). Sta comunque di fatto che la scoperta della maggior parte dei nuovi elementi è stata fatta secondo manipolazioni chimiche sulle indicazioni fornite dalle loro previste proprietà.

Insieme ai protoni arrivò la scoperta degli elettroni e l’idea quantomeccanica degli orbitali atomici. Questi risultati hanno fornito un nuovo tipo di logica per il sistema periodico. Sebbene l’organizzazione del sistema di Mendeleev non fosse cambiata, gli scienziati ora potevano vedere che era la struttura elettronica a stabilire le proprietà degli elementi e a spiegare perché i membri dello stesso gruppo avessero proprietà simili. La regola di Madelung, o principio aufbau, che impone che gli elettroni riempiano prima l’orbitale 1s e poi i 2s e i 2p e così via, ha ulteriormente fatto luce su come si ordinano gli elementi [1].

Questo ci porta alle tavole odierne che non sembrano così diverse dalle versioni che il famoso chimico Glenn T. Seaborg (1912-1999)[2] disegnò negli anni ’40. Seaborg spostò gli elementi del blocco-f, chiamati anche la serie dei lantanidi e degli attinidi, fuori dalla tavola principale elencandoli nella parte inferiore della tavola con un richiamo a uno spazio lasciato vuoto o comprendente i simboli del primo e dell’ultimo elemento del gruppo nel corpo della tabella, fig. 2.

Questa decisione è generalmente considerata come una concessione alla convenienza e cioè che la Tavola si adatti a un foglio di carta standard [1].

Seaborg incluse 15 elementi nel suo blocco f. Ciò non ha molto senso dal punto di vista della configurazione elettronica, poiché gli orbitali f possono ospitare solo 14 elettroni.

Figura 2. Tavola Periodica di Seaborg (1940).

Ma molte tabelle, inclusa la tabella sul sito web dell’Unione internazionale di chimica pura e applicata (IUPAC), che ha l’ultima parola sulla terminologia chimica, condividono questa caratteristica (figura 3).

È un modo per evitare una delle domande più controverse sulla tavola periodica: quali elementi appartengono al gruppo 3? Nessuno contesta lo scandio e l’ittrio. Ma quali elementi vengono al di sotto di questi due? Lantanio e attinio? O lutezio e laurenzio

Figura 3. Tavola Periodica IUPAC- La questione del gruppo 3 viene evitata.

Attualmente non c’è uniformità nelle tabelle periodiche che si trovano in aule, laboratori e libri di testo. Alcuni evitano la questione del gruppo 3 e usano un blocco di 15 elementi. Altri mettono La e Ac nel gruppo 3, e altri ancora pongono Lu e Lr, con il resto del blocco f sottostante.

La IUPAC ha convocato un gruppo di lavoro con il compito di dare una raccomandazione definitiva in un modo o nell’altro.

Philip Ball, uno scrittore scientifico e membro del gruppo di lavoro, dice che il dibattito si riduce alla questione fondamentale se debba essere la “fisica” o la “chimica” a dirimerla. Detto in altre parole il gruppo sta discutendo se schierarsi con la fisica quantistica che determina le configurazioni elettroniche degli elementi o con le proprietà e il comportamento chimico degli elementi.

Dal lato del comportamento chimico c’è Guillermo Restrepo, un chimico matematico del Max Planck Institute for Mathematics in the Sciences. Restrepo ha una visione storica di come dovrebbe essere organizzata la tavola. Indica Mendeleev e i suoi contemporanei, che hanno proposto i loro sistemi periodici studiando le proprietà chimiche degli elementi, spesso attraverso il loro comportamento reattivo. “Al centro del sistema periodico, c’è la chimica“, afferma Restrepo.

Restrepo e colleghi hanno analizzato circa 4.700 composti binari contenenti 94 elementi per determinare come le reazioni chimiche informino il sistema periodico [4]. Le molecole potrebbero consistere di più di un atomo ma solo di due elementi. Applicando la teoria delle reti e l’analisi topologica, i ricercatori hanno creato una mappa che raggruppa elementi vicini che formano composti. Ad esempio, il cloro, il bromo e gli altri alogeni si accostano l’uno all’altro perché si legano tutti con gli stessi elementi. Restrepo afferma che questa mappa di somiglianze mostra che il lantanio è più simile allo scandio e all’ittrio rispetto al lutezio, quindi dovrebbe essere nel gruppo 3. Ma la stessa analisi non fornisce una risposta su Lr versus Ac. Restrepo dice che il problema è che non ci sono molti dati su come Lr e Ac si legano ad altri elementi. Mentre ci sono decine di migliaia di composti che si possono usare per studiare le somiglianze di Sc, Y, La e Lu, Ac fornisce solo circa 70 punti dati, e Lr, meno di 40.

Eric Scerri, storico della chimica e filosofo della scienza all’Università della California, a Los Angeles, presidente del gruppo di lavoro IUPAC, non è d’accordo. Ritiene che Sc, Y, Lu e Lr dovrebbero essere elementi del gruppo 3, ma pensa che focalizzare l’attenzione sulle proprietà chimiche o fisiche sia fuorviante. “Si dovrebbe invece utilizzare un qualcosa di fondamentale”, come ad esempio la configurazione elettronica. Non che la configurazione elettronica sia la scelta perfetta dice però Scerri. In termini di riempimento degli orbitali sono state fatte eccezioni per alcuni elementi nella tavola periodica, come il rame. Con la logica della tavola periodica, tutti gli elementi del blocco-d avrebbero dovuto riempire gli orbitali s. Ma il rame sfida questa logica. Dovrebbe avere la configurazione elettronica [Ar] 3d9 4s2. Invece, il suo orbitale atomico 4s rimane semivuoto, e un elettrone entra nel suo guscio 3d, portando alla configurazione [Ar] 3d10 4s1, che è più stabile. Scerri vede una logica ancora più semplice per interpretare la Tavola risolvendo nel contempo la questione del gruppo 3: il numero atomico.

Il mio suggerimento è semplicemente questo”, dice Scerri. “Rappresentare la tavola periodica nel formato a 32 colonne.

Secondo Scerri la rappresentazione a 32 colonne è la forma più naturale per la Tavola periodica, visto che quella a 18 colonne obbedisce solo a una questione di praticità.

Figura 4. Tavola periodica a 32 colonne.

Una tabella a 32 colonne (figura 4) utilizza i numeri atomici come fondamento logico, non solo risolve la questione del gruppo 3 ma Scerri aggiunge che 32 colonne sarebbero più corrette perché collocherebbero il blocco-f nella sua giusta posizione: all’interno della tavola anziché all’esterno per comodità. In una tabella a 32 colonne ordinata per numero atomico crescente, il lantanio (numero atomico 57) segue il bario (numero 56) per avviare il blocco f, con l’attinio sotto di esso. Ciò rende il lutezio il primo elemento nella terza riga del blocco-d, con sopra scandio e ittrio e il laurenzio sotto a formare il gruppo 3. La stretta aderenza al numero atomico soddisfa il desiderio di Scerri di un principio organizzativo fondamentale eludendo in modo chiaro riferimenti a proprietà chimiche o fisiche.

Riguardo all’ordine di riempimento degli orbitali va sottolineato che molti chimici ritengono che potrebbe non reggere più a lungo. Alcuni calcoli mostrano che la regola di Madelung non vale più a numeri atomici molto alti a causa degli effetti relativistici. Gli elettroni di atomi pesanti si muovono così velocemente che il loro comportamento – e le proprietà degli atomi cui appartengono – iniziano a cambiare.

Philip Ball, Guillermo Restrepo ed Eric Scerri, membri della Commissione IUPAC per la Tavola Periodica.

I fan degli effetti relativistici saranno felici di sapere che c’è anche una tabella per loro. Pekka Pyykkö, un chimico teorico dell’Università di Helsinki, ha calcolato le configurazioni di elettroni fino all’elemento 172 e ha proposto una diversa versione della tavola [5]. Pyykkö non si preoccupa della questione del gruppo 3. La sua tabella lascia un buco sotto ittrio e ha tre file di 15 elementi in un blocco-f posto sotto la tavola principale [1]. E non è così limitata dai numeri atomici. Ad esempio, l’elemento 164 è seguito dagli elementi 139, 140 e poi 169. Secondo i calcoli di Pyykkö, 139 e 140 sono i primi elementi con gli elettroni nell’orbitale 8p.

Infine, al di là delle disquisizioni, c’è una fantasia senza limiti: sono state e vengono proposte forme della tavola le più stravaganti. Alcune tabelle sembrano anelli o spirali. Alcune sono in 3-D. Come ho scritto nel precedente post [2] si può consultare l’Internet Database of Periodic Tables, il database più completo che raccoglie e aggiorna le centinaia di forme diverse di tavole periodiche da Mendeleev ai giorni nostri [6].

Bibliografia

[1] S. Lemonick, The periodic table is an icon. But chemists still can’t agree on how to arrange it., Chem. Eng. News, 2019, 97(1)

https://cen.acs.org/physical-chemistry/periodic-table/periodic-table-icon-chemists-still/97/i1

[2] https://ilblogdellasci.wordpress.com/2017/09/08/la-tavola-periodica-dimenticata-di-w-rodebush/

[3a]D.I. Mendeleev, On the Correlation Between the Properties of Elements and Their Atomic Weight (in russo), Zurnal Russkogo Kimicheskogo Obshchestva 1, no. 2-3 186935, 60-77; [3b] D.I.

Mendeleev, Über die Beziehungen der Eigenschaften zu den Atomgewichten der Elemente, Zeitschrift fur Chemie1869XII, 405-406a

[4] W. Leal, G. Restrepo, A. Bernal, A Network Study of Chemical Elements: From Binary Compounds to Chemical Trends., MATCH Commun. Math. Comput. Chem., 2012, 68, 417-442.

[5] P. Pyykko, A suggested periodic table up to Zr>172, based on Dirac–Fock calculations on atoms and ions., Phys. Chem. Chem. Phys., 2011, 13, 161–168.

[6] The INTERNET Database of Periodic Tables

http://www.meta-synthesis.com/webbook//35_pt/pt_database.php

[1] Questa è sostanzialmente analoga alla forma in cui si presenta la maggior parte delle tavole odierne.

[2] Glenn Seaborg (1912-1999) chimico statunitense. Nel 1940 sintetizzò il plutonio (n 94). Successivamente, con metodi radiochimici isolò nel 1944 l’americio (n 95) e il curio (n 96), nel 1949 il berkelio (n 97) e il californio (n 98), nel 1953 l’einsteinio (n 99) e i fermio (n 100). Premio Nobel per la chimica 1951 per i suoi studi sugli attinidi

Rivoluzione X.0

In evidenza

Luigi Campanella, già Presidente SCI

Cambia la società, cambia l’industria. I numeri puntati seguiti dallo 0 sono un must del nostro tempo: industria 4.0, Internet 3.0, Chimica 3.0.https://blog.castuk.com/2018/01/30/value-architects-are-you-ready-for-the-4th-industrial-revolution/

Sostanzialmente volendo riassumere queste trasformazioni in un’unica espressione potremmo parlare di informatizzazione e comunicazione partecipata della società. Il rapporto all’interno ed all’esterno delle aziende, finanche al livello familiare, è ormai affidato alle intelligenze artificiali, ai big data, alla trasmissione telematica. Ciò da un lato crea opportunità, apre nuove strade, dall’altro produce effetti che possono essere devastanti in tema di privacy.

https://www.reddit.com/r/forwardsfromgrandma/comments/7wnf81/5g_is_deep_state/

Per questo cambiano le professioni ambite e la più richiesta di tutte è proprio quella di esperto in cyber security, come gli esperti di blockchain, una specie di internet delle transazioni. Se poi si tiene conto del fatto che ogni ora vengono caricati nel mondo 2,8 milioni di foto su Instagram, postati 24 milioni di tweet, visualizzati 248 milioni di video su YouTube, si comprende facilmente come un’altra professione ambita debba essere il data scientist, cioè gli esperti capaci da questa pletora di dati di estrarre informazioni redditizie. Nei prossimi anni serviranno sempre più esperti di tecnologie informatiche, Oltre alle 3 professioni citate sono perciò richiesti gli esperti di intelligenza artificiale e machine learning (le macchine imparano dall’esperienza intesa come reiterazione di input e stimoli).i meccatronici , nuove figure del mercato professionale che nascono dalla fusione fra tecnico di automazione industriale, tecnico informatico e tecnico elettronico e progettano e realizzano sistemi di controllo automatico, gli esperti di realtà virtuale, gli esperti di Internet delle cose (le cose prendono vita), gli esperti di usabilità, fondamentali per la crescita delle vendite.Illustration by Jack Reilly

E’ fondamentale che i percorsi formativi si adeguino e potenzino in queste direzioni e che i giovani prendano conoscenza e coscienza di queste trasformazioni: c’è di mezzo il loro futuro rispetto al mercato del lavoro. Purtroppo a fronte di questo sviluppo che rende ormai Industria4.0 un’espressione familiare a molti italiani, non si può dire purtroppo la stessa cosa per Agricoltura 4.0 intendendo con essa non solo agricoltura digitale, come nel caso delle imprese gestionali, ma anche un approccio globale di sistema che va dalla coltivazione alla raccolta, alla gestione attraverso tecnologie innovative che consentono di valorizzare il significato di filiera Agricola. Questo avviene solo per l’1% della superficie agricola del nostro Paese, un po’ a conferma della dimensione artigianale dell’agricoltura italiana. Ovviamente questa situazione se può non essere drammatica oggi, lo può diventare domani rendendo non competitive molte aziende agricole. E’ necessario quindi cambiare e per fare questo è necessaria una piattaforma di gestione di precisione della filiera. Molto si discute sui contenuti di questa piattaforma. Il punto di partenza non può che essere la formazione di agricoltori e consulenti che sappiano discutere ed utilizzare sensori, algoritmi, Gis; fondamentale è la disponibilità di rete nelle aree rurali: il 5G deve essere una priorità per queste aree. Il ricorso al conto terzi può essere uno strumento prezioso per avvicinare le nuove tecnologie da parte dei piccoli agricoltori.

‘I’ve found a cafe just 300 yards from where you’re standing. We could meet their for a latte.’

https://www.pintherest.eu/french-restaurants-cartoons-and-comics-funny-pictures.html

La sensoristica ha sviluppato metodi innovativi per monitoraggio e diagnosi su terreni esposti. Il rinnovo strumentale, quando avviene, deve essere sempre caricato di un costo di manutenzione che garantisca il funzionamento e la comunicazione. L’open science, intesa come approccio alla messa a comune nel sistema di avanzamenti e conoscenze, a partire dai big data richiede un impegno delle singole aziende, ma è basilare per raggiungere la massa critica e fare sistema. Infine è necessario che i giovani – torniamo ancora a loro, i cittadini, i politici, gli amministratori di domani, comprendano l’importanza di questo salto di qualità: incoraggiarli su questa strada promuovendo startup e spin off sembra, più che opportuno, necessario.

https://digital-luxembourg.public.lu/news/digitalwellbeing-engaged-society

Raccontino di Natale.

In evidenza

Mauro Icardi

Questo breve articolo, vuole rendere conto di un episodio di pochi giorni fa. Io e la mia collega Valentina lavoriamo insieme da ormai quasi vent’anni. E nelle ore di lavoro parliamo di molte cose. E tra queste l’educazione e la crescita dei figli, le loro fatiche e i loro progressi scolastici sono tra gli argomenti principali. Martina, la sua primogenita, era tra il pubblico durante la mia conferenza di Ottobre a Milano. Il suo secondo figlio, Emanuele, o il piccolo tecnico come a me piace chiamarlo, è un simpatico bambino di otto anni, ma con una dote che apprezzo ed ho sempre ritenuto fondamentale. E’ spinto da una genuina voglia di conoscere, di capire le cose che avvengono intorno a lui. E da sempre è incuriosito e affascinato dal trattamento delle acque, e in particolare dai fanghi. E pone tante domande. Oltre a questo, io e lui condividiamo la passione per la bicicletta. E quest’anno Babbo Natale lo ha reso davvero felice.

In attesa di fare una bella sgambata insieme, io e lui abbiamo approfondito la conoscenza reciproca. Emanuele frequenta la terza elementare, e quando ho saputo che doveva nel compito di scienze fare esperimenti di base di chimica, qualcosa immediatamente mi ha risvegliato ricordi, sensazioni, ed una passione mai sopita, e mi sono offerto di dargli una mano. Doveva spiegare cosa fosse un gas, e doveva eseguire due semplici esperimenti per comprendere che cosa fosse una soluzione. Mescolare acqua e aceto, capire se dopo il mescolamento l’aceto si distinguesse ancora dall’acqua o no. Poi ancora un altro passo: sciogliere una bustina di zucchero in acqua. Pesare l’acqua sottraendo il valore della tara di una piccola beuta che avevo portato con me, poi sciogliere una bustina di zucchero che avevamo pesato precedentemente, e dopo averla sciolta completamente, pesare la soluzione di acqua e zucchero.

Le basi della chimica e della stechiometria. Confesso che la cosa mi ha molto divertito. L’osservavo con attenzione, e in più di una occasione mi sono trattenuto dall’usare termini non adatti per un bambino di quella età (mi venivano in mente ricordi degli anni di studio, volevo spiegargli cosa fosse il “corpo di fondo), poi mi sono frenato. Ma mi è piaciuto vedere il suo sorriso, quando gli ho fatto vedere come doveva impugnare correttamente la beuta, per sciogliere i granelli di zucchero, e mi sono complimentato per la sua ottima manualità. Infatti non ha rovesciato una sola goccia di soluzione, ed impugnava la beuta con una naturale abilità. Abbiamo osservato insieme alla luce, se lo zucchero si stava sciogliendo, chiacchierato delle differenze tra il mescolamento di due liquidi, e quello di un solido in un liquido, sotto l’occhio vigile di mamma Valentina.

Sono tornato bambino insieme a lui, ma il giorno dopo riparlandone con Valentina, non ho potuto fare a meno di esprimere il mio apprezzamento alla maestra di Emanuele, per queste iniziative. Sono decisamente stimolanti e formative. E a mio parere qualunque sarà il percorso scolastico del piccolo tecnico, ma da oggi potrò chiamarlo il piccolo chimico, credo che non le dimenticherà. Un futuro collega, visto l’interesse che ha per il risparmio idrico, e per il depuratore.

Batteria a ioni fluoruro a temperatura ambiente

In evidenza

Rinaldo Cervellati

Agli elettrochimici era noto che batterie ricaricabili a ioni fluoruro (FIB), possono in teoria avere una densità di energia[1] circa otto volte maggiore di quelle attuali agli ioni litio, ma senza applicazioni pratiche. Infatti i dispositivi FIB finora realizzati generano elettricità per migrazione degli ioni fluoruro da un elettrodo all’altro attraverso un elettrolita solido che diviene conduttore efficace solo riscaldandolo sopra 150 ° C, il che ovviamente ne limita fortemente le applicazioni.

Nel numero del 20 dicembre scorso di Chemistry & Engineering newsletter on-line, Mitch Jacoby riporta che un gruppo di ricerca ha realizzato una batteria a ioni fluoruro con un elettrolita liquido

(V.K. Davies et al., Room-temperature cycling of metal fluoride electrodes: Liquid electrolytes for high-energy fluoride ion cells., Science, 2018, 362, 1144–1148.), funzionante a temperature ambiente.

Il gruppo costituito da ben 21 ricercatori facenti capo al Gruppo di Tecnologie Elettrochimiche, Jet Propulsion Lab, California Institute of Technology, coordinato dal Dr. Simon C. Jones, si è diviso in sottogruppi ciascuno occupandosi dei diversi aspetti sperimentali e teorici della complessa e lunga ricerca.Dr. Simon C. Jones

La stesura dell’articolo è stata fatta da Victoria K. Davis con i suggerimenti degli altri autori e la supervisione del Dr. Jones. Davis ha partecipato alla sintesi, analisi e caratterizzazione di una numerosa serie di sali e solventi organici fra i quali sono stati scelti i più opportuni.

Dr. Victoria Davis, fellow National Science Foundation

Per la soluzione elettrolitica, i ricercatori hanno cercato una combinazione di un sale e un solvente organico fluorurato che garantissero ampio intervallo di solubilità, alta conducibilità ionica e stabilità elettrochimica. La ricerca ha portato a un fluoruro di neopentil alchilammonio e al bis (2,2,2-trifluoroetil) etere o BTFE.

Simulazione delle interazioni molecolari tra uno ione fluoruro (verde) e il solvente elettrolitico fluoroetiletere.

I ricercatori hanno poi realizzato un nuovo catodo costituito da un nucleo di rame e un guscio di trifluoruro di lantanio, Cu@LaF3. Il guscio evita la dissoluzione del rame e la decomposizione del BTFE, consentendo una facile diffusione degli ioni fluoruro tra l’elettrolita liquido e il nucleo di rame. Elettrodi fabbricati con queste nanoparticelle a temperatura ambiente sono stati sottoposti reversibilmente in una opportuna cella a sette cicli. La conversione reversibile di Cu a CuF2 (Cu0 + 2F ⇌ CuF2 + 2e) è stata evidenziata tramite spettrometria a raggi X di polveri, il che suggerisce che il guscio di LaF3 consente il passaggio di ioni F permettendo la formazione di CuF2 come atteso. Gli autori della ricerca terminano così:

Utilizzando un elettrolita liquido semplice ma robusto con alta conducibilità di ioni fluoruro abbiamo dimostrato il ciclo elettrochimico reversibile di elettrodi di fluoruro di metallo a temperatura cui è lo ione Fil trasportatore attivo, non il catione metallico.

In particolare, l’ottimizzazione di un catodo Cu@LaF3 e il suo accoppiamento con un anodo metallico elettropositivo, ad esempio Ce, indicano un percorso per sviluppare un dispositivo ad alta energia a temperatura ambiente.

Jun Liu, specialista in materiali per lo stoccaggio di energia presso il Pacific Northwest National Laboratory ha affermato che lo studio dimostra buoni progressi, sottolinea però la necessità di un numero maggiore di ricerche per sviluppare una batteria a lunga vita che possa superare le prestazioni delle batterie agli ioni litio in termini di elevata densità di carica.

[1] La densità di energia di una batteria è data dal rapporto fra la forza elettromotrice moltiplicata per la carica spostata e il suo volume: zFE°/V, dove z è il numero di elettroni scambiati nella reazione redox che avviene nella pila e E° è la forza elettromotrice standard (fem) della batteria.

Piante, animali e altre storie di chimica.

In evidenza

Claudio Della Volpe

Quest’anno per superare la solita incertezza del regalo di fine anno mi sono rivolto all’oggetto più comune della mia vita: il libro. E ho trovato una serie di testi su un argomento di cui avevo sentito parlare ripetutamente, ma senza approfondirlo: l’intelligenza delle piante.

Si tratta di un tema affascinante e che viene da lontano, ma il più recente e famoso scienziato che se ne è occupato è un italiano, Stefano Mancuso, professore ordinario presso UniFi e ricercatore al LINV (Laboratorio di Neurobiologia vegetale).

Ha scritto vari testi su questo tema ed io ho scelto il più agile fra tutti, Verde brillante, sensibilità e intelligenza del mondo vegetale, Ed. Giunti 140 pagine 2014.

E’ un testo non recentissimo scritto insieme alla divulgatrice Alessandra Viola, ma molto ben scritto che ripercorre la trama della discussione sul modo in cui concepiamo le piante, i “vegetali”, termine tutto sommato dispregiativo, che vegetano; ma che, l’autore ci fa scoprire, hanno un comportamento molto articolato e costituiscono un caso di vita senziente, non diversamente da quella animale, solo con una organizzazione diversa da quella degli animali. Le piante hanno una intelligenza ed una struttura della sensibilità distribuita invece che concentrata in organi specifici (cervello, occhi, naso, lingua) le piante “vedono”, sentono, reagiscono con molte delle loro cellule, usando una strategia di sopravvivenza diversa; non possono scappare e dunque sono state obbligate a scegliere di poter perdere anche il 90% del loro corpo potendolo ricostruire completamente; inoltre hanno nella maggior parte dei casi una velocità dei comportamenti inferiore, ma non per questo meno complessa.

In uno degli episodi di Star Trek (del 1995) si affronta questo tema della diversa velocità di esistenza; noi potremmo essere come piante per esseri che vivessero molto più velocemente di noi.

In fotografia il tema del diverso apparire delle cose molto veloci o molto lente costituisce uno splendido argomento tramite le due tecniche complementari delle riprese ad alta velocità riproiettate a bassa (diventate oggi comuni grazie all’avanzare dei processori dei cellulari) e della slow motion o delle riprese tramite filtri ND che sottolineano il paesaggio, ma eliminano le figure che ci si trovano per tempi brevi (la prima foto di paesaggio nel 1839 era di fatto slow motion). Nel caso che ci interessa si applica una terza tecnica, il time lapse, (letteralmente lasso di tempo) le riprese video che si usano anche per nuvole o il paesaggio rese comuni anche queste tramite la possibilità di fare foto ad intervalli lunghi in gran numero per poi riproiettarle a velocità normale, dunque con una grandissima accelerazione; il time lapse fa comprendere come anche le piante abbiano una vita e siano capaci di movimenti ben precisi ed altamente intelligenti se visti in questo nuovo contesto.

https://www.youtube.com/watch?v=w77zPAtVTuI

https://www.youtube.com/watch?v=g9NpE2jntNs

https://www.youtube.com/watch?v=p6rCAuzSQ8U

https://www.youtube.com/watch?v=dTljaIVseTc

Gli ultimi due video mostrano rampicanti che si avvolgono attorno ad un supporto; nel primo caso il fagiolo si gira verso il supporto ancora prima di attaccarcisi; come fa a sapere che è lì? Non lo sappiamo; ma potrebbe essere che in qualche modo avesse ragione Gottlieb Haberlandt, famoso fisiologo vegetale, che ipotizzò la presenza di ocelli foliari (finora mai confermati).

Un esempio altamente poetico di questa tecnica video si trova nel film Il giardino segreto, tratto dall’omonimo romanzo di Frances Hodgson Burnett, in cui viene mostrato il risveglio primaverile della terra e delle piantine del giardino riscoperto dalla piccola Mary Lennox; il film nella versione che ho visto io è del 1993 ed era diretto da Agnieszka Holland che usa con abilità la tecnica time lapse per mostrare la vita delle piante. Lo consiglio a voi e ai vostri bambini.

Nel libro di Mancuso si fa anche notare la ritrosia che hanno avuto anche grandissimi scienziati da Linneo a Darwin nel riconoscere questi aspetti della vita delle piante, per esempio la capacità di molte di queste di cibarsi di insetti o piccoli animali (anche mammiferi) come fonte di azoto, di comunicare fra di loro ed avere un comportamento altamente complesso che se rivisto a diversa velocità e nel contesto degli “animali” non esiteremmo a definire “intelligente” e sensibile; libro consigliatissimo e fra l’altro ottimamente illustrato, ben equilibrato negli aspetti tecnici e storici e anche fra la filosofia della natura e la scienza (sarò fesso ma non credo che l’analisi scientifica risolva ogni aspetto delle cose, la filosofia serve ancora, mia idea per carità).

La cosa che mi ha colpito di più è stata una osservazione di tipo chimico; il fatto che le piante usano delle molecole, che liberano nell’ambiente interno ed esterno per comunicare alle proprie cellule (non hanno segnali nervosi) ed alle altre piante, diverse specie di eventi.

Ora la chimica delle piante come ricorderete è stato un cavallo di battaglia della Chimica in Italia, basti ricordare i lavori di Ciamician e Ravenna di cui abbiamo parlato su questo blog.

Sapevo già che le piante usano una comunicazione “chimica”, ma mi ha colpito molto una di queste molecole in particolare, il metil-jasmonato che non conoscevo e di cui sono andato subito a cercare la formula; le piante usano il metil-jasmonato per segnalare alle congeneri o ad altre piante situazioni di sofferenza e di pericolo (per esempio l’attacco di parassiti). Ho scoperto con grandissimo interesse che è un derivato lipidico ciclopentanoico; ma, ho subito pensato, questa molecola di allarme allora è simile, molto simile, alle molecole che usano anche gli animali in condizioni analoghe: le cosiddette prostanglandine, che sono la base della risposta infiammatoria (e la cui produzione cerchiamo di inibire con gli antiinfiammatori come l’aspirina (ne abbiamo parlato varie volte)). Ho voluto verificare se la similitudine fosse stata notata; beh la risposta è si, ma non ci sono poi così tanti lavori in merito.

In particolare ho trovato il lavoro di cui vi riporto l’immagine qui sopra che parla del tema e anche della scoperta di molecole analoghe che si trovano sia nelle piante che negli animali, gli isoprostani, antenati probabilmente sintetizzati originariamente in modo non enzimatico. E questa è una bella ipotesi; perchè significherebbe che sono veramente molecole antiche; l’ipotesi del lavoro di Mueller (Chemistry & Biology 1998, Vol5 No 12 ) è che siano venute fuori prima dalla reazione spontanea fra lipidi e ossigeno; e possano essere dunque segnali dell’evento forse più traumatico per la vita sulla Terra, ossia il passaggio da forme di vita anaerobie a quelle aerobie, avvenuto fra 2 miliardi e 650 milioni di anni fa. Il pericolo da inquinamento per eccellenza che la vita ha passato finora (l’altro siamo noi che crediamo di essere superiori, ma in effetti……siamo una piaga)

L’ossigeno rimane per la vita a base ossigeno una molecola a doppia faccia; da una parte non possiamo farne a meno, dall’altra essa può produrre spontaneamente radicali liberi molto pericolosi, data la natura altamente reattiva dell’ossigeno atmosferico, la sua forma di molecola con ben due elettroni in orbitali di antilegame altamente disponibili, ciascuno dei quali cerca di appaiarsi; questo ci ha costretti a convivere con esso e anzi imparare a gestirlo.

Un esempio fra tutti potrebbe essere la nostra capacità di gestire enzimaticamente lo ione superossido O2(numero di ossidazione -1/2), che si forma spontaneamente, ma la cui sintesi noi perfino catalizziamo tramite un enzima, la NADPH ossidasi in caso di pericolo; e che usiamo, senza colpo ferire, contro i batteri molti dei quali non sono capaci di resistere al suo attacco ossidante (a meno di non possedere la superossido dismutasi). Lo ione superossido (la cui struttura elettronica è qui sotto) è un’arma letale perchè distrugge gli enzimi basati sul ferro e sullo zolfo e riusciamo a tenerlo a bada solo tramite la superossido dismutasi.

https://chemistryonline.guru/molecular-orbital-theory/

Non è l’unico radicale che usiamo sapientemente, ricordiamoci anche NO, usato in laboratorio di cinetica come scavenger dei radicali, considerato molto tossico, ma che noi maschietti umani produciamo (in piccole quantità) ed usiamo per controllare la pressione arteriosa nel luogo deputato, tutte le volte che qualche femmina della nostra specie ci fa impazzire adeguatamente. Incredibile quante cose si scoprano leggendo! Robe da chimico, ma credo interessanti per tutti.

Piccola lezione sui fanghi di depurazione.5: i controlli (considerazioni finali)

In evidenza

Mauro Icardi

(I precedenti post di questa serie sono qui, qui , qui e qui)

Terminati i controlli per verificare il corretto funzionamento della fase di ossidazione biologica, e successivamente quelli relativi alla stabilizzazione del fango , la fase successiva si riferisce ai controlli da effettuare sul fango ormai disidratato, e destinato a smaltimento, incenerimento, o riutilizzo in agricoltura.

Sul fango si possono determinare diversi parametri. Vediamo nello specifico la determinazione dei metalli.

L’analisi si effettua su campione umido per la determinazione del mercurio, e su fango secco per tutti gli altri parametri. Per la determinazione dei metalli si effettua attacco acido con acido solforico e nitrico, ed eventualmente con acqua ossigenata. Questa tecnica viene sempre di più sostituita dalla mineralizzazione con forno a microonde. Utilizzando questa tecnica le microonde riscaldano contemporaneamente tutto il campione, senza riscaldare i contenitori utilizzati che sono di materiali trasparenti alle microonde. In questo modo le soluzioni raggiungono molto più rapidamente il proprio punto di ebollizione e il riscaldamento è molto più veloce ed efficace del sistema tradizionale. La concentrazione dei metalli portati in soluzione viene determinata attraverso analisi eseguite tramite spettroscopia di assorbimento atomico, normalmente utilizzando la tecnica in fiamma, oppure con spettroscopia di emissione al plasma (ICP Ottico). La concentrazione dei metalli nei fanghi viene espressa in mg/Kg di metallo estraibile, riferito alla sostanza secca.

I fanghi di depurazione delle acque reflue industriali contengono metalli pesanti di tipo e quantità variabili e derivano dal tipo di lavorazioni e dalla dimensione delle industrie. I metalli pesanti provenienti dalle attività civili si ritrovano, inoltre, nella fase gassosa dei combustibili utilizzati per il riscaldamento, nei fumi provenienti dagli inceneritori o dal traffico veicolare; tali metalli raggiungono il suolo attraverso le precipitazioni atmosferiche. Alcune attività tipicamente agricole, come l’uso di prodotti fitosanitari e di concimi minerali, possono costituire una fonte di inquinamento da metalli pesanti.

In genere, i metalli pesanti si concentrano nei sottoprodotti di alcuni settori industriali o, anche se in misura minore, nei rifiuti urbani e nei reflui civili; per questo, lo smaltimento di questi materiali, per i rischi di tossicità sopra riportati, è regolamentato da apposite normative.

Vediamo ora, per alcuni dei principali metalli, ricercati nella matrice fanghi, le provenienze.

Cadmio totale

La concentrazione di cadmio nel suolo, è funzione delle caratteristiche dei materiali originari e dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione (concimi fosfatici, fanghi di depurazione).

Cromo totale

La concentrazione di cromo è riconducibile in parte a naturali processi di degradazione dei substrati geologici, da cui i suoli stessi traggono origine; in parte è funzione dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione. In particolare il contenuto di cromo può essere molto elevato in alcuni sottoprodotti dell’industria conciaria utilizzati per la produzione di concimi organici.

Piombo

La concentrazione di piombo riscontrabile nei fanghi di depurazione, relativamente alle attività produttive, riguarda principalmente gli scarichi delle fonderie. Un’altra fonte di contaminazione riguarda l’utilizzo di prodotti fitosanitari contenenti arseniti di piombo. Da rammentare che in passato si poteva avere contaminazione da piombo tetraetile, che veniva utilizzato come antidetonante nella benzina.

Rame

La concentrazione di rame dovuta ad attività antropica è anch’essa riferibile all’utilizzo del rame per la difesa antiparassitaria o per la fertilizzazione, soprattutto con reflui zootecnici. In particolare l’elevato contenuto di rame nelle deiezioni zootecniche è dovuto all’utilizzo di integratori e additivi alimentari che contengono questo elemento. I composti del rame sono anche utilizzati nel settore della coltivazione della vite, e molto spesso come componente alghicida per le vernici antivegetative, destinate normalmente a ricoprire il fondo delle imbarcazioni.

Per chiudere queste piccole lezioni sui fanghi, e sui controlli che si possono effettuare, parliamo di una analisi di tipo batteriologico, cioè la determinazione della Salmonella.

Considerando che i fanghi sono il prodotto finale del trattamento delle acque, essi posseggono un’ampia variabilità delle loro caratteristiche fisiche, chimiche, biologiche e tecnologiche che dipendono dalla loro origine, dal tipo di trattamento subito dai reflui, dal fango stesso, dalla durata dello stoccaggio. Se si tiene conto oltretutto che il numero dei microrganismi concentrati nei fanghi supera quello presente nelle acque grezze, bisogna considerare come diventi altrettanto rilevante lo studio delle loro caratteristiche microbiologiche. A qualunque recapito finale vengano destinati, è necessario renderli igienicamente innocui. Dal punto di vista microbiologico la normativa (dlgs 99/1992) fissa il limite di concentrazione nei fanghi per il solo parametro Salmonella. I processi di trattamento del fango sono comunque in grado di ridurre il numero di salmonelle, come di tutti i microrganismi in essi presenti.

L’analisi della Salmonella prevede l’omogeneizzazione, la filtrazione di un campione di fango precedentemente risospeso in una soluzione di acqua sterile tamponata. Il campione, diluito in funzione della concentrazione di Salmonella stimata, è omogeneizzato e filtrato; la membrana è recuperata asetticamente e incubata a 36°C,posizionata su un filtro sterile a fibre di vetro imbibito con un terreno favorevole alla crescita del microrganismo (Brodo al terationato). Dopo 24 ore la membrana è recuperata asetticamente e incubata a (36±2)°C su terreno cromogeno (Rambach® agar).

Le membrane sono esaminate dopo 24 e 48 ore. Trascorso questo tempo di incubazione si procede a quantificare il numero di colonie. Le salmonelle presuntive crescono su questo terreno come colonie di un colore rosso brillante, derivante dalla fermentazione del glicole propilenico.

Ho scritto queste brevi lezioni sui fanghi di depurazione, spinto sia dalla mia personale passione per il tema, che con la nemmeno troppo nascosta speranza che siano in qualche modo utili a chi voglia avvicinarsi ad un tema troppo spesso ancora ignoto ai non addetti. Credo sia utile ribadire un concetto: i fanghi, quali prodotti di risulta derivati dai processi di trattamento dei liquami, costituiscono il concentrato di tutti gli inquinanti presenti nei reflui: sostanze organiche, composti inorganici anche difficilmente biodegradabili, metalli pesanti e microrganismi. Bisogna lavorare a soluzioni economicamente sostenibili, ecologicamente praticabili, socialmente accettabili. E paradossalmente, più fanghi si producono, meglio le acque si depurano. In futuro probabilmente si privilegeranno trattamenti più spinti di riduzione della produzione. Ma non dimentichiamoci che “nulla si crea, nulla si distrugge, tutto si trasforma”.

E che come giustamente faceva osservare Primo Levi “La materia è materia né nobile né vile e non importa affatto quale sia la sua origine prossima”.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Hertha Sponer (1895-1968)

In evidenza

Rinaldo Cervellati

Hertha Sponer è stata un fisico e chimico fisico che ha dato notevoli contributi in meccanica quantistica, considerata pioniera nel campo della spettroscopia molecolare.

Hertha Sponer nacque l’1 settembre 1895 a Niesse (Slesia prussiana, oggi Nyese, Slesia polacca), prima di cinque figli da una famiglia della classe media. Il padre, negoziante, apprezzava la cultura e consentì a Hertha e ai suoi fratelli di acquisire un’educazione. Sebbene Hertha fosse ambiziosa e desiderasse frequentare l’università dovette prima diventare indipendente facendo la governante e l’insegnante elementare.Hertha Sponer giovanissima

Ottenne l’Abitur (diploma liceale) nel Realgymnasium di Niesse, nel marzo 1917, poi frequentò per un anno l’Università di Tübingen studiando matematica, fisica e chimica, per passare a quella di Giessen dove ottenne il dottorato in fisica nel 1920 discutendo la tesi “Über ultrarote Absorption zweiatomigen Gases” (On the infrared absorption of diatomic gases) [1], con la supervisione di Peter Debye[1]. A proposito di questo lavoro Debye commentò:

“ essa ha risolto il problema di chiarire la situazione [di descrivere gli spettri molecolari] in base agli attuali concetti quantomeccanici.”

La tesi fu approvata magna cum laude. In effetti fu uno dei primi studi in cui furono usati metodi di teoria quantistica per interpretare gli spettri vibro rotazionali delle molecole [2].

Hertha Sponer nel 1920

Dal 1920 al 1921 Sponer lavorò su esperimenti di impatto elettronico nel dipartimento di fisica del Kaiser Wilhelm Insitute di Chimica Fisica con James Franck[2]. Allo stesso tempo fu assistente al corso di fisica sperimentale per le matricole dell’Istituto di Fisica dell’Università di Berlino.

Quando James Franck diventò professore ordinario all’Università di Göttingen, Sponer lo seguì diventando una dei suoi assistenti, continuando le sue ricerche sull’impatto elettronico e la spettroscopia molecolare [2]. Nel 1925 ottenne l’abilitazione all’insegnamento della fisica presentando un lavoro sul potenziale di eccitazione degli spettri a bande dell’azoto [3]. Nello stesso anno vinse una borsa di ricerca della Fondazione Rockefeller e si recò negli USA, a Berkeley,  per un anno.

Durante la sua permanenza a Berkeley, collaborò con R.T. Birge[3], sviluppando quello che verrà chiamato il metodo Birge-Sponer per determinare le energie di dissociazione.

Il lavoro didattico e scientifico di Sponer fu molto apprezzato all’Università di Göttingen tanto che fu raccomandato il suo passaggio a professore ordinario, ma le leggi prussiane vietavano alle donne questa posizione. Divenne così professore associato (massimo grado cui potevano aspirare le donne) nel 1932.

Hertha Sponer nel suo laboratorio a Göttingen

Nel 1932 Sponer aveva già pubblicato una ventina di lavori, quasi tutti a suo nome, anche su riviste internazionali importanti come Nature e Physical Reviews [4], diventando un noto fisico.

Sebbene Sponer non dovesse temere le persecuzioni antiebraiche del partito nazista essa si dimise dalla sua posizione accademica, abbandonando la Germania nell’ottobre 1934. L’anno precedente erano stati licenziati tutti i professori e ricercatori ebrei, il direttore del suo dipartimento, James Franck di origine ebraica aveva abbandonato per protesta il suo incarico[4], recandosi in Danimarca chiamato da Niels Bohr a lavorare nel suo istituto. Sponer accettò un posto di professore ospite all’Università di Oslo, in Norvegia. Poiché continuare le sue ricerche fu difficile, Sponer utilizzò il tempo per terminare il suo libro in due volumi Molekülspektren und ihre Anwendnungen auf chemische Probleme (Molecular spectra and their applications to chemical problems), pubblicati a Berlino nel 1935 e 1936 [2]. Questo libro fu usato da molti fisici e chimici di tutto il mondo dopo il 1945. Nel 1936 Sponer aveva pubblicato circa 40 articoli.

Nel 1936 si recò negli USA, dove le era stata offerta una cattedra nel Dipartimento di Fisica della Duke University, a Durham nel North Carolina. Non si deve pensare che questa offerta fu senza intoppi. In effetti già nel 1933 un funzionario della Fondazione Rockefeller, che sponsorizzava un programma per assistere studiosi tedeschi rifugiati, informò il rettore della Duke University, William Few, della possibile disponibilità di Sponer con parziale sponsorizzazione a carico della Fondazione. Few chiese consiglio a Robert A. Millikan[5], un famoso fisico del California Technical Institute, che diede parere negativo mostrando un forte pregiudizio nei confronti delle donne scienziate in una facoltà universitaria. La lettera di Millikan arrivò non molto tempo dopo che il Consiglio del Dipartimento di Fisica della Duke si era espresso a favore di Sponer, e va riconosciuto a loro merito aver ignorato il parere di Millikan [5].

Sponer alla Duke

Alla Duke, Hertha Sponer allestì un laboratorio di spettroscopia nel Dipartimento di Fisica, che fu trasferito nel 1949 in un nuovo edificio. Il laboratorio era collocato nel sottosuolo, appositamente attrezzato con piedistalli su basi separate per montaggi senza vibrazioni del principale componente ottico del suo spettrometro e a temperatura costante. Pubblicò molti articoli, un certo numero in collaborazione con altri fisici e chimico fisici, alcuni dei quali rifugiati come lei dalla Germania. Ampliò le sue ricerche spettroscopiche agli spettri di assorbimento nel vicino ultravioletto, sotto la sua guida 12 studenti diplomati conseguirono il Master e il dottorato. Uno degli articoli è stato scritto insieme a Hedwig Kohn, un’altra rifugiata dalla Germania, che era professoressa al Wellesley College. Dopo il suo ritiro nel 1952, Hedwig Kohn, anch’essa spettroscopista sperimentale, si unì al Dipartimento di Fisica della Duke e lavorò nel laboratorio di Sponer, dove supervisionò il lavoro di tre studenti laureati e diversi post-dottorati.

Come è stato affermato nella biografia completa di M. A. Maushart:

“il grande merito di Hertha Sponer è stato la conferma sperimentale, mediante spettroscopia, di molte previsioni quantomeccaniche. Ha anche razionalizzato la ricerca spettroscopica pubblicata in tutto il mondo, e ha mostrato come i dati si inseriscono in un’immagine complessiva. È stata una delle pioniere della ricerca interdisciplinare del XX secolo e ha compreso molto presto il significato delle indagini spettroscopiche in relazione ai problemi in chimica: già all’inizio della sua carriera accademica interagiva fortemente con il Dipartimento di Chimica dell’Università di Göttingen” [5].

Successivamente pubblicò nel Journal of Chemical Physics, fondato nel 1932, e ne divenne Associate Editor dal 1940 al 1943 e di nuovo dal 1947 al 1950. Non stupisce quindi che le sue ricerche siano state inserite principalmente nel campo della Chimica Fisica, anche se la sua formazione sperimentale era quella di un fisico. Fece da collegamento tra queste discipline, perché era in grado di comprendere sia la lingua della Fisica sia quelle della Chimica e di comunicare in entrambe [5].

Nel 1946, Hertha Sponer e il suo ex mentore e amico James Franck si sposarono. Essendo entrambi professionalmente attivi, e Franck professore all’Università di Chicago, continuarono a vivere nelle rispettive città, quindi si vedevano solo per poche settimane l’anno, soprattutto durante visite o viaggi comuni.

Negli anni 1952-53, Sponer fu visiting professor all’Università di Uppsala, dove fece studi teorici su metodi quantomeccanici di calcolo di proprietà strutturali di molecole complesse.

Hertha Sponer nel 1958

È stata membro dell’Accademia delle Scienze di New York, dell’American Physical Society e di altre organizzazioni scientifiche.

Ha lavorato alla Duke complessivamente per trentatré anni, ottenne il titolo di professore emerito nel 1965, all’età di 70 anni.

Nel 1966, divenuta vedova, ritornò in Germania, stabilendosi a Celle (bassa Sassonia) con la famiglia di suo nipote. L’anno successivo iniziò ad ammalarsi. Morì il 17 febbraio 1968 all’ospedale di Ilten, vicino a Hannover.

Nel 2001 la German Physical Society ha istituito l’Hertha Sponer Prize, assegnato ogni anno a una scienziata preferibilmente in una fase iniziale della sua carriera. Nel 2007, la Duke University ha istituito la Presidential Sponer Lectures, dove si sono distinte molte scienziate.

Per chi volesse approfondire:

Marie-Ann Maushart, Hertha Sponer: Woman’s Life as a physicist in the 20th Century. “So you won’t forget me”, Copyright © 2011 by Department of Physics, Duke University, Durham, North Carolina

 

Bibliografia

[1] H. Sponer, Über ultrarote Absorption zweiatomigen Gases, Jahrbuch der Philosophie., Fakultät d. Univ. Göttingen 1921, 1921, 153-160.

[2]M. Ogilvie, J. Harvey (Eds.), The Biographical Dictionary of Women in Science, Vol. 2, Routledge, New York & London, 2000, p. 1220.

[3] H. Sponer, Anregungspotentiale der Bandenspektren des Stickstoffs., Z. Physik, 1925, 34, 622-633.

[4] L’elenco completo dei lavori di Hertha Sponer si trova in: https://web.archive.org/web/20110725160730/http://www.quantum-chemistry-history.com/Sponer1.htm

[5] https://phy.duke.edu/about/history/historical-faculty/HerthaSponer

[1] Peter Joseph William Debye (1884-1966), fisico e chimico fisico olandese naturalizzato USA, le sue ricerche hanno spaziato dall’elettrochimica alla meccanica quantistica. Professore in diverse università europee, si stabilì definitivamente alla Cornell University a Ithaca (New York). Premio Nobel per la Chimica 1936 “per il suo contributo alla conoscenza della struttura molecolare attraverso gli studi sui dipoli elettrici e la diffrazione dei raggi X degli elettroni nei gas”

[2] James Franck (1882-1964) fisico tedesco, vinse il Premio Nobel per la fisica 1925 con Gustav Hertz “per la scoperta delle leggi che governano l’impatto di un elettrone su un atomo”. Esule negli USA, si sposerà con Hertha Sponer nel 1946. Partecipò al progetto Manhattan. Nel suo Franck Report raccomandò che i giapponesi fossero avvertiti prima dello sgancio delle bombe atomiche sulle loro città ma non fu ascoltato.

[3] Raymond Thayer Birge (1887–1980), fisico statunitense, dopo il dottorato all’Università del Wisconsin, fu cooptato nel gruppo del College of Chemistry a Berkeley sotto la guida di G.N. Lewis. Sostenitore dell’atomo di Bohr ebbe controversie con Lewis, continuò comunque con le sue idee facendo ricerche in spettroscopia molecolare (metodo di Birge-Sponer) e in statistica.

[4] In effetti James Franck essendo un veterano della Prima Guerra era esonerato dalle leggi antiebraiche del 1933, ma volle ugualmente lasciare il posto per protestare contro il regime nazista, in sostegno ai colleghi ebrei costretti a dimettersi o licenziati, a molti dei quali trovò un posto all’estero prima di lasciare la Germania.

[5] Robert Andrews Millikan (1868- 1953), fisico statunitense, Premio Nobel per la Fisica 1923 per i suoi lavori sulla determinazione della carica elettrica dell’elettrone e sull’effetto fotoelettrico.

Piccola lezione sui fanghi di depurazione.4. I controlli (parte terza).

In evidenza

Mauro Icardi

(I precedenti post di questa serie sono qui, qui e qui)

Terminata l’esposizione di controlli sul comparto di ossidazione, passiamo ai controlli del fango estratto come fango di supero (o di spurgo) dalla vasca di ossidazione. Normalmente il fango estratto viene inviato ad una sezione di ispessimento Dal punto di vista analitico si effettuano i medesimi controlli già visti per il fango della vasca di ossidazione (determinazione dei solidi sospesi totali e della sostanza volatile).

Prima di passare alla fase di disidratazione il fango deve subire un trattamento di stabilizzazione, per ridurne il contenuto di sostanza organica putrescibile, ridurne la carica batterica potenzialmente patogena, ed essere più facilmente sottoposto ai trattamenti di disidratazione. Sui piccoli impianti, generalmente con potenzialità inferiori ai 5000 A.E (abitanti equivalenti) gli impianti sono progettati con una sezione di digestione aerobica. Si tratta sostanzialmente di una vasca di ossidazione, dove il fango viene fortemente areato per tempi prestabiliti, senza ricevere apporto di acqua reflua. In questo caso il parametro fondamentale da controllare è la riduzione percentuale della sostanza organica volatile, che analogamente a quanto ritenuto soddisfacente per la digestione anaerobica non deve essere inferiore al 40%.

Lo svantaggio di questo tipo di tecnica è che non consente alcun recupero energetico, ed ha costi abbastanza elevati. Dati del 2002 indicavano un costo per abitante equivalent pari a 11,2 euro.

Il trattamento normalmente più usato per la gestione del fango è quello della digestione anaerobica. Nei sistemi anaerobici si sfrutta l’azione di microrganismi in grado di sopravvivere in assenza di ossigeno disciolto. Il processo di digestione anaerobica procede attraverso queste fasi:

Suddivisione delle molecole più grandi, come ad esempio:

carboidrati →zuccheri semplici

proteine →amminoacidi

grassi →glicerolo

Fermentazione acida, condotta da acido produttori, in cui i prodotti formatisi nella fase precedente sono trasformati in acidi grassi volatili (butirrico, propionico, acetico) ed in NH3, H2S, CO2(nel corso di tale fase il pH si porta fino a 5).

Tali acidi sono soggetti a degradazione da parte di batteri metanigeni, che utilizzano quale accettore di idrogeno unicamente il carbonio delle molecole organiche con formazione prevalente di CH4 e CO2.

Nella gestione degli impianti reali è necessario controllare che si stabilisca un equilibrio tra la fase acida e quella metanigena. È necessario, cioè, che la quantità di acidi volatili che si produce non superi la capacità di degradazione della massa batterica metanigena, che, essendo caratterizzata da una più ridotta velocità di degradazione, regola la velocità dell’intero processo.

La temperatura del processo anerobico è un fattore fondamentale (come per tutti i processi biologici).

Le temperature di esercizio di un processo di digestione anaerobica possono essere principalmente:

processo psicrofilo(4-25 °C; valori ottimali 15-20 °C);

processo mesofilo(10-40 °C; valori ottimali 30-35 °C);

processo termofilo(45-70 °C; valori ottimali 55-60 °C).

La possibilità effettiva di poter regolare la temperatura di esercizio è legata, nel caso specifico, alla disponibilità del biogas prodotto.

I controlli che si devono dunque effettuare su questa fase del processo sono diversi, e devono essere confrontati. Sul fango in digestione si deve verificare il valore della temperatura di processo, determinare ad intervalli di tempo prestabiliti il valore degli acidi volatili e dell’alcalinità, verificare la riduzione di sostanza organica percentuale. Tutti questi dati permettono di identificare le disfunzioni del processo, pianificare la necessità di interventi di manutenzione per esempio allo scambiatore di calore, che col tempo può diminuire l’efficienza a causa dei fenomeni di biofouling.

Vengono utilizzati poi per il controllo direttamente sull’impianto dei misuratori portatili di gas, che consentono di verificare la quantità percentuale di CH4 e di CO2 che sono i parametri principali che definiscono la qualità del biogas prodotto. Il terzo parametro importante da determinare è quello del valore di H2S per due principali ragioni: la prima è la tossicità del composto, la seconda è che, se il valore di questo parametro è elevato, occorre prevedere un processo di desolforazione del biogas, per impedire fenomeni di malfunzionamento e di corrosione e quindi di usura prematura delle parti metalliche. Un tipico esempio può essere quello della corrosione della caldaia di combustione del biogas prodotto, soprattutto negli impianti di costruzione più remota.

Dopo questa fase di trattamento, il fango viene inviato al trattamento di disidratazione.

(continua)

Nota: Per abitante equivalente si intende la quantità di sostanze organiche biodegradabili, derivate da un’utenza civile o assimilabile a questa, convogliate in fognatura nell’arco temporale di un giorno (24 ore) cui corrisponde una richiesta biochimica di ossigeno a 5 giorni (120 ore) pari a 60 grammi di O2 al giorno (D.Lgs. 152/06 art. 74-Definizioni)

Spettroscopia casalinga. 1. Le basi.

In evidenza

Claudio Della Volpe

La chimica moderna non può essere identificata con la meccanica quantistica (MQ), anche se la MQ ne costituisce la trama essenziale, la legge costitutiva; la chimica è basata sulla conservazione della massa e sulle leggi delle combinazioni scoperte da Lavoisier, Proust e Dalton, le quali sono leggi empiriche (ed approssimate). Si può dunque parlare di chimica (e fare chimica, grande chimica) senza introdurre la MQ.

Questo è un fatto, anche se i colleghi teorici o i fisici potranno ripetere quanto vorranno che dopo tutto la chimica è una delle applicazioni della MQ; al momento dedurre tutto dalla MQ, con procedimenti ab initio è un tantino costoso in termini di tempo e soprattutto oscuro alla gran parte delle persone, inclusi molti chimici.

Ciò detto però occorre chiarire che la MQ è e rimane il fondamento concettuale, teorico di tutta la faccenda, una sorta di rete nascosta che correla tutto il contenuto della chimica; tuttavia la sua essenza matematica è talmente complessa che l’uomo comune e anche il chimico comune possono farne a meno in molti casi. In altri casi la correlazione esiste ma è talmente complessa da sfuggire, al momento non la conosciamo. La questione a questo punto diventa opposta; ma se è possibile fare della chimica anche facendo a meno della MQ come si fa a giustificare la MQ? Esistono fenomeni comuni che la testimonino a tutti, anche all’uomo comune o al chimico più limitato?

Altrimenti la MQ diventerebbe una sorta di deus ex machina, ma chiunque potrebbe dire, “roba da professori, non ci serve”.

La risposta è si, esistono fenomeni fondamentali, ed alcuni di essi sono sotto i nostri occhi, che non si possono interpretare senza MQ; il più basilare e comune di essi, facile da esplorare è la interazione fra luce e materia, in particolare c’è un fenomeno comunissimo dell’interazione luce-materia che ognuno può osservare e che è la quintessenza della MQ, ossia la quantizzazione delle interazioni luce-materia, il fatto che alcune frequenze sono molto più adatte di altre a fare certe cose, anzi sono uniche, ben determinate sempre uguali e facilmente misurabili.

I fenomeni a cui faccio riferimento sono gli spettri a righe sia in emissione che in assorbimento.

La luce emessa da alcune comuni sorgenti e quella assorbita, attorno a noi proveniente dalla più importante sorgente luminosa del nostro pianeta, il Sole, è quantizzata, è rappresentata solo da alcune righe ben precise, che sono luminosissime in emissione e scurissime in assorbimento (queste ultime sono le cosiddette righe di Fraunhofer).

Entrambe queste tipologie di righe, non spiegabili con la fisica classica, possono essere viste con strumenti semplici ed usate per dimostrare a tutti le peculiarità base della MQ.

La scienza che studia gli spettri si chiama spettroscopia ed è un argomento molto bello ed interessante, ma spesso considerato ingiustamente “avanzato”. Il suo strumento base è lo spettroscopio, un dispositivo separatore che serve a separare la luce nelle sue componenti di frequenza diversa. La base di questo effetto separatore è conosciuta a tutti, è la rifrazione della luce, l’angolo diverso di uscita della luce da certi mezzi trasparenti a seconda della sua frequenza (che dipende a sua volta dalla diversa velocità della luce NEL MEZZO trasparente); è un fenomeno che dà origine all’arcobaleno e che tutti voi avete potuto osservare dopo una forte pioggia, ma anche vicino ad una cascata o ad una fontana in un giorno soleggiato. Fu analizzato fin dal 900dC (da uno studioso arabo che scrisse per primo una legge di Snell-Cartesio) anche se comunemente si accetta che sia stato Newton a darne una interpretazione “moderna”; non mi addentro ma la disamina sarebbe interessante. Trovate una spiegazione molto dettagliata qui.

Nei prossimi post vi racconterò quindi come si fa a costruire un semplice ma potente spettroscopio usando strumenti e materiali molto semplici e comuni ed in genere non costosi e ad osservare tramite esso questi due tipi di spettri, facendo se possibile anche delle osservazioni quantitative.

Gli oggetti che vi servono assolutamente sono una macchina fotografica comune o almeno un cellulare, ma meglio sarebbe una macchina reflex, ossia una con obiettivo smontabile; un ago da cucito ben lucido e di generose dimensioni, che costituirà la nostra fenditura; una stoffa di velluto nero, il velluto ha la proprietà di assorbire la luce e costituisce un ottimo sfondo; un reticolo di diffrazione, costituito di solito da un foglio di polimero su cui sono state stampate delle righe parallele in gran numero, dell’ordine di centinaia o migliaia per mm; il costo di questo foglio è molto ridotto, tanto è vero che viene usato per costruire occhiali “da discoteca” usa e getta. Dove acquistarlo? Si tratta dell’unico oggetto diverso dal comune, che potrebbe è vero essere sostituito da un CD o un DVD, ma personalmente ho trovato semplice comprare un foglio stampato su internet; ve ne mostro un possibile link.

https://www.amazon.com/Diffraction-Gratings-Slide-Excellent-demonstrating/dp/B006ZBISI4

costa qualche euro e si trovano fogli interi non montati per poco di più. Fra i dieci e i venti euro:

https://www.amazon.it/Rotolo-Foglio-Reticolare-Diffrazione-Lineare/dp/B007G0MW2Q

A questo punto il vostro spettroscopio è solo da montare. Per tenere il foglio di plastica davanti all’obiettivo fotografico si può usare un supporto per filtri Cokin, che si avvita sull’obiettivo e costa meno di dieci euro.

L’ago potrebbe essere sostituito meglio da un cilindro metallico lavorato accuratamente con una rugosità bassa, diciamo fra i 50 e i 100 nanometri; un ago ha una superficie che presente dei difetti più grandi e questo contribuisce a spezzare l’immagine della luce riflessa fornendo una apparenza “spettrale”, delle righe scure perpendicolari a quelle effettive che disturbano l’immagine principale (il cosiddetto transversalio, un elemento immaginario). Per ridurre l’effetto del transversalio mi sono procurato cilindri di questo tipo facendoli fare da industrie meccaniche che fanno lavori del genere o producono pezzi di cuscinetti (in realtà un grosso cuscinetto o una palla dell’albero di Natale è una fenditura di riflessione a sua volta); il costo di un cilindro non supera i 30-40 euro, spedizione compresa. La macchina fotografica che ho usato è una Canon digitale che già possedevo, una reflex è comoda per poter scegliere l’obiettivo adatto; nel mio caso è una 550D usata, che sul mercato vale sui 200 euro senza obiettivo. Non l’ho acquistata per questo come non ho acquistato per questo gli obiettivi o il treppiede che consente di avere immagini stabili e ben controllate. Ma si tratta in ogni caso di oggetti sostituibili con altri simili. Ho scelto la Canon perchè il software di funzionamento della Canon è di fatto disponibile e un numeroso gruppo di appassionati internazionali lo ha riscritto sfruttando le routine di sistema e col nome di Magic Lantern si ha a disposizione un software alternativo potentissimo che consente di fare cose incredibili a costo zero. Ma questo è un altro tema.Lo spettro di emissione di una lampada fluorescente ad alta efficienza ottenuto con il metodo descritto. Le righe visibili sono da attribuire a vari elementi fra i quali predomina il mercurio. A sin. il riflesso zero e a destra le righe colorate che costituiscono il riflesso del primo ordine. La fenditura lavora in riflessione ed è costituita dall’ago, che funge anche da riflesso zero.

Ovviamente ci vuole anche un po’ di inventiva per adattare le soluzioni che vi propongo qui al vostro caso specifico; inoltre potrete usare dei riferimenti per così dire di letteratura, nel senso che libri, articoli sul tema della spettroscopia amatoriale e anche software dedicato una volta che avrete qualche immagine si sprecano.

Fra gli altri abbiamo in Italia un autore prolifico e molto bravo che si è occupato della spettroscopia amatoriale, Fulvio Mete che ha pubblicato nel 2016, mettendolo online, un testo in italiano di ben 377 pagine dedicato al tema, frutto di una attività multidecennale dedicata a questo tema appassionante:Cenni di Spettroscopia astronomica Amatoriale, che trovate qui e che vi consiglio assolutamente, oltre ai riferimenti che troverete in questi articoli.

Notiamo anche una cosa importante, non vi sto consigliando l’uso di un prisma come separatore delle frequenze; i prismi sono costosi e pesanti; vi sto consigliando un reticolo di diffrazione, fra l’altro trasparente. Ma come funziona?

Mentre il prisma usa la rifrazione per separare le frequenze, il reticolo sia di riflessione che di trasmissione sfrutta invece la diffrazione, ossia sfrutta la natura ondulatoria della luce. E questo comporta che l’effetto sulla separazione sia ben diverso come qui mostrato in figura: 1 il reticolo, 2 il prisma; vedete che la deviazione è opposta e il prisma in più mostra un solo ordine di raggi.Il prisma devia di più le radiazioni a lunghezza d’onda più corta; ma allora perchè l’arcobaleno mostra il violetto più vicino al centro? La domanda è utile a ricordare come funziona l’arcobaleno: noi vediamo l’immagine come mostrato nella figura qui sotto e la vediamo con il Sole alle spalle, tenetene conto e invertite il vostro modo di “vedere” le cose:Torniamo all’argomento principale.

Allora un reticolo di diffrazione è costituito semplicemente di fenditure affiancate in gran numero (i primi furono costruiti allineando su una coppia di viti dei capelli, Journal of the Franklin Institute Volume 214, Issue 1, July 1932, Pages 99-104 ) dall’astronomo americano David Rittenhouse nel 1785 (D. Rittenhouse, Trans. Amer. Phil. Soc. , 2:201 (1786) in risposta ad una domanda che gli era stata rivolta da F. Hopkinson

https://ia802605.us.archive.org/2/items/transactionsofame02amer/transactionsofame02amer.pdf

ed analogamente nel 1821 da J. v. Fraunhofer J. v. Fraunhofer, “Kurtzer Bericht von den Resultaten neuerer Versuche über die Gesetze des Lichtes, und die Theorie derselben,” Ann. d. Physik , 74:337-378 (1823) che li costruì tendendo dei fili finissimi molto vicini e incidendo il vetrino lungo le linee da essi individuate con un diamante e ci scoprì le insospettabili e misteriose righe nere che portano il suo nome nello spettro solare.

Come funziona il reticolo? Ogni incisione funge da sorgente del raggio in arrivo e questi raggi interferiscono tra di loro.

Esistono inoltre dei reticoli tridimensionali: i cristalli. Ogni nodo del reticolo (atomo o molecola) è un sito di diffusione. È la base della diffrazione dei raggi X, della figura di diffrazione in microscopia elettronica in trasmissione e della diffrazione neutronica.

Le scanalature di un compact disc agiscono come un reticolo di diffrazione producendo delle riflessioni iridescenti.

I comuni CD e DVD sono esempi quotidiani di reticoli di diffrazione: si può notare la loro capacità di scomporre la luce incidente osservandone la superficie. Questo è un effetto collaterale della produzione, infatti la superficie di un CD è ricoperta di molte piccole scanalature concentriche nella plastica ricoperte da un sottile strato di metallo che le rende più visibili. La struttura di un DVD è analoga.Uno dei primi spettri solari ottenuti dall’autore con il metodo descritto; l’immagine è volutamente naive per mostrare il contesto; notate la “fenditura di riflessione”, un semplice ago, il panno di velluto che costituisce lo sfondo, ma anche le piante del mio balcone e gli altri spettri dovuti a sorgenti indesiderate.Una immagine più recente ottenuta con un teleobiettivo, ma con il medesimo metodo, sfruttando un cilindro metallico. Notate il doppietto del sodio nella parte destra gialla dell’immagine. Circa 100mm di focale ed un reticolo da 500l/mm. Queste immagini si possono poi analizzare con vari programmi. Le bande luminose orizzontali dovute ai difetti superficiali della fenditura di riflessione, ossia dell’ago, sono definite transversalio, un elemento immaginario. Le macchie bianche sono un difetto del vellluto.

In definitiva i normali spettroscopi con cui lavora il chimico usano un prisma o un reticolo di diffrazione in riflessione e una fenditura di trasmissione; qua vi propongo di costruire in pochi passi una sistema costituito da una fenditura di riflessione (l’ago o il cilindro o la sfera di cuscinetto o la palla di Natale) e un reticolo di trasmissione.

Nella foto qui sopra il sistema al lavoro, a sin la macchina fotografica con un vecchio teleobiettivo Tamron 70-200 (25 euro) e davanti il filtro Cokin che monta il foglio di diffrazione e nel cui display vedete lo spettro della lampadina posta in alto, nel lampadario fuori vista; al centro dell’immagine, all’estremità del supporto di polistirolo ricoperto di stoffa nera e di una striscia di velluto la piccola “fenditura”, ossia il cilindro d’acciaio, opportunamente orientato e fissato alla stoffa con uno spillo e di cui le righe sono l’immagine riflessa e diffratta; sotto il risultato.(continua)

Le molecole più interessanti dell’anno 2018

In evidenza

Rinaldo Cervellati

Anche quest’anno Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2018 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, con la grande maggioranza (58%) degli intervistati si trova la sintesi di un grafene poroso:Moreno et al. (Bottom-up synthesis of multifunctional nanoporous graphene., Science, 2018, 6385, 199-203) hanno usato l’accoppiamento Ullmann per polimerizzare un difenilbiantracene dibromo-sostituito su una superficie d’oro. La ciclodeidrogenazione del polimero risultante ha prodotto nanonastri di grafene e l’accoppiamento incrociato di queste strutture ha formato un foglio di grafene nanoporoso con dimensioni dei pori di circa 1 nanometro. Il grafene nanoporoso presenta proprietà elettriche che lo rendono un materiale adatto per applicazioni elettroniche e per la separazione molecolare.

Al secondo posto (11%) si è classificata una nuova classe di steroisomeri:

Mentre sintetizzava macrocicli di porfirina contenenti un ponte boro-ossigeno-boro, un gruppo internazionale di ricercatori ha scoperto un nuovo tipo di isomeria, chiamata akamptoisomeria. Questi akamptoisomeri si originano dall’inversione dell’angolo di legame in cui l’atomo centrale in un terzetto piegato e legato singolarmente a atomi diversi si flette nella direzione opposta (P.J. Canfield et al., A new fundamental type of conformational isomerism., Nature Chemistry, 2018, 10, 615–624). Nel caso dei macrocicli dei ricercatori, l’atomo di ossigeno nel ponte fa la flessione, spostandosi avanti e indietro su entrambi i lati dell’anello della porfirina.

Terzo classificato (10%) il semplice ma elusivo dimetilcalcio

Sessanta anni orsono fu riportata la sintesi del composto organometallico dimetilcalcio, ma quell’impresa non è mai stata replicata. Quest’anno, un gruppo di chimici tedeschi ha infine riportato un’altra sintesi della molecola apparentemente semplice, che potrebbe portare a nuovi catalizzatori o reagenti. Il “trucco” è stato trovare materiali di partenza appropriati (il sale di calcio della bis(trimethylsilyl)amide [Ca{N(SiMe3)2}2]2) e escogitare un modo per purificare adeguatamente un reagente notoriamente contaminato da alogenuri, il metil litio. (B. M. Wolf et al., Dimethylcalcium., J. Am. Chem. Soc., 2018, 140, 2373–2383). I ricercatori hanno usato il dimetilcalcio amorfo così ottenuto per produrre un reagente di Grignard e un composto di metilcalcio terminale.

Va osservato il grande divario fra la preferenze espressa per la prima molecola e quelle per le successive che si attestano attorno al 10%. Non conoscendo l’entità del campione testato è difficile stabilire la significatività dell’ordine di questi posti.

Il quarto posto (8%) spetta al “nodo” molecolare più complicato

Questa molecola a 324 atomi si intreccia su se stessa in nove punti di incrocio ed è il nodo molecolare più complesso pubblicato fino ad oggi:

Il gruppo di chimici coordinato dal prof. David A. Leigh dell’Università di Manchester (L. Zhang et al., Stereoselective synthesis of a composite knot with nine crossings., Nat. Chem., 2018, 10, 1083–1088) ha realizzato la struttura unendo sei lunghi blocchi contenenti gruppi alcheni a ciascuna estremità e tre gruppi bipiridilici nel mezzo. Questi ligandi ruotavano intorno a sei ioni ferro, legandosi al ferro attraverso i loro atomi di azoto bipiridilico. Usando un comune catalizzatore al rutenio, il gruppo ha legato tutti i ligandi con una reazione di ring closing che ha rimosso il ferro e “annodato” il prodotto finale. Sebbene questi tipi di nodi molecolari siano considerati solo come dimostrazioni di abilità di sintesi, i ricercatori di Manchester pensano che un giorno possano essere usati come catalizzatori o per altre applicazioni.

Il quinto posto (5%) va alla sintesi di una tossina dell’Amanita phalloides.

I ricercatori dell’Università della British Columbia hanno individuato un percorso per la produzione di α-amanitina, una tossina prodotta dal fungo Amanita phalloides:

Per realizzare l’ottapeptide biciclico, i chimici hanno vinto le sfide chiave dell’inserimento di un ponte 6-idrossi-tryptathionina solfossido, della sintesi enantioselettiva della (2S,3R,4R) -4,5-diidrossi-isoleucina e solfossidazione diastereoselettiva in un opportuno solvente (K. Matinkhoo et al., Synthesis of the Death-Cap Mushroom Toxin α‑Amanitin., J. Am. Chem. Soc. 2018, 140 (21), 6513–6517).

Fino a oggi la tossina, di notevole interesse come possibile agente antitumorale, si otteneva soltanto per estrazione dal fungo.

Infine un 7% complessivo ha optato per il seguente polimero radicale a elevata conducibilità elettrica

Joo et al. A nonconjugated radical polymer glass with high electrical conductivity., Science,2018, 6382, 1391-1395; per il seguente “omaggio a Saturno”:Yamamoto et al., Nano‐Saturn: Experimental Evidence of Complex Formation of an Anthracene Cyclic Ring with C60., Ang. Chem. Int. Ed., 2018, DOI: 10.1002/anie/201804430; e per l’individuazione della neurotossina probabilmente usata nel presunto attentato all’ex agente segreto russo Sergej Skripal.

 

Il secondo traguardo: oltre le calorie.

In evidenza

Luigi Campanella, già Presidente SCI

Il secondo traguardo dello sviluppo sostenibile per le Nazioni Unite si focalizza sulla lotta entro il 2030 contro la cattiva nutrizione in tutte le sue forme. Una nuova ricerca sull’argomento dimostra che per raggiungere questo traguardo è necessario un approccio nuovo rispetto alla definizione dei limiti della sufficienza di nutrienti nell’alimentazione dei cittadini del Pianeta. Lo studio è stato pubblicato in ” Frontiers in sustainable food systems”.

https://www.frontiersin.org/articles/10.3389/fsufs.2018.00057/full?utm_source=FWEB&utm_medium=NBLOG&utm_campaign=ECO_FSUFS_calories-nutrients

E’ il primo studio che cerca di mappare quantitativamente a livello globale il flusso di energia, proteine, grassi, amminoacidi essenziali e micronutrienti dal campo di cultura al piatto e di identificare i punti caldi dove si perdono nutrienti. Lo studio mostra che mentre produciamo nutrienti in quantità molto maggiore di quanto richiesto dalla popolazione del Pianeta, le inefficienze nella catena di distribuzione comportano deficienze alimentari. La ricerca sottolinea le complessità che sorgono nel mettere a punto un sistema di alimentazione equilibrato, che solo può essere maneggiato con un approccio olistico. Le innovazioni di approccio che si richiedono derivano dal fatto che attualmente la sicurezza alimentare è valutata in termini di calorie, mentre la cosiddetta fame nascosta, cioè la malnutrizione di micronutrienti, affligge più di 2 miliardi di persone nel mondo

Attualmente i differenti aspetti del sistema alimentare globale sono trattati in termini di tonnellate o chili, e diventa difficile definirne sufficienza o meno e rispetto a quante persone tali quantità possano garantire alimentazione sufficiente.

Il capofila dell’equipe che ha svolto la ricerca ha dichiarato: ”vogliamo, per la prima volta, valutare l’intero sistema alimentare in unità di misura utili-nutrienti medi per persona- guardando a tutti i nutrienti essenziali per la buona salute”. Il gruppo di ricerca ha utilizzato i dati forniti dalla FAO circa i bilanci alimentari e le composizioni nutrizionali per quantificare proteine digeribili, grassi, calorie, aminoacidi e micronutrienti (calcio, zinco, ferro, folato, vitamine A, B6, B12, C) attraverso la catena di distribuzione, dalla produzione in campo all’alimento sulla tavola.

Le perdite di alimenti e nutrienti sono state calcolate dai dati regionali sui rifiuti delle Nazioni Unite e tutti i dati quantitativi sono stati normalizzati per mediare per persona e per giorno. I valori delle forniture di nutrienti sono stati confrontati alla richieste medie nutrizionali per stabilire circa la sufficienza o meno. I ricercatori sono stati colpiti dal risultato: tutti i nutrienti, non le calorie corrispondenti, sono distribuiti in quantità sufficienti. Studi precedenti avevano dimostrato che noi produciamo più dei nostri bisogni in termini di calorie (5500-6000 kcal per persona per giorno), ma mentre per alcuni nutrienti si arriva ad un eccesso di quasi 5 volte, i dati su proteine e micronutrienti essenziali sono di segno completamente opposto, in più con gravi diseguaglianze nella disponibilità di cibo e con differenti tempi e fasi nella perdita (raccolto, stoccaggio, utilizzo a fini energetici). Queste informazioni sono preziose per interventi preventivi a salvaguardia di un equilibrio alimentare globale.

Si fa presto a dire ricicliamo….3. Elemento per elemento.

In evidenza

Claudio Della Volpe

 (la prima e la seconda parte di questo post sono qui e qui)

In questa terza parte del post discuteremo la situazione del riciclo guardando alla materia come divisa fra gli elementi chimici; ovviamente questo non è vero di per se perché quasi tutti gli elementi, a parte i gas nobili, sono presenti come composti e dunque manipolarne uno ne fa manipolare parecchi.

Ma questo punto di vista consente di avere un quadro partendo da un punto di vista che è familiare per i chimici, ossia quello della tavola periodica, di cui, ricordiamo oggi, il 2019 è stato dichiarato anno internazionale.

Non solo; consente di ragionare del riciclo degli elementi incrociando il riciclo in campo umano con quello che già avviene in campo naturale, ossia i grandi cicli biogeochimici, che sono familiari a parecchi di noi e fanno parte anche della cultura naturalistica della gran parte delle persone. Ragionare per elemento consente di comprendere come l’umanità abbia modificato od alterato o sconvolto alcuni dei cicli basilari della biosfera.

I cicli biogeochimici sono legati alla nascita della chimica; il primo e più famoso di essi, quello del carbonio, legato alla respirazione, e dunque intimamente connesso alla nostra vita ed alle piante, fu scoperto da Joseph Priestley ed Antoine Lavoisier e successivamente popolarizzato dalle famose conferenze sulla candela di Faraday e da Humphry Davy, l’inventore della lampada di sicurezza dei minatori.

Ma questo punto di vista è divenuto quello largamente dominante per tutti gli elementi e soprattutto è divenuto la base della concezione della biosfera come sistema chiuso ma non isolato, alimentato dal Sole e strutturato dal flusso di energia libera e di entropia determinato dai vari gradienti presenti nel sistema e dal loro accoppiamento (si vedano i tre post qui, qui e qui).

I cicli biogeochimici sono in un certo senso le principali “strutture dissipative” (per usare il bel termine coniato da Prigogine) alimentate dal flusso di energia solare e costituiscono il vero anello di congiunzione fra l’animato e l’inanimato, fra la vita e la non-vita. I cicli biogeochimici sono fatti a loro volta di cicli più piccoli e sono intrecciati fra di loro, costituendo un “iperciclo”(termine coniato da Manfred Eigen che lo usava per le molecole autoreplicantesi) ossia un ciclo di cicli, una rete di interazioni che rappresenta l’anima della biosfera terrestre, Gaia, come l’ha chiamata Lovelock. Un iperciclo non è solo una miscela di flussi di materia (e di energia), ma è una serie di interazioni di retroazione in cui ogni parte del ciclo interagisce con le altre e alla fine questo schema può essere sia la base della stabilità, dell’omeostasi del sistema, della sua capacità di adattarsi, sia della sua delicatezza, della sua sensibilità ai più diversi effetti, e dunque della sua capacità di trasformarsi ed evolvere e ovviamente di essere avvelenato e di morire. Nulla è per sempre. Panta rei .“Tutto scorre”, come già Eraclito aveva capito, ma nell’ambito di un unico sistema che Parmenide aveva ricosciuto a sua volta come l’unità della Natura. E la sintesi, secondo me è proprio la concezione dialettica della natura, quello che noi chiamiamo con la parola retroazione, con il termine iperciclo e che quantifichiamo con sistemi di equazioni differenziali (non lineari), che (lasciatemi dire) se colgono i numeri perdono l’unità dell’idea.

Questo fa comprendere come l’invasione di campo che l’uomo ha compiuto nel ciclo del carbonio incrementando lo scambio con l’atmosfera di circa un sesto, con il ciclo dell’azoto di cui oggi rappresenta un co-partner equivalente al resto della biosfera e con il ciclo del fosforo nel quale è il player di gran lunga principale, non siano fatti banali ma alterazioni profonde e probabilmente irreversibili le cui conseguenze non sono ancora ben comprese.

Ma tutto ciò è una visione unitaria del tema; meno unitaria e più dedicata agli scopi pratici ed economici è il paradigma economico dominante che teorizza la crescita infinita, un’economia non biofisica e anzi direi talmente scandalosamente finanziarizzata e lontana dalla vita di noi tutti da dover essere cambiata al più presto possibile.

La questione è che anche gli articoli scientifici non colgono spesso questa unitarietà ma analizzano solo gli aspetti “concreti”.

C’è un bel filmato segnalatomi dall’amica Annarosa Luzzatto (che è una nostra redattrice) che fa vedere come in poco più di 300 anni si siano scoperti tutti gli elementi che conosciamo.

Ebbene in un tempo anche più breve l’uso di questi elementi è divenuto normale nella nostra industria; praticamente non c’è elemento che non sia usato nel nostro ciclo produttivo, anche di quelli che non hanno un ruolo significativo nella biosfera; e, dato il nostro modo lineare di produrre, questo ha corrisposto ad un significativo incremento della “redistribuzione” di questi elementi nell’ambiente.

I dati aggiornati per circa 60 elementi sono stati raccolti dall’ONU (1) e sono mostrati nella figura sotto (tratta dalla ref. 2).>50% corrisponde a poco più del 50%, nella maggior parte dei casi. Si tratta però dei valori di riciclaggio a fine vita non del “riciclaggio” e basta, che potrebbe facilmente confondersi con le procedure di recupero INTERNE al ciclo produttivo, che non cambiano le cose e nelle quali la tradizione industriale è maestra (quasi sempre).

Il report ONU conclude che:

Because of increases in metal use over time and long metal in-use lifetimes, many RC values are low and will remain so for the foreseeable future.

A causa dell’aumento dell’uso del metallo, molti valori RC (NdA grandezza che stima il riciclo) sono bassi e rimarranno tali per il prossimo futuro.

Anche l’articolo da cui è tratto la tabella soprariportata (2) conclude fra l’altro:

The more intricate the product and the more diverse the materials set it uses, the bet- ter it is likely to perform, but the more difficult it is to recycle so as to preserve the resources that were essential to making it work in the first place.

Più il prodotto è intricato e più è vario il gruppo di materiali utilizzato, più è probabile che funzioni, ma più è difficile riciclarlo, in modo da preservare le risorse indispensabili per farlo funzionare (in primo luogo) .

Fate caso che solo meno di un quarto del cadmio viene riciclato a fine vita; il cadmio è un elemento cancerogeno acclarato; che fine fa più del 75% del cadmio che usiamo? Il mercurio, altro metallo pesante tristemente famoso, su cui ho scritto parecchio in passato, viene riciclato a fine vita per meno del 10%; che fine fa più del 90% del mercurio?

Probabilmente il piombo rappresenta una eccezione in questo quadro apocalittico e possiamo dire che quasi la totalità del piombo usato nelle batterie viene riciclato grazie ad una legislazione molto severa.

Perfino i metalli preziosi come il platino o l’oro, che hanno un elevato valore intrinseco che ne favorisce il riciclo a fine vita, sono sfavoriti dal fatto che l’uso in elettronica ne rappresenta una frazione significativa e corrisponde ad una breve vita dei prodotti e ad un elevato grado di miscelazione che rendono poco appetibile il riciclaggio a fine vita (pensateci quando comprerete il prossimo cellulare, io ho sempre comprato prodotti usati, ma non riesco sempre a convincere il resto della famiglia ed il mio notebook, da cui sto scrivendo, quest’anno compie 10 anni ed è difficile mantenerlo aggiornato, ma tengo duro) ci vogliono regole che obblighino i produttori a continuare a produrre le batterie e i pezzi di ricambio e rendere i software compatibili, due scuse che spesso impediscono di continuare ad usare prodotti perfettamente funzionanti.La figura qui sopra riporta, sebbene i dati siano di una decina di anni fa, la situazione di due metalli che sono all’estremo della capacità di recupero; da una parte il nickel che arriva al 52% di recupero a fine vita e dall’altra il neodimio che non viene affatto recuperato.

Questa è la situazione forse non aggiornatissima, ma significativa del nostro punto di partenza. Quando va bene sprechiamo almeno la metà di ciò che estraiamo, altrimenti lo sprechiamo tutto, lo usiamo una volta e lo sottraiamo all’uso delle future generazioni (figli e nipoti); ma non solo, gli sporchiamo il mondo. E prima o poi pagheremo per questo; o pagheranno loro.

Nel prossimo ed ultimo post di questa serie parleremo a fondo di qualche caso esemplare di riciclo.

Ah dimenticavo; buone feste.

(continua)

Da consultare

(1) E. Graedel et al., “Recycling Rates of Metals—A Status Report, a Report of the Working Group on the Global Metal Flows to UNEP’s International Resource Panel” (2011); www. unep.org/resourcepanel/Portals/24102/PDFs/ Metals_Recycling_Rates_110412-1.pdf

(2) Challenges in Metal Recycling Barbara K. Reck and T. E. Graedel Science 337, 690 (2012); DOI: 10.1126/science.1217501

Piccola lezione sui fanghi di depurazione.3: i controlli (parte seconda)

In evidenza

Mauro Icardi

(I precedenti post di questa serie qui e qui.)

Per terminare la rassegna dei controlli che si effettuano sui fanghi della vasca di ossidazione, occorre parlare della verifica della concentrazione di ossigeno disciolto. Questo perché nei processi a fanghi attivi di tipo aerobico è estremamente importante il buon funzionamento del sistema di areazione. L’apporto di aria (o in casi particolari di ossigeno liquido, che viene vaporizzato tramite appositi impianti) serve a mantenere una concentrazione non limitante per i processi di depurazione biologica, ma anche una buona miscelazione della sospensione areata acqua/fango. Normalmente il valore di ossigeno disciolto ritenuto ottimale si aggira intorno a valori di 2 mg/lt. Valori inferiori rallentano il processo di nitrificazione dell’ammonio, e valori superiori potrebbero rallentare la velocità di assorbimento dell’ossigeno da parte della biomassa aerobica.

Normalmente sulle vasche di ossidazione sono installate delle sonde di misura dell’ossigeno funzionanti in continuo, che permettono la verifica e la registrazione dei valori. La variazione marcata e repentina di questo parametro, può essere correlata per esempio a variazioni di carico entrante nell’impianto. Le moderne sonde attualmente utilizzate utilizzano il principio ottico della fluorescenza, è un principio ottico di misura dell’ossigeno nei liquidi. La tecnologia del sensore ottico di ossigeno si basa su un metodo di determinazione di tipo ottico chiamato “quenching di fluorescenza”. A differenza di un’elettrodo amperometrico , che misura una reazione di redox dell’ossigeno all’elettrodo, il metodo ottico è basato su un trasferimento di energia tra un cromoforo fluorescente (fluoroforo) e l’ossigeno.

Un fluoroforo integrato nella punta del sensore viene illuminato con una luce verde-blu proveniente da una sorgente LED. Il fluoroforo assorbe energia e ne trasferisce una parte in forma di luce rossa fluorescente emessa. Un rilevatore posto nel sensore legge la luce fluorescente emessa e ne misura intensità e durata.

In presenza di ossigeno, il fluoroforo trasferisce parte dell’energia assorbita alle molecole di ossigeno. L’ossigeno assorbe l’energia e la trasferisce sotto forma di calore all’area circostante, causando una variazione di intensità della fluorescenza. Questa variazione è direttamente correlate alla pressione parziale di ossigeno nel mezzo e costituisce il principio di base della misura.

Secondo la legge di Henry, la quantità di un dato gas disciolto in un dato tipo e volume di liquido è direttamente proporzionale alla pressione parziale (p) di tale gas in equilibrio con tale liquido. Si tratta di un fattore molto importante per tutte le misure dell’ossigeno.

Le sonde normalmente rilevano anche il valore della temperatura, altro parametro di grande importanza. In sostanza una vasca di ossidazione è un reattore biologico. La temperatura di questo reattore non è però regolabile a piacere, ma subisce della variazioni stagionali, anche se non scende mai, di solito, a valori inferiori a 10-12°C, perlomeno in Italia.

(continua)

COP24: quali conclusioni?

In evidenza

Luigi Campanella, già Presidente SCI

Si è conclusa la COP24 che si è svolta a Katowice in Polonia. Si è discusso di impegni ed accordi globali per salvare il Pianeta. In molti workshop satelliti si sono poi affrontati argomenti più specifici. Il risultato più significativo credo sia rappresentato dalle attese regole sui meccanismi di trasparenza sull’implementazione degli impegni di riduzione delle emissioni e da indicazioni chiare per l’incremento a breve degli stessi. Questo risultato è la mediazione fra chi ha spinto per risultati più ambiziosi e chi ha frenato conducendo battaglie di retroguardia per cercare di indebolire i risultati finali. Il comunicato finale ha di conseguenza raccolto apprezzamenti ed insoddisfazioni. Fra i punti che mi sento di apprezzare sono la presenza fra i temi oggetto di monitoraggio di quello relativo all’uso e cambiamento d’uso di suoli e foreste e l’archiviazione della tradizionale differenziazione degli obblighi (la cosiddetta biforcazione) tra Paesi industrializzati e Paesi in via di sviluppo con l’adozione di regole comuni e la previsione di flessibilità per quei Paesi in via di sviluppo che ne necessitano in base alle loro capacità. E’ stato istituito il Forum sull’impatto delle misure di risposta al cambiamento climatico con il fine di permettere alle Parti di condividere in modo interattivo esperienze ed informazioni Per gli aspetti finanziari credo che il risultato più concreto sia quello di mobilitare 100 miliardi di dollari all’anno dal 2020 per sostenere i Paesi in via di sviluppo. La COP del 2019 si svolgerà in Cile e per quella del 2020 il nostro Ministro Costa ha presentato la candidatura dell’Italia.

Fra i workshop satelliti ho rilevato con una certa sorpresa che uno è stato dedicato all’energia nucleare all’interno del più ampio discorso della de-carbonizzazione del settore elettrico considerato passo essenziale per contrastare i cambiamenti climatici, se si pensa che la produzione di elettricità contribuisce per il 40% alle emissioni e che gas e carbone sono ancora le fonti principali che producono il 63% dell’elettricità. Un recente studio del MIT mostra come il costo della decarbonizzazione dell’elettricità sarebbe molto minore se nel cocktail di tecnologie alternative fosse presente anche il nucleare. Forse proprio questo studio ha spinto l’Associazione Mondiale per il Nucleare a rivendicare nella sede del Workshop i caratteri di questa tecnologia: basso contenuto di carbonio, basso livello di emissioni, elevata sicurezza. La stessa IPCC nel suo ultimo rapporto dettaglia ciò che è necessario fare per limitare il riscaldamento globale a 1,5°C sopra il livello preindustriale, osservando la elevata scalabilità del nucleare nei diversi Paesi ed evidenziando i successi della Francia che in meno di 20 anni ha massicciamente decarbonizzato la sua elettricità ricorrendo al nucleare. Nel 2018 il nucleare ha fornito nel mondo il 10,5% dell’energia totale con 6 nuovi reattori entrati in funzione* (fra Cina e Russia) e 14 da attivare nel 2019.

L’Italia dal referendum è fuori dal nucleare fra polemiche e dibattiti che di tanto in tanto si riaccendono; certo non si può dimenticare né l’aspetto dei costi né soprattutto quello della sicurezza: la densità di danno nel caso di un incidente è incommensurabilmente superiore a quella relativa a qualunque altro tipo di impianto. E aggiungiamo che nessun paese ha risolto il problema dell’immagazzinamento degli scarti della fissione nucleare da una parte e che i paesi da cui provengono i minerali usati soffrono seri problemi di inquinamento ambientale di lungo periodo. Questo complesso di problemi rende il nucleare poco appetibile specie nei paesi con una pubblica opinione libera; in Europa solo Francia e Finlandia hanno progetti nucleari in corso e di entrambi si sa che soffrono enormi problemi di attivazione sicura. L’esempio del reattore finlandese di Olkiluoto 3 (1600MW) i cui costi e tempi di costruzione sono triplicati (stimati a 9 miliardi di euro nel 2012, ma non più aggiornati) e non ancora conclusi dal 2005 è al momento un esempio vivente di questi problemi. Olkiluoto 4 non è più in programma. Flammanville 3 è nella medesima situazione di Olkiluoto 3, iniziato nel 2007 non si sa quando finirà e i costi sono arrivati a superare gli 11 miliardi di euro.

Piccola lezione sui fanghi di depurazione. 2. I controlli. Parte prima

In evidenza

Mauro Icardi

(la prima parte di questo post è qui)

Nella normativa relativa alla depurazione delle acque di scarico non è previsto l’obbligo di verificare le caratteristiche dei fanghi di depurazione, così come è invece previsto per la linea di trattamento delle acque reflue. Ma considerato che i fanghi sono prodotti proprio dal trattamento depurativo delle acque, terminati i processi di trattamento, quali ad esempio l’ispessimento, la digestione anaerobica, e la disidratazione, i fanghi che devono essere smaltiti diventano rifiuti speciali, identificati dai codici CER 190804 o 190805. In questo caso sono soggetti a controlli e adempimenti relativi alla gestione dei rifiuti, e quindi vengono verificate le concentrazioni limite degli inquinanti presenti che sono stati eliminati dall’acqua reflua depurata, prima di identificare la destinazione di smaltimento o di recupero. Le principali destinazioni dei fanghi possono essere per lo smaltimento la discarica o l’incenerimento, e nel caso del recupero principalmente il riutilizzo agricolo, che nell’ultimo periodo è stato molto criticato, sollevando dubbi nella pubblica opinione, ma anche problemi di gestione degli stessi fanghi. Vediamo quali sono i principali controlli che si possono effettuare sui fanghi, nelle varie fasi di trattamento.

Per effettuare una corretta gestione del processo depurativo si stabiliscono normalmente dei work planning aziendali, per determinare diversi parametri utili al controllo di processo in vasca di ossidazione. I principali controlli possono richiedere la verifica di parametri di tipo chimico, biologico, e tecnologico. Non è poi da trascurare l’osservazione diretta del comparto di ossidazione biologica. A volte, soprattutto dopo molti anni di lavoro, si riescono a identificare con il semplice colpo d’occhio eventuali disfunzioni del processo depurativo.

Una delle operazione più semplici da effettuarsi è quella della registrazione del valore della sedimentazione dei fanghi in cono Imhoff.

Il cono di Imhoff è un recipiente di vetro o materiale plastico a forma di cono, sorretto da un apposito sostegno. Il volume del cono di Imhoff è 1 litro, e la graduazione parte, e quindi ha lo zero, in corrispondenza del vertice del cono, e poi, procede verso l’alto. Con questa apparecchiatura molto semplice, si può verificare la tendenza alla sedimentazione di un fango prelevato nella fase di ossidazione, oppure di ricircolo di un impianto di depurazione biologica.

Nell’immagine si può vedere a sinistra un fango con buona tendenza alla sedimentazione, e con una divisione marcata dell’interfaccia fango/acqua chiarificata. Mentre a destra si vede un fango con caratteristiche piuttosto problematiche, e con una scarsa tendenza alla sedimentazione.

Praticamente il cono di Imhoff riproduce le condizioni di sedimentazione che si verificheranno poi nel sedimentatore dell’impianto di depurazione.

Associata a queste verifiche visuali, vi è la determinazione dell’indice di volume del fango sludge volume index, abbreviato in SVI. Per determinare questo parametro, si rileva semplicemente il volume di fango letto sulla scala graduata del cono Imhoff dopo 30 minuti di sedimentazione, e lo si divide per la concentrazione di fango espressa in g/lt ottenuta dopo filtrazione su carta da filtro e successiva evaporazione dell’acqua in stufa alla temperatura di 105° C. (SVI=volume del fango sedimentato [ml/l] / quantità di solidi sospesi [mg/l]).

Si ritiene che un fango abbia buone caratteristiche di sedimentabilità se ha uno SVI non superiore a 250 ml/lt.

Viene determinata poi anche la percentuale di sostanza organica volatile indicata come tenore delle materie secche volatili ; rappresenta la porzione di sostanza secca che viene eliminata per calcinazione alla temperatura di 550 °C e viene normalmente espressa come percentuale di materiale volatile sulla totalità del contenuto di sostanza secca.

La determinazione si effettua ponendo il filtro in un crogiolo di porcellana, e poi in forno elettrico a muffola.

Il valore del contenuto di sostanza secca del fango varia con il tipo di fango considerato: fango derivante dalla sedimentazione primaria, fango contenuto nella vasca di aerazione, fango del sedimentatore secondario, fango misto, fango parzialmente o totalmente mineralizzato, fango parzialmente ispessito ecc. In ogni caso tuttavia questo valore risulta molto basso, inferiore al 5% e in molti casi inferiore al 3%.

Altro controllo che si esegue è quello dell’analisi microscopica del fango attivo. Il processo a fanghi attivi ha lo scopo di raggiungere la massima riduzione di BOD e di nutrienti dai liquami trattati, con la minima produzione di fanghi biologici. I protisti sono importanti costituenti delle comunità implicate nella rimozione di sostanza organica biodegradabile e di batteri dispersi nella miscela aerata in questo tipo di processo di trattamento dei liquami. I trattamenti biologici, infatti, si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche.

L’osservazione microscopica del fango di depurazione può dare importanti informazioni sull’equilibrio tra decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e consumatori (flagellati eterotrofici, ciliati, rizopodi, e piccoli metazoi) che predano i batteri dispersi e altri organismi.

I protozoi ciliati sono molto numerosi in tutti i tipi di processi di trattamento aerobico dei liquami, e la loro presenza diffusa è indice di un buon funzionamento della fase ossidazione biologica.

La pensione del platino-iridio.

In evidenza

Rinaldo Cervellati

Dal 2019 il campione in platino-iridio dell’unità di massa andrà definitivamente in pensione.

È quanto riporta Laura Howes nel numero del 16 novembre di Chemistry & Engineering newsletter. Con una votazione all’unanimità, la Commissione internazionale sui pesi e le misure riunitasi a Parigi il 15 novembre ha deciso che dal 20 maggio 2019 (giornata Mondiale della Metrologia), anche il kilogrammo, come ormai anche le altre sei unità di misura delle sei grandezze fondamentali del Sistema Internazionale (SI), lunghezza, tempo, temperatura termodinamica, corrente elettrica, intensità luminosa, quantità di sostanza, sarà ufficialmente definito in base a sette costanti fisiche (velocità della luce, costante di Planck, carica elettrica elementare, costante di Boltzmann, costante di Avogadro, frequenza della transizione iperfine nello stato fondamentale di Cs-133, efficienza della radiazione luminosa a 540´1012 Hz) piuttosto che in base a un artefatto. Vedremo che questo cambio di definizione comporta anche un cambio nella definizione di mole, l’unità di misura della settima grandezza fondamentale del SI, la quantità di sostanza.

Dal 1889, l’unità di massa SI, il kilogrammo, è ufficialmente definita uguale alla massa del prototipo internazionale di kilogrammo (International Prototype Kilogram, IPK). L’IPK è un cilindro di lega di platino/iridio conservato nel Bureau International des Poids et Mesures a Sèvres, vicino a Parigi.

L’IPK, cilindro in lega Pt/Ir che sarà presto ritirato, si trova a Parigi.

Quando l’IPK fu realizzato negli anni 80 del XIX secolo, furono replicati altri cilindri prototipo identici, che furono distribuiti in vari Paesi. Nel corso degli anni, l’IPK e gli altri prototipi hanno perso seppure impercettibilmente di massa.

Bill Phillips del NIST (Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti) ha descritto questa situazione come scandalosa. In effetti, le costanti fisiche sono oggi note con grande precisione il che consente di fare calcoli accuratissimi, come ad esempio quelli che sono stati necessari per far appoggiare le due sonde sulla superficie di Marte praticamente nel punto previsto. Sebbene la maggior parte delle persone non noterà il cambiamento, la maggiore precisione renderà il sistema SI più robusto, afferma Frank Härtig dell’Istituto Nazionale di Metrologia della Germania (PTB). “Abbiamo possibilità completamente nuove“, spiega, aggiungendo che, “poiché le tecniche analitiche diventano più avanzate e possono misurare quantità sempre minori di materiale, le nuove definizioni assicurano che tali misurazioni siano precise.

Il kilogrammo è ora definito come:

Il kilogrammo è definito assumendo la costante di Planck h esattamente uguale a 6.62607015×10-34 Js (J = kgm2s-2), date le definizioni di metro e di secondo. [1, p.14]

Queste ultime sono rispettivamente:

 Si definisce metro la distanza percorsa dalla luce nel vuoto in (1/299792458) secondo. [1, p.14]

Si definisce secondo la durata di 9192631770 periodi della radiazione corrispondente alla transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio-133. [1, p.13]

 Come già ricordato la nuova definizione dell’unità di massa implica un cambiamento nella definizione di mole che faceva riferimento all’IPK:

Si definisce mole la quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0.012 chilogrammi di carbonio-12.

A questa definizione seguiva l’aggiunta:

il Numero di Avogadro, rappresentato con il simbolo NA, è definito come il numero di atomi dell’isotopo C-12 contenuti in esattamente 0.012 kg di C-12.

Nella nuova definizione di mole il Numero di Avogadro entra direttamente nella definizione:

Si definisce mole la quantità di sostanza corrispondente a esattamente 6.02214076×1023 entità elementari. Questo numero è il valore numerico della costante di Avogadro, NA, quando espresso nell’unità mol-1 e viene chiamato numero di Avogadro. Un’entità elementare può essere un atomo, una molecola, uno ione, un elettrone, qualsiasi altra particella o gruppo specifico di particelle. [1, p.17]

Per completezza si riportano anche le nuove definizioni delle unità di misura delle altre tre unità fondamentali: carica elettrica, temperatura termodinamica e intensità luminosa.

L’ampère è definito in base al valore numerico della carica elementare, 1.602176634 × 10-19 C

(C = As), data la definizione di secondo.[1, p. 15]

Il kelvin è definito in base al valore numerico fisso della costante di Boltzmann k, 1.380649 × 10-23 JK-1, (J = kgm2s-2), date la definizione di kilogrammo, metro e secondo. [1, p.15]

L’intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza 5.4 × 1014 hertz e che ha un’intensità radiante in quella direzione di (1/683) watt per steradiante. [1, p. 18]

Per consentire le nuove definizioni, le costanti fisiche hanno dovuto essere misurate con grande precisione e con un alto grado di accuratezza. Questo lavoro ha richiesto oltre 10 anni e ha dato luogo a diverse scoperte tecnologiche. Frank Härtig afferma che si è trattato di una “competizione tra amici”: diversi istituti metrologici si sono contesi la misura più accurata e precisa per le costanti fisiche.

Per misurare il valore della costante di Planck sono entrati in competizione due metodi indipendenti. La bilancia Kibble, che ha vinto, compensa il peso di una massa di prova contro la forza prodotta quando una corrente elettrica attraversa una bobina di filo sospeso in un campo magnetico. Due diverse bilance Kibble, una al NIST e l’altra al National Research Council del Canada, hanno fornito lo stesso valore per h: 6.62607015×10-34 J s.

Bilancia Kibble

Il metodo che non ha vinto, chiamato il metodo di conteggio, in realtà ha reso possibile la determinazione del numero di Avogadro. Il gruppo di Härtig al PTB ha realizzato sferette incredibilmente precise arricchite nell’isotopo silicio-28 e misurato i loro volumi per via interferometrica.

Interferometro sferico in grado di misurare fino a pochi nanometri.

Robert Vocke e Savelas Raab del NIST hanno poi lavorato per determinare le proporzioni precise degli isotopi di silicio nel reticolo cristallino con la spettrometria di massa. Con il volume preciso della sfera e la composizione del reticolo cristallino nota, gli scienziati hanno potuto determinare il valore di NA come 6.02214076×1023 mol-1.

Va tuttavia ricordato che la prima idea di un metodo di conteggio venne all’italiano Claudio Egidi, un ricercatore del prestigioso istituto di metrologia Galileo Ferraris (oggi INRiM) che la pubblicò nel 1963 su Nature [2] ma non fu presa in considerazione.

Molti ricercatori che hanno collaborato a questa impresa, intervistati da C&EN, hanno descritto il compito di ridefinire le unità SI come punto culminante della loro carriera scientifica, un’opportunità unica di far parte di un evento destinato a cambiare un’epoca. Hanno sottolineato il cambiamento filosofico nel passaggio da definizioni basate su artefatti e quantità terrestri a costanti fisiche che manterranno il loro significato oltre la Terra. Härtig afferma che ciò permetterà a “altre culture intelligenti di capire ciò che intendiamo quando parliamo di ”kilogrammo”, “secondo”, ecc.

Bill Phillips, Nobel per la Fisica 1997   Frank Härtig

I libri di testo scientifici dovranno essere rimaneggiati in base alle nuove definizioni? Andando in classe, quei libri di testo riscritti potrebbero effettivamente rendere le cose più facili per gli studenti che affrontano il concetto di mole. Pedagogicamente, dice Marcy Towns della Purdue University, la nuova definizione non è un grande cambiamento. “Se si legge la letteratura didattica”, spiega, “gli studenti comprendono la definizione della mole in termini di 6.022´1023 particelle, e gli insegnanti usano molto questa definizione piuttosto che quella basata su 0.012 kg di C-12”.

Su questo sono abbastanza d’accordo, mi sembra più arduo spiegare a studenti della scuola dell’obbligo le definizioni di metro, secondo e kilogrammo…qualche suggerimento didattico?

Infine, un’osservazione: la settima grandezza fondamentale del SI fu introdotta nel 1960 per rimarcare la natura particellare della materia che non emergeva dalla definizione di massa, e fu chiamata amount of substance, unità di misura mole (mol). Sulla parola “substance” (it: sostanza, fr: substance, de: substanz, es: sustancia, el: ουσία per limitarci all’eurozona) si accese un vivace dibattito sulle principali riviste di didattica chimica, J. Chem. Educ., Educ. Chem., ecc., sia perché la parola “sostanza” ha significati diversi in discipline diverse, sia perché il concetto di sostanza (pura) è ritenuto un nodo concettuale all’apprendimento della chimica (Leonello Paoloni, Nuova Didattica della Chimica, Bracciodieta, Palermo, 1982, pp. 89-91). È comunque un fatto che la chimica cominciò ad affermarsi come scienza nella seconda metà del XVIII secolo quando furono stabiliti metodi per determinare il grado di purezza delle sostanze rendendo così operativo il concetto di sostanza (pura).

Fu proposto di sostituire sostanza con materia, qualcuno propose perfino il cambio di nome in chemical amount ma il nome è rimasto amount of substance. Voi che ne pensate?

Bibliografia

[1] Bureau International des Poids et Mesures, The International System of Units (SI) Bozza, 9th edition 2019. https://www.bipm.org/utils/en/pdf/si-revised-brochure/Draft-SI-Brochure-2018.pdf

[2] C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.

L’aria di Katowice e le biomasse.

In evidenza

Luigi Campanella, già Presidente SCI

Per capire l’aria che tira a Katowice nella COP24 è veramente istruttiva la discussione che si è svolta nella giornata di sabato e di cui sono stati dalla stampa riportati ampi resoconti. In occasione della plenaria di chiusura del 49° meeting del SBSTA (Subsidiary Body for Scientific and Technological Advice), dopo l’approvazione di numerosi documenti, anche importanti, a sostegno dell’accordo di Parigi del 2015 sul clima, la discussione si è impantanata sull’approvazione del documento su Research and Systematic observations preparato nella settimana.

Si tratta di un documento in cui il SBSTA saluta come “benvenuta” (in inglese welcomed) una serie di dichiarazioni, lavori e documenti scientifici, tra i quali la Dichiarazione sullo stato globale del clima, il Bollettino sui gas-serra, la dichiarazione sui progressi conseguiti nel Sistema globale di osservazione del clima, la dichiarazione del programma di ricerca sul clima mondiale, le osservazioni terrestri da satellite. Una frase ha innescato la polemica, la sostituzione richiesta da alcuni Paesi della parola “welcomed”, che per l’appunto saluta come benvenuta la serie con “noted” cioè ha preso atto. Su questa alternativa si è discusso per oltre 2 ore.

La differenza non è solo terminologica: se si dà il benvenuto ad un documento poi non si può procedere in direzione opposta a quella indicata in termini di emissione di gas serra, di uso del carbone quale combustibile di poIitica energetica. I Paesi che hanno chiesto di prendere atto e non di dare il benvenuto sono Arabia Saudita, Kuwait, Federazione Russa e Stati Uniti, tutti Paesi nei quali gli interessi economici legati alle fonti energetiche fossili sono rilevanti. Il risultato è stato che il documento non trovando un’unanimità non è stato approvato, suscitando per tale conclusione numerose proteste con dichiarazioni di adesione al testo di benvenuto. Il 7% della popolazione (quello corrispondente ai suddetti 4 Paesi), ha così bloccato un’approvazione importante perché capace di formalizzare l’adesione a documenti di provenienza strettamente scientifica e tecnologica.Mentre avviene tutto questo, a dimostrazione dello scontro sul clima in atto nel mondo, non solo orientale, ma anche occidentale, l’editrice Alkes ha distribuito un interessante documento sulle fake news in campo ambientale in particolare affrontando un tema di grande attualità, quello relativo alle biomasse (http://www.nuova-energia.com/index.php?option=com_content&task=view&id=5548&Itemid=113). Proposta come una possibile soluzione rispetto a produzioni energetiche capaci di riciclare gli scarti e rispettose dell’ambiente di recente è stata attaccata in quanto concorrenziale con un ben più “degno” uso delle aree ad essa dedicate, quello per le produzioni alimentari, in quanto economicamente non sostenibile per le PMI, in quanto collegata a deforestazioni selvagge, in quanto inquinante. In effetti sappiamo che si tratta di critiche effettive, ma parziali, il discorso è complesso.

Oggi in Italia le bioenergie impegnano circa 300 mila ettari pari a circa il 2,3% della superficie agricola, dunque in Italia non c’è concorrenza fra le due cose; la superficie forestale italiana in 50 anni si è raddoppiata (da 5,5 a 11 ) milioni di ettari, dunque anche senza colture dedicate le disponibilità di biomassa sono significative (30 milioni di tonnellate di biomasse ligno-cellulosiche); le centrali a biomasse non sono inceneritori e richiedono specifiche autorizzazioni per essere realizzate; in Italia sono stati realizzati oltre 1500 impianti a biogas per una potenza complessiva di circa 12GW bene integrati nel contesto agricolo nazionale (si tenga però presente che SE si fa uso di tecniche intensive di coltivazione ed allevamento il biogas contiene una porzione di energia primaria tratta dal petrolio).

E’ chiaro che le biomasse DA SOLE non sono una soluzione al problema energetico anche data la loro bassa densità energetica per unità di superficie, l’inquinamento ambientale evidenziabile in contesti cittadini e anche il ciclo di vita LCA che (considerando l’energia di trasporto o i contributi primari fossili) ne abbassa la sostenibilità; tuttavia il loro uso può essere un contributo, la cui utilità dipende dal contesto, al passaggio a forme rinnovabili e sostenibili di energia primaria in un quadro energetico nazionale da rinnovare significativamente.

In conclusione, per rendere realmente utile alla produzione di energia pulita una centrale a biomasse, il legislatore, dovrebbe anche chiarire cosa ci possa finire dentro, perché norme troppo vaghe sono altamente pericolose per la comunità, visto che, come detto, lì dentro ci potrebbero finirebbero pure materiali che di bio non hanno proprio niente.

https://www.tuttogreen.it/centrali-a-biomasse-sono-davvero-eco/

Lo strano caso della chiesa di S. Lamberto e della foresta di Hambach.

In evidenza

Claudio Della Volpe

Mentre prosegue l’incontro di Katowice, COP24, voglio raccontarvi una storia esemplare delle contraddizioni in cui si trova la transizione energetica in Europa e in particolare in quella Germania che rappresenta una sorta di “paese guida” europeo; vedremo fra un momento che questo ruolo di guida nasconde in realtà parecchia polvere sotto il tappeto. Tutti i commentatori si sono dilungati sulle contraddizioni polacche, Katowice è a pochi chilometri da grandi miniere di carbone e la Polonia non intende rinunciarvi. Katowice è la capitale del carbone. Ma la Germania è un esempio ancora migliore.

I due luoghi di cui parlo oggi sono nella Renania, la zona occidentale della Germania al confine con Olanda, Belgio, Lussemburgo e Francia; a nord abbiamo la Renania Settentrionale-Westfalia (Nordrhein-Westfalen), capoluogo Dusseldorf e a sud la Renania Palatinato (Rheinland-Pfalz), capoluogo Magonza, entrambe, insieme alla Saar (Saarland), costituiscono un bacino minerario storico della Germania.Questa regione occidentale è ricca di carbone sia di tipo antracitico che lignitico, che si è formato nel corso di decine di milioni di anni dalla degradazione più o meno completa di enormi foreste che ricoprivano la zona. Non è l’unica regione della Germania con questa risorsa, ma è quella con il più alto tasso di lignite. La lignite (alta umidità relativa superiore al 21%, incompleta carbonificazione) è di limitato pregio perché è meno energetica per unità di massa e dunque più marcata fonte di inquinamento ambientale ma anche climatico rispetto ad altri tipi di carbone.

Si presenta con colore da bruno a nero, tanto da essere chiamata carbone bruno; ha un potere calorifico superiore (PCS, senza escludere l’energia di evaporazione dell’acqua) inferiore a 24 MJ/kg (5.700 kcal/kg) , considerando la sostanza senza ceneri (contro una media di 35 dell’antracite e di 42 del petrolio).

La Germania è ad oggi la principale produttrice mondiale di lignite, uno dei principali esportatori ma soprattutto utilizzatori di questo combustibile fossile da cui ricava buona parte della propria elettricità; soprattutto da quando nel 2011, dopo l’incidente di Fukushima ha deciso di spegnere le centrali nucleari entro il 2030. Dunque la verde Germania, con la più alta quantità di rinnovabili al mondo conserva un segreto, tutto sommato ben custodito, nel fatto che mentre chiudeva le sue centrali nucleari le sostituiva con un buon numero di centrali a carbone, che costituiscono oggi la sua “base produttiva” elettrica con quasi 300TWh anno, una quantità pari al consumo totale italiano di energia elettrica.

Se si guardano i numeri sul sito della AGEB, si vede che effettivamente la Germania dal 1995 pur avendo diminuito l’uso del nucleare, dell’antracite… e del gas naturale, e pur avendo certamente incrementato l’efficienza complessiva delle sue centrali ed ovviamente pur avendo incrementato di parecchio l’uso delle rinnovabili, che coprono una parte significativa del consumo, ha incrementato l’uso della lignite. Anzi la lignite è stata uno dei mezzi per uscire dalla crisi del 2008. Nonostante l’impetuosa crescita delle rinnovabili, il paese non raggiungerà il taglio previsto delle emissioni al 2020 per parecchi punti di scarto.

Questa scelta è solo economica dato che si tratta di una risorsa interna e a basso costo per lo meno economico, ma come vedremo con alti costi ambientali; si sarebbe potuto fare diversamente, incrementando ulteriormente le rinnovabili, si sarebbero potute usare centrali a gas che invece sono state chiuse o anche basandosi, come fa l’Italia, sulla produzione in eccesso di altri paesi che volentieri vendono la loro energia elettrica in quanto i loro impianti nucleari (o idroelettrici ) DEVONO liberarsi dell’eccesso di produzione anche senza mercato interno. In quasi tutta Europa questi impianti sono in eccesso rispetto al fabbisogno, immani cattedrali di capitale fisso che se rimangono prive di remunerazione si mascherano dietro i pochi posti di lavoro supportati e urlano la loro fame di profitto ogni giorno. Non potete regolare la produzione di una centrale nucleare, dovete tirarla sempre al massimo, un sistema rigidissimo; ed è da dire che anche le centrali a carbone sono parecchio rigide da questo punto di vista, al contrario di quelle a gas, sono adatte solo a far da “base” e sono state usate così dai tedeschi.

I due casi a cui facevo riferimento all’inizio sono proprio questo, il costo ambientale e culturale della lignite; la foresta di Hambach che vedete qui sotto è meno di un decimo (200 ettari) della foresta originale ricca di alberi secolari e al cui confine si apre la più grande miniera a cielo aperto di lignite di tutta Europa, denominata anch’essa Hambach (a sinistra nella foto).Notate nella parte inferiore della foto lo scavo ripidissimo. La collina artificiale che vedete, che si viene a creare a causa dell’estesa coltivazione superficiale della miniera, Sophienhöhe, 6 km ad est della città Julich all’estremità NE della miniera è la più alta d’Europa, 293 metri sul livello del mare ma anche quasi 600m sopra il punto più basso degli scavi, che a loro volta costituiscono il punto più basso del territorio europeo, con quasi 300m di dislivello negativo.

Durante quest’anno è venuta a compimento una lotta fra gli ambientalisti radicali tedeschi e la RWE, la compagnia che estrae la lignite; grazie alla dura opposizione esercitata dagli ambientalisti anarchici che hanno dormito sugli alberi per settimane e grazie anche alle vittime che ci sono state durante questo periodo (il giornalista Steffen Meyns, che si era arrampicato per seguire l’operazione, era morto cadendo da una passerella tra due alberi), l’abbattimento della foresta che era stato programmato è stato interrotto dalla magistratura anche se la lotta in tribunale continuerà per altri anni.L’altro episodio analogo ha avuto conclusione opposta e costituisce l’altra faccia della medaglia. La chiesa di S. Lamberto, localmente nota come Immerather Dom, che vedete sotto, era un esempio di stile neoromanico situata a Immerath, una frazione di Erkelenz. Risalente al XII secolo nella sua forma originaria ed ampliata in anni successivi, è stata abbattuta a gennaio 2018, seguendo il destino del resto della cittadina, per far posto ad una miniera di lignite di proprietà della solita RWE.Ma pensate che l’intera cittadina di Immerath si trovava sul percorso previsto per l’estensione della miniera di Garzweiler, il sito di estrazione di lignite operato dalla società tedesca RWE; già nei primi anni 2010 la società aveva demolito e ricostruito gran parte degli edifici di Immerath su un nuovo sito, incluso il cimitero (esumando e trasferendo i corpi già sepolti).La chiesa stessa è stata ricostruita altrove in forma moderna. Stavolta non ci sono stati conflitti duri (oltre la resistenza pacifica dei verdi) ma pagamenti, scambi economici e poi silenzio contro devastazioni ambientali.Potreste dire che forse per una vecchia chiesa non vale la pena di far baccano; ma guardiamo le cose più da vicino.Panoramica della miniera di Garzweiler. Sullo sfondo le centrali termiche che utilizzano la lignite estratta. Da http://www.mining-technology.com/projects/rhineland/

Un buco gigantesco di dimensioni analoghe a quelle di Hambach con una serie non banale di effetti collaterali; infatti lo scavo altera in modo irrimediabile la falda acquifera.

100 milioni di tonnellate di lignite vengono estratte dalle varie miniere della zona e, per tale produzione, vengono rimossi e spostati annualmente circa 450 milioni di metri cubi di argille, sabbie e conglomerati sovrastanti lo strato di lignite (nell’area infatti si individuano facilmente significative colline artificiali).

Lo strato di lignite si trova a varie profondità e per estrarlo occorre quindi abbassare la falda acquifera (in termini tecnici tale operazione è chiamata dewatering). In tutta l’area, sono quindi in azione giganteschi e sofisticati sistemi di pompaggio in grado di estrarre annualmente enormi quantità di acqua di falda senza compromettere, stando ai dati ufficiali, il fabbisogno idrico delle comunità ubicate nelle vicinanze delle cave.

Così come descritti, ad un lettore possono sembrare dati un po’ freddi ma, se confrontiamo le superfici utilizzate,credo che risulti chiara la situazione esistente. A tale scopo sono state messe a confronto solo le  superfici di scavo delle tre miniere con quelle  di Roma e Milano.Immagini riprese da Google maps alla stessa scala. Le tre miniere sono al centro. Inden la più piccola, Hambach la più grande e Garzweiler quella più in alto. A destra in alto il comune di Milano ed  a sinistra l’estensione di Roma all’interno del Grande Raccordo Anulare (GRA).

La figura ci dice che l’area oggetto di scavo ( da assommare poi a quella utilizzata per lo stoccaggio dei sedimenti che ricoprono lo strato di lignite) è più grande di quella del comune di Milano e grande come l’area di  Roma all’interno del GRA. A questo si deve aggiungere che l’attività estrattiva ha comportato la distruzione di villaggi e la loro ricollocazione in altre aree; dal 1948 sono state spostate circa 30.000 persone.

da http://astrolabio.amicidellaterra.it/node/526

Ecco questi sono gli effetti nella verde Germania (che è certamente dotata del più ampio apparato fotovoltaico europeo) delle contraddizioni della transizione energetica. A voi ogni ulteriore commento.In questa vignetta i cicloamatori tedeschi fanno dire alla Merkel: Oh, dite che le bici sono fatte dal carbone? Grande opportunità per l’estrazione mineraria!

da https://www.roadbike.de/news/angela-merkel-und-das-fahrrad-was-die-kanzerlin-auf-der-eurobike-nicht-gesagt-hat.865692.9.htm#1

per approfondire

http://dataenergia.altervista.org/portale/?q=consumo_produzione_energia_elettrica_germania

https://gloria.tv/article/Ca4PVUKybkpK1tJoqVkNfZN6D

COP24, cosa ci aspettiamo.

In evidenza

Luigi Campanella, già Presidente SCI

E’ partito il 3 dicembre in Polonia, più precisamente in Slesia, Katowice, la COP 24 (Conferenza delle Parti all’interno della più generale Conferenza delle Nazioni Unite sul clima).

Sembra un’ironia, ma Katowice si trova a 150 Km dalla centrale elettrica a carbone, indicata nel 2014 dalla C.E. come la più dannosa nell’Unione Europea. Sono attese le linee guida, il cosiddetto Rule book, per rendere operativo l’accordo di Parigi del 2015.

Si tratta forse di uno degli ultimi appelli ancora validi per salvare il nostro pianeta. Gli scienziati parlano di solo 12 anni da ora rimasti per agire in modo decisivo per salvare in Pianeta.

Durerà 11 giorni e le attese per gli esiti dell’evento sono molto forti, anche se il carattere tecnico più che politico della manifestazione, raffredda molti entusiasmi. Il punto fondamentale riguarda il rispetto dell’intesa per limitare a due gradi centigradi il riscaldamento globale. Correlati ad esso sono i problemi relativi ai finanziamenti della decarbonizzazione, all’adattamento ed al trasferimento di tecnologie sostenibili innovative, ai meccanismi e agli attori delle fasi di controllo. Secondo gli esperti l’Europa si trova nelle condizioni, rispetto a questi problemi, di conseguire i risultati attesi ed, addirittura, di modificarli in meglio, andando ben oltre il 55% di riduzione delle emissioni entro il 2030.

All’evento partecipano 30000 fra delegati e visitatori provenienti da tutto il mondo. Il mancato carattere politico, a cui prima si accennava, ha fatto considerare da qualcuno COP24 come inutile. Credo sia errata tale valutazione. L’evento polacco fa parte di un percorso definito, ogni tappa del quale ha un suo significato: annullarla avrebbe effetti molto negativi rispetto alla fiducia dei cittadini nel buon esito del processo in atto. D’altra parte per esso si possono individuare elementi di fiducia quali il disaccoppiamento fra crescita del PIL e delle emissioni, l’aumento del ricorso alle energie rinnovabili, gli impegni di contenimento delle emissioni. Su quest’ultimo punto pesa il fatto che esso non riguarda tutti i Paesi firmatari dell’accordo di Parigi, dal quale in particolare gli USA si sono ritirati. Anche in questo caso però a parziale consolazione c’è da dire che ampie Regioni degli USA, come California, New York, Washington ed altre istituzioni americane hanno di fatto annunciato il loro continuato impegno. Quindi credo che sia necessario dare fiducia e credibilità all’incontro, alternativa al quale sarebbe solo sperare nelle singole iniziative con ben più scarse probabilità di successo.

Si veda anche

http://www.climalteranti.it/2018/12/09/un-momento-di-chiarezza-alla-cop24/

e

http://www.climalteranti.it/2018/12/02/raccontare-la-cop24-i-5-errori-da-non-commettere/

Scienza e politica, un aggiornamento.

In evidenza

Claudio Della Volpe

Personalmente sono stato sempre politicamente impegnato; ma negli ultimi anni è cambiato qualcosa. Prima sembrava che tutto sommato l’essere impegnati politicamente fosse un di più rispetto alla scienza o forse una sorta di noblesse oblige. Dopo tutto fra scienza e politica non c’erano, non sembravano esserci (ad una riflessione superficiale) legami immediati.

Non era così, ma sembrava.

Adesso non sembra nemmeno più così, adesso è palese che molti temi scientifici siano immediatamente politici: ambiente, clima, risorse, vaccini, inquinamento, etc. Non c’è più spazio per essere e rimanere in una torre d’avorio, come tradizione dell’intellettuale.

Che uno scienziato debba essere politicamente impegnato non tutti sono d’accordo; anzi. Qualcuno sostiene che proprio perchè si è scienziati occorra rimanere neutri nell’agone politico per non sembrare “di parte”. La questione è che non è detto che la scienza non sia o debba essere “di parte”.

Capisco di sembrare politicamente scorretto, ma forse è perchè non ci capiamo. Riprovo.

Non tutti sanno che molti dei nomi più famosi della chimica nazionale ed internazionale erano impegnati politicamente tanto da essere perseguiti dai politici dell’epoca. In un articolo che scrissi su C&I nel 2011 (C&I ottobre 2011 p.144-145) ricordavo alcuni di questi nomi: Avogadro e Cannizzaro per esempio ma anche Errera e Giua, Levi, alcuni definiti terroristi dalle leggi della loro epoca; oppure quelli meno conosciuti e rivendicati che abbiamo elencato in un articolo sul 25 aprile su questo stesso blog (Lepetit, Mattei, Kaminka, Ceva, Reinach).

Erano tanti, tantissimi.

Uno di costoro scriveva:A livello internazionale ricordo un nome fra tutti, Soddy, premio Nobel nel 1921 per la scoperta degli isotopi; come ricordava Giorgio Nebbia in un articolo su questo blog

Soddy ottenne la cattedra di chimica a Oxford nel 1919, ma nel mondo accademico fu sempre considerato “strano” per le sue incursioni in campi non strettamente chimici. Soddy si mise in pensione anticipatamente nel 1936, dopo la morte dell’amata moglie, e morì nel 1956 a 79 anni, amareggiato per la poca attenzione ricevuta dai suoi studi. Una attenta lettura dei suoi scritti (pochi tradotti in italiano) permette invece di riconoscerlo come un precursore dell’analisi dei problemi ambientali attuali, come ha messo in evidenza lo storico Martinez-Alier nel suo libro “Economia ecologica”. Per questo, oltre che per la sua scoperta degli isotopi, Soddy meriterebbe di essere meglio conosciuto e studiato se si vuole capire qualcosa di quanto ci sta aspettando.”

La situazione è cambiata in tempi recenti. Sappiamo che 18 premi Nobel (fra i quali 5 chimici) hanno pubblicamente affermato la necessità di cambiare direzione nel campo dell’uso di energia e materiali (https://en.wikipedia.org/wiki/Stockholm_Memorandum), argomento fortemente ribadito da molti colleghi italiani in tempi recenti: Tiezzi, Dondi, Guido Barone, e più di recente Balzani, Armaroli, Luca Pardi, Ugo Bardi, tutti chimici e tutti fortemente schierati per un profondo cambiamento nel nostro modo di vivere e gestire il rapporto fra noi e la Natura e fra noi stessi.

( si vedano anche miei articoli del 2011 su C&I: C&I luglio agosto 2011, p. 138 e C&I sett. 2011 p.150)

Ora la questione è che per fare tutto ciò ci vuole una decisa azione Politica (con P maiuscola) e dunque una intensa partecipazione alla vita politica dei paesi.

In effetti alcuni eventi recenti vanno in questa direzione.

In USA, come apprendiamo da Nature e Scientific American le ultime elezioni hanno visto una intensa partecipazione alle elezioni di scienziati apertamente schierati contro i passi indietro e gli attacchi alla scienza della amministrazione Trump (Nature nov. 2018: Science candidates prevail in US midterm elections ).

E in Italia quale è la situazione? Quanti chimici partecipano alla vita politica del paese?

Se andiamo a guardare l’ultima legislatura, la XVIII troviamo in parlamento 8 chimici (fra chimici, chimici CTF, ingegneri chimici) che sono i seguenti:

XVIII legislatura

221 laureati su 320 senatori

436 laureati su 630 deputati

totale 657 laureati su 950 eletti (oltre due terzi)

8 Parlamentari laureati in Chimica, CTF o ing. Chimica 1.2% dei laureati eletti (spero di non aver dimenticato nessuno se no segnalatemelo)

(noto di passaggio che nella popolazione generale 60.5 milioni di cui 6 milioni laureati ci sono circa 100.000 chimici (stima mia) dunque fra 1 e 2%)

Tutti eletti M5S eccetto Benamati e Patriarca, eletti col PD.

Marco Bella chimico, PhD, M5S (ha una rubrica su Il Fatto quotidiano)

Sara Cunial chimico industriale, M5S

Francesco D’Uva – chimico, M5S

Gianluca Benamati – chimico, PD

Alessandro Melicchio CTF, PhD, M5S

Caterina Licatini CTF e Laurea in tecniche della prevenzione nell’ambiente e nei luoghi di lavoro, M5S

Filippo Scerra, ing. Chimico, M5S

Edoardo Patriarca, PD, senato, chimico

Vedremo cosa faranno i chimici in questa legislatura, perchè di cose da fare ce ne sono tante a partire dall’impegno del nostro paese contro i cambiamenti climatici, che è in discussione in questi giorni in Polonia al COP24 di Katowice, dove occorrerà mettere nero su bianco quali impegni si prendono per mantenere l’aumento di temperatura media sotto il grado e mezzo.

La prima donna professore ordinario in una facoltà scientifica in Belgio: Lucia de Brouckère (1904-1982)

In evidenza

Rinaldo Cervellati

Lucia Florence Charlotte de Brouckère è stata la prima donna a diventare professore ordinario di chimica all’Université Libre de Bruxelles, didatta eccezionale. A lei è intitolata la Haute Ecole Lucia de Brouchère (HSLdB), fondata nel 1996 dalla fusione di cinque istituti di alta istruzione superiore.

Lucia nacque il 13 luglio 1904 a Saint – Gilles (Belgio), figlia di Gertrude Guïnsbourg e Louis de Brouckère, famoso politico socialista del XIX secolo e principale portavoce della sinistra del POB.[1]

Fin da bambina nutre un’ammirazione sconfinata per gli ideali di libertà e uguaglianza del padre e per il suo attivismo nel perseguirli. Di conseguenza, lei stessa si impegnerà attivamente per tutta la vita. Una parte dell’infanzia e della prima educazione di Lucia avvengono ovviamente in Belgio, ma nel 1914, allo scoppio della 1° Guerra Mondiale la famiglia si trasferisce in Inghilterra, dove Lucia riceve gran parte dell’educazione secondaria superiore. Tornata in Belgio alla fine del 1918, completati gli studi liceali, pur provando interesse per la storia, Lucia si iscrive nel 1923 all’Università Libera di Bruxelles scegliendo di studiare scienze, e in particolare chimica.

Secondo Brigitte Van Tiggelen, biografa di Lucia, questa scelta fu dovuta all’ammirazione che essa provava per Daisy Verhoogen[2], divenuta chef des travaux[3] (supervisore) nel laboratorio di chimica organica di Georges Chavannes, in seguito di Henry Wuyts e poi di Richard – Henri Martin all’ULB. Non è da escludere, anzi è probabile, che Lucia de Brouckère abbia seguito le lezioni di Verhoogen o sia stata da lei assistita nel laboratorio didattico di preparazioni organiche.

Nel 1927 Lucia discute la tesi: L’absorption des électrolytes par les surfaces cristallines, per la quale ottiene il dottorato in chimica e un premio dall’Académie Royal de Belgique. La sua completa ricerca riguardava l’assorbimento di ioni metallici da parte di superfici cristalline usando quattro diverse tecniche sperimentali per confrontare i risultati. Precisione e rigore sono le caratteristiche del suo lavoro sperimentale. Fra l’altro, essa dimostrò che lo ione triioduro si fissa perpendicolarmente alla superficie del solfato di bario. Questa conclusione portò a una controversia con l’americano I.M. Kolthoff[4]. La divergenza fu risolta quando i due chimici, scambiandosi i campioni, scopersero che erano stati preparati in due modi diversi.

Nello stesso anno è nominata assistente del prof. Jean Timmemans nella sezione di chimica fisica e del prof. Alexandre Pinkus nel laboratorio di chimica analitica.

Lucia de Brouckère

Dal 1930 al 1932 Lucia è stata docente incaricata a Gand, diventando la prima donna a insegnare in una Facoltà di Scienze in Belgio. Nel 1933 è nominata “aggregato all’insegnamento della chimica” e, da1937 al 1940, le fu affidato il corso di Elementi di Chimica Generale alla Libera Università di Bruxelles.

Allo scoppio della 2a Guerra Mondiale emigra con il padre in Inghilterra, dove studia la corrosione del piombo da parte dell’acqua di rubinetto e delle leghe alluminio-magnesio da parte dell’aria atmosferica e, più direttamente connesse alla guerra, la corrosione dei contatti di rame nei carri armati dovuta alla sabbia del deserto. Nel 1944, de Brouckère prese la direzione della sezione Industrie Chimiche al ministero degli affari economici del governo belga in esilio a Londres. Questa esperienza, collegata a un’importante funzione, le permetterà di sperare in una promozione al suo ritorno in Belgio.

Tornata in Belgio alla fine del 1944, si dedica immediatamente alla riorganizzazione dei curricola di chimica trovando finanziamenti per invitare professori stranieri. Fu nominata professore ordinario nel 1945. L’anno successivo divenne Direttore del Laboratorio di Chimica Generale e nel 1951 direttore del Laboratorio di Chimica Inorganica e Analitica.

In questo periodo si interessò ai colloidi e alle macromolecole dei quali studiò le proprietà chimico fisiche in soluzione. Per alcuni anni de Brouckère collaborò con Ilya Prigogine[5] allo studio sperimentale della termodinamica in fase liquida mentre la parte teorica fu affrontata da Prigogine. Nel 1953 le fu assegnato il premio Wetrems dall’Académie Royale de Belgique in onore del suo lavoro scientifico.

Come professore ordinario le fu affidato il corso di Chimica Generale per le matricole, Lucia ne rivoluzionerà l’impostazione didattica trasformandola da mnemonico descrittiva a basata sui principi e il ragionamento e su numerosi originali esperimenti di laboratorio.

De Brouckère in laboratorio didattico

Negli anni le furono affidati altri insegnamenti, fra cui quelli di chimica fisica e chimica analitica e il suo lavoro di ricerca rallentò di conseguenza a partire dagli anni ’60. Ebbe numerosi incarichi accademici. Preside della Facoltà di Scienze 1962-63, membro del Consiglio di Amministrazione delle Istituzioni Internazionali Solvay di Fisica e Chimica dal 1965. Al fine di incoraggiare la nascita di vocazioni nei giovani, partecipò alla fondazione dell’associazione Jeunesses Scientists e di un Centro universitario per i film scientifici.

Per la sua lunga carriera professionale fu nominata professore emerito nell’ottobre del 1974.

Interessata all’evoluzione dei concetti base della scienza, de Brouckère scrisse il libro: Évolution de la pensée scientifique: évolution des notions d’atome, et d’élément (Bruxelles, 1982).

Lucia de Brouckère non si dedicò solo all’insegnamento e all’attività scientifica, ma anche ad attività nel sociale. Per tutta la vita è stata in prima fila nella difesa delle libertà, del pensiero democratico e dei diritti delle donne. Nel 1934 è stata eletta Presidente del Comitato mondiale delle donne contro la guerra e il fascismo, un’associazione di donne con simpatie femministe. Nel 1936 intervenne in per la difesa della Spagna repubblicana. Ha fatto parte della “Fondazione per l’assistenza morale alle detenute”.

È anche stata coinvolta nella lotta per il riconoscimento della laicità. Lucia de Brouckère è stata in particolare un membro del Centro per l’Azione Secolare, il cui principale scopo era la depenalizzazione dell’aborto, poco dopo la seconda guerra mondiale. Nel 1962 divenne una delle fondatrici della pianificazione familiare “La famiglia felice”.

De Brouckère in conferenza

Poco dopo le dimostrazioni studentesche del maggio 1968, guidò l’Assemblea Costituente per le riforme dei nuovi statuti dell’Università.

Nel libro Le principe du libre examen et son prolongement: la laïcité (U.A.E., 1979) scrive:

“Ciò che mi ha colpito nel corso delle mie ricerche è stata la straordinaria coerenza interna delle teorie per cui gli esperimenti hanno inevitabilmente dimostrato essere inesatte. Questo dovrebbe renderci cauti e modesti. Le cosiddette scienze esatte e naturali non ci rivelano alcuna Verità assoluta, definitiva, immutabile, nessuna verità esistente al di fuori del tempo e dello spazio, che sarebbe sufficiente raccogliere come la famosa mela! Le scienze ci offrono verità parziali che dobbiamo costantemente correggere, ma correggere solo nelle loro stesse basi. Esigono la costante applicazione del principio dell’indagine libera, che è la base della nostra morale laica .

Lucia de Brouckère è morta all’età di 78 anni, il 3 novembre 1982 a Ixelles, uno dei Comuni di Bruxelles dove è in parte situata l’Université Libre.

Opere e siti consultati

  1. Despy-Meyer, Lucia de Brouckère (1904-1982)

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

  1. Van Tiggelen, Lucia de Brouckère (1904-1982). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 157-160.

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

[1] POB sigla per Partito Operario Belga (POB) è un ex partito politico belga, classificato socialdemocratico, che rivendicava il socialismo. Fu fondato il 5 aprile 1885 da un centinaio di delegati rappresentanti sindacati, sezioni di un partito socialista nato nel 1879, società di mutuo soccorso e cooperative.

[2] Marguerite (Daisy) Verhoogen (1900-1994), chimico belga, dopo il liceo seguì studi di chimica diventando prima assistente, poi attorno al 1931, chef du travaux. Questo era il grado accademico più alto cui una donna potesse a quel tempo aspirare. Notevoli sono le sue ricerche con Richard Martin sulla sintesi degli heliceni.

[3] Gli chef du travail (supervisori) appartenevano al personale scientifico fisso dell’università. Erano il braccio destro di un professore, che assistevano nelle sue ricerche e nel suo carico didattico, compresa l’assistenza al lavoro pratico dagli studenti. Questo posto è spesso considerato il confine verso il professorato che Verhoogen non raggiungerà mai, certamente non per demerito…E’ stata membro della Società Chimica Belga e della Società Francese di Chimica.

[4] Izaak Maurits (Piet) Kolthoff (1894 – 1993), influente chimico analitico americano, è considerato il padre della chimica analitica per le sue numerose pubblicazioni in tutti i diversi campi dell’analitica, importante il suo lavoro per modernizzare e promuovere il settore e per aver seguito molti studenti che sarebbero diventati in seguito chimici famosi.

[5] Ilya Romanovich Prigogine (1917-2003), chimico fisico di origine russo-ebraica e nazionalità belga, è stato fondatore della termodinamica dei processi irreversibili. Premio Nobel per la chimica 1977 per il suo contributo alla termodinamica di non equilibrio, in particolare per lo sviluppo della teoria sulle strutture dissipative.

Scoperto un nuovo enzima del papavero

In evidenza

Rinaldo Cervellati

Scoperto un nuovo enzima del papavero che potrebbe migliorare la sintesi degli oppiacei tramite lieviti

estrazione dell’oppio

Come noto al grande pubblico, il principale farmaco contenuto nel papavero da oppio (Papaver somniferum) è la morfina, che si ottiene per estrazione e purificazione dalla linfa essiccata fuoriuscita da profondi tagli effettuati sulle capsule immature prodotte dal papavero e che costituisce appunto l’oppio. L’oppio secco contiene circa dal 10 al 17% di morfina , la cui struttura è mostrata di seguito.

struttura della morfina

La morfina è utilizzata in medicina come analgesico per il trattamento del dolore acuto o cronico. Agisce rapidamente se somministrata per via endovenosa o sottocutanea, per via orale in forma di sciroppo o compresse invece si deve attendere un arco di 20-60 minuti prima che insorga l’effetto analgesico.

Per il suo elevato tenore in morfina, essa continua a essere estratta dalla sua fonte naturale vegetale ed è uno degli almeno 50 alcaloidi (fenantrenici e isochinolinici) contenuti nell’oppio. Pare tuttora “altamente improbabile” che una sintesi chimica sarà mai in grado di competere con il costo di produzione di morfina dal papavero da oppio.

La coltivazione a scopo commerciale per l’industria farmaceutica avviene soprattutto in Spagna, Francia, Turchia e Australia, mentre in Asia e America centrale la coltivazione ha principalmente scopi illegali, in particolare per la produzione di droghe oppioidi semisintetiche come ad esempio l’eroina (diacetil morfina).

L’oppio contiene anche altri alcaloidi ma in misura molto minore della morfina, importanti sono la codeina (metil morfina, ≈ 2%) e la tebaina (paramorfina, ≈ 0.3-1.5%). Entrambi sono, come la morfina, alcaloidi fenantrenici. La codeina è usata principalmente come blando analgesico e sedativo della tosse, la tebaina non ha impieghi farmaceutici ma gioca un ruolo importante nella fase finale della biosintesi della morfina nella pianta del papavero (figura 2).

Figura 2 struttura della tebaina

Entrambi i composti sono usati per la produzione di potenti oppioidi semisintetici, come l’ossicodone e l’idrocodone (il Vicodin, come nella fortunata serie TV “Dr. House”).

Tornando alla morfina, la prima sintesi chimica fu pubblicata nel 1956 da M. Gates e G. Tschudi con una lunga serie di reazioni organiche a partire da un composto fenantrenico [1]. Va detto che Gates iniziò a occuparsi di questa sintesi diversi anni prima, sintetizzando il composto fenantrenico partendo da 1,5-diidrossi naftalene[1]. Il lavoro di Gates è considerato quindi come la prima sintesi totale della morfina, di fondamentale importanza nella chimica organica di sintesi anche perché confermò la determinazione strutturale fatta da R. Robinson nel 1925[2] [2].

L’importanza chimica non corrispose però a un’applicazione industriale commercialmente vantaggiosa.

Negli anni successivi, fino al 2016, furono pubblicate altre vie sintetiche alcune delle quali stereospecifiche. Dettagli delle sintesi pubblicate fino al 2009 si possono trovare in [3]. Fra queste la più efficiente dal punto di vista del rendimento è considerata quella di K. C. Rice. Questa sintesi segue una via biomimetica infatti uno step chiave è la ciclizzazione di Grewe, analoga alla ciclizzazione della reticolina che avviene nella biosintesi della morfina. La reticolina è un precursore della tebaina che interviene negli ultimi stadi della formazione della morfina. Uno schema semplificato della biosintesi si trova in [4].

Tutti questi sforzi sono destinati allo scopo di realizzare una sintesi industrialmente e commercialmente utile, in modo da rendere indipendenti le case farmaceutiche dalla morfina estratta dalle piantagioni del Papaver somniferum.

Recentemente gli sviluppi della chimica organica hanno portato a utilizzare enzimi prodotti da lieviti che catalizzano la sintesi di sostanze ad attività farmacologica in modo relativamente semplice e pulito, cioè senza la necessità di lunghe procedure di purificazione del prodotto finale [5]. In breve si tratta di costringere i microorganismi (contenuti nel lievito) a produrre attraverso l’ingegneria genetica, enzimi specifici che normalmente non produrrebbero. Si tratta di una branca dell’ingegneria genetica nota come espressione eterologa.

La sintesi della morfina per via enzimatica è complicata dal fatto che gli enzimi che coordinano la sua formazione nella pianta sono tantissimi e alcuni ancora non noti.

Nel 2015 S. Galanie et. al [6] riportarono di aver finalmente delucidato l’intero percorso utilizzato dai papaveri per produrre tebaina. Hanno ritenuto che il passaggio finale in quel percorso – un riarrangiamento allilico di (7S)–salutaridinolo-7-O-acetato, per formare tebaina – si verificasse spontaneamente. Affinché tale riarrangiamento avvenga spontaneamente, tuttavia, il pH dell’ambiente deve essere 8-9. In condizioni più vicine a pH 7, il processo si verifica, ma è molto inefficiente. È stato trovato che in queste condizioni di pH naturale si forma un sottoprodotto idrossilato più favorito rispetto alla tebaina.

Partendo da questa osservazione, Peter Facchini, professore di biologia all’Università di Calgary e responsabile scientifico della start-up Epimeron, e collaboratori hanno sospettato che i papaveri dovessero contenere un enzima che favorisce la produzione di tebaina invece del sottoprodotto. Utilizzando raffinate tecniche di cromatografia proteica preparativa e analitica sono infine riusciti a isolare e identificare un enzima del papavero precedentemente sconosciuto che catalizza il passaggio a tebaina in modo efficiente [7]. L’enzima è stato chiamato tebaina sintasi (figura 3).

Figura 3. Le due strade che conducono alla tebaina, precursore della morfina

Vincent Martin

Vincent Martin della Concordia University a Montréal, esperto in biosintesi degli alcaloidi dell’oppio ha così commentato la scoperta: “La tebaina sintasi sarà un enzima importante per chi è interessato a produrre tebaina per via biomimetica, ma anche con questo enzima siamo ancora lontani dal raggiungere livelli commercialmente rilevanti di morfina”.

Peter Facchini

Tuttavia i ricercatori in ingegneria genetica delle società biotecnologiche Epimeron e Intrexon, in collaborazione fra loro e con il prof. Facchini, hanno ingegnerizzato lievito con il percorso biosintetico del papavero contenente il gene che codifica per la tebaina sintasi. Senza ulteriori ottimizzazioni, il lievito così modificato ha prodotto 24 volte più tebaina di quello che si basava sulla conversione spontanea durante l’ultimo passaggio sintetico [7].

Afferma quindi Facchini: “Quando con il gene addizionale in un esperimento preliminare la resa è migliorata di più di 20 volte, significa che si è sulla buona strada.”

Bibliografia

[1] M.Gates, G. Schudi, The Synthesis of Morphine., J. Am. Chem. Soc., 1956, 78, 1380-1393.

[2] J. M. Gulland, R. Robinson, Constitution of codeine and thebaine., Mem. Proc. Manchcester Lit. Phil. Soc, 1925, 69, 79-86

[3] SynArchive.com The Organic Synthesis Archive,

https://www.synarchive.com/molecule/morphine

[4] T. Wilson, Synthesis of Morphine Alkaloids (PDF). Professor Scott E. Denmark Research Group Presentations. University of Illinois at Urbana-Champaign.

https://web.archive.org/web/20130228131105/http://www.scs.illinois.edu/denmark/presentations/2006/gm-2006-01n31.pdf

[5] G. A. Strohmeier et al., Application of Designed Enzymes in Organic Synthesis., Chem. Rev., 2011, 111, 4141–4164.

[6] S. Galanie et al., Complete biosynthesis of opioids in yeast. Science., 2015, 349, 1095–1100.

[7] X. Chen et al. A pathogenesis-related 10 protein catalyzes the final step in thebaine biosynthesis., Nat. Chem. Biol., 2018, DOI: 10.1038 / s41589-018-0059-7.

[1] Marshall D. Gates (1915-2003) chimico americano, professore all’Università di Rochester. Noto per avere effettuato la prima sintesi totale della morfina. Il lavoro completo è del 1956, ma resoconti preliminari comparvero sul J. Am. Chem. Soc. nel 1950 e nel 1952 [1]. La sintesi di Gates richiede 29 passaggi.

[2] Sir Robert Robinson (1886-1975) chimico inglese. Professore di Chimica Organica all’Università di Oxford. Premio Nobel per la Chimica 1947 “per i suoi studi sulle produzioni di natura vegetale, in particolare per la sintesi degli alcaloidi”.

Piccola lezione sui fanghi di depurazione.1.

In evidenza

Mauro Icardi

La polemica sul decreto Genova, relativamente al fango di depurazione non si è ancora esaurita. In questo post vorrei fare una specie di breve lezione. Che serva per spiegare come si originano e perché.

I fanghi di depurazione si originano come principale residuo dei processi depurativi. Sono sostanzialmente una sospensione di solidi di varia natura, organici ed inorganici e con una percentuale di sostanze secche (che nel gergo degli addetti viene definita normalmente “secco”), variabile in funzione del tipo di processo di trattamento che il liquame ha subito. I fanghi di depurazione sono originati nei processi di sedimentazione, e si distinguono in fanghi originati dalla sedimentazione primaria, e da quella secondaria o finale. Il miscuglio di questi due tipi di fanghi origina il cosiddetto fango misto, che è quello che deve subire il trattamento di stabilizzazione e di disidratazione finale.

I fanghi estratti dalla sedimentazione secondaria possono essere stati prodotti da sistemi di trattamento a colture sospese (vasca di ossidazione biologica), da sistemi a biomassa adesa (letti percolatori o biodischi) e dai più recenti sistemi a membrana. Altri tipi di fanghi possono invece derivare da processi di chiariflocculazione per esempio la defosfatazione chimica, che si adotta per rispettare il limite di legge per il fosforo, che normalmente riesce ad essere abbattuto solo in percentuali pari al 50% se si effettua il solo trattamento di tipo biologico.Nel 2015 i fanghi dal trattamento delle acque reflue urbane prodotti sul territorio nazionale (codice 190805) sono pari a oltre 3 milioni di tonnellate. La Lombardia e l’Emilia Romagna con, rispettivamente, 448 mila tonnellate e 409 mila tonnellate sono le regioni con il maggiore quantitativo prodotto, seguite dal Veneto (361 mila tonnellate) e dal Lazio (312 mila tonnellate) (Figura 4.3). Il quantitativo di fanghi gestito, nel 2015, è pari a circa 2,9 milioni di tonnellate.

I fanghi rappresentano il cuore del trattamento depurativo, e sono la fase del trattamento su cui in futuro maggiormente si dovranno concentrare gli sforzi dei gestori, dei ricercatori, degli enti di controllo. Per minimizzarne la produzione, e per trovare il modo ecologicamente sicuro, economicamente sostenibile e socialmente accettato di essere smaltiti o recuperati.

I trattamenti dei fanghi devono essere differenziati in funzione della loro provenienza, ma due trattamenti sono solitamente comuni a tutti i tipi di fango: l’ispessimento e la disidratazione finale.

L’ispessimento serve a concentrare il fango e a ridurre al minimo il contenuto di acqua nello stesso.

Il tenore di acqua di un fango ( o umidità del fango) è il rapporto percentuale tra il peso dell’acqua contenuto nel fango, e il peso totale del fango, compresa tutta la fase acquosa. Si esprime con questa formula:  Uf (%) = 100*PH2O/Ptot.

(continua)

altri articoli dello stesso autore sui fanghi

https://ilblogdellasci.wordpress.com/2018/08/06/smaltimento-dei-fanghi-di-depurazione-qualche-considerazione-conclusiva/

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

Arte e scienza, questioni di reputazione.

In evidenza

Luigi Campanella, già Presidente SCI

Roberta Sinatra e Albert Laszlo Barabasi sono autori (fra altri) di un interessante articolo comparso su Science finalizzato allo studio delle dinamiche del successo nel mondo dell’arte.

Fraiberger et al., Science 362, 825–829 (2018) 16 November 2018

Il valore dell’opera conta, ma molti altri elementi concorrono a decretarne il successo. Il primo elemento è senz’altro rappresentato dalla sede di esposizione che non solo condiziona il successo iniziale, ma determina quello degli anni successivi di carriera, soprattutto se riferito,non solo alla prima opera, ma anche alle successive dello stesso autore con relative sedi espositive. La qualità non coincide da sola con il valore percepito che è fortemente influenzato dalla sede. Se questo per la scienza sembra logico : la dipendenza del successo di una ricerca dal livello di qualità del laboratorio o della istituzione in cui viene svolta, colpisce che questo sia ancor più vero nell’arte. Lo studio è riferito a 7500 musei,16000 gallerie,1200 case d’arte sparsi in Paesi diversi con dati raccolti negli ultimi 36 anni, confermando i dati stessi con un’ulteriore precisazione:è tanto più influente la qualità del sito di esposizione quanto più il curatore dell’evento stesso è internazionalmente riconosciuto. Sono molti gli esempi citati nello studio: dal caso di 2 autori della stessa opera prima, uno solo dei quali si è poi correlato con celebrità del settore: solo questo ha avuto successo,dell’altro si è persa traccia; come anche quello del quadro che ha in se stesso la capacità di distruggersi dopo un certo tempo di vita e che è divenuto famoso. A volte i fattori moltiplicativi del successo dipendono da eventi casuali, quali la morte prematura dell’autore, un evento atmosferico estremo, un conflitto internazionale. L’area geografica coinvolta nello studio è quella di Europa e Nord America. Non si può non pensare all’arte moderna spesso all’affannosa ed infruttuosa ricerca di sedi espositive importanti e di prestigio:forse può questo giustificare i pregiudizi verso di essa?

L’uomo con l’elmo d’oro (allievo di Rembrandt)

L’uomo con l’elmo d’oro, un quadro del XVIII secolo attribuito a Rembrandt è stato per decenni il più famoso quadro di Berlino. Una volta emersa l’evidenza, nel 1980, che il quadro non era di Rembrandt esso ha perso la maggior parte del suo valore artistico ed economico, anche se il quadro in se non è cambiato affatto.

Questo succede o potrebbe succedere per una ricerca scientifica?

Una scienziata mancata: Clara Immerwahr (1870-1915), moglie di Fritz Haber (1868-1934)

In evidenza

Rinaldo Cervellati

Il 16 dicembre dell’anno scorso si è tenuto a Como un evento teatrale dal titolo “Un cuore puro”, una rivisitazione delle lettere di Clara Immerwahr. L’evento, organizzato dal Dipartimento di Scienza e Alta Tecnologia dell’Università dell’Insubria su proposta didattica del prof. Maurizio Martellini ha inteso ricordare la figura di Clara Immerwahr prima donna a ottenere un dottorato in chimica nel 1900. Questo lungo post intende raccontare la vicenda scientifica e personale di Clara Immerwahr.

Clara Immerwahr è stata un chimico tedesco di origine ebraica. Prima donna a ottenere un dottorato in chimica in Germania, è accreditata pacifista e attivista per i diritti delle donne.

Il matrimonio con Fritz Haber, noto chimico tedesco, è enfatizzato nel titolo perché fu determinante nella successiva vita di Immerwahr e nella sua tragica scomparsa, come riportato anche in un recente dettagliato lavoro di B. Friedrich e D. Hoffmann [1].

Clara Immerwahr nacque il 15 giugno 1870 nella ricca fattoria paterna di Polkendorff vicino a Breslau (oggi Wroclaw, in Polonia). Era la figlia più giovane di genitori ebrei, il chimico Philipp Immerwahr e sua moglie Anna (nata Krohn). Crebbe nella fattoria con i suoi tre fratelli maggiori, Elli, Rose e Paul. Nel 1890, quando sua madre morì di cancro, Clara si trasferì a Breslau, dove il padre aveva avviato un negozio di tessuti e tappeti di lusso.

All’epoca, a Breslau vi era una vasta comunità di origine ebraica, che rappresentava in gran parte l’”aristocrazia intellettuale” della città, cui gli Immerwahr appartenevano. In queste famiglie “aristocratiche” non c’era spazio per religione, costumi e pratiche ebraiche, e raramente o mai si frequentava la sinagoga. Gli atteggiamenti politici della famiglia Immerwahr erano liberali, con qualche comportamento tipico del patriottismo nazionale prussiano-tedesco, tipo modestia e semplice stile di vita. Quindi, nonostante la ricchezza di famiglia, Clara e i suoi fratelli crebbero senza ostentazioni [1].

In Germania le scuole superiori (Gymnasium) erano precluse alle donne. Era possibile per loro assistere alle lezioni universitarie come uditrici ospiti solo se in possesso di speciali permessi.

Il percorso educativo di Clara e la sua successiva esistenza sono stati condizionati da questi vincoli. Iniziò i suoi studi in una Höhere Töchterschule (“Scuola per Donne”) a Breslau, studi integrati durante i mesi estivi trascorsi presso la tenuta di Polkendorf, da lezioni impartite da un tutor privato.

La scuola doveva fornire un’educazione di base per le giovani donne compatibile con il loro status sociale e prepararle per il loro “scopo naturale” cioè compagne dei loro mariti, casalinghe, e madri.

Clara si diplomò alla Töchterschule all’età di 22 anni. Si iscrisse al Teacher’s Seminary, l’unico tipo di istituzione che offriva un’istruzione professionale superiore alle donne. Tuttavia, i diplomati del Seminario erano qualificati solo per insegnare alle scuole femminili, rimanendo inammissibile l’ingresso all’università per studiare, ad esempio, le scienze, che era ciò che Clara voleva fare. Per realizzare questa aspirazione Clara dovette prendere lezioni private intensive e superare un esame equivalente all’Abitur (Esame di Maturità).

Questo esame si svolse davanti a una commissione speciale del Realgymnasium di Breslau e fu superato con successo da Clara Immerwahr nel 1896, all’età di 26 anni.

Successivamente, iniziò i suoi studi all’Università di Breslau, solo come uditore ospite e con una serie di permessi (professori, facoltà, ministero)[1].

Oggi è difficile immaginare cosa significasse per le donne entrare in un dominio maschile e che tipo di discriminazione e umiliazione erano costrette a subire.

Clara fece le necessarie domande per ottenere il permesso di frequentare le lezioni di fisica sperimentale come uditrice, e dovette procedere alla stessa snervante trafila per tutti gli altri corsi che intendeva seguire.

La attrassero in particolare le lezioni di Richard Abegg[2], professore di chimica impegnato in ricerche nell’allora nuovo campo della chimica fisica. Richard Abegg svolse un ruolo chiave nel favorire l’interesse di Clara per la chimica fisica, senza tanto badare al suo status di uditrice.

Richard Abegg

Fu proprio Abegg a supervisionare il lavoro per la tesi di dottorato di Clara. La tesi, intitolata Beiträge zur Löslichkeitsbestimmung schwerlöslicher Salze des Quecksilbers, Kupfers, Bleis, Cadmiums und Zinks (Contribution to the Solubility of Slightly Soluble Salts of Mercury, Copper, Lead, Cadmium, and Zinc) fu discussa presso l’auditorium dell’Università il 22 dicembre 1900, approvata magna cum laude. Clara Immerwahr ottenne così il dottorato in chimica, prima donna a ricevere questo titolo in Germania.

Clara Immerwahr nel 1900

Si può tranquillamente affermare che Abegg fu non solo mentore ma anche confidente di Immerwahr. In effetti Abegg e Immerwahr pubblicarono in collaborazione un articolo tratto dalla tesi di dottorato [2]. L’articolo, pubblicato nel 1900, oltre a fornire tabelle di quantità sperimentalmente determinate come le concentrazioni di equilibrio e i relativi potenziali elettrodici, affronta il problema delle elettroaffinità come quantità additive. Questa potrebbe essere la ragione per il numero relativamente elevato di citazioni ricevute da questo articolo. Esso fu percepito dal giovane pubblico femminile come prova di successo e riconoscimento per una donna scienziata.

L’intenzione di proseguire la carriera di ricercatrice è evidente dalla successiva ricerca di Immerwahr, approfondimento ed estensione del lavoro di tesi concretizzatasi in due articoli, pubblicati con il suo solo nome [3,4]. Il secondo lavoro di Clara aveva lo scopo di espandere il lavoro sulla solubilità includendo sali di rame e utilizzando idee e metodi sviluppati da Walther Nernst, Wilhelm Ostwald e Friedrich Wilhelm Küster[3]. La parte sperimentale di questa ricerca fu svolta nel laboratorio di Küster, nella Bergakademie di Clausthal in Bassa Sassonia, dove Immerwahl si era recata come visting researcher.

Il 3 agosto 1901 Clara Immerwahr si unì in matrimonio con Fritz Haber, al tempo ambizioso giovane chimico all’università di Karlsruhe. I due si erano conosciuti qualche anno prima, nel 1895, in una scuola o in un locale di ballo, ma poco si sa su questo primo incontro. Pare che Haber abbia ammesso “che si era innamorato [della sua futura sposa] come uno studente delle scuole superiori” e che “negli anni successivi avesse cercato di dimenticarla senza successo”. Quando nel marzo 1901 in occasione dell’annuale Conferenza della Società Tedesca di Elettrochimica, i due si incontrarono di nuovo, lui sempre più in carriera, lei fresca di dottorato e unica donna partecipante, la relazione si riaccese tanto che Clara si persuase a sposarlo[4].

Fritz Haber

Come sostiene Margit Szöllösi-Janze, biografa di entrambi, il matrimonio segnò la fine dell’attività scientifica di Clara Immerwahr, certamente non senza effetti sulla sua personalità. Probabilmente all’inizio Clara sperò di poter riprendere il suo lavoro di ricerca ma a lungo questa speranza dovette ridursi sempre di più [1].

In effetti, appena sposata, Clara scrive in una lettera ad Abegg:

“… una volta diventati milionari potremo permetterci servitori. Perché non posso nemmeno pensare di rinunciare al mio lavoro scientifico.”

Durante il primo anno di matrimonio Clara partecipò alle conferenze del marito e apparve spesso nei laboratori della Technische Hochschule a Karlsruhe, dove Haber sarebbe presto diventato il direttore dell’istituto di chimica fisica. Nella dedica alla moglie del libro Thermodynamics of technical gas-reactions, Haber scrive:

“Alla mia cara moglie Clara Haber, Ph.D., in segno di gratitudine per la sua cooperazione silenziosa”

Tuttavia, il coinvolgimento di Clara in questo libro di testo e di ricerca deve aver comportato qualcosa in più di una collaborazione silenziosa se Clara nella sua corrispondenza con Abegg, riferisce e discute i progressi di Haber nella stesura del libro e sollecita consigli.

Un importante punto di svolta nella vita di Immerwahr è certamente la nascita, nel 1902, del figlio Hermann, un bambino di scarsa salute, che reclamò gran parte dell’attenzione della sua madre.

Nel poco tempo rimasto dal lavoro di casalinga, Clara organizzò una serie di conferenze pubbliche su: “La chimica in cucina e nei lavori domestici”, destinate soprattutto a istruire le donne sull’uso dei prodotti chimici di uso comune nelle abitazioni.

Gli Haber divennero effettivamente ricchi, specialmente in seguito all’applicazione industriale della sintesi dell’ammoniaca da idrogeno e azoto atmosferico, effettuata da Haber e resa industriale da Carl Bosch. Il processo Haber-Bosch permise a sua volta la produzione quasi illimitata di fertilizzanti azotati, ciò che fece considerare Haber come uno dei grandi benefattori dell’umanità. Tuttavia Clara non ritornò mai più in laboratorio.

Nel 1911 Haber venne nominato direttore dell’Istituto di Chimica Fisica al Kaiser Wilhelm Institute di Berlino, città dove si trasferì con tutta la famiglia.

Con il passare degli anni dovette calarsi sempre più nel ruolo tradizionale di moglie di un grande scienziato, casalinga preoccupata del benessere della famiglia e madre premurosa. Anche a Berlino organizzò conferenze pubbliche di chimica a carattere divulgativo.

Con grande lucidità Clara Immerwahr descrive il suo stato d’animo e insoddisfazione nel 1909 in una lettera ad Abegg:

È sempre stato il mio modo di pensare che una vita valga la pena di essere vissuta solo se si è fatto pieno uso di tutte le proprie abilità e si è cercato di vivere ogni tipo di esperienza che la vita umana ha da offrire. È stato sotto questo impulso, tra le altre cose, che ho deciso di sposarmi in quel momento … la vita che ho avuto è stata molto breve … e le ragioni principali sono il modo oppressivo di Fritz di mettersi al primo posto in tutto…, così che una personalità meno spietatamente auto-assertiva è stata semplicemente distrutta.

Le tensioni e i conflitti tra Clara Immerwahr e Fritz Haber si aggravarono ulteriormente dopo lo scoppio della prima guerra mondiale. In accordo con la sua massima “in pace per l’umanità, in guerra per la patria”, Fritz Haber si applicò in modo maniacal patriottico allo sforzo bellico tedesco. In particolare sintetizzò diversi gas a base di cloro, il più tristemente famoso è il cosiddetto gas mostarda (il tioetere del cloroetano) usato nella seconda battaglia di Yprès dai tedeschi sotto la supervisione di Haber il 22 aprile 1915, causando 5000 morti nei primi dieci minuti.

Si può affermare che in questa battaglia fu usata per la prima volta un’arma di distruzione di massa e Haber divenne noto nei Paesi dell’Intesa come “padre della guerra chimica”.

Haber celebrò il “successo” della battaglia di Yprès e la sua promozione al grado di capitano durante un raduno nella sua villa di Berlino-Dahlem il 1 maggio 1915. Durante la notte dal 1 al 2 maggio, Clara Haber Immerwahr si suicidò sparandosi con la pistola di ordinanza del marito nel giardino della villa. A Fritz Haber fu negato dall’autorità militare un qualsiasi permesso per i funerali, fu fatto partire per il fronte orientale il giorno successivo [1].

All’epoca, il suicidio di Clara rimase in gran parte nell’ombra. Sei giorni dopo la sua morte, solo il giornale locale Grunewald-Zeitung riferì che “la moglie del Dr. H. dei Servizi Segreti, che è attualmente al fronte, ha messo fine alla sua vita sparandosi. Le ragioni del gesto infelice della donna sono sconosciute.”[5]. Non ci sono prove che vi sia stata un’autopsia.

Ma, dopo circa vent’anni, le circostanze scarsamente documentate della sua morte hanno provocato notevoli discussioni e controversie sulle sue ragioni.

Poiché a detta di molte persone Clara aveva criticato la ricerca del marito bollandola come una “perversione degli ideali della scienza” e “un segno di barbarie, corrompendo la disciplina stessa che dovrebbe portare nuovi benefici all’umanità”, il suicidio di Clara viene da alcuni biografi visto in quest’ottica [6]. Scrive ad esempio Gerit von Leitner: “Durante la guerra la sua presa di posizione chiara e univoca è malvista e ostacolata. Le rimane un’unica possibilità per non diventare complice. Quando la casa è vuota…Clara scrive per ore lettere di commiato in cui spiega- a chi leggerà- il significato del suo gesto…I domestici hanno visto le lettere. Chi le ha distrutte?” [7].

Tuttavia Friedrich e Hoffmann affermano che non ci sono conferme a quanto riportato da Goran e von Leitner. Ci sarebbero invece testimonianze che fanno pensare a motivazioni più complesse per il suicidio di Immerwahr.

Il ruolo della guerra chimica nel suicidio di Clara è stato riportato da suo cugino Paul Krassa nel 1957, secondo cui Clara fece visita a sua moglie poco prima del suicidio per confidarle i “macabri effetti” della guerra chimica e di aver assistito, in particolare al “test sugli animali”. Krassa, tuttavia, ha aggiunto che altri fattori potrebbero avere anche giocato.

Allo stesso modo, James Franck[5] ha dichiarato nella sua testimonianza del 1958:

“… che il coinvolgimento del marito nella guerra chimica aveva avuto sicuramente un effetto nel suo suicidio. ” Tuttavia, Franck ha aggiunto che Fritz Haber: “… fece un grande sforzo per riconciliare i suoi punti di vista con quelli politici e umani di Clara.

Secondo Friedrich e Hoffmann [1], la conclusione di Von Leitner si riferisce solo alle prime parti di queste due testimonianze e ignora altre fonti che suggeriscono che le ragioni del suicidio di Clara potrebbero aver avuto a che fare con la sua vita privata . Parte delle fonti disponibili suggerisce che Clara fosse davvero depressa e che questa depressione aveva a che fare con la sua vita matrimoniale infelice e insoddisfacente.

Anche il pacifismo e la contrarietà di Clara alla guerra sono state messe in dubbio, in particolare dalla risposta a una lettera del Dr. Setsuro Tamaru, collaboratore di Fritz Haber, costretto a lasciare la Germania in seguito all’entrata in guerra del Giappone a fianco della Triplice Intesa. La lettera di Tamaru, molto amara, è una critica feroce alla politica di guerra della Germania e dei suoi alleati.

Nella lettera di risposta, pubblicata nel lavoro di Friedrich e Hoffmann, Clara descrive il suo atteggiamento “utile e di aiuto alla patria”, afferma che il marito sta lavorando 18 ore al giorno e infine descrive se stessa come “… troppo ignorante in materia di affari esteri per essere in grado di rispondere correttamente … ” alle critiche di Tamaru.

Secondo Friedrich e Hoffman la lettera di Clara a Tamaru è difficile da conciliare con la sua immagine di pacifista i cui disaccordi col marito riguardo alla condotta della guerra l‘avrebbero portata al suicidio [1]. Personalmente ci vedo solo una sorta di obbligo verso il suo paese in risposta alle accuse dell’amareggiato Tamaru. Casomai dalla lettera ciò che traspare sono le sue preoccupazioni per come la guerra abbia influenzato in peggio i suoi problemi personali. Peccato che sia rimasta solo la risposta e non la lettera originale di Tamaru.

Quindi Friedrich e Hoffmann propendono per complesse ragioni personali.

Ma i motivi profondi di un gesto di rifiuto estremo, come il suicidio sono a mio avviso noti (forse) solo a chi lo commette (anche in presenza di lettere o biglietti), parenti, biografi, storici, ecc. possono solo fare congetture più o meno verosimili.

Infine, cosa successe a Fritz Haber?

Ottenne il Premio Nobel per la Chimica 1918 (ma lo ricevette effettivamente nel 1919) per la sintesi dell’ammoniaca. Continuò a lavorare all’Istituto di Chimica Fisica della Kaiser Wilhelm Gesellshaft fino al 1933 quando, essendo di origine ebraica fu destituito in seguito alle prime leggi razziali promulgate dal regime della Germania nazista. Emigrò in Gran Bretagna, dove trovò un posto all’Università di Cambridge. Nel 1934 decise di recarsi in Palestina, nella città di Reovhot, ma morì durante il viaggio di attacco cardiaco, in un albergo di Basilea in Svizzera. Nel testamento chiese che le sue ceneri fossero inumate insieme a quelle di Clara, cosa che effettivamente avvenne.

Opere consultate

Oltre al lavoro di Friedrich e Hoffmann, citato in [1]:

  1. Offereins, Clara Immerwahr (1870-1915). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 47-50.

Bibliografia

[1] B. Friedrich, D. Hoffmann, Clara Haber, nee Immerwahr (1870–1915): Life, Work and Legacy Z. Anorg. Allg. Chem. 2016, 642, 437–448.

[2] R. Abegg, C. Immerwahr, Notes on the electrochemical behavior of silver and zinc fluorides, Z. Phys. Chem., 1900, 32, 142-144. (in German)

[3] C. Immerwahr, Potentials of Cu electrodes in solutions of analytically important Cu precipitates. Z. Anorg. Chem. 1900, 24, 269–278. (in German)

[4] C. Immerwahr, On the solubility of heavy metal precipitates determined by electrochemical means. Z. Elektrochem. 1901, 7, 477–483. (in German)

[5] J. Dick, Clara Immerwahr 1870-1915., Jewish Women: A Comprehensive Historical Encyclopedia, (On-line Ed.), marzo 2009.

https://jwa.org/encyclopedia/article/immerwahr-clara

[6 ] M. Goran, The Story of Fritz Haber, University of Oklahoma Press, Norman, 1967

[7] Gerit von Leitner, Der Fall Clara Immerwahr: Leben für eine humane Wissenschaft, G.H. Beck, Munchen, 1993.

[1] In Prussia le donne diventarono legalmente ammissibili come studenti universitari solo dal 1908. Prima, a partire dal 1895, le donne erano autorizzate a frequentare le lezioni solo come uditori ospiti, e anche questo era subordinato al sostegno del professore e della facoltà e a un permesso del Ministero.

[2]Richard Wilhelm Heinrich Abegg (1869 – 1910), chimico fisico tedesco, pioniere della teoria della valenza. Notò che la differenza fra la valenza massima positiva e negativa di un elemento era otto (regola di Abegg), anticipando la regola dell’ottetto di Gilbert Lewis. Ha svolto ricerche su molti argomenti chimico fisici, compresi i punti di congelamento, la costante dielettrica del ghiaccio, la pressione osmotica, i potenziali di ossidazione e gli ioni complessi. Appassionato di volo morì in un incidente con la sua mongolfiera a soli 41 anni.

[3] Friedrich Wilhelm Albert Küster (1861-1917), chimico tedesco si è occupato di chimica fisica e analitica, noto per il famoso manuale di tabelle e calcoli chimici.

[4] Letteralmente: “Ci siamo visti, abbiamo parlato e alla fine Clara si lasciò persuadere a provarci con me. “, da una lettera di Fritz Haber citata dalla storica M. Szöllösi-Janze in:, Fritz Haber (1868–1934). Eine Biographie, 1998, C. H. Beck, München.

[5] James Franck (1882-1964) fisico tedesco, vinse il Premio Nobel per la fisica 1925 con Gustav Hertz “per la scoperta delle leggi che governano l’impatto di un elettrone su un atomo”. Esule negli USA partecipò al progetto Manhattan. Nel suo Franck report raccomandò che i giapponesi fossero avvertiti prima dello sgancio delle bombe atomiche sulle loro città ma non fu ascoltato.