Minimizzare il fango di supero

In evidenza

Mauro Icardi

Il trattamento di ossidazione biologica consiste nella biodegradazione da parte di microrganismi di tutte le sostanze organiche presenti nell’acqua da depurare, fino a trasformarle in sostanze più semplici e innocue dal punto di vista ambientale. Questo trattamento riproduce artificialmente l’autodepurazione naturalmente presente nei corsi d’acqua, mantenendo condizioni il più possibile ottimali per concentrare e accelerare il processo in atto. Tipicamente mantenendo per esempio un tenore di ossigeno disciolto intorno a 2 mg/lt. Durante questa fase avvengono numerosissime reazioni di biodegradazione della materia organica, dove sostanze organiche complesse vengono convertite in sostanze inorganiche più semplici, quali: CO2, H2O, NH4+, NO2 NO3. Dopo un certo tempo di permanenza in questa vasca, opportuno per la degradazione delle sostanze organiche e per la nitrificazione dello ione ammonio a nitrato, il fango viene inviato a un sedimentatore secondario che separa il fango attivo (contenente i microorganismi attuanti la depurazione biologica) dal refluo chiarificato ovvero l’acqua che ha subito il processo depurativo biologico. I fanghi originati dalla depurazione delle acque, in particolare dalla sedimentazione primaria, e dallo spurgo della vasca di ossidazione vengono, ispessiti e poi sottoposti a trattamenti che ne diminuiscano ulteriormente il tenore in sostanza organica.

Sono state sviluppate tecniche tendenti a ridurre la quantità di fango di supero,( a volte indicato come fango di spurgo) da inviare al successivo trattamento fanghi. In particolare il trattamento di lisi dei fiocchi di fango si sta affermando nel settore del trattamento acque reflue. Il processo newlisi messo a punto e brevettato dall’omonima azienda di Paliano in provincia di Frosinone consiste nell’idrolisi termochimica del fango di supero. Il processo viene condotto alla temperatura di 90 ° C e a pressione atmosferica. In questo modo il carbonio organico viene ossidato a CO2, e successivamente la frazione organica residua viene trasformata in peptoni, oligosaccaridi e aminoacidi liberi.

Il fango così trattato possiede un biodegradabilità praticamente totale. A questo punto, dopo un processo di filtrazione o in alternativa di sedimentazione, il fango trattato (l’eluato in buona sostanza) può essere ricircolato in testa all’impianto di depurazione (tipicamente a monte dell’ossidazione biologica), oppure negli impianti dotati di fase di digestione anaerobica, caricato allo stesso digestore. Nel processo di digestione, trattandosi di biomassa solubilizzata vengono ridotti i tempi di ritenzione, in quanto i batteri metanigeni non devono più idrolizzare essi stessi la sostanza organica dei fanghi per poterla rendere disponibile per le loro esigenze nutritive e di accrescimento.

Il processo è coperto da brevetto, ma giova ricordare che è stato messo a punto in collaborazione con l’IRSA CNR di Roma. Facendo una rapida ricerca su Internet, ho potuto vedere che diverse società di gestione hanno adottato tale sistema, l’Acea di Roma, la SEITO di Siena, e l’acquedotto pugliese. E facendo ricerche in rete, si possono trovare altri processi simili a questo, di altre aziende.

Il trattamento di idrolisi termica dei fanghi costituisce decisamente una tecnica che occorrerebbe estendere in maniera generalizzata, soprattutto su quegli impianti che sono stati progettati a metà anni 70, contestualmente al grande sviluppo impiantistico seguito alla promulgazione della legge Merli.

Il depuratore tradizionale è destinato ad essere modificato sostanzialmente. E in questo caso le sinergie hanno coinvolto società di gestione, enti di ricerca, e l’azienda che ha sviluppato questo sistema brevettandolo. Sistema che è un esempio concreto di applicazione della chimica verde.

Per chiudere, qualche numero, che è sempre fondamentale ed esplicativo.

Acea ha dichiarato una riduzione di fango da smaltire pari al 70%, passando da 4700 tonnellate anno, a 1500. Questo significa meno fango, meno autocarri che lo trasportano. Con benefici ambientali, sociali ed economici. Primi passi verso la trasformazione dei depuratori in vere e proprie fabbriche di ripulitura dell’acqua, con l’applicazione di nuove tecniche, ormai mature, che non sostituiranno in toto quelle tradizionali, ma le completeranno.

Ascoltare la Scienza: l’incidente di Bologna e la transizione energetica

In evidenza

Autori vari.

Riceviamo da Vincenzo Balzani e volentieri pubblichiamo.

L’energia è la risorsa più importante. L’ambiente, la Terra, la nostra “casa comune” è il luogo dove dobbiamo vivere. Energia e ambiente sono quindi strettamente connessi. Oggi al mondo, ogni secondo, consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105.000 metri cubi di gas. Sappiamo da tempo che i combustibili fossili sono una risorsa non rinnovabile e che il loro uso danneggia la salute dell’uomo. Sappiamo anche che si tratta di sostanze con alto contenuto di energia, pericolose da trattare e da trasportare: il grave incidente del 6 agosto a Bologna non è che l’ultimo di una serie di disastri che hanno coinvolto petroliere, oleodotti, gasdotti, raffinerie, depositi. La scienza negli ultimi decenni ha scoperto che l’anidride carbonica prodotta dall’uso di questa sterminata quantità di combustibili fossili e immessa nell’atmosfera (36 miliardi di tonnellate all’anno) provoca il cambiamento climatico. Nella Conferenza COP 21 di Parigi, le delegazioni di 197 nazioni hanno concordemente riconosciuto che il cambiamento climatico è la minaccia più grave per l’umanità. L’unica soluzione per uscire dalla crisi energetico-climatica è smettere di usare i combustibili fossili. Purtroppo, come scrive il papa nell’enciclica Laudato sì, “La politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide”. La transizione energetica è ineluttabile, è già iniziata, ma è fortemente ostacolata dai giganteschi interessi economici della lobby del petrolio, che insiste nel definire immature e non affidabili le energie rinnovabili del sole, del vento e della pioggia, che producono energia elettrica. La scienza dimostra invece che la transizione dai combustibili fossili alla elettricità prodotta dalle rinnovabili è tecnicamente possibile e economicamente conveniente.

Alla nostra Scuola della Pace di Sovere, proprio nel giorno dell’incidente di Bologna, stavamo discutendo di questo problema. In particolare, abbiamo approfondito il piano WWS (water, wind, sun) proposto da scienziati delle Università di Berkeley, Stanford e Berlino. Il piano esamina in dettaglio la situazione di 139 stati del mondo. Per ciascun paese analizza i consumi energetici e la disponibilità di risorse rinnovabili per generare elettricità e propone per ogni paese un piano specifico, tenendo conto della disponibilità di sole, vento, acqua, suolo, tetti, materie prime e situazioni particolari. Per l’Italia, l’analisi dettagliata dello studio WWS si può riassumere con i seguenti dati.

Se decideremo di accelerare la transizione, nel 2050 useremo solo energia elettrica generata da fotovoltaico (56,7%); eolico (26,3%); solare a concentrazione (11,3%); idroelettrico (4,9%); geotermico (0.6%). Dal punto di vista economico, si avrà un risparmio di 382 $/persona/anno sul costo dell’elettricità e un risparmio sui costi dei danni causati da inquinamento e cambiamento climatico per una media di 7.700 $/persona/anno. Si eviterà la morte prematura per inquinamento, in media, di circa 20.000 persone all’anno. Verranno perduti circa 160.000 posti di lavoro nei settori dei combustibili fossili, ma si creeranno circa 300.000 nuovi posti di lavoro permanenti per attività di costruzione e 350.000 per attività di gestione delle energie rinnovabili con un saldo positivo di circa 500.000 posti. Un altro vantaggio è che l’energia viaggerà su fili e non sulle autostrade. Lo studio conclude dicendo che la transizione energetica, pur essendo tecnicamente possibile ed economicamente conveniente, troverà ostacoli di tipo sociale e politico. Si tratta infatti, come dice papa Francesco, di una “rivoluzione culturale” per la quale non siamo ancora preparati.

Ecco: chiediamo che l’incidente di Bologna sia almeno occasione per diffondere conoscenza e consapevolezza, sia a livello politico che fra i cittadini, sulla necessità di promuovere la transizione energetica.

Questa, fra tante di cui si parla in questi giorni, è veramente la “Grande Opera” di cui il Paese ha più bisogno.

A nome dei partecipanti alla scuola della pace organizzata dalle parrocchie della Dozza (Bologna) e Sammartini (Crevalcore). don Giovanni Nicolini, don Giancarlo Giuseppe Scimè, don Francesco Scimè

Due donne nella storia della chimica russa.

In evidenza

Rinaldo Cervellati

Titolo completo: Due donne nella storia della chimica russa: Nadezhda Olimpievna Ziber-Shumova (1854[1]56[2] – 1914216[3]) e Anna Fedorovna Volkova (? – 1876)

Insieme a Julia Lermontova (di cui abbiamo parlato nel precedente post) sono le tre donne che hanno contribuito alla “golden age” della scienza russa nella seconda metà del XIX secolo[4] per quanto riguarda la chimica.

Nadezhda Olimpievna Ziber-Shumova nacque a Kuybyshev (dal 1991 Samara), sesta città russa per estensione, capoluogo del distretto federale di Samara Oblast (ex sovietico Kuybyshev oblast).

A San Pietroburgo seguì le lezioni dei chimici Egor Vagner, Dmitri Mendeleev e A. Butlerov e del botanico A. Famincin. Nel 1872, già sposata con Nikolai Ziber (uno dei primi economisti marxisti russi), si trasferì con lui in Svizzera, a Zurigo senza tuttavia essere formalmente iscritta in quella università. Successivamente continuò i suoi studi presso l’Università di Berna, una delle istituzioni in cui le studentesse di Zurigo si dispersero nel 1873 dopo aver ricevuto l’ordine dal governo zarista di tornare in patria (v. nota 4).

Nadezhda O. Ziber-Shumova

Nel 1877 si unì al gruppo di ricerca guidato dal polacco Marceli Nencki[5], direttore del Dipartimento biochimico dell’Università di Berna e pioniere nell’approccio chimico allo studio dei microrganismi.

Marceli Nencki

La loro collaborazione durò fino alla morte di Nencki ventitré anni dopo [1]. Ottiene il dottorato in medicina nel 1880 [2].

Tra la fine degli anni ’70 e l’inizio del XX secolo, è autrice o co-autrice di oltre trenta articoli su una varietà di argomenti biochimici, tra cui ossidazione in vivo, fermentazione batterica e processi di decomposizione, studi enzimatici e idrolisi zuccherina, nonché studi chimici di base, come l’acilazione di fenoli catalizzata con ZnCl2 (nota come”reazione di Nencki). Per questo è considerata la più produttiva fra le donne che all’epoca facevano ricerche in chimica [1].

Il suo contributo iniziale più importante furono probabilmente i suoi lavori sulla costituzione del pigmento dell’emoglobina [3], parte di una lunga serie di indagini sistematiche sui prodotti di degradazione dell’emoglobina, condotti da Nencki e dai suoi collaboratori per molti anni. Integrati con il lavoro di Leon Marchlewski sulla clorofilla, questi studi portarono Nencki a formulare l’ipotesi sulla relazione chimica tra regno vegetale e regno animale (v. nota 5).

Nencki lasciò Berna nel 1891 per partecipare all’organizzazione del nuovo Istituto Imperiale di Medicina Sperimentale (IIEM) a San Pietroburgo, dove divenne direttore dell’Istituto di Chimica.

Biblioteca dell’Istituto di Medicina Sperimentale a San Pietroburgo

Ziber-Shumova si unì allo staff dell’istituto, insieme a Szymon Dzierzgowski e Martin Hahn, come collaboratori senior di Nencki.

Durante le ricorrenti carestie e le epidemie che devastarono la Russia negli anni Novanta dell’Ottocento, i ricercatori medici russi compirono notevoli sforzi nel campo della sanità pubblica e dei servizi igienico-sanitari per apportare miglioramenti e fornire assistenza nelle zone colpite. Le misure adottate includevano l’organizzazione di cliniche e unità di osservazione sul campo. Nencki, Ziber-Shumova e Dzierzgowski parteciparono attivamente a questo lavoro. Nel 1892 diedero importanti contributi, incluse ampie osservazioni sul campo, durante un’epidemia di colera. La loro ricerca di una fonte di antisettici facilmente accessibili portò a un’indagine dettagliata sulla composizione chimica di estratti di pino e all’esame delle loro proprietà disinfettanti. Più tardi pubblicarono una quantità considerevole di lavoro batteriologico sul problema della peste bovina. Nencki fu incaricato di effettuare prove di immunizzazione sul campo nel Caucaso e in Siberia.

Dopo la scomparsa di Nencki nel 1901, Ziber-Shumova fu a capo del Laboratorio Chimico dell’IIE. continuando a sviluppare i temi di ricerca proposti da Nencki. Nel 1912 fu nominata membro ordinario dell’IIEM, titolo equivalente a quello di professore ordinario. I suoi lavori successivi includevano indagini sui lipidi presenti nel tessuto polmonare e una serie di studi sugli enzimi, molti dei quali apparvero in Zeitschrift für Physiologische Chemie, continuando a pubblicare almeno fino allo scoppio della prima guerra mondiale.

Nadezhda O. Ziber-Shumova è stata la prima donna Professore di biochimica in Russia, fornendo contributi essenziali al consolidamento e allo sviluppo di questa scienza; per questo nel 1921 il Laboratorio di Chimica dell’IIEM fu rinominato Dipartimento di Biochimica.

Il riconoscimento del suo significativo contributo fu la pubblicazione della sua biografia nel famoso Brockhau and Efron Encyclopedic Dictionary[6]. È necessario apprezzare la dirittura morale di Ziber-Shumova. Istituì il premio scientifico “M.W. Nencki”, la prima sovvenzione per sostenere i giovani ricercatori in biochimica. Preparò e curò l’edizione in due volumi “Marceli Nencki Opera Omnia”, contenente 153 pubblicazioni di Nencki e coautori e circa 200 pubblicazioni dei suoi allievi. Immortalando così un ricordo del suo insegnante e mèntore, lasciò ai suoi colleghi una eccellente fonte di informazioni sullo sviluppo della biochimica.

Nel 1909 Ziber-Shumova donò alla Società polacca di ricerche biologiche 50 000 rubli (25 000 dollari dell’epoca) per la fondazione dell’istituto di ricerca Nencki, che fu inaugurato a Varsavia nel 1918 (Nencki Institute of Experimental Biology).

*****

Sulla vita di Anna Feodorovna Volkova si hanno solo poche informazioni, la data di nascita non è nota, appare certa invece quella della morte, avvenuta nel 1876. Forse proprio il fatto che Volkova è morta ancora giovane ha determinato queste insufficienze biografiche. In effetti le uniche fonti di informazioni nei siti occidentali si possono tutte ricondurre all’articolo di Mary Creese [1].

Negli anni ’60 dell’ottocento Volkova seguì le lezioni dei membri della Facoltà di Chimica dell’Università di San Pietroburgo e svolse la sua prima attività di ricerca nell’Istituto di Agricoltura e Silvicoltura di quella città sotto la guida del chimico e agronomo Alexander Engelhardt[7], impegnato insieme ai suoi collaboratori nello studio degli acidi arilsolfonici e loro derivati.

Nel 1870, Volkova si trasferì all’Istituto Tenologico dove estese le ricerche in questo campo con l’incoraggiamento e la guida di Dmitrii Mendeleev[8].

Dmitrij Ivanovic Mendeleev

I suoi due articoli sugli acidi toluenesolfonici e le loro ammidi del 1870 furono probabilmente la prima ricerca chimica pubblicata da una donna [4]. In seguito a queste pubblicazioni Volkova fu invitata a far parte della Società Chimica Russa, prima donna membro di questa Società.

Nonostante una carriera molto breve, conclusa con malattie legate alla povertà e conseguente morte prematura nel 1876, Volkova eseguì una notevole quantità di lavoro sintetico di ammidi aromatiche, in particolare le ammidi dell’acido solfonico. Il contributo per il quale è ricordata, è la sua preparazione del 1870 dell’ammide dell’acido o-toluensolfonico, che doveva diventare un intermedio chiave nella produzione della saccarina[9]. Tuttavia, nel periodo 1870-73, ha studiato un certo numero di reazioni di entrambi gli acidi o- e p-toluensolfonico e dei loro cloruri, ha preparato e studiato le proprietà di diverse nuove acidammidi. Era ben considerata dai suoi colleghi e ben integrata nella comunità chimica; non solo presentò due comunicazioni al Terzo Congresso dei Naturalisti russi a Kiev nel 1871, presiedendo una delle sessioni di chimica. I composti che ha sintetizzato sono stati tra i nuovi materiali preparati dai chimici russi esposti al World Industrial Exhibition di Londra nel 1876.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] T. V. Denisenko, Y. P. Golikov, Nadezhda O. Ziber-Shumova: the first Russian woman Professor of biochemistry, The FEBS Journal, 2013, 280 (Suppl. 1), 618–626.

[3] lavori citati in [1], rif. 21

[4] lavori citati in [1], rif. 9

[1] Registro Università di Berna.

[2] Secondo Franziska Rogger, storica svizzera, specialista nella storia dei primi studi superiori femminili in Svizzera.

[3] WBIS PAB, World Biographical Information System Polskie Archiwum Biograficzne Online

4v. R. Cervellati, https://ilblogdellasci.wordpress.com/2018/07/06/le-donne-scienziate-in-russia-nella-seconda-meta-del-xix-secolo-migranti-della-conoscenza-2/

5 Wilhelm Marceli Nencki (1847, Boczki (PL) – 1901,San Pietroburgo) chimico e medico polacco, particolarmente noto per aver identificato l’emopirrolo fra i prodotti di degradazione dell’emoglobina e mostrato la sua identità con uno dei prodotti ottenuti da un altro chimico polacco, Leon Marchlewski, nella clorofilla. Ha svolto la sua attività prima a Berna (Svizzera) e poi a San Pietroburgo (Russia).

 

[6] Il Dizionario Enciclopedico Brockhaus ed Efron (35 volumi nella versione piccola; 86 in quella più grande) è, nello scopo e nello stile, la controparte russa dell’Enciclopedia Britannica del 1911 e di quella tedesca Brockaus. Contiene 121.240 articoli, 7.800 immagini e 235 mappe.

[7] Alexander Nikolayevich Engelhardt (1832 – 1893) chimico e agronomo russo, di orientamento narodnista e socialista è stato cofondatore della prima rivista di chimica in russo. Famoso per le sue attività sociali e agronomiche e per il suo esperimento sull’organizzazione dell’agricoltura razionale nella sua tenuta. Nel 1870, lui e sua moglie furono arrestati per aver partecipato alla cerchia degli studenti socialisti dell’Istituto di San Pietroburgo. Engelhardt, ritenuto colpevole, fu poi esiliato a vita da San Pietroburgo e bandito dalla sua tenuta-modello.

[8] A parte aver ideato Tavola Periodica (di cui festeggeremo il 150° anniversario l’anno prossimo), Dmitri Mendeleev (1834-1907) è stato uomo di eccezionalmente ampi interessi scientifici, tecnologici, sociali e educativi. La sua Chimica Organica (1861) è stato il primo libro di testo sistematico in quel campo scritto da un russo e i suoi Principi di Chimica in tre volumi (1868-69) è stato considerato un classico. Ha insegnato chimica organica all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo nel 1861, professore ordinario nel 1867.

[9] La saccarina è stato il primo dolcificante artificiale.

Dalla coppa di Licurgo a Nanoinnovation 2018

In evidenza

Luigi Campanella, già Presidente SCI.

Di nanotecnologie e delle loro numerose applicazioni si parlerà in occasione di NANOINNOVATION 2018 l’evento previsto a Roma, presso la Facoltà di Ingegneria della Sapienza dall’11 al 14 settembre.

Si tratta di una delle rivoluzioni scientifiche del nostro tempo. Si pensi che a livello delle comuni attivitá si parla in termini di quantità che comprendono miliardi di miliardi di milioni di molecole fra loro indifferenziabili per comportamento e con le nanotecnologie all’interno di queste comunità si riesce invece a discriminare fino al miliardesimo individuando comportamenti molecolari specifici e diversi.

Le ricadute applicative diventano moltissime: si pensi alla medicina ed alla possibilita di individuare comportamenti anomali di singole molecole o cellule preliminari a malattie e disfunzioni. Per fare una similitudine è come in un coro di miliardi di voci scoprirne una stonata: con le macro e microtecnologie  non sarebbe possibile ciò che invece è possibile con le nano-tecnologie. Accanto a questo aspetto più strettamente analitico le nanotecnologie hanno potenzialitá applicative derivanti dalla nanodimensione delle particelle, dimensione che conferisce ai composti proprietà chimiche e fisiche assolutamente specifiche e spesso superiori rispetto alla macro e microdimensione.

Con riferimento ancora al campo delle scienze mediche si pensi alla minore invasività e la maggipre precisioni rispetto al bersaglio di colpire di agenti nanodimensionati

Ma le potenzialità delle nanotecnologie sono molte altre e continuamente ne vengono esaltate delle nuove. Ecco che un congresso internazionale diventa una sede di dibattito scientifico, ma anche un palcoscenico per non  addetti “stretti” per seguire gli avanzamenti delle tecnologie in termini di applicazione alla nostra vita di tutti i giorni. La partecipazione dei cittadini si basa sulla conoscenza ed insieme sono condizioni necessarie per ottenere il sostegno politico. Il mercato delle nanotecnologie ha registrato un’impennata esponenziale grazie ai settori industriali a cui si rivolge e che riguardano direttamente o indirettamente la vita di milioni di persone.

Dal  punto di vista più strettamente scientifico con il termine Nanoscienze si intende l’insieme  delle competenze derivanti da discipline diverse che vanno dalla fisica quantistica alla chimica supramolecolare, dalla biologia molecolare alla scienza dei materiali, utilizzate con il fine di indagare i fenomeni e le potenzialità applicative di materiali su scala atomica e molecolare. In passato é talvolta avvenuto che fra queste discipline il dialogo è stato difficile e questa difficoltà si è trasferita alla relazione fra domanda ed offerta tecnologica.

Se la storia delle nanotecnologie è relativamente recente (nel 1965 Rychard Feynman ricevette il premio Nobel per la Fisica, ma già nel 1959  aveva  intuito le potenzialità di questa innovativa tecnologia) in effetti si conoscono applicazioni delle nanotecnologie in tempi molto antichi, quando non erano certamente conosciute come tali.

La coppa di Licurgo (British Museum) è una coppa diatreta di vetro di epoca romana, risalente al IV secolo. La coppa è costruita con vetro dicroico e mostra un colore diverso a seconda del modo in cui la luce passa attraverso di essa: rosso quando illuminata da dietro e verde quando illuminata frontalmente. La coppa di Licurgo è l’unico oggetto romano integro completamente costituito da questo tipo di vetro e quello che maggiormente esibisce l’effetto cangiante. (wikipedia)

I casi più noti sono quelli di coppe di età romana costruite con vetri dicroici e di alchimisti medioevali che costruirono vetri con effetti cromatici basati sulla presenza in essi di nanoparticelle. Le stesse nanoparticelle sono oggi ben presenti nella nostra vita di tutti i giorni con i materiali di cui sono costituiti oggetti di uso comune come racchette da tennis, sci, isolanti, luci a LED.

Tutto ciò fa pensare che questo settore possa divenire uno di quelli da cui l’economia sia destinata a dipendere.

Un Nanolaser che cambia colore una volta allungato

In evidenza

Rinaldo Cervellati

In uno speciale di Chemistry & Engineering newsletter on line del 2 luglio scorso, Prachi Patel riporta l’assemblaggio di un nano laser sensibile e sintonizzabile, costituito da nanoparticelle d’oro, un elastomero e un colorante liquido. Il dispositivo è stato realizzato da un gruppo di ricerca costituito da dottorandi e ricercatori dei Dipartimenti di Chimica e di Scienza e Ingegneria dei Materiali della Northwestern University, Illinois, coordinati dai prof. Teri W. Odum e George C. Schatz. (D. Wang et al., Stretchable Nanolasing from Hybrid Quadrupole Plasmons, Nano Lett., 2018, DOI: 10.121/acs.nanolett.8b01774)

George C. Schatz

Teri W. Odum

 I ricercatori si sono ispirati alle caratteristiche dei camaleonti: la pelle di questi rettili è costituita da strati di cellule contenenti nanocristalli di guanina. Quando un camaleonte si irrigidisce o si distende, lo spazio tra i cristalli cambia, alterando il colore della luce riflessa. Nella ricerca di creare sorgenti luminose compatte con colori sintonizzabili, i ricercatori hanno cercato di emulare questo meccanismo.

In linea di principio il dispositivo prevede l’incorporamento di schiere regolari di semiconduttori nanostrutturati all’interno di un materiale elastico. In questi nanolaser, la luce riflessa rimbalza tra le nanostrutture, viene amplificata ed emerge come un raggio laser di una lunghezza d’onda definita. La lunghezza d’onda cambia quando il materiale viene allungato, perché cambia la spaziatura fra le nanostrutture.

Con un’originale modifica a questo concetto, Teri W. Odom, George C. Schatz e il loro gruppo hanno realizzato un nanolaser sintonizzabile 10 volte più sensibile dei precedenti prototipi estensibili e ha il potenziale per offrire una gamma più ampia di colori.

Innanzitutto, hanno depositato una matrice di nanoparticelle d’oro cilindriche (ampiezza 260 nm) su un foglio di polidimetilsilossano (PDMS). Hanno circondato le nanoparticelle con un opportuno materiale liquido, una sostanza colorante in un solvente organico che funge da ulteriore amplificatore di luce (mezzo di guadagno). Nel lavoro precedente, Odom e colleghi avevano realizzato un nanolaser regolabile con un materiale di guadagno liquido, ma per cambiare il colore del nanolaser dovevano sostituire il colorante nel mezzo liquido.

In questo nuovo dispositivo, la variazione di lunghezza d’onda viene ottenuta attraverso l’estensione del supporto elastico. Quando attivato con una fonte di luce esterna, il nanolaser emette una luce nel vicino infrarosso a circa 870 nm. La lunghezza d’onda aumenta o si sposta ulteriormente verso l’infrarosso, quando il dispositivo viene allungato e torna alla lunghezza d’onda originale quando viene rilasciato.

Il nanolaser elastico è costituito da una serie di nanoparticelle di oro su polidimetilsilossano (PDMS) rivestito con un colorante liquido che amplifica la luce. La lunghezza d’onda della luce laser si sposta più in profondità nell’infrarosso quando il dispositivo viene allungato e torna al colore originale quando viene rilasciato.

Un mezzo di guadagno liquido è perfetto per un dispositivo estensibile. Quando allunghi il substrato, il liquido lo segue perfettamente, quindi ci sono sempre molecole per amplificare la luce e ottenere l’effetto laser, afferma Odom.

L’altra novità del dispositivo è che imbriglia i plasmoni – oscillazioni collettive di elettroni – che agiscono sulla superficie delle nanoparticelle d’oro. Le nanoparticelle plasmoniche agiscono come piccole antenne che concentrano la luce in arrivo in campi elettromagnetici attorno alla loro superficie, dice Odom.

Quindi le superfici diventano punti di riferimento nanoscopici per il laser, e un minimo cambiamento nella spaziatura tra le nanoparticelle causa uno spostamento cromatico misurabile, rendendo il dispositivo molto sensibile. Provoca la stessa variazione di lunghezza d’onda con solo un decimo dello stretching richiesto in precedenti progetti di simili laser.

Inoltre, aggiustando sia il tipo di colorante che la spaziatura delle nanoparticelle potrebbe dare una vasta gamma di colori di luce laser emessi.

I ricercatori ora progettano di realizzare un dispositivo con una matrice mista di nanoparticelle di oro e diversi materiali plasmonici. Le nanoparticelle di argento e alluminio, ad esempio, emettono luce nelle lunghezze d’onda dell’ultravioletto e del visibile. Fianco a fianco sullo stesso substrato, si può immaginare di ottenere colori laser [visibili] diversi, sostiene Odom.

Ren-Mi Ma

Ren-Min Ma, un fisico dell’Università di Pechino, afferma: La combinazione di materiale liquido di guadagno mutevole e la risonanza plasmonica dà un laser robusto, ad alte prestazioni e compatto con una grande sensibilità. È un passo significativo verso l’implementazione di nanolaser funzionali.

*Tradotto e adattato da: P. Patel, Nanolaser changes color when stretched, special to C&EN, July 2, 2018.

Smaltimento dei fanghi di depurazione. Qualche considerazione conclusiva.

In evidenza

Mauro Icardi

(il precedente articolo di questa serie è qui)

Ritorno sulla vicenda dello smaltimento agricolo dei fanghi di depurazione. Nella letteratura specialistica del settore depurativo, questa tecnica è molto spesso vista come un buon compromesso tra la necessità di trovare una destinazione finale per i fanghi prodotti dai depuratori, e la necessità di compensare la perdita di sostanza organica e fertilità nei terreni agricoli, spesso troppo sfruttati.

La sostanza organica dei fanghi di depurazione contiene una percentuale di sostanza organica molto simile a quella del terreno. Normalmente i fanghi hanno una percentuale di circa il 40% in glucidi. Questa frazione è quella immediatamente disponibile per i microrganismi del terreno, rappresentando la fonte energetica ed alimentare per essi. E’ piuttosto elevato anche il contenuto di sostanze a struttura ligninica, che possono favorire la formazione di humus. Queste sono condizioni che di solito caratterizzano ( o per meglio dire caratterizzavano) i fanghi provenienti da impianti di depurazione con una preponderante componente di acque residue urbane, rispetto a quelle industriali. Col passare degli anni però, la distinzione netta tra uno scarico definito “civile” rispetto ad uno industriale è risultata meno evidente e più sfumata. Questo per una serie di ragioni legate alla diffusione di inquinanti emergenti, che provengono non solo dagli insediamenti industriali, ma anche dalle mutate condizioni dei costumi della popolazione. Il contenuto elevato di metaboliti di farmaci e droghe d’abuso riscontrato nei depuratori consortili ne è un esempio piuttosto evidente.

E giova ricordare che questa situazione è responsabile non solo dell’accumularsi di tali metaboliti nei fanghi di depurazione, ma anche dell’instaurarsi di fenomeni di antibiotico resistenza che sono stati recentemente studiati.

In Italia l’ente nazionale risi ha pubblicato uno studio relativo all’utilizzo dei fanghi di depurazione in    agricoltura che mostrava risultati piuttosto incoraggianti, relativi al periodo 2006-2012.

http://www.enterisi.it/upload/enterisi/pubblicazioni/Miniottietal.4feb2015comp_16405_122.pdf

In effetti un fango di buona qualità può svolgere una serie di azioni positive: fornire dopo la sua mineralizzazione elementi di fertilità, mobilizzare elementi nutritivi già presenti nel terreno, offrire microambienti favorevoli per lo sviluppo dei semi e delle radici.

La vicenda del sequestro di impianti di trattamento dei fanghi di depurazione per uso agricolo ha però modificato profondamente l’accettazione sociale di queste pratiche da parte della pubblica opinione.

Questo per un serie di motivi, alcuni comprensibili, altri meno. Per esempio molti servizi su questa vicenda, sia televisivi che giornalistici avevano un tono sensazionalistico che non giova ad una corretta comprensione del problema. Non ho la pretesa che un giornalista conosca perfettamente la materia, ma che utilizzi quantomeno un atteggiamento più equilibrato.

La normativa nazionale e quelle regionali forniscono precise indicazioni di comportamento per l’utilizzo di queste biomasse di risulta. Per esempio disciplinano la caratterizzazione analitica preventiva. I fanghi destinati all’impiego in agricoltura devono essere caratterizzati preventivamente in modo dettagliato. Tale obbligo spetta al produttore del fango e deve svolgersi per un periodo di almeno sei mesi, con frequenza di campionamento e numero di campioni variabile in ragione della potenzialità dell’impianto espressa in abitanti equivalenti (AE).

Viene definito il grado di stabilizzazione dei fanghi per consentirne l’utilizzo agronomico. Gli indicatori previsti sono: la percentuale di riduzione dei solidi sospesi volatili (SSV),che deve essere compresa nell’intervallo 35-45% o l’età del fango, che deve essere superiore a 30 giorni.

Tutto questo però non basterà probabilmente a rendere questa pratica accettabile, per diverse ragioni, non ultima una sindrome nimby ormai piuttosto diffusa. L’effetto di questa sentenza del Tar della Lombardia è un’incognita attualmente per questo tipo di destinazione d’uso.

Credo che per uscire da questo impiccio sia necessario uno sforzo piuttosto importante e coordinato, a vari livelli. Lo sforzo di razionalizzazione e ammodernamento della gestione del ciclo idrico, il potenziamento degli istituti di ricerca nello stesso settore, e lo sblocco di finanziamenti per mettere in opera l’ammodernamento degli impianti più obsoleti.

Compatibilmente con l’equilibrio economico-finanziario occorre potenziare la dotazione strumentale dei laboratori dei gestori del ciclo idrico. Oltre a questo concentrare ulteriormente l’attenzione sulla gestione del trattamento dei fanghi, già a livello della fase depurativa. Ed essere molto attenti e rigorosi nella gestione di questa sezione. Questa è una mia propensione personale, dedico molto tempo e molto impegno a questo. E’ il punto critico, ma allo stesso tempo quello che più può dare soddisfazioni a livello personale e professionale. Oltre ad essere quello più importante e complesso, ma ricco di sfide tecniche e analitiche da affrontare. Solo in questo modo i depuratori diventeranno le cosiddette “bioraffinerie”.

Gli obiettivi che l’istituto superiore di ricerca sulle acque elenca per il settore trattamento rifiuti e residui di depurazione, devono diventare anche quelli dei gestori:

  • Incrementare il trattamento anaerobico di biomasse, reflui e fanghi tramite la messa a punto e lo sviluppo di tecnologie innovative per massimizzare il recupero di biometano e/o bioidrogeno e di nutrienti
  • Valorizzare sia la componente lipidica (dove significativamente presente) che la componente ligno-cellulosica di biomasse e rifiuti tramite l’ottimizzazione di trattamenti chimici per la produzione di prodotti ad elevato valore aggiunto, con potenziale applicativo in molti settori
  • Sviluppare modelli di simulazione per la valutazione dei potenziali recuperi in termini di energia e/o risorse dal trattamento di fanghi, reflui e rifiuti
  • Minimizzare il rischio per la salute umana in processi di riuso delle acque reflue trattate attraverso un’attenta valutazione del destino dell’antibiotico resistenza e della carica patogena.

Oltre a questo è necessaria la solita opera di informazione capillare. Nel settore idrico è più complesso coinvolgere l’utente in un impegno simile a quello della raccolta differenziata dei rifiuti, magari invitandolo non solo a risparmiare l’acqua, ma anche a contaminarla di meno, ad utilizzare detergenti e materiali di pulizia con oculatezza. Perché si possono produrre rifiuti tossici anche in ambito domestico, anche se probabilmente molti non lo sanno. Le informazioni elementari sul trattamento delle acque, ma in generale l’educazione ambientale deve essere insegnata già ai ragazzi degli ultimi anni delle scuole elementari.

In futuro serviranno cittadini consapevoli, non cittadini impauriti, o ostinati e con poca conoscenza dell’impatto sull’ambiente delle loro scelte personali. Anche di quello che poi si concentra nei fanghi che nessuno vuole, e di cui nemmeno vuol sentir parlare. La politica dovrebbe avere tutti questi temi come prioritari nella propria azione.

Nel 1976, con la promulgazione della legge 319/76, la legge Merli, si aprì un importante capitolo della storia della legislazione ambientale italiana. Oggi serve una nuova normativa per la gestione dei fanghi, possibilmente condivisa tra addetti, ricercatori e fruitori del servizio idrico, se si vuole ipotizzare di continuare ad utilizzare fanghi destinandoli ad uso agronomico in futuro. E allo stesso modo occorrono controlli molto rigorosi sul loro utilizzo. Perché l’ambiente, la chiusura del ciclo delle acque non sia sempre risolta a colpi di sentenze. Non è questa la via da praticare, e che porta risultati concreti. Come si può vedere i controlli si effettuano, gli operatori disonesti vengono perseguiti. Ma poi occorre lavorare seriamente per trovare le soluzioni ai diversi problemi emergenti nel settore depurativo.

Una gestione corretta e rigorosa, una normativa chiara e non controversa, investimenti mirati ed oculati. Tutto questo non può che avere riscontri positivi, sia ambientali, che occupazionali, in un futuro che però dovrebbe essere prossimo, e non lontano nel tempo.

Per dare un’idea di cosa sta accadendo dopo la sentenza lombarda pubblico una breve rassegna stampa.

https://www.toscanamedianews.it/firenze-guerra-dei-fanghi-quattro-discariche-tar-lombardia-ordinanza.htm

http://www.arezzonotizie.it/attualita/smaltimento-fanghi-da-depurazione-civile-1-800-tonnellate-in-arrivo-a-podere-rota/

E’ non fa male ricordare sempre che ““Nulla si distrugge, tutto si trasforma!Antoine-Laurent de Lavoisier

Aggiornamento: come era ampiamente prevedibile, pena il blocco o la messa in grave difficoltà del sistema depurativo, la conferenza Stato Regioni riunita in seduta straordinaria ha trovato l’accordo su un limite di 1000 mg/Kg per il parametro idrocarburi totali, contro il precedente di 10.000 mg/Kg che la delibera della giunta regionale lombarda del Settembre 2017 aveva invece previsto.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/intesa-sui-fanghi-e-adesso-il-decreto-limiti-piu-severi-sugli-idrocarburi-1.17117716

Tutto questo tira e molla nasce come sempre da vuoti normativi, difficoltà di interpretazioni legislative, spesso incoerenti o complicate. Non so se questa soluzione soddisferà i comuni pavesi che erano ricorsi al Tar e l’opinione pubblica. Temo che questo sia solo un’altra puntata di una presumibile lunga telenovela.

Nel frattempo la regione Lombardia prepara il ricorso al Consiglio di Stato contro la sentenza per rivendicare la legittimità a deliberare in campo ambientale.

Aspettando che il decreto legislativo diventi operativo la situazione è ovviamente ancora critica.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/miasmi-depuratori-al-limite-resisteremo-venti-giorni-1.17117722

Non dovrebbe essere più il tempo dei litigi. Il ciclo idrico deve essere profondamente riformato, e bisogna passare a fatti concreti. Acque reflue e fanghi non possono essere visti come un problema emergenziale, ma necessitano, lo ripeto di investimenti, di opere di ammodernamento. L’Arera (autorità di regolazione per energia, reti e ambiente) ha varato il ‘metodo tariffario’, che consente di calcolare gli effetti economici delle scelte industriali. La multa dell’UE all’Italia, da 25 milioni di euro forfettari, più di 164 mila euro al giorno per ogni semestre di ritardo fino all’adeguamento – riguarda la mancata messa a norma di reti fognarie e sistemi di trattamento delle acque reflue in alcune aree del nostro Paese.

L’adeguamento deve essere una priorità. Senza ulteriori incertezze e tentennamenti. Si è perso già troppo tempo.

Le Olimpiadi della Chimica, qualche commento.

In evidenza

Claudio Della Volpe

In questi giorni si sono concluse le 50esime olimpiadi della Chimica, nella stessa città che ne vide i natali 50 anni fa, Praga, associata con Bratislava; 50 anni fa la Cecoslovacchia era un solo paese, mentre oggi è divisa nei due paesi Repubblica Ceca (capitale Praga) e Slovacchia (capitale Bratislava).

Non ho ancora i risultati finali se non la (consentitemi un commento: un po’ enfatica) comunicazione interna della SCI di pochi giorni fa:

Cari Soci il capo delegazione alle Olimpiadi Internazionali della Chimica, il Past-President Raffaele Riccio mi ha appena comunicato i risultati della nostra squadra e sono lusinghieri in quanto TUTTI i nostri studenti hanno vinto una medaglia!

Daniele Furlanetto  (Veneto), Giovanni Pellegrino (Puglia) e Luca Spagnoletti (Liguria) si sono aggiudicati la Medaglia di Bronzo, mentre Filippo Bigi (Emilia Romagna) ha ripetuto l’impresa dello scorso anno vincendo per la seconda volta la Medaglia d’Argento!

Devo dire che le Olimpiadi della Chimica non mi hanno mai molto entusiasmato per motivi che vi dirò in questo post. Ma prima vorrei con voi riepilogare le regole e i risultati di questa iniziativa che si svolge ormai da così tanto tempo e per la quale converrebbe forse fare una riflessione più approfondita.

Si tratta di una competizione internazionale, proposta inizialmente da 3 paesi al di là della cosiddetta Cortina di Ferro, e che si è estesa nel tempo e alla quale partecipano studenti di molti paesi del mondo, ma mai più della metà dei paesi (i paesi della Terra sono 196 e i partecipanti sono stati al massimo una novantina); ci sono delle selezioni preliminari in tutti i paesi partecipanti che coincidono di fatto con i Giochi della Chimica e le squadre prescelte partecipano poi ad una serie di prove teoriche e pratiche nel paese prescelto; i punteggi sono individuali e sono ripartiti fra risultati nelle prove pratiche e teoriche con un massimo di 100.

I premi vengono assegnati con i seguenti criteri:

http://www.ichosc.org/documents-of-the-icho/regulations

(1)        The best 10% to 12% of all competitors receive gold, the next 20% to 22% silver, and the following 30% to 32% bronze medals.

(2)        An honorable mention is received by non-medalists who are in the best 70 to 71% of all competitors.

(3)        The exact number of recipients for each award is determined automatically to yield the largest possible difference in the marks of students receiving different honors. In the case of identical differences, the one resulting in more medals will be selected.

(4)        Each medalist must receive the medal and a corresponding certificate from the organizer.

(5)        In addition to the medals other prizes may be awarded.

(6)        Each competitor receives a certificate of participation.

(7)        In the awarding ceremony, the non-medalists are called alphabetically.

(8)        Team classification is not made.

(9)        The organizer must provide a complete list of results as a part of the final report.

Di fatto dunque circa il 66% dei partecipanti riceve COMUNQUE una medaglia, 2 su 3, comunque vadano le cose vengono premiati; su 100 partecipanti di una ipotetica competizione 66 verrebbero premiati; i primi 10-12 riceverebbero una medaglia d’oro, dal 13esimo fino al 32esimo classificato una d’argento e da lì al 66esimo una di bronzo.

Sono regole discutibili ma queste sono. Non so quali altre tipologie di gare abbiano regole che assicurano una medaglia ai 2/3 dei partecipanti, ma ripeto così è. I partecipanti vinceranno statisticamente nel 66% dei casi una medaglia.

Quali sono stati i risultati nel tempo?

Non è banale recuperarli completamente perchè le graduatorie complete con i punteggi divisi fra teoria e pratica sono solo sui siti dei paesi che le hanno indette mentre sul sito internazionale si trovano dei riassunti parziali; capita quindi, per esempio, che i risultati dettagliati dello scorso anno in Thailandia non siano al momento disponibili.

Tuttavia possiamo usare i riassunti di ICHO che è la organizzazione internazionale interessata.

Alcuni risultati complessivi degli ultimi 49 anni li trovate elencati qui:

Italia  Gold medal: 7. Silver medal: 30. Bronze medal: 57. Honorable mention: 12

Germania (riporto separatamente le due germanie di cui una quella democratica non esiste più dal 1989)

Gold medal: 43. Silver medal: 67. Bronze medal: 49. Honorable mention: 9

Gold medal: 9. Silver medal: 12. Bronze medal: 20. Honorable mention: 7

 

Francia  Gold medal: 6. Silver medal: 42. Bronze medal: 68. Honorable mention: 5

 USA Gold medal: 36. Silver medal: 63. Bronze medal: 33. Honorable mention: 1

Paesi bassi  Gold medal: 7. Silver medal: 18. Bronze medal: 78. Honorable mention: 9

Austria   Gold medal: 23. Silver medal: 58. Bronze medal: 59. Honorable mention: 4

UK   Gold medal: 9. Silver medal: 56. Bronze medal: 65. Honorable mention: 1

 Cina   Gold medal: 89. Silver medal: 27. Bronze medal: 4. Honorable mention: 0

 Come vedete i nostri risultati non sono eccezionali anche se occorre dire che partecipiamo dal 1980, dunque ci siamo persi 12 anni di gare. Quattro partecipanti italiani alla volta per un totale di 136 partecipanti hanno meritato in totale 94 medaglie (alcuni anni non abbiamo partecipato), il che ci dice che le nostre performances totali sono 94/136=0.69, poco al di sopra della casualità (0.66 in media se siamo bravi nella media) , come risultati totali.

Ancor più facciamo un esempio dettagliato: anche nel 2016 tutti e quattro gli studenti si sono piazzati, ma l’ordine di arrivo è stato: 63esimo e 70esimo (med. Argento), 151esimo bronzo, e 178esimo, menzione.

Volete un confronto impietoso?

La Germania “Federale” ha mandato in totale 160 studenti e ha avuto 159 medaglie, praticamente tutti gli studenti hanno vinto una medaglia.

La Cina partecipa dal 1987, ha mandato 128 studenti che in 120 casi hanno vinto una medaglia, ossia nel 94% dei casi.

La Cina ha vinto solo una volta il Nobel in Chimica come noi, ma le sue vittorie alle Olimpiadi fanno ben sperare per il futuro.

I risultati dettagliati non  sono esaltanti né rispetto a paesi di dimensioni comparabili come Inghilterra o Francia, ma nemmeno a paesi più grandi e con enorme interesse industriale nella Chimica come Germania, Usa e Cina, ma non lo sono nemmeno rispetto a paesi nostri immediati vicini come l’Austria che sono ben più piccoli di noi come popolazione (ma che vantano però 6 Premi Nobel in Chimica rispetto alla nostra singola vittoria). L’Austria ha mandato 156 studenti e ha vinto 140 medaglie, 9 studenti su 10 hanno vinto.

Diciamo che i risultati di quest’anno con tutti gli studenti italiani che hanno vinto una medaglia sono quello che altri paesi fanno dal primo momento. Bene, molto bene, ma era anche ora.

Anche perchè la nostra ultima medaglia d’oro risale al 1999, quindi ad ormai 19 anni fa.

Attenzione il grafico sotto è indicativo; i singoli punti sono esatti, mentre le zone individuate lo sono “a senso”, i confini fra le zone medaglie sono imprecisi.

Il grafico mostra quel che dicevo prima: incremento del numero di partecipanti mondiali con espansione delle posizioni possibili nel tempo,  medaglie d’oro italiane azzerate da 20 anni, argenti e bronzi si sono consolidati ma con notevoli alternanze e le nostre posizioni attuali tipiche in graduatoria sono fra la 50esima e la 200esima posizione assoluta. Per arrivare sotto la 50esima dobbiamo tornare indietro di quasi 10 anni. Mentre per vincere un oro occorre arrivare sotto la 30esima. Questi i nudi numeri.

Ora dopo 50 anni è da chiedersi: queste gare che senso hanno, a che servono, che indicazioni danno?

Anzitutto sono importanti perchè in qualche modo mostrano l’interesse crescente nei confronti della Chimica, quindi ben vengano; anche la partecipazione dei giovani in quanto tale è importante, sono l’avanguardia di una massa di altri studenti che rappresentano la Chimica nei loro paesi. Tuttavia diciamo anche che mancano molti paesi; tutti i paesi poveri non ci sono ancora; paesi dell’Africa o dell’America Latina sono assenti e non c’è stato interesse finora  a superare questo gap.

Inoltre c’è la questione di come si fanno le gare, di come ci si prepara alle gare; alcuni amici che insegnano dicono che di fatto c’è una situazione di “drogaggio” degli studenti; chi partecipa viene seguito da noi e ancor più in altri paesi moltissimo sulla Chimica a cui dedica tantissime energie, ma trascurando le altre cose, dunque è una preparazione non standard, ma finalizzata alla partecipazione alle olimpiadi; fra l’altro questo cambia anche i contenuti che divengono anno per anno più specialistici, secondo alcuni perfino nozionistici, a volte da ricerca vera e propria. Che significa questo? Chi ne trae vantaggio? Quegli studenti? Gli altri? La scuola tutta?

Non credo; diventa come in altri campi una competizione fine a se stessa, che non misura lo stato della situazione media dei giovani e nemmeno dei più bravi fra di loro, ma è solo una  misura delle risorse umane ed economiche spese nella competizione, invece che nella didattica e nella divulgazione della Chimica. Ma allora se le cose stessero così veramente ci sarebbe da cambiare l’organizzazione delle Olimpiadi della Chimica. (E anche di altre materie credo). Non abbiamo bisogno di fare altre graduatorie per farci belli dei risultati (basati peraltro su uno scalino economico) ma di portare avanti quanti più giovani possiamo e rendere la chimica veramente di tutti, per tutti, in tutti i paesi del mondo. Se no ripeto a che servono le Olimpiadi della Chimica?

E’ un augurio che faccio e lo faccio ringraziando chi si impegna e anche i giovani che hanno ottenuto i risultati, ma sottolineando che occorre cambiare impostazione.

L’anno prossimo sarà l’anno internazionale della tavola periodica; quale migliore occasione di fare diversamente le olimpiadi della Chimica?

Siti.

http://www.icho-official.org/results/organizers.php

Ciclo dell’acqua: il problema dello smaltimento del fango residuo.

In evidenza

Mauro Icardi

Lo scorso 27 Aprile ho scritto un post riguardante la controversa e discussa situazione del recupero agricolo dei fanghi di depurazione.

https://ilblogdellasci.wordpress.com/2018/04/27/nulla-si-distrugge-tutto-si-trasforma/

Ho tentato di dare le informazioni essenziali relativamente ad un problema appunto delicato. Lo scorso 20 Luglio la terza sezione del Tar della Lombardia, ha accolto il ricorso di una cinquantina di comuni del pavese e del lodigiano contro la delibera regionale n. 7076 dell’11 settembre 2017 con cui la Regione Lombardia aveva modificato i parametri relativi all’utilizzo dei fanghi da depurazione delle acque reflue degli impianti civili ed industriali in agricoltura. Le sentenze ovviamente si rispettano, così come le legittime istanze dei proponenti. Ma in questo momento viste le limitazioni di parametro per i parametri relativi agli idrocarburi C10-C40, che era stato fissato in 10.000 mg/kg ss, e di 50 mg/kg per i parametri Nonilfenolo e Nonilfenolo mono e dietossilato esse rendono di fatto impraticabile questa destinazione per i fanghi prodotti dai depuratori.

Questi limiti non sono sempre superati, ma anche a livello analitico, data la matrice particolarmente difficile i valori che si ottengono, sia da laboratori interni, che da laboratori esterni sono decisamente “ballerini”.

Ma qualche considerazione deve ovviamente essere fatta. Per il momento solo alcune considerazioni sugli effetti immediati di questa decisione, dal punto di vista gestionale ed operativo. Successivamente dopo una lettura ulteriore della sentenza del tar, potrò ulteriormente approfondire altri aspetti di questa vicenda ,che come è intuitivo non è possibile trattare in un solo articolo, data la complessità.

Per altro, la sensazione che si sarebbe arrivati ad un ulteriore stop l’avevo da tempo. E così effettivamente è stato.

In ogni caso le prime reazioni non si sono fatte attendere, basta fare una breve rassegna stampa.

http://iltirreno.gelocal.it/grosseto/cronaca/2018/07/25/news/fanghi-stop-all-invio-in-lombardia-costi-di-smaltimento-verso-l-impennata-1.17093767

Per quanto riguarda la situazione che vivo personalmente posso tranquillamente dire che, oltre all’aspetto prettamente economico, anche dove lavoro siamo al momento in piena emergenza.

La priorità sarà quella di trovare nuovi poli di smaltimento con probabile aumento dei costi, e nello stesso tempo la necessità di garantire un funzionamento accettabile degli impianti da gestire, cercando di rispettare i valori di parametro richiesti. Non è una situazione nuova. Si è già presentata altre volte. Vedremo come affrontarla.

Probabilmente dato anche il periodo di prevedibile diminuzione di carico e di portata influente, riusciremo a non peggiorare la qualità delle acque in uscita. Non così potrebbe essere per impianti soggetti a fluttuazioni di portata e di carico, come quelli toscani, dove la popolazione aumenta durante il periodo estivo per l’arrivo dei turisti.

Nei prossimi giorni dovrò lavorare su impianti in cui giorno dopo giorno la concentrazione di fanghi probabilmente crescerà, fino a raggiungere valori non usuali. Dove lavorare sarà difficoltoso.

Si lavora agevolmente con concentrazioni di fango di due, tre, quattro grammi litro. Si può arrivare anche a quaranta (ed è capitato, lo posso garantire). Ma a quel punto sulle vasche devi usare non la mascherina, ma la maschera antigas, altrimenti (ed è capitato anche questo in passato ad un collega), su quelle vasche, con il caldo ci puoi svenire. E a quel punto tutti i parametri di controllo (ossigeno disciolto, carico del fango, età del fango) non hanno di fatto più nessun significato reale. E gli effetti di eventuali eventi di forte pioggia saranno decisamente peggiorativi della qualità delle acque. Solo impianti con la possibilità di utilizzo di vasche di accumulo risentiranno meno di questa situazione.

Probabilmente non si arriverà a questi estremi. E’ la mia speranza. I fanghi prodotti dai depuratori non sono un invenzione. Le stime IRSA CNR prevedono per il 2020 che la quantità prodotta si dovrebbe attestare su valori di un milione e cinquecentomila tonnellate/anno di sostanza secca. Questo è quanto si produce dal trattamento delle acque che usiamo. I poli di smaltimento dei fanghi al momento sono quelli usuali: discarica, incenerimento con recupero energetico, incenerimento in cementifici, recupero in agricoltura. A condizione però che su quest’ultima attività si lavori molto seriamente sia per l’emanazione di una nuova normativa, sia che siano studiati in maniera particolarmente approfondita gli effetti reali di questa pratica.

Allo stato attuale praticamente tutti depuratori hanno ancora una sezione di ossidazione biologica. L’eventuale revamping di tutti i depuratori tradizionali non è sensatamente praticabile, ed è un incognita per quanto riguarda i costi. Quindi per il momento i fanghi devono trovare una collocazione, pena il blocco del sistema depurativo.

L’acqua pubblica, l’acqua diritto universale ha bisogno di scelte reali. Condivise, controllate, trasparenti, ma reali. Non servono né tentennamenti, né demagogie. Serve condivisione, con gli utenti per primi. Servono sinergie tra enti di ricerca, università, aziende. Normative chiare e fruibili. Tutto quello che succede nei soliti paesi virtuosi (Olanda, Francia, Svezia). Quindi non è utopia.

Ma nel frattempo la realtà è questa.

http://www.greenreport.it/news/economia-ecologica/acqua-allitalia-185-milioni-euro-multe-un-anno-la-mancata-depurazione/

Non è cosi ovviamente in tutte le realtà. Ma la situazione di chiaroscuro esiste.

Così come non da anni, ma da decenni sentiamo dire che per l’acqua potabile continuano le dispersioni.

http://www.cnrweb.tv/dispersa-nel-suolo-il-40-dellacqua-della-rete/

Negli anni 80 la rivista “Airone” proponeva un new deal ambientale. Ne ho la memoria precisa.

Credo che sarebbe il caso di prenderla in considerazione.

Prima della chiusura devo riparare ad una omissione (ovviamente non voluta) che è relativa all’articolo precedente a questo. Nella parte iniziale parlavo della scomparsa del tema acqua dalle prime pagine dei giornali. Ma in effetti ho dimenticato di citare il continuo lavoro di divulgazione che da anni porta avanti Luca Mercalli. Del suo programma “Scala Mercalli” sciaguratamente chiuso dove un’intera puntata della seconda serie era dedicata all’acqua, alle pillole che vengono trasmesse su Rainews 24, ed agli articoli che scrive sul terzo quotidiano nazionale “La Stampa.” Piccolo ricordo personale, senza intenzione di ruffianeria o piaggeria. Un pranzo insieme a Cremona, dopo una sua conferenza, nel quale abbiamo parlato insieme della necessità futura di parlare dell’acqua, come in effetti poi è stato. Questo è il mio personale ringraziamento.

Prima di chiudere devo anche fare un’altra citazione. E la citazione riguarda il collega di redazione Giorgio Nebbia, che so essere decisamente persona riservata. Ma avevo già citato questa sua frase in uno dei miei primi articoli. Giorgio mi scuserà se la ripropongo.

mi rendo conto che può sembrare non gratificante dedicarsi all’analisi e allo studio dei liquami zootecnici o dei reflui degli impianti di depurazione urbana, anche se si tratta, solo in Italia, di alcuni miliardi di metri cubi all’anno, da cui potrebbero essere ricavate altre soluzioni forse non potabili, ma utilizzabili in agricoltura (e, con un po’ di furbizia, anche come fonti di metano). La chimica modesta è spesso molto utile per il, paese.

Da domani al lavoro inizieremo la ricerca di nuovi poli di smaltimento. Io ho già preso contatto con due amici di lunga data con cui collaboro, e che lavorano nel settore. Se otterrò la necessaria autorizzazione in tempi sufficientemente rapidi utilizzeremo un impianto pilota per prove di trattamento terziario sia su acqua che su fanghi di depurazione. Lo scopo è quello di verificare la possibilità concreta di abbattimento di POP (persistent organic pollutant),che era lo scopo primario, e di verificare a questo punto anche la possibilità della riduzione delle quantità di fango di supero da avviare in fase di digestione anaerobica. La tecnica utilizzata prevede l’ossigenazione spinta del refluo tramite effetto idraulico venturi, combinata con l’iniezione di un ossidante, che può essere aria, ossigeno puro, oppure ozono.

Da queste eventuali prime valutazioni si potrebbe (per meglio dire dovrebbe) verificare l’applicabilità diretta sull’impianto. Il futuro del trattamento delle acque è indubitabilmente legato all’estensione dei trattamenti terziari. I quali però devono avere due caratteristiche: la sostenibilità economico/energetica, e le dimensioni contenute per la riduzione dei costi di ampliamento dei depuratori esistenti.

Nel frattempo è auspicabile che la querelle legata allo smaltimento dei fanghi di depurazione, che attiene con tutta evidenza al settore rifiuti trovi adeguata attenzione. Sia dal punto di vista normativo che da quello di ricerca scientifica. Il tutto associato ad un’attività capillare di controllo sulle attività di recupero e smaltimento dei fanghi.

Altrimenti non esisteranno alternative praticabili. E i rifiuti resteranno tristemente uno dei business della criminalità organizzata, o di operatori senza scrupoli. E questa è una situazione che non dobbiamo più ritenere normale o accettabile.

Acqua su Marte.

In evidenza

Luigi Campanella, già Presidente SCI

L’acqua è di certo il composto più studiato.

Non c’è branca della Scienza che non abbia fatto i conti con questa piccola molecola,importante per la vita,essenziale per l’alimentazione,fortemente correlata con storia,archeologia,clima. Dal punto di vista strettamente chimico si caratterizza per la presenza contemporanea di diversi tipi di legame fra l’idrogeno e l’ossigeno, ma è soprattutto il suo ruolo nei processi alla base della vita che da un lato affascina e dall’altro ne esalta il valore economico a danno dei più deboli meno ricchi di risorse. La presenza dell’acqua per quanto detto è da sempre stata correlata alla possibilità di vita nei sistemi che la contengono. La recente conclusione di una ricerca in atto da tempo circa la presenza di questo composto su Marte ha rappresentato una definitiva conferma di quanto in altre occasioni e sedi è stato ripetutamente ipotizzato.

In questo ultimo caso la ricerca si deve a Giovanni Picardi scomparso 3 anni fa ed alla collaborazione fra CNR, INAF, ASI e Università. Rispetto a precedenti contributi questo contiene una importante novità: il bacino idrico (assimilabile ad un lago terrestre) su Marte si trova ad una profondità di 1500 metri (sotto i ghiacci di CO2 del polo Sud) quindi al riparo dalle radiazioni e, soprattutto, in ambiente compatibile con la vita dei batteri che potrebbero funzionare da preziosi testimoni di una vita che al suolo si è estinta.

La scoperta è stata resa possibile utilizzando l’eco delle onde lanciate dal radar MARSIS che equipaggia la sonda europea MARS Express decollata da Bajkonur ben 15 anni fa, in volo orbitale fino a 250 km di altezza dalla terra di Marte. Marsis è dotato di due antenne che grazie allo spettro di frequenze disponibili sono in grado di raccogliere segnali che provengono da una profondità massima di 5 km. Le temperature dovrebbero fare ipotizzare che l’acqua fosse allo stato solido,contrariamente ai dati della ricerca che invece la definiscono allo stato liquido, quindi caratterizzata da un abbassamento crioscopico dovuto alla presenza nell’acqua di sali (forse clorato di potassio).

Parlando di acqua su Marte non si può omettere un ricordo di Giovanni Schiaparelli che credette di individuare canali scavati un tempo dall’acqua su Marte e della missione Exomars che permise di trapanare il suolo di Marte fino alla profondità di 2 m anche in quell’occasione con lo scopo primario di evidenziare la presenza di acqua e,correlata ad essa,di vita sul pianeta Marte. Queste accresciute conoscenze sono la base per programmare ulteriori spedizioni spaziali,ma anche per collegare il presente di Marte con il futuro della nostra Terra,se non sapremo rispettare le sue risorse.

Polo Sud di Marte nel 2000; è costituito di strati di CO2

Amminoacidi ferroviari.

In evidenza

Ilaria D’Acquarica*

Qualche giorno fa mi trovavo sul treno “Italo” diretto a Verona Porta Nuova e, per la prima volta, ho cominciato a sfogliare, per la verità un po’ annoiata, la rivista distribuita gratuitamente ai viaggiatori, che la Società fa trovare già alla partenza del treno nella tasca della poltrona del passeggero davanti. Mi imbatto per caso nel messaggio promozionale di un integratore alimentare, dove campeggia la frase “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”.
L’espressione “sintesi aminoacidoica” mi comincia a girare per la testa e non riesco a smettere di pensarci. Leggo tutto l’articolo, dal quale apprendo che si tratta di compresse contenenti otto amminoacidi essenziali, indicate nei casi di ridotto apporto o di aumento del loro fabbisogno. Nulla da eccepire, ovviamente, sulla composizione chimica e sull’effetto che le compresse esplicano, specialmente se confrontati con altre formule amminoacidiche già in commercio. Quello che proprio non riesco a digerire è quell’aggettivo (aminoacidoica) che non ho davvero mai sentito o letto in nessun libro. E comunque, affermare che gli amminoacidi essenziali facilitano la sintesi amminoacidica mi lascia un po’ perplessa, semmai possono avere effetti sulla sintesi proteica.
Allora decido di contattare immediatamente la ditta produttrice dell’integratore, dal treno su cui mi trovo; se aspettassi di arrivare a destinazione, di sicuro mi dimenticherei di tutta questa storia. Con lo smartphone scrivo una e-mail a una casella di posta elettronica riportata sul sito web della ditta, segnalando che, molto probabilmente, quel termine “aminoacidoica” non è corretto e che, forse, intendevano “amminoacidica” (tra l’altro, con due emme, come dovrebbe essere sempre riportato in italiano, anche se in inglese il termine corrispondente è “amino”).
Appena premo “invia” sulla tastiera dello smartphone mi pento di quello che ho fatto. Forse sono stata troppo precipitosa, sarebbe stato meglio lasciare perdere, tanto ormai la rivista è stata stampata e distribuita su tutti i treni di Italo. E poi, mi potrei sbagliare.
Il tempo di arrivare da Roma a Verona e ricevo una e-mail di risposta dalla ditta produttrice dell’integratore con le testuali parole: “Buongiorno. Lei ha perfettamente ragione. La ringraziamo immensamente per la segnalazione e speriamo che non ci succeda più”.
Sono rimasta senza parole. Avrei preferito che mi rispondessero che il termine, seppure obsoleto, è comunque corretto o che c’è stato un refuso editoriale di cui si scusavano. La constatazione “ha perfettamente ragione” non me l’aspettavo. Perché, se è così, mi chiedo come sia possibile che nessun chimico, di tutto lo staff, non se ne sia accorto prima della pubblicazione. E, soprattutto, mi chiedo il motivo della leggerezza che sempre più spesso mi capita di constatare nella presentazione e promozione di integratori alimentari o similari.
Se adesso ci si collega al sito web della ditta produttrice si legge che le stesse compresse, che prima garantivano una “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”, adesso esplicano il seguente effetto: “ASSORBIMENTO E SINTESI NETTA PROTEICA AL 99%”. Che sia partito tutto dal mio ignaro smartphone?

* Ilaria D’Acquarica, prof. Associato di Chimica organica Dipartimento di Chimica e Tecnologie del Farmaco , Università di Roma “La Sapienza” – Si occupa di fasi e sostanze chirali e riconoscimento enantioselettivo in fase gassosa.

Naso e lingua sono stereoselettivi.

In evidenza

Claudio Della Volpe.

Non è una novità dirlo o sentirlo, ma se si approfondisce la cosa allora questa abilità dei nostri sensi e di quelli degli animali, primi fra tutti gli insetti, ma anche tanti animali superiori, appare in tutta la sua meraviglia.

Due molecole enantiomere sono di fatto due diverse molecole, non sovrapponibili ma specularmente simmetriche e dunque il fatto che si possa in qualche modo distinguere fra di esse non è scioccante per un chimico; ma che lo possano fare in piena autonomia tessuti e recettori biologici ha profonde implicazioni non ancora completamente comprese.

Non è l’unico caso di molecole la cui distinzione è “sottile”; tempo fa parlammo degli effetti legati allo stato di spin del nucleo.

La scoperta della stereoselettività dei recettori biologici è tutta italiana e risale ad un momento in cui il concetto stesso di recettore biologico non esisteva; e la scoperta contribuì al suo sviluppo.

Nel 1886, Arnaldo Piutti (Cividale del Friuli, 23 gennaio 1857 – Conegliano, 19 ottobre 1928) un chimico italiano trovò che mentre la D-asparagina ha un sapore dolce la L-asparagina è insipida, senza sapore (Una nuova specie di asparagina, in Gazzetta chimica italiana, XVI (1886), a proposito ma quando avremo la Gazzetta online?). L’asparagina è un amminoacido polare e non essenziale.

D- asparagina

L-asparagina

Aveva ottenuto 100 g di D-asparagina da 6500 kg di vecce (Vicia sativa) attraverso un ingegnoso metodo estrattivo (per cristallizzazione frazionata dalle acque madri di estrazione della L-asparagina) e stabilì che la D- non discendeva dalla racemizzazione della L- durante l’estrazione. Fu la prima volta che si trovò un esempio così chiaro di stereoselettività biologica, circa 15 anni prima che il concetto stesso di recettore venisse pienamente compreso. Si trattò di una vera e propria pietra miliare che destò l’interesse dei più importanti chimici del mondo come Louis Pasteur e Arthur Cushny.

Piutti è stato sostanzialmente dimenticato, ma aveva avuto una carriera piena e di ottimo livello e la comunità degli sterochimici oggi dovrebbe rivalutarne maggiormente la figura.

Dopo essersi laureato in chimica presso l’Università di Torino nel 1879, fu per un anno assistente di fisiologia diretto da Angelo Mosso e successivamente in quello di chimica farmaceutica diretto da Icilio Guareschi. Aiuto di Ugo Schiff a Firenze fra il 1881 ed il 1886, vinse la cattedra di chimica farmaceutica all’Università di Sassari. Nel 1888 passò alla medesima cattedra della Università di Napoli dove fondò l’Istituto di chimica farmaceutica. Il 22 agosto 1890 venne affiliato in Massoneria col grado di Maestro nella Loggia La vittoria di Napoli. Socio nazionale dei Lincei dal 1922.

Durante le ricerche per stabilire la posizione del gruppo amminico nell’asparagina (1886) riuscì ad effettuare la composizione di un composto aromatico (trimesitato trietilico) partendo da sostanze alifatiche. Ci riuscì studiando la sintesi dell’acido aspartico per riduzione con amalgama di sodio dell’ossima dell’etere ossalacetico.

Ottenne, inoltre, per azione dell’ammoniaca su uno dei due aspartati monoetilici che aveva preparato, i due antipodi di un’asparagina identica a quella naturale (1887). Sintetizzò anche l’asparagina da anidride maleica ed ammonica e dall’anidride citraconica la glutammina.

Nel 1913 riuscì a dimostrare che il lupino produce sia la destro che la levo-asparagina e che la prima è più favorita con una germinazione al buio, per poi scomparire col progredire della germinazione. Dedicò studi anche ai gas nobili ed alla radioattività dei minerali del terreno vesuviano. (da Wikipedia)

Sebbene ci siano variazioni individuali oggi è accettato che ci siano differenze chiare di sapore fra gli enantiomeri di vari composti. Per esempio:

N-L-R-aspartil-L-fenilalanina (o aspartame) ha un sapore dolce molto spiccato; mentre l’enantiomero DD è amaro.

L-glutamato monosodico, MSG, ha un caratteristico sapore “umami” (saporito), mentre l’enantiomero D non lo ha.

Ancora più intrigante la situazione nell’ambito dell’olfatto.

Probabilmente molti lettori conoscono il caso del carvone.(R)-5-Isopropenil-2-metil-2-cicloesenone

Il carvone esiste come due enantiomeri: l’R-(–)-carvone, che profuma come foglie di menta, e la sua immagine speculare S-(+)-carvone, il quale odora di semi di cumino. Il fatto che i due enantiomeri vengano percepiti in modo diverso è prova che nel sistema olfattivo ci sono dei recettori “chirali”, ossia che permettono una risposta diversa a seconda dell’enantiomero che percepiscono, cosa che non accade comunque per tutte le coppie di enantiomeri presenti in natura.

A questo proposito un altro esempio veramente intrigante è quello dell’alfa pinene.

L’alfa-pinene è un terpene con un anello a quattro membri e dunque tensionato e molto reattivo; queste molecole si trovano in varie piante in diverse combinazioni e dominanze e sono uno dei tre casi in cui il nostro naso riesce a ben discriminare fra le due varianti secondo un classico lavoro di Laska e Teubner. In quel medesimo lavoro si trovarono altri due casi di molecole enantiomere fra le quali il nostro naso riesce a discriminare efficacemente che sono il limonene e il carvone di cui abbiamo già parlato.

Chi è interessato a maggiori dettagli può fare riferimento alla letteratura citata sotto; la domanda importante è: come fa il nostro organismo e in generale come fanno i recettori biologici a discriminare in modo così fine fra molecole enantiomere?

Non c’è una risposta semplice, a parte l’ovvia idea data dal concetto chiave-serratura, tipico delle interazioni enzimatiche.

La conclusione di Laska e Teubner è che la discriminazione non sia generale ma dipenda nei fatti dal caso specifico preso in considerazione e dunque da uno specifico recettore, probabilmente con finalità a loro volta specifiche.

L’effetto sul recettore nasale non è disgiunto da altri effetti fisiologici; per esempio l’ anfetamina (1-metil- 2-feniletilammina) o amfetamina, che coinvolge un atomo di azoto attaccato al centro chirale: l’ (R)-(-) enantiomero mostrato qui sotto ha un odore di ammuffito

mentre l’ (S)-(+) enantiomero mostra un odore fecale ed è molto più efficace sul sistema nervoso centrale L’anfetamina è dunque enantioselettiva sia rispetto alla fisiologia che all’odore. In questo caso questa differenza di odore era conosciuta ben prima della sua analisi scientifica ma fu ritenuta non significativa.

Nella review qui sotto citata di Bentley ci sono moltissimi esempi di differenze di percezione in altri animali diversi dall’uomo dedotte dagli effetti fisiologici dell’odore della sostanza, sia per gli insetti che per le specie superiori; in realtà il campo degli odori e dei sapori e del ruolo relativo della enantiomeria è ancora da approfondire.

Al momento la cosa generale sembra che diverse specie abbiano in genere capacità diverse e specifiche di discriminazione enantiomerica e che questa diversa percezione possa presentarsi come effetti diversi dei due enantiomeri ma anche semplicemente come effetti validi solo per uno degli enantiomeri; ancora più complesso il caso di molecole con più centri chirali e anche delle interazioni fra specie chirali diverse mescolate in rapporti diversi dal racemo, con effetti di inibizione a volte anche per piccole aggiunte il che spiega l’importanza della purezza. Ci sarebero molte altre cose da dire per esempio le tecniche di analisi cromatografica che consentono di distinguere fra gli enantiomeri, ma avremo tempo in futuro a meno che qualche volenteroso collega più esperto di me non voglia contribuire.

Concludo lamentandomi di non conoscere il polacco perchè a senso mi pare che l’articolo in polacco contenga molti esempi interessanti.

Riferimenti.

Chem. Rev. 2006, 106, 4099−4112 Ronald Bentley The Nose as a Stereochemist. Enantiomers and Odor

cHeMik 2014, 68, 2, 83–90 in polacco

CHIRALITY 24:959–976 (2012) JOSEPH GAL The Discovery of Stereoselectivity at Biological Receptors: Arnaldo Piutti and the Taste of the Asparagine Enantiomers—History and Analysis on the 125th Anniversary

Voce Chirality di Meyers – Encyclopedia of Molecular Cell Biology and Molecular Medicine 16 volumes(2006, Wiley) 2 vol pag. 579 e sgg

Chem. Senses 24: 161–170, 1999 Olfactory Discrimination Ability of Human Subjects for Ten Pairs of Enantiomers, Matthias Laska and Peter Teubner

Scienziate che avrebbero potuto aspirare al Premio Nobel: Julia Lermontova (1846-1919)

In evidenza

Rinaldo Cervellati.

Julia (Yulija) Vsevolodovna Lermontova, una fra le tante “migranti della conoscenza” di cui abbiamo parlato nel recente post, è stata la prima donna russa a ottenere il dottorato in chimica e la terza donna europea a raggiungere il traguardo del dottorato [1,2].

Julia nacque a San Pietroburgo il 21 dicembre 1846 da Elisawjeta Andrejevna Kossikovsky e Vsevolod Lermontov della famiglia aristocratica Lermontov. Passò l’infanzia e la prima giovinezza a Mosca dove il padre era generale del Primo Corpo dei Cadetti della capitale russa, una istituzione finanziata dal governo per la formazione di ufficiali e specialisti dell’esercito. I genitori facevano parte dell’intelligentsia russa e l’educazione dei figli era la loro priorità. Julia ricevette quindi una buona istruzione di base da tutori privati. Influenzata dalle correnti “nichiliste”, i suoi interessi si rivolsero alle scienze e, benché i genitori non capissero questi interessi, non la ostacolarono e Julia ebbe accesso alla letteratura specializzata e il permesso di compiere esperimenti in casa.

Julia Lermontova

Nonostante l’interessamento di scienziati come Dmitri Mendeleev[1], Lermontova non riuscì a farsi ammettere come uditore all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo (il massimo cui avrebbe potuto aspirare come donna), noto per i suoi eccellenti programmi di chimica.

Insieme all’amica (e futuro matematico) Sofia Kovalevskaja si recò, nel 1869, all’Università di Heidelberg. Dopo molti tentativi, principalmente da parte della più tenace Kovalevskaja, le fu permesso di seguire le lezioni di Robert Bunsen[2], Gustav Kirchoff[3] e Hermann Kopp[4]. Ottenne anche un posto, come studente privato, nel laboratorio di Bunsen. Sollecitata da Mendeleev, con il quale manteneva un’intensa corrispondenza, apprese le tecniche analitiche e di separazione dei metalli dai loro minerali. Nel laboratorio di Bunsen riuscì a ottenere il platino dai minerali che lo contenevano.

Successivamente le fu offerto un posto, di nuovo come studente privato, nel laboratorio di August Hofmann[5] all’Università di Berlino. A Berlino seguì pure le lezioni di chimica organica di Hofmann. Sebbene la maggior parte dei suoi studi riguardasse il catrame di carbon fossile e derivati, lavorò anche su diverse serie alifatiche contribuendo agli sforzi in corso per stabilirne i principi strutturali [1]. Sotto la sua guida, Lermontova portò avanti la ricerca per la sua dissertazione, la preparazione di un numero di derivati alogenati di idrocarburi alifatici a catena corta e indagini sule loro proprietà. Il suo primo articolo, tuttavia, pubblicato nel Berichte nel 1872, riporta lo studio un composto aromatico, il 4,4′-diammino-azobenzene [3].

Robert Bunsen

August Hofmann

                                                  Poiché a quell’epoca né l’Università di Berlino né quella di Heidelberg avrebbero preso in considerazione la concessione di un dottorato a una donna, Hofmann si rivolse all’Università di Göttingen, un’istituzione più piccola con un atteggiamento generalmente più liberale, che accettò Lermontova come candidata previo però il superamento di una prova orale, cosa che avvenne. In occasione del suo dottorato, ottenuto magna cum laude, Friedrich Wöhler[6], uno dei due chimici della commissione d’esame (l’altro era Hans Hübner[7]), le regalò in ricordo una piccola pietra tagliata del minerale in cui egli aveva scoperto per primo il titanio. La tesi di Lermontova, “Zur Kenntnis der Methylenverbindungen” (Per la conoscenza dei composti del metilene), fu pubblicata a Göttingen nel 1874.

Dopo il dottorato Lermontova tornò in Russia e iniziò a lavorare nel laboratorio di Vladimir Markovnikov[8] all’Università di Mosca, dove continuò le ricerche sugli idrocarburi alifatici. La preparazione del 1,3-dibromopropano, riportata con il suo solo nome nel 1876 [4], ha portato alla sintesi, via il corrispondente diciano-composto, dell’acido glutarico. Nel laboratorio di Markovnikov mise a punto un’apparecchiatura per la distillazione continua del petrolio. Sebbene questo apparecchio non ebbe applicazione industriale, Lermontova è considerata la prima donna a occuparsi di petrolchimica, un settore di ricerca applicata che cominciava a destare molto interesse non solo in Russia.

Nel 1875, su proposta di Mendeleev, venne eletta membro della Russian Chemical Society.

Nel 1878 fu invitata da Alexandr Butlerov[9] a recarsi nel suo laboratorio di San Pietroburgo dove, insieme a Mikhail Lvov, stava conducendo una dettagliata ricerca sulla serie di idrocarburi saturi e insaturi. Qui Lermontova si impegnò nella ricerca in atto sulle olefine a catena ramificata. La maggior parte del suo lavoro è stata pubblicata da Butlerov con riconoscimenti, ma l’importante sintesi del 2,4,4-trimetil-2-pentene fu pubblicata con solo il suo nome [5].

Vladimir Markovnikov

August Butlerov

Nel gennaio 1878 in una conferenza della Russian Chemical Society, A. P. Eltekov dell’Università di Kharkov aveva riportato i risultati preliminari su un nuovo metodo di sintesi di idrocarburi di formula generale CnH2n [6]. Butlerov, che aveva partecipato a quel convegno, notò che un certo numero degli esperimenti riportati erano già stati effettuati da Julia Lermontova. Più tardi, Lermontova scriverà [7]:

Alla ricerca delle migliori condizioni di reazione, non avevo fretta di riportare i miei risultati preliminari… Poiché però il signor Eltekov ha pubblicato i suoi, ho smesso di continuare tutti gli esperimenti che avevo già iniziato, considerando che era necessario descrivere quelli di essi che mi hanno portato a conclusioni certe…[2]

Il valore di queste ricerche è diventato evidente più tardi quando sulla base della sintesi di idrocarburi altamente ramificati è stato possibile lo sviluppo e la produzione industriale di alcuni tipi di carburanti. Questo processo è stato chiamato reazione di Butlerov-Eltekov-Lermontova :

Schema della reazione di Butlerov-Etelkov-Lermontova che consente di aggiungere rami a una catena olefinica

Purtroppo, come fa notare A. Rulev [2], il nome della prima donna-chimico russa non è sempre menzionato anche in Russia.

Attorno al 1880 Lermontova tornò a Mosca per motivi familiari e per stare vicino all’amica Kovalevskaia, si riunì al gruppo di Markovnikov, assistendolo nelle sue indagini sulla composizione del petrolio caucasico. Su suggerimento di Markovnikov indagò sui processi di frazionamento a alte temperature e sul cracking catalizzato da metalli, presentando i suoi risultati alle riunioni della Sezione di Mosca della Società Tecnica Russa. Era entrata a farne parte nel 1881 e per un certo tempo fu un membro particolarmente attivo della divisione di tecnologia chimica di questa Società.

Verso il 1886 smise di fare ricerca in chimica e rivolse la sua attenzione a progetti agricoli nella sua tenuta fuori Mosca. Seguendo metodi e tecnologie moderni per migliorare la fertilità del suolo, aumentò considerevolmente i raccolti; iniziò a fare il formaggio, con un certo successo, producendo formaggi “francesi” messi in vendita a Mosca. Visse il primo conflitto mondiale e le prime fasi della rivoluzione russa che seguì, morendo all’età di settantatre anni nel dicembre 1919.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] A. Yu. Rulev, M. G. Voronkov, Women in chemistry: a life devoted to science, New J. Chem., 2013, DOI: 10.1039/c3nj00718a

[3] J. Lermontova, Ueber die Zusammensetzung des Diphenins, Ber. Dtsch. Chem. Ges., 1872, 5, 230-236.

[4] J. Lermontova, Ueber die Darstellung von Trimethylenbromid, Justus Liebigs Ann. Chem., 1876, 182, 358-362.)

[5] J. Lermontova, Sur l’action de l’iodure de butyle tertiare surl’isobutylène en présence d’oxydes métalliques, St. Pétersb. Ac. Sci. Bull., 1879, 25, col. 203-209, Justus Liebigs Ann. Chem., 1879, 196, 116-122.)

[6] A. Eltekov, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 86. citazione da [2]

[7] Yu. Lermontova, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 238. Citazione da [2]

[1] Dmitri Mendeleev (1834-1907) chimico russo noto a tutti come “padre” della Tavola Periodica della quale ricorrerà l’anno prossimo il 150° anniversario.

[2] Robert Wilhelm Eberhard Bunsen (1811-1899), chimico tedesco. Ha studiato gli spettri di emissione di molti elementi, scoprendo cesio e rubidio insieme al fisico Gustav Kirchhoff. Bunsen sviluppò diversi metodi di analisi dei gas, fu un pioniere della fotochimica e fece molte ricerche in chimica organica. Con il suo assistente di laboratorio, Peter Desaga, sviluppò il becco Bunsen, il noto bruciatore da laboratorio.

[3] Gustav Robert Kirchhoff (1824 -1887), fisico tedesco. Contribuì alla comprensione dei circuiti elettrici, della spettroscopia e dell’emissione delle radiazioni da corpo nero.

[4] Hermann Frantz Moritz Kopp (1817 – 1892), chimico tedesco ha studiato in particolare la relazione fra punto di ebollizione e composizione dei composti organici. E’ stato uno dei primi storici della chimica.

[5] August Wilhelm von Hofmann (1818 –1892), famoso chimico tedesco. Allievo di Justus von Liebig divenne il primo direttore del Royal College of Chemistry a Londra. Fu poi professore e ricercatore all’Università di Berlino. Autore di fondamentali ricerche in chimica organica ha creato una scuola di chimica organica sperimentale e industriale. Cofondatore della Deutsche Chemische Gesellschaft, la Società Chimica Tedesca.

[6] Friedrich Wöhler (1800 – 1882), chimico tedesco noto in particolare per la prima sintesi di un composto organico, l’urea. Dei suoi lavori abbiamo ampiamente scritto in questo blog.

[7] Hans Hübner (1837 – 1884), chimico tedesco, successore di Wöhler all’Istituto di Chimica della Università di Gottingen. Editor dell’importante rivista Zeitschrift für Chemie.

[8] Vladimir Vasil’evič Markovnikov (1838-1904), chimico russo noto in particolare per la sua regola empirica che indica l’orientamento preferenziale nelle reazioni organiche di addizione.

[9] Alexander Mikhaylovich Butlerov (1828-1886), chimico russo, uno dei principali fondatori della teoria della struttura chimica, il primo a incorporare doppi legami in formule strutturali, scopritore dell’ esametilentetrammina e della formaldeide. Fu un forte sostenitore dell’apertura all’istruzione superiore alle donne.

Ciclo dell’acqua: due casi significativi.

In evidenza

Mauro Icardi

In questo periodo, giusto un anno fa i giornali nazionali davano conto di problemi di siccità. In special modo nel sud del paese, e in particolare a Roma. Il New York Times titolava “Roma città di antichi acquedotti deve far fronte ad un razionamento dell’acqua”. Il 2017 secondo i dati forniti da ISPRA è stato un anno con precipitazioni cumulate inferiori del 22% rispetto alle medie annuali che si sono iniziate a registrare dal 1961. I titoli dei giornali a distanza di un anno non riportano notizie di questo tipo, almeno a livello nazionale. Ma secondo le proiezioni dell’IPCC quella che ancora definiamo “anomalia annuale”, potrebbe diventare la normalità a fine secolo. Due casi riguardanti la zona del Gallaratese, che hanno avuto riscontro solo a livello locale, meritano di essere menzionati. Sono casi recenti e inducono a fare riflessioni sul tema acqua e sulla gestione del ciclo idrico.

Il primo caso è quello del comune di Oggiona Santo Stefano, dove il sindaco ha firmato un’ordinanza per il divieto di utilizzo improprio dell’acqua potabile. In particolare per l’innaffiamento di orti e giardini e piscine private. Attività che sono vietate nel periodo che va dalle 07.00 alle 22.00. Agli abitanti del comune la riproposizione di questa ordinanza è risultata poco gradita. In provincia di Varese i mesi di Marzo e Maggio sono stati molto piovosi e questo ha fatto si che la percezione fosse quella di un problema risolto di siccità.

Dopo i mesi di Marzo e Maggio che sono risultati molto piovosi, la percezione di molti è che non esistesse più un problema di siccità. In provincia di Varese questi mesi hanno avuto un saldo positivo di precipitazioni dovute alla pioggia caduta. Ma nel mese di Giugno il bilancio pluviometrico dei primi sei mesi del 2018 è risultato nuovamente deficitario con una diminuzione del 50% della pioggia caduta, rispetto alla media dei venticinque anni precedenti. Più che i numeri, la sensazione che non esistesse più un problema di siccità, ha probabilmente ha indotto molte persone ad utilizzare con poca attenzione e parsimonia l’acqua potabile. Il risultato è che le zone ubicate nella parte alta del paese hanno avuto problemi di erogazione dell’acqua, con cali di pressione e mancanza d’acqua in alcune ore della giornata. L’acquedotto di questo paese non dispone di un bacino di accumulo. E’ previsto che questo acquedotto venga collegato con gli acquedotti dei paesi limitrofi, risolvendo un problema di carattere squisitamente idraulico. Collegato e immesso in rete con acquedotti che sono dotati di bacino di accumulo e di torrino piezometrico.

Ma l’episodio dovrebbe fare riflettere. Il regime delle precipitazioni è ormai molto fluttuante. Le piogge tendono a cadere in maniera violenta e continuata in un periodo di tempo, per poi alternare periodi di scarsità di precipitazioni. Le modifiche, per altro auspicabili sull’acquedotto di Oggiona rischiano di diminuire la percezione di un uso più consapevole dell’acqua. Le strategie di mitigazione e di risparmio idrico, per aziende, ed enti di bonifica ed irrigazione consistono in metodi più efficaci di irrigazione. E questo esempio dovrebbe diventare una buona pratica anche nell’utilizzo privato. E dovrebbe essere ulteriormente continuato da parte delle aziende fornitrici una campagna di informazione capillare per un uso più consapevole dell’acqua. Farebbe bene all’ambiente e alle tasche degli stessi cittadini. Che forse in molti casi non fanno caso all’acqua che sprecano per usi decisamente non primari (lavaggio auto), e che potrebbero invece utilizzare meglio per usi più necessari (irrigazione di orti e giardini).

Il secondo caso sempre riportato dalla stampa locale riguarda il torrente Arno. Ed è l’ultimo di una serie di casi sempre più frequenti di secche prolungate di torrenti ubicati nella zona a sud di Varese. Non solo del torrente Arno, ma anche del Lura.

Questa foto si riferisce ad una secca del torrente Lura risalente al 2015, ma la situazione si è puntualmente ripresentata alla fine dello scorso Luglio. Premesso che per definizione un torrente potrebbe avere un regime idrico discontinuo, gli abitanti di Gallarate e Caronno Pertusella non ricordano secche così prolungate e frequenti. Cittadini e autorità si interrogano. Ma questo è un problema che si ricollega ad un altro. Il consumo di suolo e la cementificazione. Una riduzione della superficie disponibile per l’agricoltura, i pascoli e le foreste conduce infatti inevitabilmente ad una diminuzione della capacità di infiltrazione delle acque, con il progressivo ridursi della ricarica delle falde idriche. La zona a cavallo tra la provincia di Varese e quella di Milano è fortemente antropizzata. La modifica dei regimi di precipitazione sta facendo il resto. A questo punto credo si debba pensare a progettare sistemi di ricarica artificiale delle falde, sfruttando anche le acque depurate, che allo stato attuale in molti casi sono invece scaricate nei letti dei fiumi in secca. E in questo modo se è garantita la qualità chimico fisica delle acque scaricate, o per meglio dire la conformità ai valori di parametro, non così si può dire della qualità ambientale dei corsi d’acqua.

Intraprendere progetti ed iniziative di questo genere avrebbe come obiettivi principali quelli di ristabilire le riserve idriche, stabilizzarle (in previsione dei periodi di magra), smaltire acque di processo idonee/conformi che potrebbero non esserlo se scaricate tal quali nei corsi d’acqua in secca.

Ovviamente questo presume investimenti e visioni di ampio periodo. Studi geologici accurati e controlli capillari della qualità delle acque destinate al ravvenamento delle falde, alcune delle quali sono anche le sorgenti di questi torrenti.

Non è mio costume l’autocitazione e chiedo comprensione ai lettori, ma mi ero già occupato della cosa, con un interesse maggiormente orientato all’acqua potabile. La tecnica avrebbe senso anche se utilizzata per evitare o minimizzare le secche dei torrenti.

https://ilblogdellasci.wordpress.com/2015/09/02/potabilizzazione-indiretta/

E’ ormai evidente che il problema della gestione della risorsa acqua deve essere un tema multidisciplinare.

Non più rimandabile. E’ un tema profondamente legato alla nostra qualità di vita. E questi due casi anche se locali sono decisamente significativi.

Una piccola nota, un ricordo personale. Sono ormai trent’anni che vivo in provincia di Varese. Gli amici e i conoscenti di questa zona mi definivano la provincia di Varese con un termine piuttosto pittoresco, ovverosia come il “pisciatoio d’Italia”, per una sorta di analogia con l’Inghilterra, altra zona che nell’immaginario ricorda piogge continue, e anche noiose. Forse sono ricordi che, per quanto simpatici, non hanno più il valore di un tempo. E occorre prenderne doverosamente atto. Non solo in questa zona.

Link utili

http://www.acqua.gov.it/

http://www.direttivaacque.minambiente.it/

https://www.mbnews.it/2016/02/emergenza-siccita-nel-molgora-ce-solo-lacqua-scaricata-dai-depuratori/

http://ilsaronno.it/2018/06/26/lura-in-secca-centinaia-di-pesci-intrappolati-rischiano-di-morire/

Un enzima umano produce una piccola molecola antivirale

In evidenza

Rinaldo Cervellati

 

Ne parla Cici Zang nel numero del 15 giugno scorso di Chemistry&Engineering news on-line. La proteina Viperin, espressa nell’organismo di pesci, uccelli e mammiferi fra cui gli umani, catalizza la formazione di una piccola molecola che inibisce la replicazione di diversi virus, incluso il temibile Zika[1]. Questa molecola potrebbe fornire la struttura base per lo sviluppo di nuovi farmaci contro le infezioni virali, affermano gli estensori della ricerca (A.S. Gizzi et al., A naturally occurring antiviral ribonucleotide encoded by the human genome., Nature, 2018, DOI: 10.1038 / s41586-018-0238-4).

Da anni era noto che la proteina Viperin (quella umana è costituita da 361 amminoacidi) è in grado di inibire DNA e RNA di molti virus come ad esempio quelli dell’influenza. Ma il meccanismo dell’attività antivirale di questo gene restava praticamente ignota, sebbene gli scienziati sapessero che il gene codifica per un enzima, si conosceva ben poco sulle reazioni che era in grado di catalizzare.

Tyler Grove e Steven Almo dell’Albert Einstein College of Medicine (New York) hanno collaborato con Jamie Arnold e Craig Cameron della Penn State University per studiare l’attività della viperina.

Craig Cameron

Steven Almo

                                                                                  La proteina utilizza la S-adenosil metionina (SAM) per catalizzare reazioni di trasferimento di elettroni e formare specie radicaliche. I ricercatori hanno scoperto che una delle reazioni catalizzate è la deidratazione della citidina trifosfato (CTP):

La struttura della molecola risultante, la [3’-desossi-3’,4’-dideidro-citidin-trifosfato] ddhCTP, è simile a quella di noti farmaci antivirali che interrompono la replicazione di genomi di RNA di alcuni virus. In esperimenti in vitro, i ricercatori hanno stabilito che la ddhCTP inibisce le RNA polimerasi del virus Zika, del virus del Nilo occidentale, del virus della dengue e dell’epatite C. Inoltre è in grado di bloccare la replicazione del virus Zika in colture cellulari prelevate da scimmie infette.

Zika virus al microscopio elettronico

Le RNA polimerasi sono responsabili della sintesi dell’RNA sia per i virus che per altri organismi, compreso l’uomo. Il ddhCTP verrebbe utilizzato dalla polimerasi virale per aggiungere un nucleotide alla catena di RNA in accrescimento, ma una volta effettuata l’aggiunta bloccherebbe l‘ulteriore crescita, facendo terminare la catena di RNA e quindi dando origine a un genoma virale incompleto. I ricercatori stanno ora cercando di capire perché ddhCTP non interferisca con le DNA polimerasi.

Peter Cresswell, professore di immunologia e biologia cellulare, School of Medicine, Yale University, uno studioso del gene Viperin, afferma che la ricerca è “un incredibile lavoro da detective”. Ma sottolinea che non spiega tutti gli effetti antivirali della Viperin, come il modo in cui interrompe la replicazione del genoma virale.

Peter Creswell

Sebbene i settori R&D delle aziende farmaceutiche abbiano progettato inibitori delle polimerasi virali, i biologi non erano in precedenza a conoscenza di organismi che producessero tali piccole molecole, afferma Priscilla Yang, virologa dell’Università di Harvard. Questo studio stimolerà la    ricerca sulle funzioni di piccole molecole prodotte naturalmente, sostiene infine Yang.

Priscilla Yang

Il team di ricerca ha depositato una richiesta di brevetto provvisorio negli Stati Uniti e vorrebbe collaborare con un’azienda farmaceutica allo sviluppo di una versione del ddhCTP che potrebbe entrare più facilmente nelle cellule. I ricercatori stanno anche studiando il motivo per cui la viperina utilizza la CTP per formare la molecola antivirale. Si potrebbero scoprire ulteriori indizi che aiuterebbero a progettare composti antivirali ancora più efficaci, afferma Steven Almo.

 

[1] Il virus Zika (ZIKV) è un RNA virus isolato per la prima volta nel 1947 da un primate in Uganda, nella Foresta Zika, una riserva naturale. La Febbre Zika si contrae prevalentemente tramite punture di zanzare, ma è possibile un contagio diretto attraverso il sangue o per via sessuale. Particolarmente pericoloso per le donne incinte, può provocare gravi malformazioni nel feto tanto da consigliare l’aborto terapeutico.

La Cina prosegue sulla strada dello sviluppo incontrollato.

In evidenza

Claudio Della Volpe

La Cina è la principale produttrice di sostanze chimiche di sintesi al mondo (40% del fatturato mondiale); prova ne sia che anche i nostri marchi si rivolgono a quelli cinesi.

Federchimica chiama pudicamente “outsourcing” la tendenza a delegare alla Cina (e ad altri paesi) dove le regole sono poche nell’ambiente e nel lavoro la produzione di sostanze chimiche di sintesi.

“Dagli anni Duemila l’occupazione chimica è tendenzialmente diminuita, in parte per effetto dell’outsourcing di attività prima svolte all’interno delle imprese chimiche con conseguente miglioramento dell’efficienza.”

Da L’industria chimica in cifre 2017 di Federchimica.

Si guadagna di più (pudicamente “miglioramento dell’efficienza”). Non mi dilungo se no mi arrabbio.

Questi non sono fenomeni naturali, sono scelte di politica economica; che conseguenze hanno?

Pochi giorni fa c’è stato il caso dell’AIFA che ha segnalato che in un farmaco prodotto in Cina per aziende di tutto il mondo comprese aziende italiane (valsartan, un sartano sintetico, antagonista del recettore dell’angiotensina II) da un marchio da noi sconosciuto, ma che di fatto è una delle più grandi aziende cinesi, leader nel settore dei pril-products, ossia gli ACE-inibitori (economicamente concorrenti dei sartani, ossia captopril, enalapril, lisinopril), Zhejiang Huahai Pharmaceuticals, si erano trovati residui di N-nitrosodimetilammina, che è una sostanza sospetta cancerogena.

La cosa non mi meraviglia, poteva succedere anche dalle nostre parti probabilmente; ma tanto più facilmente succede in Cina dove le regole spesso esistono ma non vengono rispettate (cosa che succede anche da noi ed è successa tanto in passato), ma anche non esistono affatto ed è per noi difficile sapere come stanno le cose dato il regime di controllo esasperato delle informazioni di quel grandissimo paese.

Ma ci sono altre storie e sono legate fra di loro.

Il pomeriggio di giovedì 12 luglio scorso alle 18.30 una esplosione ha squarciato il cielo del Sechuan, sopra l’impianto chimico della Yibin Hengda Technology, uno dei principali produttori chimici cinesi; un testimone ha dichiarato di aver sentito 7 esplosioni in 10 minuti; la fabbrica produceva 300 ton di acido benzoico all’anno, usato nella conservazione del cibo e 200 ton/anno di acido 5-nitroisoftalico, per medicine e coloranti.Le cause dell’esplosione sono al momento sconosciute, ma l’esplosione ha provocato 19 morti e 12 feriti.

https://news.abs-cbn.com/list/tag/yibin-hengda-technology

Se sarà possibile vi terrò informati sul prosieguo. Il motivo è che ritengo che nel momento in cui la Cina è diventato il principale produttore chimico del mondo, i chimici di tutto il mondo e i cittadini del mondo debbano fare attenzione ai problemi che questo genera; non meno di quando avviene più vicino a noi.

(abbiamo reso sempre ragione degli incidenti chimici avvenuti in Europa e in Italia su questo blog: qui, qui, qui e qualche altro post mi sfugge certamente).

Lo abbiamo fatto anche per quelli cinesi. Tre anni fa di questi tempi vi raccontavo e discutevamo del grande incidente cinese di Tianjin una esplosione seguita incendio che durò giorni e che fece oltre 160 morti (qui); ipotizzammo che fosse stata probabilmente una esplosione innescata da un uso improprio dell’acqua in un deposito troppo grande di carburo di calcio, nitrato di potassio e nitrato di ammonio. Ma le cose stavano diversamente (anche se alcuni come il collega Paccati nel corso della discussione, avevano fatto l’ipotesi poi rivelatasi quella vera o comunque condivisa dai giudici).

il sito di Tianjin dopo l’esplosione.

Una corte cinese ha condannato 49 persone per non aver fatto il proprio dovere, preso tangenti e abusato del proprio potere ed ha invece ricostruito la situazione così:

https://www.dw.com/en/china-convicts-dozens-for-last-years-giant-explosions-in-tianjin/a-36324321

Yu Xuewei, il dirigente della compagnia Rui Hai International Logistics, che era il proprietario del deposito è stato condannato a morte, ma la pena è stata poi sospesa; aveva pagato tangenti per avere il permesso di stoccare più di 49.000 ton di cianuro di sodio ed altri prodotti chimici tossici fra il 2013 e il 2015. Questo grazie alla compiacenza interessata di decine di responsabili della Rui Hai e di altre compagnie e sulla base di certificati falsi

Le investigazioni dei giudici hanno rivelato che l’esplosione è avvenuta quando un deposito di nitrocellulosa , usata come agente adesivo in farmaci e vernici si è incendiato a causa del caldo eccessivo di agosto 2015. Le fiamme hanno raggiunto il deposito illegale del fertilizzante nitrato di ammonio scatenandone l’esplosione. Nell’esplosione sono morti 99 poliziotti e 11 vigili del fuoco che non sapevano della presenza del materiale esplosivo . I danni fisici hanno coinvolto oltre 800 persone ed una parte del porto di Tianjiin è stato distrutto e danneggiato, mentre l’inquinamento da cianuro ha perfino superato i confini nazionali.

Cosa è cambiato da allora in Cina?

Non lo so, è difficile anche avere informazioni sulle leggi e i regolamenti; un amico che lavora in Cina per una ditta multinazionale, intervistato telefonicamente il 13 luglio sull’incidente in Sechuan mi ha detto: “non ne so nulla, qua le notizie sono rigidamente controllate; e comunque mentre l’inquinamento dell’ambiente è al momento altamente considerato le regole sulla sicurezza del lavoro lo sono molto meno”.

La Cina è un grande paese, con un enorme ed incontrollato sviluppo industriale che sta purtroppo seguendo (forse anche peggiorando) il cattivo esempio che noi occidentali abbiamo dato in passato in questo campo e nell’uso della chimica.

Ma il loro sviluppo e la nostra situazione non sono scorrelati; noi siamo loro clienti ed è molto probabile che ci sia qualcuno dalle nostre parti che si frega le mani per aver esportato la produzione di sostanze che da noi ormai risulta troppo rigidamente regolamentata per risultare “efficiente”: dunque esternalizzare, outsourcing. Anche il caso del valsartan ci obbliga a chiederci: perchè i controlli sulla composizione fatti dai nostri furbi acquirenti nazionali non sono più frequenti e ampi?

E’ veramente più efficiente far produrre in Cina queste sostanze? O è solo un affare economico dato che fino ad ora là ci sono meno regole (ossia lacci e lacciuoli, come li chiamano i giornali di lorsignori). Ma noi europei o cinesi semplici cittadini cosa ci guadagnamo oltre a veder scendere l’occupazione e ricever ogni tanto schifezze al posto di medicine, morire sul lavoro o di inquinamento?

Pensateci, pensiamoci.

Ancora sul problema dei rifiuti di plastica

In evidenza

Rinaldo Cervellati

Nella C&EN newsletters on line del 15 giugno, Sam Lemonik e Carmen Dahl tornano sul problema della raccolta e riciclaggio dei rifiuti di plastica. Partendo dall’osservazione che attualmente anche nei piccoli villaggi esistono i contenitori per la raccolta differenziata dei rifiuti e quindi gettare gli oggetti in plastica nell’apposito contenitore è diventata un’operazione semplicissima, i dati mostrano che le cose non stanno così, e i rifiuti di plastica continuano ad accumularsi nell’ambiente. Uno studio su Science nel 2015 ha stimato che negli oceani potrebbero accumularsi 155 milioni di tonnellate di plastica entro il 2025, il doppio della quantità attuale [1]. Anche gli Usa che risultano al primo posto fra i paesi esaminati, raccolgono solo circa un terzo dei loro rifiuti di plastica. Il problema diviene ancora più grave se si va oltre ai contenitori condominiali o di quartiere: solo il 10% circa degli imballaggi di plastica in tutto il mondo (USA compresi) finisce per essere trasformato in un nuovo prodotto. Un altro 14% viene bruciato, a volte per essere trasformato in energia. Il resto finisce in discariche o nell’ambiente.

L’86% degli imballaggi di plastica prodotti a livello mondiale non viene mai raccolto per il riciclaggio, un altro 4% viene perso durante il processo di riciclaggio, l’8% viene riciclato in prodotti di qualità inferiore, solo il 2% viene riciclato in prodotti equivalenti. Fonte: World Economic Forum; Ellen MacArthur Foundation, 2016.

E lì la plastica rimane, inalterata. La durata della plastica è uno dei motivi per cui è diventata così ampiamente utilizzata. Quando diventa spazzatura, tuttavia, quella durata è una maledizione. La maggior parte delle materie plastiche è costituita da polimeri derivati ​​da combustibili fossili, formati da catene molecolari che possono raggiungere migliaia di unità ripetute trattenute da legami covalenti.

La maggior parte della plastica che viene riciclata fornisce un prodotto di qualità inferiore perché la tecnologia di riciclaggio più diffusa e popolare comporta la triturazione meccanica, la fusione e la riformazione della plastica. I polimeri tendono a degradare a temperature elevate quindi il materiale viene declassato nella fase di riciclo. Come mostra la figura solo il 2% della plastica che ha iniziato come bottiglia di acqua minerale diventerà una nuova bottiglia di uguale qualità. Il resto della plastica riciclata finisce tipicamente in oggetti diversi.

Altri fattori stanno complicando il problema dell’inquinamento da plastica, in particolare la Cina che da decenni raccoglie e tratta i rifiuti riciclabili da tutto il mondo, ha annunciato nel 2017 che limiterà le importazioni di rifiuti stranieri. Già ora alcuni impianti di gestione dei rifiuti degli Stati Uniti devono inviare plastica riciclabile direttamente alle discariche perché non c’è abbastanza capacità di riciclaggio interna. Con una crescente consapevolezza del problema dei rifiuti di plastica, a maggio l’American Chemistry Council ha annunciato l’obiettivo di riciclare o trasformare in altri prodotti tutte le confezioni di plastica utilizzate negli USA entro il 2040.

Mentre le montagne di plastica scartata continuano a crescere, la scienza ha iniziato a offrire alcune possibili soluzioni. I chimici stanno lavorando a nuovi metodi per decomporre le attuali materie plastiche (polimeri) nei loro elementi costitutivi (monomeri) rendendo così più semplice il riutilizzo, e stanno progettando nuove materie plastiche che potrebbero essere più facili da riciclare. I biologi e i biochimici stanno anche lavorando lentamente verso il riciclaggio di materie plastiche biocatalizzate, usando battèri o enzimi per degradare i polimeri.

Di seguito illustreremo brevemente alcune di queste ricerche mettendone in risaldo benefici e svantaggi.

Riciclaggio chimico

Jinwen Zhang, un chimico della Washington State University, dopo aver sviluppato delicati processi catalitici per rompere i legami esterei in resine epossidiche, un tipo di termoindurente molto comune nei materiali compositi, utilizzando opportuni catalizzatori, ha dimostrato che si potrebbero riutilizzare i frammenti per ricostruire il materiale polimerico.

Sembra però che questo metodo non sia conveniente per applicazioni commerciali. Di conseguenza, Zhang e il suo gruppo sta lavorando alla progettazione di nuovi polimeri avendo già in mente il loro riciclaggio. Se questa idea risultasse praticabile, risolverebbe molti problemi del riciclaggio.

Zhang ha sviluppato un vitrimero[1] a base di eugenolo, un fenilpropene naturale presente nella noce moscata, nella cannella e in altre piante [2]. Quando il vitrimero viene riscaldato con etanolo e ZnCl2, il catalizzatore rimasto dal processo di polimerizzazione, il polimero si rompe nei suoi legami esterei e i frammenti possono essere ritrasformati nel vitrimero perché la reazione è invertibile (v. figura)

Vitrimero all’eugenolo

Anche Megan L. Robertson, dell’Università di Houston ha sviluppato termoindurenti riciclabili cercando prodotti chimici di origine vegetale per sostituire in parte o del tutto il bisfenolo A (BPA), utilizzato come precursore epossidico in molte resine. Le alternative al BPA identificate includono olio di semi di soia epossidato, acido salicilico e altri derivati vegetali. Robertson afferma che le caratteristiche chiave che cerca in queste molecole sono gruppi funzionali convenienti per la conversione in epossidi e anelli aromatici per la forza di legame, imitando la struttura chimica del BPA [3]. Poiché molte di queste molecole contengono esteri, afferma Robertson, i metodi di riciclaggio chimico in fase di sviluppo per i poliesteri potrebbero essere applicati ai suoi polimeri termoindurenti.

Un gruppo di ricerca dell’Università della California a Irvine, guidato da Zhibin Guan, ha considerato la borazina per produrre termoindurenti riciclabili [4]. Questi anelli a tre atomi di boro si formano attraverso reazioni reversibili tra gruppi di acido boronico sui monomeri mimando la struttura chimica del BPA, una proprietà che consente anche di riformare il termoindurente. Nell’acqua bollente, il polimero si rompe nei suoi monomeri.

Gli anelli di borozina possono rompersi e facilmente riformarsi in questo termoindurente, consentendo di rimodellarlo.

Ma non tutti i materiali termoplastici riciclabili devono fare affidamento sull’auto-distruzione. Eugene Y.-X. Chen, un chimico della Colorado State University, ha recentemente descritto un polimero completamente riciclabile con proprietà simili alla plastica oggi sul mercato [5]. Di questo polimero ha recentemente parlato Claudio Della Volpe:

https://ilblogdellasci.wordpress.com/2018/05/04/il-santo-graal-del-riciclo-della-plastica/

Biodepolimerizzazione

In questo blog è stato citato un enzima battèrico modificato capace di degradare il polietilene tereftalato favorendone il riciclo:

https://ilblogdellasci.wordpress.com/2018/03/28/un-enzima-per-la-degradazione-e-riciclaggio-del-polietilene-ftalato-pet/

che sarebbe un indice che la ricerca sulla bio-depolimerizzazione sta lentamente avanzando, a parte il circo mediatico sempre pronto a mettersi in moto appena sente il prefisso bio. In effetti la biocatalisi per l’abbattimento della plastica potrebbe un domani costituire una quota del panorama del riciclaggio.

Nel 2017, Federica Bertocchini dell’Istituto di biomedicina e biotecnologia della Cantabria riferì che il bruco della vite, o meglio un enzima contenuto nei suoi battèri intestinali poteva degradare il polietilene (ne demmo notizia sul nostro blog). L’evidenza si basava sull’osservazione che una pellicola di polietilene sottoposta all’azione dei bruchi mostrava nuovi picchi nel suo spettro infrarosso, attribuibili al glicole etilenico, il monomero del PE [6]. Quattro mesi dopo, tuttavia, Till Opatz e il suo gruppo della Johannes Gutenberg University Mainz pubblicarono un articolo che contestava i risultati di Bertacchini. Secondo questa ricerca i picchi osservati da Bertacchini proverrebbero da proteine dei bruchi della vite che sarebbero rimaste attaccate alla pellicola di polistirolo dopo il lavaggio [7].

 

Yun Yang e il suo gruppo alla Beihang University riportarono che i batteri contenuti nelle larve della tignola indiana degradano il polietilene [8]. Ma come nello studio del bruco di Bertocchini, non è stato eseguito alcun lavoro di marcatura isotopica. Yang sostiene che fu possibile confermare la rottura biochimica del polietilene con altre tecniche: spettroscopia i.r., spettrometria di massa e spettroscopia a risonanza magnetica nucleare.

Yu Yang e il suo team hanno poi condotto studi di marcatura isotopica per stabilire che un batterio intestinale proveniente da larve della tarma della farina (Tenebrio molitor) consuma polistirene [9].

Wei-Min Wu, della Stanford University suggerisce che gli organismi convertono circa la metà del carbonio del polistirolo che ingeriscono in CO2 piuttosto che nei monomeri dello stirene che peraltro, sostiene, non sono stati identificati con certezza.

Nel 2016 un gruppo di ricercatori giapponesi [10], riportarono che enzimi contenuti nel battèrio Ideonella sakaiensis erano in grado di depolimerizzare il PET a bassa cristallinità nei suoi due monomeri secondo lo schema:

Fu replicato che poiché il PET è un poliestere semicristallino, solo le regioni amorfe sarebbero sensibili al degrado enzimatico. Pertanto, la bassa cristallinità può essere sostanzialmente la causa della degradabilità del PET usato dai giapponesi.

Kohei Oda dell’Istituto di Tecnologia di Kyoto, che ha co-diretto lo studio originale, dice che il suo gruppo ha iniziato a esaminare battèri che potrebbero usare il PET come nutriente per la crescita, indipendentemente dalla cristallinità [11]. Sostiene che l’ottimizzazione degli enzimi può essere oggetto di una ulteriore ricerca, ritiene però che alcune agenzie di stampa abbiano esagerato l’impatto immediato del lavoro e, di conseguenza, lui e il suo gruppo stanno controllando gli esperimenti con ancora maggior attenzione.

Diversi gruppi hanno risolto la struttura cristallografica a raggi X di uno degli enzimi del team giapponese, che converte il PET in un intermedio chiamato acido mono- (2-idrossietil) tereftalico. Ma John E. McGeehan dell’Università di Portsmouth, Gregg T. Beckham del National Renewable Energy Laboratory, H. Lee Woodcock dell’Università della South Florida, e i loro colleghi hanno avuto una piacevole sorpresa nel risolvere la struttura dell’enzima [12]. Essi hanno deciso di determinare come si è evoluto l’enzima di degradazione del PET e, nel corso della ricerca hanno accidentalmente ottenuto un enzima mutante che potrebbe erodere un PET più altamente cristallino di quello utilizzato dai giapponesi. Beckham dice che l’attuale versione dell’enzima richiederebbe ancora mesi per “digerire” una bottiglia da bibita. “Stiamo facendo un sacco di bioingegneria proteica per migliorare ulteriormente l’attività dell’enzima”, afferma McGeehan.

Sul’argomento della biodepolimerizzazione Carmen Dahl ha posto ai ricercatori sopra citati il seguente quesito:

I battèri si stanno evolvendo per cibarsi della plastica?

Ecco alcune risposte:

Lo spero, ma avremmo sicuramente bisogno di controllarli! (F. Bertacchini)

Sarebbe naturale che microrganismi si evolvano per consumare le materie plastiche, dal momento che le rendiamo sempre più abbondanti nell’ambiente. (R. Gross)

Questo non è ancora stato dimostrato. (W. Zimmermann)

Abbiamo bisogno di più esempi per rispondere a questa domanda. (Kohei Oda)

Da ignorante in materia biologica a biochimica mi auguro che vi sia un adeguato controllo in queste ricerche, come auspica Bertacchini, in particolare in quelle di bioingegneria, quando si cerca di produrre mutazioni proteico enzimatiche non è detto che si sappia come va a finire…

A questo proposito ricordo il romanzo di fantascienza “Lebbra antiplastica” di K. Pedler e G. Davis (1°a Edizione italiana nella collana Urania, Mondadori, 1974) in cui la mutazione improvvisa di una proteina inventata per biodegradare bottigliette di plastica, provoca una catastrofe a livello mondiale. Il romanzo si legge volentieri anche oggi soprattutto perché uno degli autori (Kit Pendler, 1927-1981), è stato scienziato e divulgatore di un certo livello prima di diventare scrittore a tempo pieno.

 

Bibliografia

[1] J.R. Jambeck et al., Plastic waste inputs from land into the ocean., Science, 2015, 347, 768-771.

[2]Tuan Liu et al., Eugenol-Derived Biobased Epoxy: Shape Memory, Repairing, and Recyclability, Macromolecules, 2017, DOI: 10.1021 / acs.macromol.7b01889).

[3] G. Yang et al., Biorenewable Epoxy Resins Derived from Plant-Based Phenolic Acids., ACS Sustainable Chem. Eng., 2016, DOI: 10.1021 / acssuschemeng.6b01343).

[4]W. A. Ogden, and Z. Guan, Recyclable, strong and highly malleable thermosets based on boroxine networks., J. Am. Chem. Soc. 2018, DOI: 10.1021 / jacs.8b03257.

[5] Zhu et al., A synthetic polymer system with repeatable chemical recyclability., Science, 2018, 360, 398–403.

[6] P. Bombelli et al. Polyethylene bio-degradation by caterpillars of the wax moth Galleria mellonella., Curr. Biol. 2017, 27, R283–R293.

[7] C. Weber et al., Polyethylene bio-degradation by caterpillars?, Curr. Biol. 2017, 27, R731–R745.

[8] Jun Yang et al. Evidence of Polyethylene Biodegradation by Bacterial Strains from the Guts of Plastic-Eating Waxworms., Environ. Sci. Technol., 2014, 48, 13776−13784.

[9] Y. Yang et al., Biodegradation and Mineralization of Polystyrene by Plastic-Eating Mealworms: Part 2. Role of Gut Microorganisms., Environ. Sci. Technol., 2015, , 49, 12087−12093; Part1 in ibid, 2015, 49, 12080−12086.

[10] S. Yoshida et al., A bacterium that degrades and assimilates poly(ethylene terephthalate)., Science, 2016, 351, 1196–1199).

[11] S. Yoshida et al. Response to Comment on “A bacterium that degrades and assimilates poly(ethylene terephthalate)”, Science, 2016, 353, 759c-760c.

[12] (H. P. Austin et al., Characterization and engineering of a plastic-degrading aromatic polyesterase., Proc. Natl. Acad Sci. USA, 2018, DOI: 10.1073 / pnas.1718804115).

[1] I vitrimeri sono una classe di materie plastiche, molto simili ai polimeri termoindurenti. I vitrimeri possono cambiare la topologia delle loro reti molecolari mediante reazioni di scambio di legami attivate termicamente. A temperature elevate possono scorrere come liquidi viscoelastici, a basse temperature le reazioni di scambio di legami sono molto lente e i vitrimeri si comportano come i tipici termoindurenti.

Avventure di un chimico in depurazione.

In evidenza

Mauro Icardi.

La depurazione delle acque è diventata un’attività estremamente importante nei paesi più industrializzati, ed è un’attività che necessita di una adeguata ed indifferibile implementazione nei paesi emergenti. La riduzione dell’inquinamento delle acque reflue crea contemporaneamente un nuovo problema. La gestione del fango prodotto dal trattamento delle stesse. Generalmente si può calcolare che, 100 m3 di scarichi producano circa 1 m3 di fango al giorno. Il fango deve subire idonei trattamenti di riduzione della frazione organica e putrescibile, e deve, per poter essere smaltito, subire un trattamento di disidratazione con il quale si incrementa il tenore percentuale di sostanza secca. Il trattamento dei fanghi è a tutti gli effetti il punto cruciale degli sforzi sia tecnici che economici dei gestori di impianto.

Talvolta si verifica anche la necessità di introdurre modifiche allo schema di processo di un impianto di depurazione per far fronte a variazioni di carico organico influente. Tali variazioni possono incrementare la produzione giornaliera di fanghi. In un caso di questo genere può essere utile il dosaggio di un adeguato flocculante nella sezione di sedimentazione primaria, a monte del trattamento di ossidazione biologica. Per chi non lo ricordasse la flocculazione è un processo che determina l’accorpamento delle particelle colloidali presenti principalmente atttraverso la neutralizzazione delle loro cariche superficiali.

Presso l’impianto di depurazione di Varese, per le ragioni suddette e in attesa di un intervento di ampliamento che portò alla costruzione di una nuova linea di ossidazione biologica, e la realizzazione di un nuovo digestore anaerobico di maggiore volumetria (3500 m3 rispetto ai 1800 m3 del preesistente) venne effettuata una sperimentazione realizzata su un impianto pilota, per verificare l’efficacia tecnico economica di una soluzione di questo tipo. Il flocculante testato era cloruro ferrico in soluzione commerciale.

Si voleva in questo modo verificare la possibilità di diminuire il carico inquinante in ingresso alla fase di ossidazione, cercando di ottenere il duplice risultato di diminuire sia la quantità di fango da destinare al successivo trattamento di digestione anaerobica, sia il consumo energetico per l’ossigenazione della biomassa.

A tale scopo venne utilizzato un impianto pilota costituito da un sedimentatore primario, una vasca di ossidazione, e un sedimentatore finale.

Il dosaggio di cloruro ferrico (soluzione al 41% in peso) venne determinato tramite prove preliminari eseguite con jar test e venne fissato in 70 mg/lt, ed il punto di dosaggio era il sedimentatore primario dell’unità pilota. La portata di alimentazione di 160 lt/h. Il tempo di ritenzione in sedimentazione primaria pari 2 ore, e in ossidazione a 3,5 ore.

I campionamenti venivano eseguiti tre volte a settimana sia sulla linea acque (punti di prelievo ingresso, uscita sedimentatore primario, e uscita finale), che sulla linea fanghi (ossidazione biologica).

I parametri determinati in linea acqua comprendevano Ph, COD, Fosforo totale, Solidi sospesi totali e tutte le forme di azoto (TKN, N-NO2, N-NO3)

I parametri ricercati sulla linea fanghi (ossidazione biologica) erano la concentrazione di fango, la percentuale di sostanza volatile e l’indice di volume dei fanghi (MLSS-MLVSS e SVI).

Le percentuali di abbattimento ottenute sull’impianto pilota vennero confrontate con quelle dell’impianto reale. Come era logico attendersi le percentuali di abbattimento di parametri quali il COD e i solidi sospesi totali risultarono maggiori nel sedimentatore primario pilota, rispetto a quelle riscontrate sull’impianto reale, con incrementi del 30% e del 20% rispettivamente.

La valutazione del consumo energetico necessario alla biodegradazione dei reflui in fase biologica, assumendo come valore di riferimento quello di 0,6 KWh/Kg COD, reperito in letteratura, permise di stabilire che il trattamento poteva diminuire il consumo energetico del 12,7%. Il consumo medio dell’impianto in esercizio era di 1900 Kwh, mentre con il dosaggio di flocculante si poteva ridurre a 1658 KWh.

L’aggiunta di flocculante implicava una produzione aggiuntiva di fango chimico, costituito principalmente da fosfato ferrico di circa 0,4 Kg/Kg di FeCl3 dosato, pari a 106 Kg/g.

Ma il minor carico inquinante che veniva inviato in fase di ossidazione permetteva una riduzione della produzione di fango biologico pari al 26% (962 kg/giorno nel processo convenzionale, 712 Kg/g nel processo di pre-precipitazione).

La produzione totale di fango inviato in digestione anaerobica risultava cosi ridotta del 14% rispetto alla gestione con solo trattamento biologico. Oltre a questo, considerando che il fango chimico risultava più concentrato ed ispessito, rispetto al solo fango biologico (primario+supero), si poteva diminuire la volumetria del fango che si doveva inviare al digestore che risultava sovraccaricato. In questo modo ne avrebbe beneficiato anche la resa in biogas.

La riduzione di carico organico influente in ossidazione biologica avrebbe favorito anche il rendimento della reazione di nitrificazione.

Vista la situazione di criticità dell’impianto si decise di sperimentare soltanto il dosaggio di flocculante di 70 mg, e si misero in opera delle strutture provvisorie ed asportabili per il dosaggio di flocculante.

I risultati sulla gestione operativa dell’impianto si dimostrarono congruenti con quelli della sperimentazione.

In questo modo si riuscì a gestire una situazione di criticità gestionale, che, vista anche la vicinanza dell’impianto a un centro commerciale, e a uffici amministrativi, sarebbe potuta diventare delicata dal punto di vista delle molestie olfattive. La riduzione di fango caricato, migliorò decisamente la produzione di biogas del digestore e quindi la riduzione della sostanza organica volatile suscettibile di produrre cattivi odori. Per quanto riguarda invece il beneficio dovuto al risparmio energetico, non essendo stato previsto nella fase di progetto iniziale il recupero del biogas prodotto, che viene tuttora utilizzato solo per il riscaldamento del digestore, esso si limitò al minor consumo per l’ossigenazione della biomassa nella sezione di ossidazione biologica.

Il dosaggio di cloruro ferrico venne mantenuto per due anni e mezzo. Nell’agosto del 1999 si collaudarono e si misero in funzione le nuove sezioni di impianto, e l’impianto di dosaggio del cloruro ferrico venne smantellato.

L’esperienza è interessante, e dimostra come in casi sia di sovraccarico, che di necessità di raggiungere limiti più restrittivi allo scarico, si possano mettere in atto soluzioni provvisorie ma decisamente efficaci.

Il ricordo di quel periodo è certamente quello di un impegno abbastanza gravoso, anche per il laboratorio. Va precisato che in quel periodo non erano ancora stati introdotti i kit analitici, e tutte le analisi venivano effettuate con metodiche tradizionali. Ma alla fine il lavoro diede i suoi frutti, e il ricordo che ho è quello di una collaborazione proficua tra tutti settori che si impegnarono per questa realizzazione.

Ora per l’impianto di Varese si prospetta un’ulteriore fase di ampliamento per continuarne la vita operativa. Il decano dei depuratori nel territorio provinciale di Varese svolge infatti il suo lavoro di “lavaggio delle acque” dal lontano 1983.

La cultura nell’era post-industriale.

In evidenza

Luigi Campanella, già Presidente SCI

Il mondo cambia e con esso l’organizzazione civile e sociale. Anche la cultura ed i suoi servizi dovrebbero rinnovarsi per rispondere ad una richiesta sempre più pressante ma anche diversificata per situazione abitativa, livelli di formazione, possibilità di spese.

Che cosa dire del museo tradizionale? Centralità, linearità, rigidità, nella migliore tradizione gerarchica. Rigidità dovuta al fatto che un museo è stato lungamente identificato con un preciso modello, museo tradizionale come blocco monolitico indipendente dall’esterno, che offre una o poche chiavi di lettura in quanto lineare e rigido.

La cultura non può essere inglobata in un museo onnicomprensivo, esaustivo, assoluto, ma devono essere tenute in conto tutte le interdipendenze fra le numerose branche e ciò può essere attuato soltanto con un modello reticolare che abiliti il maggior numero di connessioni possibili. Dinamicità e flessibilità, quindi, in quanto ad ogni esigenza imprevista la struttura può adeguarsi aggiungendo nodi e connessioni, forgiando quindi nuovi percorsi che agevolino anche le periferie e tutte le zone della città. Il museo del futuro, come tutti i sistemi configurati secondo il modello distribuito della rete deve tendere a privilegiare le possibili connessioni fra i suoi poli elementari, piuttosto che un singolo ambiente centralizzato che raccolga tutto lo scibile umano. La differenza è notevole.

Reputazione e referenze: le carte vincenti del lavoratore post-industriale Ivana Pais Università degli Studi di Brescia 3 febbraio 2009.

Società nell’ Era Post-Industriale

Non stiamo vivendo uno sconvolgimento temporaneo, una congiuntura negativa per economia e politica, ma piuttosto i sintomi di un cambiamento radicale, il passaggio fra due epoche, quella industriale, nata nel diciottesimo secolo in seguito alla spinta ideale dell’illuminismo e quella Post-Industriale.

Era Post-Industriale significa affermazione di un nuovo concetto di capitalismo, nettamente diverso da quello tradizionale. Nel secolo scorso Marx ed Engels svilupparono una critica molro dettagliata del capitalismo, in base ad un’accurata analisi delle condizioni delle masse lavoratrici. Un capitalismo ingiusto, a loro parere, perché incentrato sulla concorrenza spietata, su un profitto che avvantaggiava pochi fortunati a scapito di una maggioranza insoddisfatta ma necessaria per generare il profitto stesso.

Le soluzioni alternative prospettate dai pionieri del comunismo non hanno tuttavia condotto ai risultati attesi, la Storia lo dimostra, tutti gli esperimenti più o meno seri sono falliti miseramente, Unione Sovietica, in primis. Il capitalismo criticato da Marx sta subendo lo stesso destino, se è vero che tutte le strutture e le organizzazioni che hanno sposato i suoi insegnamenti ora stanno attraversando un momento di crisi profonda.

Cosa ci riserverà l’Era Post-Industriale?

Prima di tutto l’internalizzazione, il dissolvimento di qualsiasi frontiera, che sia territoriale o semplicemente simbolica. L’Era Industriale ha concorso a creare le infrastrutture e la tecnologia per eliminare le distanze fra i popoli, per rompere le diversità, per edificare una mentalità universale basata su principi comuni, validi per qualsiasi individuo indipendentemente dal suo luogo di origine. L’Era Post-Industriale sarà segnata da un nuovo cosmopolitismo, da una maggiore libertà di movimento, dalla condivisione dei patrimoni informativi.

La crisi di alcuni principali gruppi industriali del nostro tempo è riconducibile ad una serie di cause più o meno influenti, fra cui senz’altro l’incapacità di motivare il singolo, di farlo sentire in qualche modo importante. L’uomo del futuro sceglierà lavori stimolanti, attività che contribuiranno a far aumentare la fiducia in se stesso, e scarterà le strutture tradizionali, destinate ad un’ingloriosa estinzione.

Era Post-Industriale significherà anche rivalutazione della qualità della vita, ricerca di lavori diversi, occupazioni più innovative per minimizzare gli sforzi e massimizzare i risultati.

L’Era Post-Industriale, per riassumere, combatterà strenuamente le divisioni rigide, le strutture soffocanti per la personalità umana, le situazioni di staticità, per favorire il dinamismo globale, l’interattività e l’etica.

Le donne scienziate in Russia nella seconda metà del XIX secolo: “migranti della conoscenza”. 2.

In evidenza

Rinaldo Cervellati

(la prima parte di questo post è pubblicata qui)

Le prime donne ad ottenere il dottorato furono quelle che erano riuscite a essere ammesse come uditrici all’Accademia medico-chirurgica di San Pietroburgo prima del divieto del 1863. Fra queste è importante ricordare Nadezhda Suslova (1843-1918) e Maria Bokova-Sechenova (1839-1929). Entrambe ottennero il dottorato in medicina all’Università di Zurigo, la prima nel 1867, la seconda nel 1871.

Nadezhda Suslova M. Bokova-Sechenova

Suslova ottenne il permesso di esercitare la professione in Russia nel 1868, al suo ritorno a San Pietroburgo.

Negli anni successivi Suslova, oltre a fare il medico ha effettuato ricerche in fisiologia, ginecologia e igiene. E’ stata una delle prime a osservare che la cecità neonatale poteva essere causata dall’esposizione alla gonorrea durante passaggio attraverso il canale del parto.

Maria Bokova-Sechenova fu autorizzata a esercitare come medico a San Pietroburgo nel dicembre 1971.

Bokova-Sechenova era interessata alla ricerca più che alla pratica medica. Tornò quindi in Europa occidentale per specializzarsi in oftalmologia a Vienna e successivamente ha lavorato come ricercatore e oculista nei laboratori delle Accademie russe di scienze e medicina. Tuttavia, dopo aver ereditato una piccola tenuta, si interessò di agronomia e infine realizzò una fattoria sperimentale che divenne la sua principale occupazione.

Una menzione particolare merita Sofia Kovalevskaia (1850-1891) un genio matematico internazionalmente riconosciuto. A 18 anni si recò insieme al giovane marito paleontologo all’università di Heidelberg per poter continuare gli studi. Frequentò le lezioni di matematica di Paul Du Bois-Reymond, le lezioni di fisica di Hermann von Helmholtz  e  Gustav Kirchhoff e quelle di chimica di Robert Wilhelm Bunsen. Dal 1870 al 1874 andò a Berlino dove Karl Weierstrass, colpito dalle sue doti matematiche, volle prenderla sotto la sua guida impartendole lezioni private. Kovalevskaja preparò tre diverse tesi di dottorato sotto la guida e il sostegno di Weierstrass, ne elaborò una quarta che nel 1874 le fece guadagnare un dottorato summa cum laude presso l’Università di Gottingen. Il principale risultato, conosciuto come Teorema di Cauchy-Kovalevsky, fu pubblicato nel 1875. Fu così che ottenne, prima donna in Europa, un dottorato in matematica. Il suo ritorno in Russia fu inutile per la sua carriera professionale poiché nessuna Università riconobbe i titoli conseguiti in Europa. Tuttavia nel 1881 fu nominata membro della Società Matematica di Mosca come docente privato.

Sonia Kovalevsky

Ritornata in Germania ebbe una figlia, Sofia. Dopo la morte del marito, nel 1883 si trasferì con la figlia a Stoccolma. Nel 1884 cambiò nome e si fece chiamare Sonia Kovalevsky. Divenne, prima donna al mondo, professore di matematica, ottenendo la cattedra all’Università di Stoccolma. In breve tempo imparò perfettamente lo svedese tanto da pubblicare i suoi lavori di matematica in questa lingua.

Dopo aver vinto due premi rispettivamente dell’Accademia di Parigi e di quella di Svezia, nel 1888 fu nominata membro dell’Accademia delle Scienze di Russia.

Sarebbe difficile sopravvalutare le straordinarie realizzazioni di questo primo gruppo di donne russe nella scienza. Provenivano da uno dei paesi più reazionari d’Europa e si impegnarono per cambiare i sistemi educativi europei con determinazione. Sofia Kovalevskaia persuase da sola l’Università di Heidelberg a ritirare il divieto di ammettere donne. Nadezhda Suslova ottenne lo stesso risultato con l’Università di Zurigo. Vera Goncharova è stata nel primo gruppo di quattro donne cui è stato permesso di studiare presso la Facoltà di Medicina a Parigi.

Nonostante i successi delle donne russe nelle università dell’Europa occidentale, i loro percorsi successivi post diploma o dottorato non furono affatto facili. Sulle centinaia di donne che andarono a studiare all’estero nei primi anni del 1870, solo una percentuale valutata fra il 20 e 30% [1], ha completarono i loro programmi. E su quelle che l’hanno fatto, non tutte riuscirono a sfruttare la specialità conseguita. Molte sono le ragioni che hanno contribuito a questo esito non soddisfacente.

Naturalmente, molto è dipeso dallo stress a cui sono state sottoposte le studentesse di tutte le età: la pressione dalle famiglie, la convinzione che le loro scelte professionali fossero essenzialmente dovute a spregiudicatezza, la mancanza di appropriati modelli di ruolo, il sottile quando non palese pregiudizio degli uomini, ecc. Ma c’erano anche alcuni fattori peculiari degli atteggiamenti delle donne russe donne dell’epoca. Come la femminista radicale P.N. Arian ha sottolineato: “Bisognava avere un coraggio e un’energia immensi per andare contro la società, la famiglia e gli amici e partire da sole per luoghi lontani in cerca di realizzarsi nella scienza” [1].

Verso la fine del movimento

Dal 1870 il governo zarista cominciava a sentire un forte disagio per la sempre crescente colonia femminile all’estero. Attraverso le informazioni di una fitta rete di spie, sapeva che gli studenti femmine e maschi si incontravano liberamente con emigrati molto radicali come l’anarchico Mikhail Bakunin (1814-1876) e il narodista (populista,dal russo narod = popolo) Piotr Lavrov (1823-1900), ed era evidente che molte giovani donne erano influenzate da questi pensatori politici. Allarmato da tutto ciò, nel giugno del 1873 il governo russo emise un proclama che richiamava in Russia tutte le studentesse di Zurigo. Chiunque fosse rimasta dopo il 1 ° gennaio 1874 sarebbe stata esclusa dalla possibilità di lavorare in qualsiasi istituzione russa.

Le donne erano scioccate e offese dal contenuto e dal tono del proclama, ma molte di loro decisero che non avevano altra scelta che andarsene da Zurigo. Gli studenti più poveri non potevano permettersi di mettere in pericolo le loro possibilità di occupazione in Russia. Le istituzioni governative erano infatti la loro principale speranza per un lavoro come medico, ricercatore o insegnante. Inoltre, alcune donne erano abbastanza ingenue da credere che presto sarebbero state ammesse agli esami di licenza e alle università russe se avessero obbedito all’ordine del governo.

Altre, cercarono di stabilirsi altrove, Berna, Ginevra e Parigi furono fra le mete preferite, ma continuando la persecuzione zarista anche Boston e Filadelfia furono prese in considerazione.

Tuttavia il governo zarista dovette affrontare un dilemma. Da un lato, la Russia aveva bisogno di personale medico e scientifico, e quindi molti amministratori sollecitarono la liberalizzazione dell’accesso delle donne all’istruzione superiore e alla formazione professionale. D’altra parte, molte di quelle donne che avevano studiato scienze in patria o all’estero erano schedate dalla polizia per le loro attività politiche, e alcune erano addirittura al centro stesso della lotta rivoluzionaria. Sulle otto donne del comitato esecutivo di diciotto membri dell’organizzazione militante narodistsa Volontà Popolare, due avevano studiato a Zurigo. L’autocrazia quindi contemporaneamente all’inasprimento del proclama di Zurigo, istituì corsi di istruzione per donne, permise l’istituzione di corsi di formazione per donne e corsi superiori per “ostetriche istruite” a San Pietroburgo, Mosca e altre grandi città dell’impero russo.

Il movimento delle donne russe considerò la creazione di questi corsi un grande trionfo. I corsi per le ostetriche istruite aperti a St. Pietroburgo nel 1872 furono i primi corsi di medicina esclusivamente per donne in Europa. Questi corsi raggiunsero presto un livello uguale a quello dei Corsi di medicina per uomini russi, anche se le donne laureate non furono autorizzate a chiamarsi “dottori”.

Si può comunque sostenere che molti di questi corsi rappresentarono un passo indietro per le donne scienziate in Russia. Mentre quelli di medicina erano a un livello ragionevolmente alto, i corsi femminili superiori in altre discipline non erano del calibro di quelli che le donne russe avevano seguito in Europa occidentale.

Inoltre, anche nei corsi femminili, mentre le donne potevano essere supervisori o assistenti di laboratorio, non potevano diventare professori.

Dopo l’assassinio di AIessandro II nel 1887 (attribuito al movimento Volontà Popolare) i corsi di medicina smisero di accogliere nuovi studenti o furono chiusi completamente. Solo nel 1895 fu approvato un nuovo istituto medico femminile. Quando anche gli altri corsi furono riaperti nel 1889, si scoprì che erano state prese misure per limitare alle donne lo studio delle scienze. Le facoltà di scienze matematiche, fisiche e naturali erano state notevolmente ridimensionate, i laboratori erano stati chiusi e molti insegnamenti di scienze naturali erano stati cancellati. Completamente aperti alle donne furono solo gli studi linguistici e artistici ritenuti dalle autorità abbastanza innocui.

Così si esaurì la prima fase della storia delle donne nella scienza in Russia. Solo dopo molti anni, nel XX secolo le cose cambieranno grazie ancora a donne che ottennero risultati scientifici paragonabili a quelli delle scienziate della prima generazione, qui ricordate.

Per la redazione di questo post ho attinto in particolare dalle seguenti opere:

[1] A. H. Koblitz, Science, Women, and the Russian Intelligentsia. The Generation of the 1860s,

ISIS, 1988, 79, 208-226.

[2] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

Le donne scienziate in Russia nella seconda metà del XIX secolo: “migranti della conoscenza”. 1.

In evidenza

Rinaldo Cervellati

Nel libro European Woman in Chemistry, più volte da me citato, è ricordata Julia Lermontova (1846-1919), chimico russo della seconda metà del XIX Secolo. Da una più dettagliata ricerca mi sono reso conto che altre due colleghe di Lermontova, precisamente Anna Volkova (?-1878) e Nadezhda Ziber-Shumova (1870?-1914) sono state, insieme a molte altre donne scienziate, protagoniste di quel movimento di emancipazione femminile che ebbe inizio in Russia negli anni ’60 e ’70 del XIX secolo per filtrare poi in tutta Europa [1,2]. Mi sembra quindi opportuno premettere un excursus storico generale tenendo anche conto che della storia Russa quasi tutti ne sappiamo poco…

Il contesto storico e socio-politico

Nel 1855, l’ascesa al trono dello Zar Alessandro II, considerato un liberale rispetto al padre, Nicola I, suscitò una serie di aspettative nell’intelligentsia[1] e nella parte più progressista della nobiltà e della borghesia riformista. In effetti, nel 1861 promulgò la legge sull’emancipazione, con la quale venne abolita la servitù della gleba da tutto il territorio imperiale determinando l’indipendenza della maggioranza dei contadini russi. Nel 1864 riformò l’amministrazione locale creando assemblee elettive dei rappresentanti dei distretti, e promulgò la riforma dell’ordine giudiziario. L’anno precedente aveva avviato una controversa riforma dell’università che prevedeva però un aumento di fondi statali e l’autonomia dei docenti.

L’élite istruita sperava quindi che l’emancipazione dalla servitù e la riforma dell’istruzione sarebbero state accompagnate da un miglioramento della situazione delle donne, una democratizzazione del governo zarista e una liberalizzazione generale della società russa.

L’ottimismo era particolarmente diffuso fra i giovani (come capita quasi sempre) che si definirono “nihilisti” (o nichilisti) mutuando questo aggettivo dal famoso romanzo Padri e Figli (1862) di Ivan Turgenev, dove il protagonista si autodefinisce appunto “un nichilista”. Secondo Ann Koblitz [1], l’intenzione di Turgenev sarebbe stata di descrivere il suo giovane protagonista come un ribelle che negava tutte le istituzioni della società zarista solo per il piacere di provocare gli anziani.

Ivan Turgenev

 

Edizione di Padri e Figli in russo

Ma molti giovani, lungi dall’essere offesi da questa interpretazione, accettarono con entusiasmo l’aggettivo dichiarandosi nichilisti nel senso che “nulla nella società dei loro genitori valeva la pena di essere salvato; La Russia doveva essere completamente rifondata”[1].

In realtà, i giovani degli anni ’60 del XIX secolo avevano un’incrollabile fede nelle scienze naturali e nel potere dell’educazione, credevano fortemente nell’uguaglianza fra uomini e donne, ammiravano i contadini, le istituzioni rurali e desideravano essere in qualche misura utili all’emancipazione del popolo russo[2].

Per i nichilisti, la scienza sembrava il mezzo più efficace per raggiungere questo scopo: essa aveva respinto le barriere poste dalla religione e dalla superstizione e “provato” attraverso la teoria dell’evoluzione che le rivoluzioni sociali (pacifiche) erano la strada naturale da percorrere [1].

Conseguenze nella scienza in Russia

L’entusiasmo dei nichilisti per la scienza, insieme alla decisione del governo di dedicare materiali e risorse allo sviluppo scientifico, produsse rapidamente ottimi risultati: gli anni ‘60 e ’70 del XIX secolo sono considerati una “golden age” della scienza russa [1].

Agli storici della scienza sono ben presenti i nomi di Ivan Sechenov e Kliment Timiriazev in fisiologia; Dmitri Mendeleev, Aleksander Butlerov e Vladimir Markovnikov in chimica; Ilya Mechnikove, Aleksander Kovalevskii in embriologia; Ivan Pavlov in neurofisiologia; e Vladimir Kovalevskii in paleontologia, solo per citare i più noti. Forse meno noto è che a vari livelli tutti questi scienziati furono coinvolti nel fermento degli anni ‘60 e che molti di essi si consideravano nichilisti.

L’atteggiamento delle università russe nei confronti delle donne

Nei primi anni del 1860 le donne formavano una parte significativa di un gruppo poco caratterizzato di uditori non ufficiali che vagavano dentro e fuori dalle aule dell’Università di San Pietroburgo e di altre accademie tecniche specializzate. Professori e studenti le accoglievano volentieri, e inizialmente le autorità le tolleravano benevolmente, in seguito poi alla fine della guerra di Crimea (1856) e alla legge sull’emancipazione (1861) vi fu una certa liberalizzazione nella struttura universitaria. In questo periodo L’Accademia medico-chirurgica di San Pietroburgo cominciò ad ammettere le donne come studenti su base semiufficiale. Non potevano ricevere lauree, ma potevano sostenere in modo informale esami e lavorare nei laboratori dell’istituzione, entusiasticamente incoraggiate dai professori progressisti della facoltà.

Le studentesse erano ottimiste riguardo alle loro capacità e impegno, erano persuase che i loro studi avrebbero convinto il governo zarista ad ammetterle sulla stessa base degli uomini. Speravano che il nuovo statuto universitario in fase di elaborazione in quel momento, avrebbe codificato il loro ingresso nelle istituzioni di istruzione superiore in tutto l’impero russo. Una proposta di bozza dello statuto, approvata da tutte le università tranne Mosca e Dorpat, suggeriva infatti che le donne fossero ammesse con gli stessi diritti degli uomini. Se questa versione dello statuto universitario fosse stata adottata, la Russia sarebbe stata il primo paese in tutta Europa a concedere alle donne lo stesso status e le stesse lauree degli uomini. Sfortunatamente, lo zar fu molto restio e il governo intervenne a bocciare il provvedimento.

La conseguenza fu una serie di manifestazioni studentesche. Per le donne dell’intelligentsia il risultato più sfortunato del malcontento studentesco fu che le università si chiusero per loro. In termini puramente numerici non erano molte le donne coinvolte nelle proteste. C’erano meno donne uditori rispetto agli studenti maschi, e la maggior parte di esse temeva la sospensione dall’università se avessero partecipato alle dimostrazioni. Ma alcune donne avevano posizioni elevate nel movimento studentesco, quindi attrassero l’attenzione della polizia zarista.

La proposta di consentire alle donne di immatricolarsi ufficialmente fu definitivamente abbandonata, e nello statuto universitario riveduto del 1863 le donne non furono nemmeno menzionate. Inoltre, agli istituti di istruzione superiore fu ordinato di permettere l’ingresso solo agli studenti regolarmente iscritti, nella speranza di controllare così gli elementi più “sovversivi”.

Le donne più determinate e impegnate (spesso quelle con possibilità finanziarie) decisero di andare a studiare all’estero. La maggior parte di loro si recò all’Università o al Politecnico di Zurigo, perché le università svizzere accettavano donne straniere senza esami di ammissione. Questo era un punto importante, perché la maggior parte delle donne russe aveva ricevuto poca o nessuna istruzione formale. Inoltre, le tasse scolastiche e di soggiorno erano relativamente basse a Zurigo, dove esisteva già una grande colonia di studenti russi e di esiliati politici così che le donne si sentivano meno sole.

Dal 1865 al 1873, Zurigo vide una quantità sempre maggiore di donne russe in cerca di diplomarsi o laurearsi in scienze naturali o medicina.

In larga misura si deve a questa prima generazione di donne russe, l’ammissione femminile all’istruzione superiore nell’Europa continentale. Sono state le prime studentesse a Zurigo, Heidelberg, Lipsia e altrove, nonché le prime donne a ottenere dottorati in medicina, matematica, chimica e biologia.

In realtà le donne degli anni ‘60 furono spesso sorprese dal loro status di pioniere. Molte donne nichiliste erano piene di idealismo sull’Occidente e sul livello di democrazia e uguaglianza che secondo loro aveva raggiunto l’Europa occidentale. Inizialmente si sentirono inferiori, provenendo dall’ “arretrata” Russia, e si aspettavano fiduciosamente di unirsi a ranghi di numerose donne europee già impegnate in seri studi. Con grande stupore scoprirono invece che le loro idee e atteggiamenti, il loro entusiasmo per l’educazione e la loro determinazione a riuscire non erano affatto condivise dalle donne dell’Europa occidentale. Sotto alcuni aspetti, ciò le pone in prima linea nella costruzione del movimento femminista in Europa [1].

Soprattutto nei primi anni della colonia studentesca russa a Zurigo, incontrarono poche donne di altre nazioni. Anche le donne svizzere tendevano a non approfittare delle opportunità del loro Paese per l’istruzione avanzata, forse in parte perché gli svizzeri, a differenza degli stranieri, erano tenuti a ottenere il diploma ginnasiale per poter essere ammessi alle università o ai politecnici.

Dai dati statistici dell’Università di Zurigo risulta che dall’inverno 1863/64 all’estate 1872 la provenienza delle studentesse straniere fu di 23 inglesi, 10 tedesche, 6 austriache, 6 americane e ben 148 russe, contro solo 10 svizzere [1].

Ma il soggiorno in Svizzera non fu certo una “pacchia” per queste “migranti della conoscenza”. Sebbene alcune di esse avessero il sostegno dei genitori o in qualche caso dei mariti, molte si trovarono in difficoltà. Dovettero economizzare nel cibo, nell’alloggio, condividere libri e in certi casi alternarsi nell’uso di cappotti e stivali invernali [1]. Altri problemi derivarono da differenze socio-culturali.

Sebbene i professori trattassero con cortesia se non con entusiasmo, gli studenti russi, non altrettanto fu il comportamento dei comuni cittadini svizzeri, la maggior parte dei quali disapprovava il comportamento dei russi, in specifico quello delle donne. Anzitutto non capivano il loro desiderio di istruzione, in particolare per aree come le scienze e la medicina, considerate discipline poco femminili. Gli svizzeri furono scandalizzati anche dai rapporti di cameratismo fra le donne russe e le loro controparti maschili. Per i cittadini della classe media di Zurigo, i capelli corti di queste donne, i loro abiti semplici, i manierismi senza scrupoli e l’abitudine a fumare sigarette erano scioccanti. Se si aggiunge la tendenza delle russe a chiacchierare a tutte le ore, a passeggiare in città in gruppi di sesso misto, si può immaginare come molti svizzeri le considerassero poco più che prostitute. Le donne trovarono quindi difficoltà ad ottenere camere soddisfacenti in affitto e furono spesso discriminate e ridicolizzate nei negozi e nei mercati.

(continua)

[1] Nella Russia imperiale, con il termine intelligentsia veniva descritta una classe di intellettuali in grado di assumere una leadership culturale. A questi intellettuali veniva tuttavia impedito l’accesso alle leve ufficiali della politica e dell’ economia.

[2] Molto di tutto ciò è presente anche nel pensiero di Basarov, il protagonista di Padri e Figli, il nichilista che non credeva in nulla…, Un libro che ha molto influenzato la mia giovinezza (e non solo quella…)

Due lettere a LaRepubblica

In evidenza

Vincenzo Balzani

Con il permesso del’autore riproduciamo qui due lettere inviate recentemente a La Repubblica da Vincenzo Balzani; gli argomenti sono quelli tipici del nostro blog: energia, ambiente, il nostro rapporto con queste cose, il ruolo della Chimica. Non sono state pubblicate e così rimediamo noi nel nostro piccolo.

Eni e noi, abitanti della Terra

Caro Direttore,

ho letto su Repubblica del 16 giugno l’appello sulla Rivoluzione Energetica dell’A.D. di ENI Claudio Descalzi. Quanto è scritto nella prima parte dell’articolo è completamente condivisibile: “Clima ed energia sono i fattori su cui si gioca il futuro, …. la transizione energetica deve essere guidata dalla protezione dell’ambiente, … siamo lontani dal contenere l’aumento delle temperature al di sotto del limite dei 2°C fissato dalla Cop21 di Parigi”.

Da queste premesse si dovrebbe trarre, come scrive papa Francesco nell’enciclica Laudato si’, la conclusione che “I combustibili fossili devono essere sostituiti senza indugio …”. Descalzi si guarda bene dal dirlo, confermando così quanto affermato dal papa stesso: ”… ma la politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide” (165)”.

Descalzi informa che Eni ha abbattuto la componente carbonica della sua attività, ma non dice che si tratta di una goccia nel mare di CO2 che Eni direttamente o indirettamente genera con i quasi due milioni di barili di petrolio prodotti al giorno! Qua e là Descalzi cita le energie rinnovabili, ma come ha affermato in molte altre occasioni reputa che non siano “mature” e sostiene che l’unica via per salvare il clima è utilizzare il metano come fonte energetica “ponte”. In realtà l’energia elettrica prodotta dalle energie rinnovabili è già oggi competitiva sul piano economico, anche senza considerare i problemi sanitari e climatici creati dai combustibili fossili. Le energie rinnovabili, insomma, sono già disponibili e pronte all’uso: quello che manca è la volontà di utilizzarle, a causa degli enormi interessi economici e di potere che ne verrebbero colpiti.

Non serve ricorrere al metano come energia “ponte”, anche perché il metano non è affatto innocente riguardo i cambiamenti clmatici. Descalzi dovrebbe saperlo, ma non lo dice. E’ vero, infatti, che a parità di energia prodotta la quantità di CO2 generata dal metano è inferiore di circa il 25% di quella generata dal petrolio, ma è anche vero che il metano rilasciato in atmosfera è un gas serra 72 volte più potente di CO2 quando l’effetto è misurato su un arco di 20 anni (25 volte più potente quando misurato su 100 anni). Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, è chiaro che estendendo l’uso del metano non si combatte affatto il cambiamento climatico.

Nel campo dei trasporti, oltre che sul metano Eni fa molto affidamento sui biocombustibili, in netta contraddizione con la realtà dei fatti. Studi scientifici dimostrano che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è almeno 50 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocombusibili. In effetti, quello che gli esperti prevedono non è una sostituzione significativa dei combustibili fossili con biocombustibili, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici non inquinano, non producono CO2, sono quattro volte più efficienti dei motori a combustione interna e sono molto più facili da riparare e da mantenere.

In Italia, quindi, non servono altre bioraffinerie alimentate da olio di palma proveniente dalla Malesia, ma fabbriche di pannelli fotovoltaici, batterie, auto elettriche e colonnine per la ricarica.

Infine, Descalzi lega lo sviluppo dell’Africa, oltre che all’enorme potenziale di energia solare ed eolica, anche alla presenza, in quel continente, di enormi riserve di combustibili fossili, molte delle quali scoperte da Eni, che ha anche l’obiettivo di scoprire altri 2 miliardi di barili di combustibili fossili perforando 115 pozzi in 25 paesi. In base all’accordo di Parigi, però, la maggior parte delle riserve di combustibili fossili già note dovrà rimanere nel sottosuolo. Se quell’accordo sarà osservato, Eni avrà problemi economici. Se invece la politica permetterà di usare tutte le riserve, i problemi, purtroppo, li avremo noi, abitanti della Terra.

Vincenzo Balzani, Professore Emerito, Università di Bologna

 

Lettera a Repubblica 26 giugno 2018

Egregio direttore Calabresi,

Apprendo da Repubblica di oggi che nel “pacchetto formazione” concesso agli operai della Lamborghini in orario di lavoro retribuito sono state inserite Lezioni sulla Costituzione. E’ certamente un’ottima iniziativa.

Credo però che sarebbe necessario ricordare a tutti, cominciando dai politici che hanno salutato con entusiasmo la produzione del nuovo SUV Urus come straordinario esempio di innovazione che:

  • nei motori a scoppio, usati da più di un secolo, non c’é più nulla da innovare; se si vuol fare

innovazione nel campo delle automobili, oggi la si può fare solo sulle auto elettriche.

  • con la sua mostruosa potenza di 600 CV e gli alti consumi di combustibili fossili, il SUV Lamborghini è un emblema del consumismo dal quale le vere innovazioni dovrebbero farci uscire;
  • col suo prezzo di 250.000 euro, Urus è l’icona delle disuguaglianze che, a parole, tutti dicono di voler abbattere.

Non sarebbe male, allora, inserire nel “pacchetto formazione” anche, un paio di frasi dell’enclica di Papa Francesco:

  • Il ritmo di consumo, di spreco e di alterazione dell’ambiente ha superato le capacità del pianeta; lo stile di vita attuale, essendo insostenibile, può sfociare solamente in catastrofi”.
  • Ci dovrebbero indignare le enormi disuguaglianze che esistono tra di Non ci accorgiamo più che alcuni si trascinano in una miseria degradante, mentre altri non sanno nemmeno che farsene di ciò che possiedono”.

Cordiali saluti,

Vincenzo Balzani, Professore emerito, Università di Bologna

 

Michael Mann: Percezione e negazione del cambiamento climatico.

In evidenza

Mauro Icardi

Michael Mann fisico e climatologo, attualmente ancora impegnato nella collaborazione con l’IPCC (Intergovernmental Panel on Climate Change), Direttore dell’Earth System Science Center presso la Pennsylvania State University, e autore di “La terra brucia” in questi giorni è stato in visita in Italia.

Mann ha tenuto una serie di incontri dedicati ai cambiamenti climatici, e al triste fenomeno del negazionismo relativamente alla sua origine antropica. Io ho potuto ( e voluto) assistere a quello tenutosi nella sede della Società Meteorologica Italiana, cioè nel Real Collegio Carlo Alberto di Moncalieri, dove la stessa venne fondata nel 1865 da Francesco Denza, padre barnabita, meteorologo e astronomo.

Prima dell’inizio della conferenza ho avuto la possibilità di visitare la collezione archeologica, la raccolta di strumenti scientifici e la collezione dei dati meteorologici raccolti da padre Denza.

Sono stato fatto salire anche sulla la torretta dell’osservatorio meteorologico dove il religioso si dedicava alle osservazioni astronomiche e meteorologiche.

La mia curiosità è stata ampiamente soddisfatta ed appagata. Anche perché non mancano strumenti che ho potuto utilizzare negli anni di studio, per esempio l’ebulliometro di Malligand.

La foto che segue mostra il professor Mann ritratto davanti a questa parte della raccolta.

Esaurita questa piacevolissima anteprima, la conferenza tenuta dal professor Mann ha positivamente rinforzato le mie convinzioni. Convinzioni che ormai da anni mi portano a cercare di mettere in pratica azioni virtuose ,volte a ridurre quanto più possibile il mio valore di emissioni di CO2. La mia formazione personale è passata anche attraverso l’esperienza ed il ricordo degli anni dell’austerity e della crisi energetica. L’esempio pratico della possibilità di una vita personale appagante, ma che non fosse preda di bramosie consumistiche ed esageratamente edonistiche viene dall’educazione che i miei genitori hanno voluto non impartirmi, ma direi donarmi.

E tutto questo di fatto è una buona base di partenza.

All’inizio della conferenza, già le parole di presentazione di Luca Mercalli inquadrano quello che sarà il tema della serata. Di fronte ai dati scientifici validati dall’istituto di Scienze dell’atmosfera e del Clima, che mostrano come la primavera del 2018 risulti essere la quarta più calda in Italia, con un aumento di temperatura media di 1,8°C, queste ragioni spariscono di fronte alle percezioni e alle opinioni comuni. E’ stata una primavera piovosa, e questo basta perché la gente la avverta automaticamente come una primavera fredda. Con buona pace di grafici e studi scientifici.

L’intervento di Michael Mann da poi conto di molte situazioni surreali e palesemente assurde. Ma prima di parlarne è giusto ricordare l’importanza e il colossale lavoro svolto da Mann e dai suoi collaboratori alla fine degli anni 90.

La raccolta dei dati sulle temperature di migliaia di anni, lo studio dei coralli, degli anelli di crescita degli alberi e i ghiacci polari. Alla fine della ricerca i dati vengono raccolti in un grafico, poi pubblicato su Nature, e conosciuto come il grafico della “mazza da hockey” (hockey stick).La curva della temperatura terrestre che è piatta, improvvisamente si impenna in corrispondenza degli ultimi due secoli, della rivoluzione industriale, dalla sempre maggior quantità di carbone, petrolio e gas naturale bruciato dall’uomo per le proprie necessità. Necessità che col tempo forse si sono trasformate, almeno in parte, in capricci consumistici.

Mann riesce a catturare l’attenzione. Potrebbe non essere così immediato, visto che ovviamente parla in inglese. Ma in sala non vola una mosca.

Scorrono anche diapositive che mi interessano particolarmente. Il cambiamento climatico impatterà, anzi sta già impattando sulle modalità di approvvigionamento delle risorse idriche. L’esempio della California è recente. E viene mostrato.

Ma il tema della serata è centrato sul negazionismo. Sulla pretesa che la pubblica opinione o la cattiva politica possano sfuggire alle evidenze scientifiche, nonché alle leggi fisiche. Sembrerebbe una specie di incubo. Invece è una deprimente e triste realtà. L’indice delle parole proibite dall’amministrazione Trump, come “evoluzionismo” è purtroppo storia recente.

Le teorie e gli studi di Mann sono stati oggetto di ogni sorta di attacchi e minacce. Minacce provenienti sia dall’ambiente scientifico, che da quello politico o dell’opinione pubblica. Mi colpiscono due cose che il professore ci mostra. La prima è la dichiarazione da parte di un membro del congresso degli Stati Uniti che l’innalzamento dei mari sia causato dalle rocce che vi finiscono dentro. La seconda opinione (che purtroppo non è mancata nemmeno in Italia) è la convinzione che in ogni caso il riscaldamento globale sia una buona cosa, una “good thing”. Un immaginario che vede la trasformazione dell’Italia, degli Usa e del pianeta in un unico enorme paradiso turistico. L’idea di un “non luogo” come quelli teorizzati dall’etnologo Marc Augè che non solo non ha nulla di realistico, ma che sottovaluta superficialmente i problemi concreti e reali del riscaldamento globale.

Devo dire che non provo nemmeno sbigottimento o stupore. Parlando di questi temi ho potuto constatare personalmente quanto abbia spazio nelle menti di molte persone, quel sottile e subdolo meccanismo di rimozione e negazione. Che in ultima analisi è solo una scusa per non agire, per procrastinare il necessario cambiamento di strategie politiche e di abitudini personali. Il solo fatto che sia ritornato ad usare la bici come mezzo di trasporto per recarmi al lavoro mi ha probabilmente qualificato agli occhi dei colleghi come eccentrico, se non incosciente.

Al termine della conferenza provo di nuovo una sensazione che non riesco a descrivere. Che è quella di sapere profondamente che non devo derogare alle mie convinzioni, e che devo continuare sulla strada intrapresa. Che passa non solo attraverso una revisione continua delle mie abitudini, nella verifica dei miei veri bisogni, ma anche attraverso un impegno di cui non mi posso privare. Anche se può sembrare faticoso o improbo. Di studio e di divulgazione. Sento che tutto questo mi fa stare bene. In pace con me stesso. Sento in maniera profondamente intuitiva che questa è la strada giusta.

E voglio lasciare alle parole del Professor Mann la chiusura e la sintesi.

«Qual è il ruolo appropriato per gli scienziati nelle discussioni pubbliche a proposito di cambiamenti climatici? Devono restare rinchiusi nei laboratori con le teste sprofondate nei loro laptops? Oppure devono impegnarsi in sforzi vigorosi per comunicare le loro scoperte e parlare delle conseguenze?

Un tempo avrei sostenuto il primo punto di vista… non desideravo nulla di più che essere lasciato solo ad analizzare i dati, costruire modelli teorici e fare scienza guidato dalla curiosità. Pensavo toccasse ad altri pubblicizzare le implicazioni delle ricerche. Prendere anche lontanamente posizione sulle politiche riguardanti il cambiamento climatico mi appariva come anatema.

Tutto ciò che ho sperimentato negli anni, mi ha convinto che quel punto di vista era sbagliato. Sono diventato involontariamente un personaggio pubblico quando il nostro lavoro finì sotto i riflettori dei media alla fine degli anni ’90. Posso continuare a convivere con gli assalti cinici contro la mia integrità e la mia persona portati avanti dalla macchina del negazionismo finanziato dalle multinazionali. Quello con cui non posso convivere è il rimanere in silenzio, mentre gli esseri umani, confusi e ingannati dalla propaganda dell’industria petrolifera, vengono condotti senza saperlo lungo un cammino tragico che condannerà le future generazioni. Come spiegheremo ai nostri nipoti che abbiamo visto approssimarsi la minaccia, ma non abbiamo fatto tutto ciò che era in nostro potere per assicurarci che l’umanità prendesse le giuste contromisure?»

(Michael E. Mann, The Hockey Stick and the climate wars, Columbia University Press 2012)

NB Questo articolo vuole anche essere un ringraziamento a Luca Mercalli, Claudio Cassardo, Daniele Cat Berro, Valentina Accordion della Società Meteorologica Italiana. Non solo per l’organizzazione di questa serata e della conferenza, ma per il loro lavoro di questi anni.

L’aroma del tartufo

In evidenza

Rinaldo Cervellati

Il tartufo è forse il più prezioso ingrediente della nostra gastronomia e viene esportato in tutto il mondo. Come è noto esistono due principali di varietà di tartufo, quello bianco e quello nero, il primo si trova prevalentemente nella zona di Alba (Piemonte), il secondo in quella di Norcia (Umbria), tuttavia i tartufi sia bianchi che neri si trovano anche in altre regioni italiane.

Tartufo bianco e nero

Premesso che i tartufi, ancorchè chiamati “preziosi tuberi” non appartengono al regno vegetale, bensì a quello dei funghi (genere Tuber, da cui la confusione), esistono diversi tipi sia della varietà bianca sia di quella nera. La più pregiata varietà bianca è il Tuber Magnatum Pico (comunemente tartufo bianco d’Alba), la più pregiata varietà nera è il Tuber Melanosporum Vittadini (comunemente tartufo nero pregiato di Norcia). Fra queste due la più costosa è senza dubbio la prima.

Bellissimi e costosissimi tartufi bianchi

Come buongustai siamo interessati ai molti piatti che si possono preparare con questo profumatissimo ingrediente, come chimici siamo curiosi di sapere quale o quali molecole sono responsabili dell’aroma dei tartufi. Studi gas cromatografici hanno mostrato che fra i numerosi composti odorosi esalati dai tartufi, i responsabili del particolare aroma sono composti dello zolfo, in particolare: nel Tuber Magnatum è prevalente il bis(metiltio)metano, mentre nel Tuber Melanosporum è prevalente il dimetil solfuro.

Bis(metiltio)metano

Ci occuperemo qui del primo composto perché in un recente numero di Chemistry & Engineering news è riportato che un gruppo di ricercatori italiani ha messo a punto un nuovo metodo analitico per distinguere il vero aroma del tartufo bianco d’Alba da quello del composto sintetico usato come additivo alimentare (D. Sciarrone et al. Multidimensional GC-C-IRMS/Quadrupole MS with a Low-Bleed Ionic Liquid Secondary Column for the Authentication of Truffles and Products Containing Truffle, Anal. Chem., 2018, DOI: 10.1021/acs.analchem.8b00386.). Questo metodo è certamente importante nella pratica poiché ad es. nel 2012, un controllo di routine da parte delle autorità in un ristorante di Bologna portò al sequestro di oltre 300 kg di merce di contrabbando. Se il materiale contraffatto fosse stato quello che dichiarava di essere, cioè purea di tartufo bianco, oggi sarebbe venduto per oltre 1 milione di dollari. Il costo di 1 kg di tartufo bianco d’Alba nella scorsa stagione è stato mediamente di 7000 dollari.

Simon Cotton, dell’Università di Birmingham, non coinvolto nella ricerca afferma: Si possono imbrogliare alcune persone con tartufi economici, ma arricchirli di aromi artificiali renderà più facile farlo con false etichettature.

Il desiderio dei consumatori per prodotti genuini determina la necessità di test analitici per prevenire tali frodi alimentari, dice Luigi Mondello, responsabile del gruppo di ricerca comprendente docenti e ricercatori delle Università di Messina, Pisa e Roma.

Quando isolato da un tartufo bianco naturale, il bis(metiltio)metano contiene carbonio-12 e carbonio-13 in un rapporto unico, determinato dall’ambiente in cui il fungo è cresciuto. Nel contempo, la versione sintetica di questa molecola contiene pure un rapporto isotopico del carbonio unico determinata dalle origini delle materie prime (petrolchimiche o vegetali) con cui è stato sintetizzato, e quindi diverso dal precedente.

Il gruppo coordinato dal prof. Mondello ha usato questa differenza per testare il bis (metiltio) metano dal tartufo naturale, diversi campioni sintetici e vari prodotti alimentari al tartufo. I ricercatori hanno raccolto campioni di tartufo bianco da tutta Italia, li hanno tagliati e sigillati in fiale contenenti fibre per assorbire i composti volatili che evaporavano dalla massa di tartufi. Quindi hanno estratto i composti adsorbiti sulle fibre e utilizzato un gascromatografo per isolare il bis (metiltio) metano. Hanno quindi iniettato il composto purificato in uno spettrometro di massa a rapporto isotopico, che misura le quantità relative di 12C e 13C nei campioni testando il biossido di carbonio rilasciato quando le molecole vengono bruciate all’interno dello strumento.

Sistema accoppiato GC/MS per analisi isotopiche

I ricercatori hanno poi ripetuto questo processo per misurare l’abbondanza relativa del 13C nel bis (metiltio)metano sintetizzato da derivati petrolchimici. I risultati hanno mostrato che il composto dei tartufi bianchi naturali ha una percentuale maggiore di 13C rispetto all’aroma del prodotto di sintesi, una differenza abbastanza grande da distinguere fra i campioni.

Successivamente, i ricercatori hanno ripetuto gli esperimenti su campioni di olio d’oliva commerciale aromatizzato al tartufo, miele, pasta, formaggi, salse e creme aromatizzate acquistati nei negozi italiani. I prodotti etichettati come contenenti tartufi di qualità inferiore o aroma di tartufo aggiunto mostravano il rapporto isotopico del bis(metiltio)metano sintetico, mentre i prodotti etichettati come contenenti ​​tartufo bianco originale mostravano l’impronta isotopica del composto contenuto nel fungo naturale. Pertanto, i ricercatori non hanno rilevato alcuna vera frode, ma hanno potuto verificare che la tecnica da loro messa a punto può distinguere con successo il bis(metiltio)metano naturale da quello sintetico.

Dice Danilo Sciarrone dell’università di Messina, coautore della ricerca: usando il nostro metodo e la nostra procedura, l’analisi è pronta per essere utilizzata in altri laboratori.

Questo articolo è stato tradotto, ampliato e adattato dall’autore da Melissae Fellet, Isotopes could sniff out fake truffe, C&EN newsletters on-line, June 1, 2018.

Mi prendi un campione?

In evidenza

Mauro Icardi

Quando al lavoro pronuncio questa frase vuol dire che, quasi sempre mi trovo a far fronte ad un problema.

Di solito è l’assenza non prevista di colleghi per malattie proprie, o dei figli piccoli. A quel punto, se non voglio soccombere, devo chiedere un aiuto ai ragazzi che si occupano della conduzione e manutenzione dell’impianto. Il prelievo di un campione di acqua da un campionatore programmabile generalmente è un’operazione tutto sommato semplice. La questione è diversa quando si tratta dei campioni della linea fanghi. Sia che siano destinati ad analisi che devono essere svolte nel laboratorio aziendale, sia che invece debbano essere inviate a laboratori esterni. Cerco di dare delle indicazioni di massima per avere un campione rappresentativo. E cerco di far capire che il campionamento è la fase fondamentale di un’analisi. In questo modo cerco anche di comunicare qualcosa della filosofia chimica. Quella analitica in particolare. Posto che la chimica ancora per troppi rappresenti un concetto negativo , è anche difficile fare capire che il chimico che svolge un’analisi non è un indovino. Che deve seguire un preciso percorso metodologico, sia quando preleva un campione, ma anche quando lo deve pretrattare prima di sottoporlo ad analisi.

Cerco di spiegare che l’analisi della medesima sostanza in materiali diversi può presentare problemi analitici anche sensibilmente differenti. Per esempio la determinazione del ferro nel sangue, in una lega metallica o negli spinaci.

Quindi mi diletto a parlare di queste cose. Qualche volta il mio interlocutore è attento, altre volte visibilmente annoiato. Oppure pensa che io lo stia sottoponendo ad una delle famose “supercazzole” divenute famose grazie al film “Amici miei”. Questo accade quando pronuncio qualche parola che per me è ovviamente usuale. Terminologia tecnica, o qualche formula chimica che risulta a chi mi ascolta particolarmente astrusa. Sembra che il linguaggio e la terminologia della chimica risulti particolarmente indigesto. Infatti secondo alcuni dei miei colleghi io per l’analisi dei metalli utilizzo “l’assorbitore atomico”.

Qualche altro collega , per animare la conversazione mi propone improbabili teorie. Queste notizie sono reperite normalmente su siti, o su programmi televisivi decisamente poco attendibili . Se ci pensiamo bene se ci si vuole informare in maniera corretta, occorre fare un capillare lavoro di verifica dell’attendibilità delle fonti. Smontare teorie assurde o palesemente false nel corso di queste conversazioni, mi fa provare inevitabilmente ad una sensazione di stanchezza e fatica.

Un’altra delle cose che succede, è che chi preleva campioni di fanghi, nonostante io gli dica che la quantità che mi serve è per esempio di circa 250 grammi, si presenta in laboratorio con un barattolo da un chilo pieno fino all’orlo. Quasi che esista un collegamento più campione= analisi più precisa. Forse l’idea che un chimico si occupi di concentrazioni a volte davvero molto basse induce ad un ragionamento di questo tipo. Si tratta di fanghi che poi tendono a gassificare anche se sono già stati già sottoposti al processo di disidratazione. Quindi non mi rimane che liberarmi dell’eccesso, pena riempire il frigorifero del laboratorio di barattoli e campioni inutili.

Non manca mai, e anzi continua l’incomprensione quando parlo del fatto che un problema analitico non si risolve possedendo arti divinatorie, ma che l’approccio al problema analitico deve essere sistematico, cioè non si deve improvvisare. Un dialogo di questo tipo si presenta quando qualcuno mi porta un campione che in questo caso non gli ho chiesto di prelevarmi, ma che invece è stato prelevato di sua iniziativa in qualche punto dell’impianto o della rete di acquedotto. L’intenzione è lodevole, ma di solito non so dove e come il campione sia stato prelevato, e con quali modalità. E la stessa cosa vale per chi mi chiede qualche volta l’analisi dell’acqua di casa. Propongo di fornire i contenitori che uso in laboratorio. Ma l’offerta viene spesso rispedita al mittente. Quindi negli anni mi sono giunti campioni in bottigliette di acqua, in contenitori di marmellata, e anche in scatole di biscotti e caramelle, se erano solidi o polverulenti. E questi campioni sono stati conservati in maniera non ben definita E’ quindi del tutto evidente che questa sia una battaglia persa . La morale finale è quella che, la frase “Scusa puoi prendermi un campione ?” la sto pronunciando ormai da tempo il meno possibile. Preferisco, anche a costo di variare l’impostazione di un programma di lavoro già definito, recarmi di persona per effettuare il campionamento. O accompagnare la persona che è stata incaricata di farlo. Credo che il chimico che lavora con coscienza sa di assumersi una responsabilità di fronte alle persone per le quali sta svolgendo il servizio. E quindi delegare sull’effettuazione dei campionamenti, o delle verifiche sul campo sarebbe come venir meno ad un impegno da cui non mi sento di derogare.

Questo mi pone alcune volte un problema di come ottimizzare il mio tempo, ma è l’unica soluzione possibile. Sarebbe interessante pensare ad un corso interno per insegnare le modalità di base del campionamento per il personale di impianto. Un’idea che però non è ancora stato possibile realizzare fattivamente.

Un ultima considerazione relativa alle fasi di preparazione di un’analisi. Credo che occorra insegnare con molta attenzione il giusto pretrattamento dei campioni. Spesso ho avuto discussioni anche molto accanite su questo aspetto del lavoro. Visto che sono convinto che il punto critico del trattamento di depurazione convenzionale risieda nella linea fanghi, se il campione proviene da quel trattamento occorre convertire l’analita che si andrà a determinare nel modo migliore e nella forma più adatta per la successiva analisi.

Questo ultimo tipo di problema è come uno spartiacque. Sembra che dedicare più tempo al pretrattamento sia una perdita di tempo inutile, e limiti la produttività. E invece è una fase fondamentale.

Non è argomento facile quando l’interlocutore non è un tecnico. La difficile conversazione che da sempre esiste tra il settore tecnico e quello amministrativo. Credo in ogni azienda.

Scienziate che avrebbero potuto vincere il Premio Nobel: Lina Solomonovna Stern (1878-1968)

In evidenza

Rinaldo Cervellati

Lina Solomonovna Stern (talvolta Shtern), ebraico-russo-sovietica, biochimico, fisiologo chimico e neurofsiologo, è particolarmente nota per i suoi pionieristici studi sulla barriera emato-encefalica.

Nacque il 26 agosto 1878 a Libava (allora Impero Russo, oggi Repubblica baltica di Lettonia) in una famiglia ebraica. Suo padre era un commerciante esportatore di pane che passava la maggior parte del tempo in Germania per lavoro. Sua madre, una casalinga, ha allevato sette figli, di cui Lina era la maggiore. Compì gli studi fino al diploma liceale nella città natale, poi nel 1898 fu ammessa alla Facoltà di Medicina dell’Università di Ginevra. Stern scrisse il suo primo lavoro scientifico, Study of the So-called Internal Secretion of the Kidneys, quando era ancora una studentessa, nel 1902. Due anni dopo si laureò discutendo la tesi Physiological Study of Ureter Contractions.

La giovane Lina Stern

Successivamente, su proposta del Professor J. Prevost[1], diventò assistente nel Dipartimento di Fisiologia. Qui, insieme a Frederico Batelli, iniziò la ricerca nel campo dell’ossidazione biologica, ricerca che ha portato alla scoperta dell’enzima polifenolossidasi. Particolare importanza rivestono le ricerche di Batelli e Stern sulla sequenza succinato-fumarato-malato e l’identificazione della fumarasi,l’enzima che induce la trasformazione del fumarato in malato. I risultati di questi studi trovarono la loro collocazione nel ciclo di Krebs, venti anni dopo [1].

Negli anni 1917-1925 conseguì il titolo di professore e divenne direttore del Dipartimento di Chimica Fisiologica[2] dell’università svizzera. E’ stata la prima donna professore ordinario all’Università di Ginevra.

Lina Stern nel suo laboratorio di Ginevra

Nulla sembrava prefigurare cambiamenti drastici nella sua vita e nella sua carriera scientifica. Ma, come scrive nella sua autobiografia [1,2][3], datata 19 aprile 1954:

Vivendo in Svizzera, conobbi un certo numero di emigrati politici…ma non presi parte alla vita politica…Ero completamente presa dal lavoro scientifico. La guerra imperialista con le sue conseguenze mi fece riflettere sul problema, scatenando un’avversione per il sistema capitalista e accrescendo di conseguenza le mie simpatie per il movimento rivoluzionario russo.

Dopo la rivoluzione di ottobre, Stern iniziò a considerare uno spostamento in Unione Sovietica. Convinta che sarebbe stato creato un nuovo sistema e una nuova società che avrebbe protetto il mondo dagli orrori della guerra e dall’ingiustizia [2], nel 1924, ricevette, da parte di Alexei N. Bach[4] la proposta di occupare la posizione vacante di capo del Dipartimento di Fisiologia nella Seconda Università statale di Mosca. Lina accettò senza esitazione, anche perché aveva sempre desiderato continuare gli studi in patria ma, come successe a molti altri studenti della sua etnia, ai tempi dello Zar era molto difficile ottenere l’ammissione a una università russa, mentre la Svizzera, in particolare l’Università di Ginevra era nota per il suo atteggiamento liberale verso gli stranieri [1,3].

Lina Stern aveva una perfetta conoscenza delle lingue francese, tedesco, inglese e italiano. Quando arrivò in Unione Sovietica, era già un’eminente scienziata internazionalmente riconosciuta, durante la sua permanenza all’Università di Ginevra aveva pubblicato centocinquanta lavori scientifici.

Fu subito inviata come delegata al Dodicesimo Congresso Internazionale di Fisiologia a Stoccolma nel 1926.

Lo studio della barriera emato-encefalica e della barriera del tessuto sanguigno (BBB, BTB), il lavoro più importante nella vita professionale di Stern, iniziò mentre era a Ginevra, in collaborazione con E. Rotlin e R. Gaultier. Nel suo rapporto alla Geneva Medical Society del 21 aprile 1921, “Il liquido cerebrospinale e la sua interazione con il sangue e gli elementi nervosi del tronco cerebrale”, avanzò la seguente ipotesi: “… tra sangue, da un lato, e liquido cerebrospinale dall’altra c’è un apparato o meccanismo speciale, in grado di eseguire un tipo di screening di sostanze che sono normalmente presenti nel sangue o che vi sono entrate accidentalmente. Proponiamo di chiamare questo meccanismo ipotetico, che lascia passare alcune sostanze mentre rallenta o blocca completamente altre, Blood-Brain Barrier (BBB)[barriera emato-encefalica]”.

Lisa Stern

                            Schema BBB di Stern e immagine reale

Secondo Stern, il fluido cerebrospinale è l’ambiente nutrizionale a diretto contatto del cervello, la fonte che fornisce alle cellule cerebrali le sostanze necessarie per il normale funzionamento. La barriera emato-encefalica è, quindi, un meccanismo protettivo del sistema nervoso centrale.

Questa ricerca proseguì con successo a Mosca, nell’Istituto di Fisiologia fondato da Stern. Qui, lo studio si concentrò sulla funzione regolatoria del BBB, sul suo ruolo durante la somministrazione diretta di sostanze nei ventricoli del cervello, sugli effetti di acetilcolina, adrenalina e insulina sul sistema nervoso centrale, sull’importanza della barriera emato-encefalica nella pratica clinica, in particolare per il trattamento di malattie infettive del cervello e dello shock traumatico. Con una serie di esperimenti studiò il diverso effetto sui centri nervosi a seconda che le sostanze fossero introdotte nel sangue o direttamente nel liquido cerebrospinale o nel cervello o nel midollo spinale [1].

Lina Stern fin dal 1923 si era domandata se il meccanismo BBB esistesse solo per il sistema nervoso o se vi fossero meccanismi analoghi per tutte le funzioni del corpo, destinati a regolare/mantenere la relativa costanza di composizione e di proprietà dell’ambiente a diretto contatto con tutti gli organi, tessuti e cellule.

Nella sua lecture alla Conferenza sulla Permeabilità nel 1936, Stern sviluppò il concetto di Blood Tissue Barrier (BTB): “La barriera del tessuto sanguigno non è solo un concetto morfologico. È un’unità funzionale, o, per essere più precisi, un meccanismo, che ha il suo fondamento anatomico nelle pareti dei capillari. Dobbiamo ricordare che è un meccanismo complesso, e la penetrazione di sostanze attraverso una parete capillare è solo la prima fase, solo una parte nel complesso processo del passaggio di sostanze dal flusso sanguigno alle cellule parenchimatiche dell’organo.”

Gli studi successivi sulla regolazione di composizione, proprietà fisiologiche e fisico-chimiche dell’ambiente circostante di organi, tessuti e cellule, condotti da Stern e dalla sua scuola, non sono solo fondamentali nella teoria, comportano anche una decisiva applicazione pratica. In particolare, sono importanti per il trattamento di gravi malattie del sistema nervoso centrale come la sifilide del cervello, il tetano, le encefaliti e la meningite tubercolare.

In effetti, il BBB, che normalmente fornisce protezione vitale per il sistema nervoso centrale dall’effetto dannoso di sostanze che accidentalmente entrano nel flusso sanguigno o sono create nel processo di scambio, può, in certe condizioni patologiche, avere un effetto negativo.

Molti farmaci (inclusi antibiotici e sieri di trattamento) non penetrano nel sistema nervoso perché il BBB li tiene nel sangue. Al fine di superare l’impermeabilità delle barriere, Stern propose un metodo di somministrazione di farmaci direttamente nei ventricoli del cervello (metodo suboccipitale), che ha dimostrato qualche efficacia nel trattamento delle malattie sopra elencate.

Leon A. Orbeli[5], accademico-segretario del Dipartimento di Scienze Biologiche dell’Accademia delle Scienze dell’URSS, ha parlato molto delle ricerche di Stern. Nel suo rapporto al Presidium dell’Accademia delle Scienze dell’URSS il 16 gennaio 1945, delineò la teoria delle barriere sviluppate da Stern e ne enfatizzò il grande significato teorico e pratico. Le applicazioni in campo medico delle ricerche di Stern hanno salvato migliaia di vite sui fronti della seconda guerra mondiale.

Nonostante il riconoscimento dei suoi colleghi, sia all’estero che in URSS, e premi governativi (nel 1943 le fu assegnato il Premio Stalin, nei due anni successivi fu insignita rispettivamente dell’Ordine della Bandiera Rossa del Lavoro e dell’Ordine della Stella Rossa), Stern non sfuggì all’ondata di repressioni staliniste antiebraiche degli ultimi anni ‘40-inizio anni ’50.

Durante la seconda guerra mondiale, Lina Stern era stata membro del Comitato Antifascista Ebraico organizzato su iniziativa dell’Unione Sovietica per mobilitare il sostegno ebraico mondiale agli sforzi bellici dell’URSS contro la Germania nazista. Composto da personalità e intellettuali ebrei, il Comitato fu sciolto dopo la fine della guerra. I suoi membri furono accusati di attività sioniste antisovietiche da parte dell’ala più intransigente degli stalinisti. Stern fu esautorata dai suoi incarichi nel 1948, arrestata nel 1949 e condannata all’esilio in Kazakhistan, dove rimase fino alla morte di Stalin, nel 1953.

Nella sua autobiografia [1,2], Stern scrive molto poco su questo periodo della sua vita: Nel 1949 fui arrestata dal MGB[6], e nell’agosto del 1952 esiliata a Jambl. Nel 1953, fui liberata e tornai a Mosca. Convocata al Ministero degli Affari Interni ho ripetuto che ero stata arrestata ingiustamente.

Con il decreto del Presidium dell’Accademia delle Scienze dell’URSS del 1° settembre 1953, Lina Solomonovna fu reintegrata nell’Accademia come membro a pieno titolo [2].

Con il suo tipico vigore, Stern si rimise al lavoro: in qualità di capo del Laboratorio di Fisiologia dell’Istituto di Biofisica, ottenne strutture, attrezzature e personale adeguato. I risultati delle sue nuove ricerche ebbero un importante significato teorico e pratico in medicina e in agricoltura, fornendo una soluzione ai problemi legati all’invecchiamento e alla crescita maligna delle cellule. Furono la base dei rapporti che Stern presentò all’8° Congresso dei Fisiologi dell’URSS (1955) e alla Conferenza tecnico-scientifica di tutti i Soviet (1957). Il titolo del primo rapporto era “Il significato dell’ ambiente nutrizionale a diretto contatto degli organi e il ruolo delle barriere dei tessuti sanguigni, in particolare, il BBB, nella regolazione neuro-umorale e nel coordinamento delle funzioni corporee”; il secondo rapporto era intitolato “L’effetto delle radiazioni ionizzanti sui fattori che determinano la composizione e le proprietà dell’ambiente biologico a diretto contatto con gli organi e i tessuti del corpo animale” [2]. I risultati esposti nella seconda conferenza sono serviti a chiarire la patogenesi della malattia da radiazioni.

Il curriculum vitae di Stern nella Russia sovietica è la testimonianza del suo vigore, della sua incredibile energia e della sua immensa capacità lavorativa. Dal 1926 al 1928 diresse il Dipartimento di Biochimica presso l’Istituto Mechnikov di Malattie Infettive; nel 1929 e nel 1930 è stata a capo del Dipartimento di Fisiologia e Biochimica presso l’Istituto Biomedico; dal 1930 al 1936 è stata a capo del Dipartimento di Fisiologia dell’Età Infantile presso l’Istituto di assistenza materna e dell’infanzia; e dal 1935 al 1938, capo del Dipartimento di Chimica Fisiologica presso l’Union Institute of Experimental Medicine.

Nel 1939 fu eletta membro a pieno titolo dell’Accademia delle Scienze dell’URSS. Diresse l’istituto di Fisiologia fino al 1948. Dopo l’interruzione forzata di cinque anni nel lavoro scientifico a causa dell’arresto e dell’esilio, Stern diresse il Laboratorio di Fisiologia dell’Istituto di Biofisica dell’Accademia delle scienze dell’URSS dal 1954 al 1968.

Negli anni ’30, Stern fu il redattore capo della rivista The Bulletin of Experimental Physiology and Medicine, membro del Presidium della Società di Fisiologi, Biochimici e Farmacologi, vicepresidente della Società dei Fisiologi di Mosca, membro del Consiglio accademico medico del Commissariato della Salute del Popolo e membro dell’ufficio del Consiglio accademico dell’Istituto di Neurochirurgia. Nel 1934, per celebrare trent’anni della sua attività scientifica, educativa e sociale, le fu conferito il titolo di “Operaio onorario della scienza”. Nel 1944 fu eletta membro a pieno titolo dell’Accademia delle Scienze Mediche dell’URSS.

Lina Solomonovna Stern è morta il 7 marzo 1968, le sue spoglie sono sepolte nel Novodevichy Cemetery, il cimitero monumentale di Mosca. Sarà ricordata per le sue ricerche innovative in biochimica e neurofisiologia. Sebbene sia stata umiliata dopo la guerra, non ha mai interrotto i suoi studi scientifici e ha mantenuto gli ideali della sua giovinezza fino alla fine dei suoi giorni.

Per chi fosse interessato, una biografia di Lina Solomonovna Stern si trova anche nel libro European Woman in Chemistry [4], i suoi lavori più importanti sono citati in [1,3].

 

Bibliografia

[1] A. Vein, Science and Fate: Lina Stern (1878–1968), A Neurophysiologist and Biochemist., Journal of the History of the Neurosciences, 2008, 17, 195–206.

[2] Nora A. Grigorian, Lina Solomonovna Stern (Shtern) 1878 – 1968

https://jwa.org/encyclopedia/article/stern-shtern-lina-solomonova

[3] L. Sarikcioglu, Lina Stern (1878–1968): an outstanding scientist of her time., Childs Nervous System, 2017, 33,1027–1029.

[4] A.B. Vogt, Lina Solomonovna Stern (also Shtern, Schtern) (1878-1968), in: J. Apotheker, L.S. Sarkadi (Eds.), European Women in Chemistry, Wiley-WCH, 2011, pp. 59-63.

 

[1] Jean-Louis Prévost (1838 – 1927) fisiologo e neurologo svizzero, professore a Ginevra, autore di più di 60 fra articoli e libri, è considerato il primo ad aver introdotto in Svizzera le moderne pratiche della fisiologia.

[2] La Chimica fisiologica faceva parte della Fisiologia, ma non era ancora considerata come un campo di studio indipendente. Stern fece aggiungere questa disciplina al curriculum della Facoltà di Medicina e, nel 1918, fu istituito il nuovo Dipartimento di Chimica Fisiologica all’Università di Ginevra [1].

[3] Nel rif [1] l’autore fa riferimento all’autobiografia contenuta in Arkhiv Rossiskoi Academii Nauk (Archivio Dell’Accademia Russa delle Scienze); l’autrice di [2] fa riferimento alla data precisa di stesura dell’autobiografia. I brani riportati dai due autori sono comunque praticamente identici.

[4] Alexei Nikolaievich Bach (1857-1946), chimico e rivoluzionario russo è considerato il fondatore della biochimica nell’Unione Sovietica. Membro dell’Accademia delle Scienze dell’URSS, è stato membro anziano del Soviet Supremo.

[5] Leon Abgarovich Orbeli (1882-1958) fisiologo russo-armeno, ha avuto un ruolo importante nello sviluppo della fisiologia evoluzionista con più di 200 lavori sperimentali e teorici. Membro dell’Accademia delle Scienze dell’URSS, fu amico di Lina Stern sia prima sia dopo l’esilio, quando anche lui non era più nelle grazie delle autorità sovietiche.

[6] Acronimo per Ministero della Sicurezza dello Stato con funzione di servizi segreti, attivo in URSS dal 1946 al 1953. Seguito poi dal KGB, la più nota agenzia segreta della Russia sovietica, attiva dal 1954 al 1991. Oggi i compiti di sicurezza sono svolti dal FSB, i servizi della Federazione Russa.

La Metanogenesi catalitica sui pianeti rocciosi

In evidenza

Diego Tesauro.

La maggior parte dell’opinione pubblica conosce il metano come fonte energetica, ma nell’universo sicuramente ha una funzione ancora più importante.

E’ infatti il più semplice composto organico sul quale sono basate diverse ipotesi di meccanismi di reazione per la formazione di molecole organiche complesse e delle biomolecole.

Inoltre Il metano è uno dei composti più diffusi dell’universo, come intuitivamente è logico supporre, considerando che la maggior parte dell’universo è costituito da idrogeno (attualmente circa il 74%) ed il carbonio, prodotto nei nuclei delle stelle giganti rosse per fusione sintetica di 3 nuclei di elio, è il quarto elemento per abbondanza (4.6 %) dopo elio ed ossigeno.

Si forma nelle zone periferiche dei sistemi planetari e infatti lo ritroviamo nei giganti gassosi del sistema solare da Giove a Saturno, ma è particolarmente abbondante nelle atmosfere di Urano e Nettuno. Non è presente invece nelle atmosfere dei pianeti terrestri per la loro vicinanza al sole in quanto la radiazione solare, nelle prime fasi dell’evoluzione del sistema planetario, ha energia sufficiente per rompere i legami chimici come il legame C-H. Allora dove e perché lo ritroviamo nelle zone interne del nostro sistema planetario?

Cratere Gale dove opera il rover Curiosity dal 2012

Sulla Terra attualmente il metano ha pressoché totale origine biologica derivando da processi di digestione anaerobica delle sostanze organiche da parte dei batteri. Ma sugli altri pianeti rocciosi e in particolare su Marte, attualmente c’è metano? Recenti misurazioni in situ di CH4 su Marte nel cratere Gale1 da parte del rover della NASA Curiosity ne ha rilevato una concentrazione di fondo di ~ 0,7 parti per miliardo (ppb) ma ha anche riportato variazioni significative nella sua concentrazione, con picchi dieci volte superiori rilevati in quattro occasioni per un periodo di due mesi legata alla stagionalità (Marte a causa dell’inclinazione dell’asse di rotazione sul piano orbitale di 25° presenta l’alternanza delle stagioni nei due emisferi come la Terra).

Questa scoperta induce ad ipotizzare una possibile sintesi abiotica di CH4 come gas riducente in un’atmosfera ricca di CO2 naturale, come è l’attuale atmosfera marziana e come lo era la Terra in passato. Quindi processi attualmente in corso su Marte potrebbero essere stati attivi sulla Terra primordiale.

Entrambi i pianeti hanno la possibilità di utilizzare acqua come fonte di idrogeno e furono esposti nelle prime fasi ad un significativo flusso di radiazione ultravioletta. Basandosi su modelli fotochimici e sull’attuale comprensione della composizione dell’atmosfera marziana, il metano ha una vita chimica di 300-600 anni, che è, su scala geologica, un periodo molto, ma molto breve. Ciò implica che ci deve essere una fonte attualmente attiva su Marte. Hu et al.2 hanno formulato tre ipotesi sull’origine del metano su Marte:

  • La regolite nel cratere Gale assorbe CH4 quando è secca e rilascia CH4 nella deliquescenza durante l’inverno.
  • I microrganismi convertono la materia organica nel terreno in CH4. Tuttavia, questo scenario suppone l’esistenza di una vita esistente su Marte, e fino ad oggi non è stata trovato alcun indizio.
  • Le falde acquifere sotterranee profonde generano emissioni esplosive di CH4.

A queste ipotesi si è aggiunta una quarta formulata da Shkrob et al. 3 basata su una complessa chimica del carbonio governata dalla radiazione ultravioletta che porta alla formazione di metano e monossido di carbonio dalla riduzione del biossido di carbonio. Questa ipotesi è stata ulteriormente sviluppata recentemente in un articolo pubblicato su Nature Astronomy4 mediante esperimenti condotti in laboratorio simulando condizioni presenti su Marte o sulla Terra primordiale.

Il rover Curiosity su Marte. Lanciato da Cape Canaveral il 26 novembre 2011 è « ammartato » il 6 agosto 2012

Pertanto Marte potrebbe essere contemporaneamente un “fotoreattore” di dimensioni planetarie che decompone molecole di materia prima carbossilata che producono CH4 e un pianeta “fotosintetico”, in cui il metano viene generato dal biossido di carbonio su superfici catalitiche.
La sintesi di CH4 da CO2 è influenzata dalle quantità di H2O e di CO2 adsorbite sulle superficie fotocataliche del catalizzatore minerale in presenza di una sufficiente insolazione. Questo modello può essere valido anche per la Terra primordiale, per Titano, il più grande satellite di Saturno ed unico ad essere dotato di un’atmosfera ampiamente costituita da metano (https://ilblogdellasci.wordpress.com/2015/01/25/chimica-da-titano/ed per altri pianeti di tipo roccioso presenti nell’universo.

Marte infatti attualmente non è schermato come la Terra contro la radiazione ultravioletta (come è noto il nostro pianeta possiede lo schermo dello strato dell’ozono, non presente su Marte) e quindi può essere considerato un laboratorio per questo tipo di reazioni. Questi studi hanno permesso di stabilire due importanti aspetti: il ruolo catalitico del minerale anatasio (un minerale costituito da TiO2) e della montmorillonite (un silicato di formula (Na,Ca)0,33(Al,Mg)2(Si4O10)(OH)2.n H2O), entrambi presenti su Marte, anche se al momento non è stata ancora determinata la loro quantità, ma anche sulla Terra. In particolare il biossido di titanio presente nell’anatasio svolge il ruolo di fotocatalizzatore ed un meccanismo di reazione attraverso il gliossale dimostrerebbe la contemporanea formazione in uguale quantità di CO e CH4 mentre per l’altro catalizzatore, non riscontrando la stessa quantità dei due gas, potrebbe intervenire un diverso meccanismo o un effetto dei radicali ossidrilici provenienti nell’acqua intrinsecamente in esso contenuta oppure una fotolisi del metano sulla sua superficie.

La montmorillonite è un minerale, un fillosilicato di alluminio e magnesio. Il nome deriva dalla località di Montmorillon, dipartimento della Vienne, in Francia, dove fu per la prima volta identificato.

Ma anche l’adsorbimento dell’acqua gioca un ruolo decisivo e spiegherebbe la stagionalità delle emissioni di metano che aumentano dalla primavera marziana fino alla fine dell’autunno. Altro aspetto fondamentale per questa ipotesi sintetica è il pH. In ambiente basico o neutro sulla superficie del minerale vengono legati degli ioni ossidrili (OH), mentre l’ambiente acido è in grado piuttosto di permettere l’adesione del biossido di carbonio e dell’acqua per cui la riduzione catalitica dei due minerali è indotta dall’acido cloridrico. L’acido cloridrico è effettivamente presente su Marte sul quale è attivo attualmente un ciclo del cloro proposto di recente da Catling et al. e confermato dalla presenza di ione perclorato5.

Questo modello pertanto oltre a spiegare l’attuale presenza di metano co-generato con il monossido di carbonio su Marte osservata da Curiosity, ha il pregio di interpretare la sua stagionalità. Inoltre può essere anche adattato alle condizioni iniziali della Terra. In questo caso è possibile anche dimostrare la formazione a partire da un’atmosfera riducente di CO2, N2, CH4 e CO di HCN, da cui, a seguito della sua polimerizzazione indotta dal bombardamento meteorico simulato dai laser, la formazioni delle nucleobasi del RNA (adenina, guanina, citosina e uracile) e del più semplice degli amminoacidi la glicina.

  • Webster, C. R. et al. Mars methane detection and variability at Gale crater. Science 347, 415–417 (2015).
  • Hu, R., Bloom, A. A., Gao, P., Miller, C. E. & Yung, Y. L. Hypotheses for near-surface exchange of methane on Mars. Astrobiology 16, 539–550 (2016).
  • Shkrob, I. A., et al. Photocatalytic decomposition of carboxylated molecules on light-exposed Martian regolith and its relation to methane production on Mars. Astrobiology 10, 425–436 (2010).
  • Civiš S. et al. The origin of methane and biomolecules from a CO2 cycle on terrestrial planets Nature Astronomy 1 721–726 (2017).
  • Catling, D. C. et al. Atmospheric origins of perchlorate on Mars and in the Atacama. Geophys. Res. Planets 115, E00E11 (2010).

Quando avremo la Gazzetta Chimica Italiana online?

In evidenza

Maurizio D’Auria

Nel 2013 (è passato un secolo) scrissi il primo post con lo stesso titolo. Dopo cinque anni mi sembra il caso di tirare le somme di quella iniziativa. In risposta al mio appello ho ricevuto diverse comunicazioni di apprezzamento da parte di colleghi e anche alcune telefonate che hanno cercato di spiegarmi le ragioni del ritardo con cui l’operazione Gazzetta in rete si trovava.

Dopo cinque anni possiamo ben dire che non si è mosso nulla. E’ bene notare che le riviste tedesche del settore sono tutte in rete nel sito Wiley-VCH; anche i Recueil des Travaux Chimique des Pays-Bas sono in rete sulla piattaforma Wiley, gli inglesi hanno in rete tutte le loro riviste, gli americani hanno messo in rete tutte le riviste dell’American Chemical Society (solo l’American Chemical Journal non è disponibile direttamente ma lo si può scaricare), i giapponesi hanno messo in rete tutte le loro riviste, i francesi, in compenso, sono quasi come noi (alcune riviste sono però scaricabili). Noi non abbiamo in rete nè la Gazzetta Chimica Italiana, nè gli Annali di Chimica, nè tantomeno i Rendiconti dell’Accademia dei Lincei. Bella prova.

Posso capire che ci siano problemi di fondi per fare questa operazione, ma, nell’ambito delle richieste possibili sui beni culturali, si potrebbero cercare fondi sia al ministero competente, così come sarebbe possibile cercare uno sponsor industriale. La motivazione, poi, che qualcuno mi ha dato, che l’operazione avrebbe significato dover distruggere una copia della rivista, per la necessità di distruggere la legatura per scannerizzarlo, la tecnica ha ormai superato il problema e per la scannerizzazione di libri antichi si può operare senza dover “slegare” il libro: costerà di più ma si può fare.

Perché nessuno se ne occupa?

 

(nota del blogmaster) Il primo numero si trova online grazie a Google http://books.google.it/books?id=5YQcD9OX0b0C&printsec=frontcover&hl=it#v=onepage&q&f=false

Il raffreddore comune. Si potrà contrastarlo dall’inizio?

In evidenza

Rinaldo Cervellati

A tutti è capitato di “prendere il raffreddore” anche più di una volta nella stessa stagione. Come noto, il raffreddore comune, o semplicemente raffreddore, è un’infezione virale infettiva del tratto respiratorio superiore che inizialmente colpisce il naso. Il sintomo iniziale sono sternuti ripetuti e muco al naso che presto si accompagnano a tosse, irritazione alla gola, svogliatezza, scarso appetito, molto raramente febbre. Generalmente questa malattia, ancorchè fastidiosa, si risolve in pochi giorni anche se i sintomi, comunque in regressione, possono durare qualche tempo di più.

Negli umani, il raffreddore comune è causato principalmente dai rhinovirus, che proliferano alla temperatura di 33-35°C, intervallo che contiene appunto le tipiche temperature interne del naso.

Sono state classificate tre specie di rhinovirus (A, B e C), che comprendono circa 160 tipi riconosciuti di rinovirus umani che differiscono in base alle loro proteine ​​di superficie. Sono tra i virus più piccoli, con un diametro di circa 30 nanometri (per confronto, i virus dell’influenza, ben più pericolosi, sono intorno agli 80-120 nm).

Superficie molecolare di un rinovirus umano, i picchi proteici in blu

Non esistono vaccini per il raffreddore comune. Poiché si tratta di una malattia in larghissima misura a decorso benigno viene usualmente trattata con farmaci sintomatici.

Tuttavia, in persone affette da altre patologie, come asma, broncopatie croniche ostruttive e fibrosi cistica,“prendere un raffreddore” può essere molto pericoloso. Inoltre, secondo dati dell’Organizzazione Mondiale della Sanità, nei Paesi in via di sviluppo le infezioni da raffreddore comune sono complicate da infezioni batteriche  più frequentemente rispetto ai paesi industrializzati.

Per questi motivi è interessante la notizia, riportata da Stu Borman nell’edizione on-line di Chemistry & Engineering Newsletter del 17 maggio scorso, della scoperta di una molecola in grado di bloccare la replicazione dei rhinovirus.*

Edward W. Tate e Roberto Solari dell’Imperial College di Londra, coordinatori di un folto gruppo di ricerca, hanno identificato una piccola molecola, IMP-1088, che impedisce la riproduzione del rhinovirus inibendo un enzima umano chiamato N-myristoyltransferase (A. Mousnier, A.S. Bell et al., Fragment-derived inhibitors of human N-myristoyltransferase block capsid assembly and replication of the common cold virus., Nature Chemistry, 2018, DOI: 10.1038/s41557- 018-0039-2).

Edward W. Tate, Faculty of Natural Sciences, Department of Chemistry, Imperial College

Una delle caratteristiche dei virus è l’incapacità di vivere in maniera autonoma. Il virus deve infettare le cellule dell’ospite (in questo caso cellule umane) costringendole a produrre le molecole che gli servono per replicare numerosissime, copie di se stesso. Uno degli strumenti necessari al rhinovirus per costruire l’involucro proteico (il càpside) che custodisce il suo materiale genetico è l’enzima N-miristoiltransferasi, che si trova all’interno delle cellule umane. La molecola individuata dagli inglesi è in grado di “sabotare” questo enzima. Si aggirerebbe così anche il problema della varietà delle molte specie di rhinovirus, poiché tutte usano lo stesso materiale proteico per assemblare il loro càpside.

In breve, diffrattometria a raggi X e altre tecniche hanno dimostrato che due inibitori identificati dai ricercatori all’inizio del loro studio hanno colpito due diversi siti dell’enzima umano. Essi, utilizzando anche la tecnica del drug design per unire frammenti attivi dei due inibitori in una struttura con le desiderate proprietà farmacologiche, hanno infine sintetizzato IMP-1088.

Nei test di attività in vitro, su colture di cellule umane infette, IMP-1088 ha bloccato la miristoilazione, la replicazione virale e l’infettività senza risultare tossica per le cellule. Il composto ha attività antivirale nanomolare contro diversi ceppi di rinovirus e anche contro virus affini come i poliovirus e quelli dell’afta epizootica.

Per essere efficace, l’IMP-1088 deve essere somministrato alle cellule entro poche ore dall’infezione. Gli studi in vivo non sono ancora iniziati, quindi i ricercatori non sanno se questa finestra temporale dovrà essere applicata anche agli animali o alle persone.

Secondo i ricercatori britannici, un potenziale vantaggio di IMP-1088 è che i virus potrebbero avere difficoltà a sviluppare resistenza a un farmaco che contrasta un enzima umano.

Il Dr. Hong Wei Chu, esperto in biologia cellulare delle vie aeree e infezioni virali nel principale ospedale respiratorio, il National Jewish Health, nel ribadire che saranno necessari studi su modelli animali e pre-clinici clinici perché molteplici fattori cellulari e immunitari influenzeranno l’efficacia terapeutica definitiva di IMP-1088.

Hong Wei-Chu

Nel complesso commenta: questi nuovi risultati potrebbero fornire un nuovo approccio per prevenire o curare l’infezione da rhinovirus.

*La notizia è stata anche riportata da Elena Dusi, su La Repubblica Salute del 14 maggio scorso:

Allo studio il farmaco che può bloccare il raffreddore

Una molecola impedisce al virus di replicarsi. La ricerca inglese, pubblicata su Nature Chemistry, è ancora nelle prime fasi di sperimentazione. Ma promette di funzionare su tutti i ceppi di microbi.

Notare la solita confusione fra virus e microbi, a meno che con microbo la giornalista intende riferirsi a tutte le specie viventi invisibili all’occhio nudo, dai virus ai battéri, ecc.

L’articolo completo in:

http://www.repubblica.it/salute/2018/05/14/news/allo_studio_il_farmaco_che_puo_bloccare_il_raffreddore-196396622/?ref=search

La storia della scoperta della fissione nucleare: i chimici risolvono un problema fisico. Seconda parte

In evidenza

Roberto Poeti

 la prima pare di questo post è stata pubblicata qui

Una scoperta che fece fare un passo in avanti

Per tre anni , dal 1934 al 1937 i laboratori di Parigi e Berlino continuarono le loro ricerche sui presunti elementi transuranici prodotti dal bombardamento neutronico dell’Uranio . Non ci furono rilevanti novità . L’impianto teorico su cui si fondavano le ricerche non fu messo in discussione . Nuovi risultati si ebbero solo nel 1937 quando il gruppo di Irene Curie identifica un nuovo radionuclide con t1/2 di 3.5 h , R 3,5h , tra quelli ottenuti nel bombardamento dell’Uranio. Da misure radiochimiche emerge che il radionuclide non era classificabile tra gli elementi transuranici e che si poteva trattare di un isotopo del Torio formato dall’Uranio per cattura di un neutrone e espulsione di una particella α. “ Il corpo R 3,5t non è stato osservato né da noi , né da Hahn , Meitner e Strassmann , prima di aver impiegato schermi che eliminassero l’interferenza provocata dalla presenza dei prodotti di decadimento dell’Uranio naturale , di cui uno era proprio il Torio“ (5). La notizia della scoperta raggiunge il gruppo di Berlino , che però non condivide le conclusioni di Parigi. Curie e Savitch continuano nei tentativi per la sua identificazione , escludono alla fine che si tratti del Torio . Per la sua separazione hanno impiegato come carrier Il Lantanio , inoltre le proprietà chimiche lo avvicinano alle terre rare . “In base alle sue proprietà chimiche , sembrerebbe che questo corpo non possa essere che un isotopo dell’Attinio [n.d.r: stesso gruppo del Lantanio] , o un nuovo corpo transuranico che possiede proprietà chimiche molto differenti da quelle degli omologhi superiori di Renio e Platino “ (6).

Un obbiettivo mancato

Nello stesso anno (ottobre 1938 ) Curie e Savitch inviano al Journal de Phisique et Radium un resoconto del loro lavoro , complesso e minuzioso , portato avanti per stabilire se il Radionuclide poteva essere un isotopo dell’Attinio . Seguendo il metodo introdotto da Maria Curie , eseguono una separazione per precipitazione frazionata di una soluzione contenente Lantanio e il radionuclide R 3,5h   , previa eliminazione di tutti gli altri elementi presenti , con l’aggiunta di un isotopo dell’elemento Attinio come tracciante . Le indagini radiochimiche mostravano la separazione dell’Attinio dal Radionuclide R 3,5h . Il Radionuclide rimaneva con il Lantanio . Quindi l’Attinio e il Radionuclide apparivano elementi diversi. La cosa sorprendente è un’altra successiva esperienza , che riporta l’articolo , sulla separazione compiuta su Lantanio e Il Radionuclide . Ma lo scopo non è quello di verificare la separabilità dei due elementi , intenzione di cui non fanno alcun cenno , quanto quello di confermare che Attinio e Radionuclide R 3,5t sono diversi ! “ Una esperienza di precipitazione incompleta [ sottilineatura mia] con l’ammoniaca di La + R 3,5h indica anche che R 3,5h si concentra nella prima porzione precipitata , sarebbe quindi meno basico [ n.d.r.: più insolubile ] del Lantanio. Mentre sappiamo che l ‘ Attinio è più basico del Lantanio . Pare dunque certo che R 3,5h non è un isotopo dell’ Attinio “ .

La scoperta rientra nel paradigma dominante

Una separazione incompleta , in matrici considerate molto complesse , poteva avere diverse cause, e sarebbe stato necessario indagare ancora , ma non si procede a nessun ulteriore controllo, perché ? . ( Sappiamo che l’Uranio , nel bombardamento neutronico , ha subito una scissione , si sono formati radionuclidi a numero atomico molto più basso . Tra questi si trova anche un isotopo del Lantanio . Perciò R 3,5h , in realtà , è un isotopo del Lantanio, chimicamente indistinguibile , perciò non sono separabili con una cristallizzazione frazionata). Ancorati al concetto che l’Uranio si può modificare, dopo irraggiamento neutronico , formando elementi transuranici attraverso il decadimento β , Curie e Savitch arrivano alla conclusione , dopo aver scartato l’ipotesi dell’Attinio , che anche il radionuclide R 3,5h   deve essere un elemento transuranico . E nel tentativo di inserirlo in quella regione della tavola periodica , pur avendo proprietà chimiche diverse, fanno l’ipotesi che il nuovo elemento transuranico possa avere gusci di valenza variabili . Questa e altre ipotesi appaiono poco plausibili (7) . I due fisici , che primeggiano nel campo della fisica nucleare e della radiochimica, non trovano la soluzione corretta che è a portata di mano perché non la cercano . Non escono dal paradigma dominante.

Nell’articolo del Journal de Phisique et Radium sono rappresentati gli ultimi tre periodi della T.V . L’Actinio compare nel gruppo delle terre rare e gli elementi transuranici sono disposti sotto il Renio e i metalli del gruppo del Platino

Ci provano i chimici Hahn e Strassmann

Questi limiti , vedremo , sono superati dal gruppo di Berlino dove lavorano i chimici Hahn e Strassmann (l’altro componente, la fisica Meitner , è dovuta riparare all’estero perché ebrea, ma , sempre in contatto con Berlino , fornì un aiuto importante ) . Venuti a conoscenza dei risultati del gruppo di Parigi , Hahn e Strassmann si apprestano subito a verificare i risultati . Nella sua Nobel Lecture, (1946) Hahn , rispetto alle ipotesi chimiche su gusci di valenza variabili e altro , fatte dal gruppo di Parigi , afferma che “ le possibilità presentate da loro appaiono difficili da capire e inaccettabili“. La natura di elemento transuranico appare al gruppo di Berlino poco comprensibile . Da qui la spinta a rifare gli esperimenti. Dopo che i presunti   elementi transuranici , derivati dal bombardamento neutronico dell’Uranio , erano stati precipitati e rimossi , la soluzione conteneva ancora qualche prodotto radioattivo . Impiegano , nella separazione di quest’ultimi prodotti , diversi elementi carrier tra cui il Bario . La scelta di questo elemento non è casuale , infatti una delle ipotesi che fanno è la possibile presenza , tra i prodotti , di isotopi del Radio ( precede l’Attinio nella T.P.) . Il Bario è un elemento dello stesso gruppo del Radio , quindi idoneo a fare da carrier .

Alla fine del lungo lavoro di separazione concludono che l’attività dell’isotopo R 3,5h di Curie e Savitch era probabilmente un miscuglio di diversi elementi attivi e che quelli che seguivano il Bario , come carrier , nella precipitazione potevano essere soltanto isotopi del Radio .

Due chimici che escono dagli schemi

La presenza del Radio poteva essere dovuta ad una serie di decadimenti dell’Uranio che portavano all’ Attinio , passando da Torio e Radio .

E’ una ipotesi che presuppone l’emissione di due particelle α. L’emissione di due particelle α da parte di un atomo pesante con neutroni lenti era considerata tuttavia molto improbabile , se si pensa che nei numerosi esperimenti fatti con l’uranio non era stata mai osservata nemmeno una sola emissione α . E’ importante constatare come Hahn e Stassmann , raggiungono questo loro risultato “ liberandosi “ di due modelli fisici del nucleo : il primo riguarda la emissione di particelle α , l’altro la formazione di nuclei a numero atomico maggiore dell’Uranio . Continuano con i loro esperimenti e sono capaci di distinguere almeno quattro distinti isotopi del “ Radio “ prodotti artificialmente dall’Uranio . Per ottenere una verifica più accurata dei loro risultati procedono alla separazione per cristallizzazione frazionata dell’elemento carrier Bario dagli isotopi del “Radio “, in modo da ottenere strati più sottili di materiale , così che la loro attività poteva essere misurata più facilmente . Ma i tentativi per separare il ” Radio “ falliscono (Vedi schema sotto).

Esempio di sequenza delle operazioni con l’elemento Bario come carrier :

1) Bombardamento con neutroni 2) Solubilizzazione dei prodotti 3) Aggiunta dell’elemento carrier (Bario) 4) Precipitazione del “Radio” con Bario come carrier 5) Solubilizzazione 6) Il “ Radio” non si separa dal carrier con la cristallizzazione frazionata

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

La perseveranza dei due chimici

Hahn e Strassmann pensano che la causa potesse dipendere dalle piccolissime quantità di isotopi del “Radio” presenti nel campione così continuano a indagare :

Abbiamo mescolato uno dei nostri isotopi, presunto “Radio “artificiale , con un isotopo naturale noto di radio e poi abbiamo cercato di separare la miscela dal bario con il frazionamento come prima. Gli esperimenti e i loro risultati sono stati piuttosto complicati, e non cercherò di descrivere qui in dettaglio. Ma i risultati sono stati abbastanza chiari. In ogni caso , in accordo con le misure di radioattività , la maggior parte del radium naturale , nella miscela , veniva separato , ma il “Radio” artificiale seguiva il Bario in toto . In breve , il nostro “ Radio “ artificiale non poteva essere separato dal Bario per la semplice ragione che era Bario ! “(8) .

A ulteriore conferma identificano un prodotto del decadimento β di uno degli isotopi artificiali del “Radio “ che risulta essere il Lantanio ( era stato trovato dal gruppo di Parigi !) , dimostrando che il parente da cui proviene non può che essere il Bario , che lo precede nella T.P. .

Non hanno dubbi sui risultati raggiunti , ma procedono con cautela :

I nostri tentennamenti derivavano principalmente dal fatto che, come chimici, abbiamo esitato ad annunciare una scoperta rivoluzionaria in fisica”(8).

Una bella prova sperimentale

C’è ancora una bella prova sperimentale definitiva e senza ambiguità che Hahn e Strassmann forniscono :

“Allo scopo di essere certi , abbiamo effettuato il così detto “ciclo” del Bario. Il più stabile degli isotopi attivi , ora identificato come Bario , fu liberato dai prodotti attivi del suo decadimento e altre impurità con la ricristallizzazione con Bario inattivo [ndr :carrier] ; un quarto della quantità totale fu conservata per il confronto e tre quarti vennero sottoposti alle seguenti precipitazioni nel ciclo del Bario :

Ba-chloride ® Ba-succinate ® Ba-nitrate ® Ba-carbonate ® Ba-ferrimannite ® Ba-chloride .

Dopo aver passato attraverso questa serie di composti , molti dei quali cristallizzati in modo magnifico , l’attività del cloruro di Bario risultante e la preparazione per il confronto erano misurati alternativamente usando lo stesso contatore, con uguale peso e spessore dello strato . L’iniziale attività e l’incremento , come risultato della ulteriore formazione del Lantanio attivo, erano gli stessi per entrambi i campioni , entro i limiti dell’errore : la cristallizzazione di così tanti e differenti sali non ha prodotto una separazione del Bario attivo dal carrier [ ndr : Bario inattivo ] . Si può solo concludere che il prodotto attivo e il carrier erano chimicamente identici cioè Bario “ (8).

Fu un lavoro quasi impossibile

Il nostro racconto termina qui con la scoperta del primo frammento della fissione nucleare , l’atomo di Bario . Ma quanti sono gli isotopi dei vari nuclei che si formavano negli esperimenti di fissione nucleare , che per quattro , cinque anni furono portati avanti prima da Fermi e poi , principalmente , dai gruppi di Parigi e di Berlino ? Hahn scrive nella Nobel Lecture, 1946 :

“ All’inizio del 1945 siamo stati capaci di fare una tabella nella quale erano raccolti , come prodotti diretti e indiretti della fissione dell’Uranio , venticinque differenti elementi sotto forma di circa cento tipi di atomi attivi ( n.d.r. : loro isotopi ). Gli atomi attivi , che abbiamo creduto fino al 1939 elementi transuranici , erano tutti prodotti di fissione o loro successivi prodotti , e non elementi con numero atomico più alto rispetto all’Uranio ! ” (8).

L’opinione di Lise Meitner

Lise Meitner , la fisica che dovette lasciare il gruppo di Berlino nella parte più critica del lavoro, continuò la collaborazione con Hahn e Strassmann , dando un contributo molto importante . Né lei , né Strassmann condivisero il premio Nobel con Hahn . Molti pensano che entrambi avrebbero dovuto ricevere il premio.

Tuttavia i suoi rapporti con Hahn rimasero sempre improntati a grande amicizia . Riporto l’opinione che espresse , anni dopo la scoperta della fissione , sul lavoro fatto dai due chimici :

“Otto Hahn e Fritz Strassmann furono in grado di scoprire la fissione nucleare perché usarono una chimica eccezionale , una chimica incredibilmente avanzata , che era molto più avanti di quanto fosse possibile in quel momento . Gli Stati Uniti appresero ad usarla molto più tardi . Però in quel momento , nel 1938 , Hahn e Strassmann erano gli unici che potevano farlo , perché erano ottimi chimici “

Conclusione

 Fu una impresa quasi impossibile riuscire , da quel paniere di atomi differenti o per numero atomico o per numero di neutroni, con attività diversa per ciascuno , che variava continuamente nel tempo e partendo da ipotesi fuorvianti , a scoprire il fenomeno della fissione nucleare .

(Nota del postmaster: altri post in cui si dicute questo argomento:

https://ilblogdellasci.wordpress.com/2015/08/04/era-bario-davvero/

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/)

 

Bibliografia completa

 

  1. The Nuclear Fission Table in the Deutsches Museum: A Special Piece of Science History on the Eve of World   War II , di Susanne Rehn-Taube
  2. La fisica e il suo divenire. Sull’esperienza storica della conoscenza fisica , di Fritz Krafft
  3. The detours leading to the discovery of nuclear fission, di Kurt Starke J.C.E. 1979 , Dic
  4. The Transuranium Elements   , Glenn T. J.C.E. Seaborg J.C.E , 1985
  5. Irena Curie et Paul Savitch. de Phys. et Rad., 1937 , 7 , 385
  6. Irene Curie et Paul Savitch , R., 1938 , 206 , 906
  7. Irene Curie et Paul Savitch , de Phys. et Radium ., 1938 , 9, 355
  8. From the natural transmutations of uranium to its artificial fission , Otto Hahn , Nobel Lecture,

La Giornata mondiale dell’ambiente 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Nel 1972 l’Assemblea Generale delle Nazioni Unite proclamava la Giornata Mondiale dell’Ambiente ,che sarebbe stata festeggiata da quel momento in poi il 5 giugno di ogni anno. Quella di quest’anno è stata ospitata alcuni giorni fa in India, con il tema l’inquinamento dei mari e degli oceani. L’Italia è stata nazione ospitante nel 2015. In ogni caso eventi paralleli si svolgono per la celebrazione in 150 Paesi.

Tornando all’oggi il pericolo maggiore per oceani e mari è rappresentato dalla plastica, un pericolo di vecchia data (si pensi che sono stati ripescati pezzi datati 1950!) in linea con il fatto che ogni minuto nel mondo si acquistano un milione di bottiglie di plastica e solo una piccola parte viene riciclata e che 8 milioni di ton di rifiuti plastici finiscono in mare distruggendo l’habitat sottomarino. A tale distruzione contribuiscono anche le buste di plastica: si pensi che se ne acquistano 500 miliardi l’anno e che ovviamente una parte di esse non può non finire in mare.

La scelta dell’India da questo punto di vista è esemplare in quanto si tratta del Paese con il più alto tasso di riciclaggio. Lo slogan dell’evento è per l’appunto: Combatti l’inquinamento da plastica; se non puoi usare lo stesso pezzo più volte rifiutala.

L’UNEP l’organizzazione mondiale contro l’inquinamento ha giustamente riconosciuto questi meriti all’India, peraltro anche impegnata contro i cambiamenti climatici. L’Italia ha celebrato la Giornata con alcuni eventi, fra i quali di notevole rilievo l’Eataly Lingotto dedicato a valorizzare le eccellenze locali in fatto di letteratura,cucina e musica.

Durante la giornata il WWF Italia ha lanciato le borse della spesa riutilizzabili. A Palermo gli universitari hanno organizzato la festa ribattezzata da Fiorello “Aricugghiemu ‘a plastica” , durante la quale i rifiuti plastici dispersi nell’ambiente sono stati raccolti ed avviati al riciclo.

Ancora in Sicilia è stato lanciato un video “Spiagge plastic free”. A Roma è stato organizzato un incontro pubblico sul ciclo di vita dei materiali

Malgrado questi segnali di rinsavimento viviamo ancora in un mondo nel quale c’è un’”isola” (in realtà un ammasso galleggiante) chiamata Great Pacific garbage patch, fra la California e le Hawaii, costituita completamente da rifiuti di plastica , valutati in 8mila tonnellate. Anche le previsioni non aiutano: nel 2050 secondo alcune proiezioni mangeremo plastica, visto che essa avrà colonizzato le nostre risorse alimentari, soprattutto marine.

Qualche dato incoraggiante c’è e viene anche dal nostro Paese dove il consumo dei sacchetti di plastica si è ridotto del 55% dal 2012, quando ne eravamo i primi produttori.

Il cocktail micidiale fatto di aumento dei consumi individuali e crescita della popolazione mondiale sta facendo saltare il banco, cioè il sistema climatico che garantisce le condizioni di sopravvivenza. Il fatto che dinnanzi a questi pericoli si registrino ritardi di correzione di rotta fa riflettere: forse bisognerebbe più che allarmare educare dando immediata speranza di un restituito equilibrio ai teritori, intervenendo sugli aspetti geopolitici, allineando ragioni ambientali e sociali.

Per finire un altro recente allarme: oltre la plastica gli abitanti della terra, o almeno di parti di essa, sono anche potenti smaltitori di mozziconi di sigaretta nella sabbia, sebbene sia vietato.

I ricercatori che studiano il sito del Golfo Persico hanno rilevato in alcune sue zone livelli di ferro, cadmio, arsenico, nichel, rame, zinco e manganese. I filtri di sigaretta – composti da acetato di cellulosa- fanno da mezzo di trasporto ai metalli negli ambienti marini con effetti disastrosi su piante ed animali e la possibilità di ingresso anche nella catena alimentare.

La storia della scoperta della fissione nucleare : i chimici risolvono un problema fisico . Prima parte

In evidenza

Roberto Poeti

 Un “tavolo particolare” al Deutsches Museum di Monaco di Baviera

Una visita al Deutsches Museum riserva tante sorprese nel campo della scienza e della tecnologia . Ma una in particolare lascia a bocca aperta. Nel settore “ Fisica “ del Museo , un vecchio tavolo di legno attira l’attenzione (Fig1). E’ ingombro di materiale elettrico come prese e interruttori in bachelite , vecchi condensatori , amplificatori , batterie , valvole ecc.. e una rete di fili che li collegano . Nel piano inferiore sono alloggiate una serie di batterie . Potrebbe essere il banco di un elettricista prima dell’avvento dei transistor , se non fosse per uno strano cilindro di colore giallognolo e di materiale translucido poggiato ad un lato del tavolo , sembra una torta (Fig 2). Cosa rappresenta il tavolo ? E’ l’originale attrezzatura che usò Otto Hahn, premio Nobel per la Chimica , che insieme a Lise Meitner and Fritz Strassmann scoprirono la fissione dell’uranio nel 1938 (Fig3).

Figura 1

Il piano del tavolo con l’attrezzatura e sotto il piano inferiore dove sono alloggiate le batterie . A destra , del tavolo , di fronte , accanto al quaderno degli appunti , due contatori Geiger e Muller .

Figura 2

Particolare del tavolo

Nell’angolo in alto a destra del tavolo il cilindro , simile ad una torta, è il cuore del sistema. E’ costituito da paraffina e al centro , in una incavatura , è contenuto la sorgente di neutroni costituita da Be/Ra. A lato , sempre immerso nella paraffina , si trova il campione di uranio.

Figura 3

A sinistra Fritz Strassmann (1902–1980), al centro Otto Hahn (1879–1968) che illustra gli strumenti del tavolo ( 1962)

Si ritiene che il tavolo e molti strumenti siano autentici , compreso il cilindro di paraffina . E’ fonte di stupore per i visitatori del museo vedere come la più grande scoperta del ventesimo secolo , la fissione nucleare , che ha segnato la nascita di una nuova era , possa essere contenuta in un tavolo di elettricista . Il tavolo è considerato “ il capolavoro “ della collezione del museo (1) . Va tuttavia precisato che il lavoro completo si svolgeva in tre distinti luoghi : in una stanza avveniva l’irradiazione del campione di uranio con la sorgente di neutroni , in una seconda stanza era allestito il laboratorio di Chimica e in una terza veniva misurata la radioattività dei prodotti . La scoperta della fissione dell’atomo venne attribuita ad Otto Hann , al quale fu conferito il premio Nobel nel 1944 . Una targa commemorativa sulla parete accanto al “ tavolo“ ricorda che la scoperta è condivisa con Lise Meitner e Fritz Straßmann , la prima un fisico e il secondo un chimico .

La percezione del ruolo della chimica

Il paradosso della scoperta della fissione è che , mentre ufficialmente il Nobel fu assegnato ad un chimico , non viene percepita a livello culturale come un obbiettivo raggiunto dalla Chimica . E forse non si conosce neppure in cosa consista il contributo dato dai chimici che vi lavorarono .

La beuta caudata con imbuto Buchner , che si vede accanto al blocco di paraffina nella figura 2 , è il solo richiamo ad una operazione chimica , messa come simbolo . Insomma il “tavolo “ è un oggetto fortemente evocativo , tuttavia non aiuta a comprendere il peso che vi ebbe la scienza chimica.

La Chimica fu fondamentale per Maria Curie

Nel suo libro “ La Fisica e il suo divenire “ Fritz Krafft , storico della scienza, titola un capitolo “ I chimici risolsero un problema fisico . Per una storia della scoperta della fissione nucleare “ (2) . Il titolo centra il nocciolo del problema : senza gli strumenti della Chimica non si sarebbe arrivati al traguardo . Non c’è stato gruppo di ricerca nella storia della radioattività che non abbia visto la partecipazione decisiva diretta o indiretta dei chimici , a partire dalle scoperte degli elementi Radio e Polonio da parte di Maria Curie. La stessa scienziata aveva seguito a Varsavia , prima di venire a Parigi , dei corsi non ufficiali di laboratorio di Chimica presso il Laboratorio del Museum of Industry and Agriculture . Ricordiamo che la Polonia era sotto la dominazione della Russia zarista e l’educazione scientifica era preclusa alle donne . Il direttore del museo, cugino di Maria Curie , era il chimico Josef Boguska, educato a San Pietroburgo sotto Dmitrij Mendeleev di cui era stato poi assistente : “ Sviluppai la mia passione per la ricerca sperimentale durante queste prime prove” , scriverà in seguito la scienziata .

Gustave Bemont , a sinistra della foto, con i coniugi Curie

Durante le sue ricerche sul Polonio e il Radio ebbe come collaboratore un chimico , presto passato in secondo piano , Gustave Bémont ( 1857 – 1937 ) professore all’ École de Physique et Chimie di Parigi. Nel primo numero della rivista Radium appare accanto ai coniugi Curie . L’altro chimico che collaborò con Maria Curie dopo la morte del marito è stato André Debierne (1874-1945) scopritore del l’Attinio . Ma vedremo, più avanti , come la presenza dei chimici si confermerà determinate anche nella scoperta della fissione nucleare .

La scoperta del Neutrone

 La scoperta del neutrone, avvenuta nel 1932 per opera di James Chadwick , determina la nascita di linee di ricerca volte a utilizzare le nuove particelle come proiettili per modificare gli atomi. In realtà già Rutherford nel 1919 , usando particelle α , aveva ottenuto la prima trasmutazione artificiale dell’atomo , a cui però sfuggivano gli atomi degli elementi più pesanti per la repulsione esercitata dalla loro grossa carica positiva sulle particelle α . Si deve a Fermi l’uso dei neutroni e la scoperta della loro efficacia se venivano fatti passare attraverso un mezzo che ne rallentasse la velocità . Da tali programmi si arriva  alla fine a scoprire la fissione nucleare ( 1938 ) .

I protagonisti della scoperta della Fissione Nucleare

 Alla scoperta in se parteciparono solamente tre gruppi di ricerca. Tutti gli altri gruppi di ricerca si erano prevalentemente accontentati della riproduzione e conferma dei risultati ottenuti in rapida sequenza dalle piccole équipes attive a Roma , Parigi e Berlino . Per poter arrivare a comprendere la fissione nucleare occorreva , oltre che alla padronanza dei metodi radio-chimici, una eccezionale abilità analitica e conoscenze chimico–analitiche notevoli , capaci di fornire la spinta decisiva . Il fatto che questi requisiti fossero ben presenti nel gruppo berlinese , specie nella persona di Fritz Strassmann, costituisce una delle ragioni del perché la scoperta poté essere fatta a Berlino e non a Roma o Parigi. In effetti al gruppo romano solo nel 1934 e per breve tempo appartenne un chimico , Oscar D’Agostino, che in precedenza si era familiarizzato a Parigi con i metodi radiochimici . Irène Curie , del laboratorio di Parigi , pur essendo anche lei una fisica , possedeva notevoli esperienze nel campo dei metodi radiochimici messi a punto dai suoi genitori e aveva lavorato nel 1937-38 con il fisico chimico Pavel Savič , tuttavia mancava di profonde conoscenze analitiche . La peculiare composizione però dell’équipe di Berlino , che comprendeva una fisica nucleare , Lise Meitner , un radio chimico , Otto Hann e un chimico analitico , Fritz Strassmann , costituì chiaramente un presupposto della scoperta , giacché garantiva la  «presenza » di tutte quelle conoscenze e abilità che si rivelarono più tardi necessarie .

Anni dopo Enrico Fermi dichiarava che ciò che gli era mancato per raggiungere l’obbiettivo della scoperta della fissione nucleare erano state le conoscenze e competenze dei chimici (3). Troppo tardi e per breve tempo aveva cercato di colmare il vuoto aggiungendo al gruppo un valido chimico come D’Agostino . Nel suo gruppo il rapporto chimici /fisici era di 1 a 5 , in quello di Berlino era 2 a 1 .

Gli ostacoli interni alla Chimica

Alle già complesse operazioni di laboratorio volte a separare e identificare i radio nuclidi derivanti dal bombardamento dell’uranio con neutroni lenti si opponevano grossi ostacoli di natura interna alle discipline di Chimica e Fisica . Per comprendere intanto quelle inerenti alla chimica è necessario tenere presente la tavola periodica come si presentava fino agli anni 1940 .

Allora si era convinti che le configurazioni basate su orbitali f fossero limitate ai solo lantanidi . Non era stato identificato alcun elemento più pesante dell’uranio e le proprietà degli elementi noti più pesanti (Ac , Th , Pa, U ) sembravano rassomigliare a quelle dei metalli di transizione di tipi d dei gruppi III b – VI b ( La , Hf ,Ta, W, Re ) della tavola periodica in modo sufficiente da permettere la classificazione in tali gruppi . Per comprendere quanto fosse radicata questa impostazione che, a parte l’introduzione dei gas nobili e lantanidi, aveva ancora l’impianto della tavola di Mendeleev del 1872 , c’è un episodio che ci racconta Glenn T. Seaborg ( Premio Nobel per la Chimica 1951 ) . Dopo aver dato alla tavola periodica un nuovo arrangiamento ( 1944 ) con l’introduzione della serie degli attinidi e quindi la collocazione corretta degli elementi transuranici , Seaborg decide di pubblicare la scoperta in Chemical and Engineering News . Ma prima mostra  l’articolo ai suoi colleghi :

« They said, “Don’t do it, you’ll ruin your scientific reputation.” I had a great advantage. I didn’t have any scientific reputation at that time, so I went ahead and published it. » (4).

Quanta inerzia culturale ci fosse nelI’ accettare la nuova tavola periodica , ancora nel 1961 , dopo sedici anni dalla scoperta degli Attinidi , lo dimostra La Grande Enciclopedia Italiana della U.T.E.T. , appena pubblicata, che conteneva la Tavola Periodica degli anni trenta ( Fig 4). E per finire , il primo libro di testo di Chimica del biennio, adottato dall’I.T.I.S. di Arezzo, alla sua nascita nel 1960 , proponeva sempre la Tavola Periodica degli anni trenta (Fig5).

Tavola periodica presente nel

Grande Dizionario Enciclopedico “ UTET

pubblicato nel 1961

Figura 4

Tavola periodica nel testo di Chimica per il biennio dell’I.T.I.S. di Arezzo del 1960

Figura 5

Gli ostacoli interni alla Fisica

Nel versante della fisica veniva negata la possibilità che bombardando nuclei pesanti , come l’Uranio , con neutroni vi fosse la possibilità di ottenere la frammentazione del nucleo . In tutti i processi nucleari , fino ad allora osservati sugli elementi più leggeri , il numero atomico era cambiato al massimo di due unità . La sola persona che sostenne la possibilità della frammentazione del nucleo di elementi pesanti fu la chimica e fisica Ida Noddack scopritrice del Renio . Il suo articolo del 1934 , nel quale sosteneva questo punto di vista , fu praticamente ignorato dai fisici nucleari . Poiché i prodotti ottenuti da Fermi , bombardando l’ Uranio , emettevano particelle beta ( non era stata osservata nessuna emissione alfa), lui e i suoi colleghi fecero l’ipotesi plausibile che la trasmutazione produceva isotopi di Uranio a vita breve , che poi, per decadimento β, davano origine a elementi con numero atomico superiore rispetto all’uranio, l’elemento 93 e forse anche 94 ( L’emissione di una particella β comporta l’aumento del numero atomico di una unità , mentre con l’emissione alfa il numero atomico decresce di due unità ) . In una serie di articoli pubblicati tra il 1935 il 1938 Fermi riportava la scoperta di elementi transuranici che venivano chiamati eka-renio , eka – osmio , eka – iridio e eka – platino ( numero atomico 93,94,95,96) .

Quando Fermi ricevette il Premio Nobel nel 1938 venne citato soprattutto per la scoperta degli elementi transuranici!. Rimaneva tuttavia non risolta l’identificazione chimica dei supposti elementi transuranici .

Una ricerca complessa

Mentre il gruppo di Fermi si disperdeva nel 1935 , continuava a Parigi e Berlino la ricerca degli elementi transuranici . Le notevoli difficoltà analitiche che si incontravano nella separazione e identificazione dei radionuclidi provenienti dal bombardamento dell’Uranio con neutroni erano amplificate dalla ipotesi che si ottenessero solo prodotti transuranici . Il bombardamento dell’Uranio produceva una quantità rilevante di differenti radionuclidi e loro isotopi , spesso con rapido decadimento . Le minime quantità che si ottenevano erano rilevabili solo con metodi radiochimici , misurandone la loro attività specifica . L’elemento naturale Uranio , che veniva utilizzato, doveva essere da prima separato dai prodotti della sua stessa radioattività , in particolare un isotopo del Torio . Un operazione complessa senza la quale si sarebbero avute interferenze quando veniva misurata la radioattività dei prodotti ottenuti con il bombardamento neutronico . La separazione e identificazione di questi radionuclidi , ottenuti poi in soluzione , era il vero scoglio da affrontare. Ma quale era il criterio principale di separazione e identificazione su cui si faceva affidamento?.

L’ uso degli elementi Carrier nella separazione dei radionuclidi

Poiché i radioisotopi erano presenti spesso in tracce , per poterli separare , si procedeva con metodi che non potevano essere equiparati con le ordinarie separazioni di quantità pesabili degli elementi stabili. Le tracce di radioisotopi di differenti elementi , spesso con decadimento rapido , potevano essere separati gli uni dagli altri e precipitati con l’aiuto di un elemento carrier . Se in chimica analitica la coprecipitazione è quasi sempre indesiderabile, nell’analisi di tracce di elementi , come in radiochimica , era spesso il solo mezzo di separazione di un elemento. Si doveva scegliere come carrier un metallo che si riteneva potesse essere vicino , nel gruppo o nel periodo , al radionuclide da isolare, avente perciò la stessa carica e solo una piccola differenza nel raggio ionico di quest’ultimo . In questo modo gli ioni del radionuclide avrebbe occupato , sotto forma di inclusione , i siti nella struttura cristallina del composto del carrier , quando questi precipitava dalla soluzione . Ma ci voleva un radiochimico di grande esperienza per distinguere tra un precipitato , sul quale i pochi ioni radioattivi erano assorbiti sulla superfice del cristallo in modo aspecifico , e quello nel quale essi erano parte della struttura cristallina . Solo con la coprecipitazione per inclusione si avevano importanti informazioni sul numero atomico del radionuclide , conoscendo quello dell’elemento usato come carrier . Il passo successivo era quello di separare il radionuclide dal metallo carrier, sfruttando piccole differenze nella solubilità dei loro sali , mediante cristallizzazione frazionata , un processo che richiedeva molto tempo (4) . La scelta dei carrier , nella nostra storia , venne fatta supponendo di ottenere elementi transuranici nel bombardamento dell’uranio e che questi fossero inquadrati nella tavola periodica come elementi di transizione sotto Renio , Osmio , Iridio , Platino . I metalli usati come carrier erano perciò scelti tra questi , e precipitati prevalentemente come solfuri. La coprecipitazione che si otteneva era però aspecifica , spesso per adsorbimento , perché si partiva dalla errata convinzione che si formassero elementi transuranici . Si ottenevano così informazioni fuorvianti sulla identità dei radionuclidi . Questo comportò un lavoro infruttuoso per molto tempo che servì , malgrado tutto , a migliorare le tecniche radiochimiche e analitiche.

( continua nella seconda parte )

Nota del blogmanager: sul medesimo argomento il blog ha pubblicato altri articoli fra cui:

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/

https://ilblogdellasci.wordpress.com/2017/11/06/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-ida-noddack-1896-1978/

Bibliografia

  1. The Nuclear Fission Table in the Deutsches Museum: A Special Piece of Science History on the Eve of World   War

               War II , di Susanne Rehn-Taube

  1. La fisica e il suo divenire. Sull’esperienza storica della conoscenza fisica , di Fritz Krafft
  2. The detours leading to the discovery of nuclear fission, di Kurt Starke J.C.E. 1979 , Dic
  3. The Transuranium Elements   , Glenn T. J.C.E. Seaborg J.C.E , 1985

Salute, ambiente e competitività: il ruolo della chimica.

In evidenza

Fabrizio Demattè*

Documento preparatorio convegno REACH2018 a cura dell’Ordine Regionale dei Chimici del Trentino Alto Adige.

L’Ordine Regionale dei Chimici del Trentino Alto Adige – Südtirol organizzerà venerdì 22 giugno 2018 presso il MUSE a Trento un convegno riguardante i regolamenti REACH e CLP. Nostro scopo è portare all’attenzione del tessuto economico e sociale le novità volute dalla Comunità economica europea in tema di sostanze chimiche, ed in particolare quelle pericolose.

Abbiamo scelto come immagine un dodicenne (perché questo è il tempo trascorso dalla prima emanazione del REACH) il quale maneggia con destrezza i pittogrammi (CLP) che rappresentano graficamente la pericolosità delle sostanze chimiche interessate dal regolamento.

Molti “portatori di interesse” contattati in mesi di preparazione (mondo produttivo, istituzionale, sociale e assicurativo) hanno risposto positivamente all’iniziativa riconoscendo lo studio della pericolosità dei chemicals, la loro valutazione e comunicazione una cosa non soltanto da chimici bensì una questione di pubblica.

REACH e CLP sono due regolamenti europei di fondamentale importanza (Reg. 1907/2006 e Reg.1272/2008) adottati per migliorare la protezione della salute dell’uomo e dell’ambiente dai rischi delle sostanze chimiche ed è rivolto non solo a quelle utilizzate nei processi industriali, ma anche a quelle presenti, nei detergenti, nelle vernici, nei giocattoli, negli abiti, nei mobili, in campo elettronico, cioè nel quotidiano. Ben narrato dalle grafiche di questo sito. https://chemicalsinourlife.echa.europa.eu

Bisfenolo A, noto interferente endocrino utilizzato negli scontrini del bar ed in passato nelle tettarelle dei lattanti, sostanze utilizzate per trattare e tingere i nostri vestiti, pigmenti utilizzati nei tatuaggi, sostanze utilizzate per chiarificare le nostre acque potabili, arsenico nei vetri di Murano, e formaldeide ceduta da alcuni contenitori per alimenti, sono alcuni dei temi di cui discuteremo sicuri della loro importante ricaduta nel nostro quotidiano.

Tali regolamenti impongono a tutto il sistema produttivo europeo uno studio circa la pericolosità o non pericolosità delle sostanze utilizzate in funzione dell’utilizzo che poi ne verrà fatto e si propongono come strumento per stimolare la competitività e l’innovazione: secondo il legislatore europeo sarà il mercato stesso a mettere al bando le sostanze più pericolose.

“No data no market” è il titolo dell’articolo 5 del REACH, ad una lettura superficiale può sembrare un semplice slogan ma è invece una scelta precisa ed elemento di forza innovatrice di REACH. Come “data” si intendono i dati sulle sostanze in circolazione, che devono essere prodotti con studi ad hoc e pagati non più dalle istituzioni ma da chi pone la sostanza sul mercato. Secondo gli scenari del legislatore il controllo delle sostanze pericolose sarà dettato dal mercato stesso che sta già naturalmente andando verso prodotti più salubri all’aumentare della consapevolezza.

In questi 12 anni di applicazione la normativa di prodotto REACH ha delineato quattro importanti nodi da sciogliere:

  1. Chi produce le sostanze industrialmente è già attivo nel loro studio e nella registrazione delle stesse fin dal 2007, ma il mondo delle piccole o micro imprese che acquistano sostanze e le mescolano è ancora lontano sia dall’utilizzare le informazioni che le prime mettono a disposizione e dall’applicare in conseguenza REACH e CLP.
  2. Chi commercia i beni non è ancora bene informato circa le opportunità offerte e circa gli obblighi e le sanzioni della normativa. Sottovalutando perlopiù questo aspetto questo settore si è assunto, inconsapevolmente, un rischio di “no market” ovvero il blocco del mercato per articoli non conformi.
  3. I consumatori hanno il diritto di conoscere, se presenti negli oggetti che stanno acquistando, il contenuto in sostanze particolarmente preoccupanti (SVHC). Ma ancora non sono consapevoli di questo importante strumento.
  4. Intercettare alla fonte sostanze che si rivelano essere pericolose permetterebbe di evitarne la loro diffusione in ambiente. l’ambito di tutela ambientale scaturito dal REACH è ancora molto poco sviluppato e la stessa norma sociale di tutela dell’ambiente non ha recepito i molteplici cambiamenti linguistici di REACH e CLP.

Per questo il 22 giugno a Trento, presso MUSE “luogo dove la scienza incontra l’umanità”, l’Ordine regionale dei chimici TAA ha organizzato un convegno con una ventina di relatori che scambieranno e forniranno informazioni sulla applicazione della nuova disciplina della chimica in Europa

La cura delle malattie scaturisce dall’evidenza contingente mentre l’investimento in prevenzione parte dalla lungimiranza di amministratori saggi.

Come il ragazzino dell’immagine maneggia con destrezza i pericoli guardando con ottimismo al futuro, condividiamo questo momento con chiunque vorrà partecipare all’evento, registrandosi sul sito www.chimicitaa.org. Iscrizione obbligatoria, (gratuita per i cittadini 20€ per professionisti.)

Evento in Facebook https://www.facebook.com/events/242691492947295/

  • Fabrizio Demattè, chimico, professionista ed iscritto alla SCI, si occupa da sempre dei temi del REACH, coordinando l’attività relativa dell’Ordine Regionale Chimici TAA.

Due capitoli significativi del Sistema Periodico di Levi: Cromo e Azoto

In evidenza

Mauro Icardi

Credo che nell’opera di Primo Levi “Il sistema periodico” sia uno dei libri più rappresentativi. Il libro è essenziale, e non è un caso che nel 2006 la Royal Institution britannica lo abbia scelto come il migliore di scienza mai scritto. In realtà non si può definirlo soltanto un testo scientifico, in quanto è un testo anche autobiografico. E’ un libro che ho molto regalato e molto consigliato. Che può essere apprezzato dai chimici e dai non chimici.

Forse può sembrare riduttivo, ma dovendo scegliere due capitoli che incarnino pienamente lo spirito del chimico, ed in particolare quello del chimico che applica la sua conoscenza nella risoluzione di problemi pratici, due risaltino in maniera particolare: “Cromo” e “Azoto”.

Il primo ambientato nell’immediato dopoguerra, racconta l’esperienza di Levi nel suo primo approccio con l’industria dei prodotti vernicianti, che sarà poi il lavoro che lo scrittore svolgerà per buona parte della sua esperienza lavorativa alla SIVA di Settimo Torinese.

Nel 1946 Levi lavora alla Duco di Avigliana. L’esperienza del Lager è recente e viva nella sua memoria. E’ spesso triste, isolato. Ma in quel periodo su uno dei fumosi ed arrangiati treni del dopoguerra che lo trasportano da Torino alla fabbrica in riva al lago, lo scrittore conosce quella che diventerà sua moglie, Lucia Morpurgo. E contemporaneamente, mentre nelle ore morte del lavoro continua la stesura di “Se questo è un uomo”, riceve finalmente un incarico che lo sottrae alla routine ed alla noia. Deve occuparsi di risolvere un problema. Provare a recuperare un lotto di vernici solidificate ed apparentemente inutilizzabili che giacciono in un angolo del cortile dell’azienda.

La soluzione del problema della vernice antiruggine ai cromati affronta uno dei temi cari allo scrittore. Quello del lavoro, della sua etica. Levi che nel primo periodo di lavoro non ha compiti fissi e viene invitato a studiare il processo di produzione delle vernici e a tradurre articoli tecnici dal tedesco, soffre di questa sua inattività pratica.

Ma finalmente il direttore dell’azienda lo incarica di recuperare le vernici inservibili. E Levi si appassiona. Ottiene i certificati di collaudo delle materie prime, i referti analitici delle vecchie analisi di controllo qualità. Si guadagna la nomea di rompiscatole. Ma finalmente capisce da dove origina il problema della solidificazione di quelle vernici. Il cromato acquistato per la produzione delle vernici deve, per contratto, non contenere meno del 28% di ossido di cromo totale. Ma la ricerca d’archivio mostra una anomalia sconcertante. Ogni lotto di cromato acquistato e collaudato mostra una percentuale di ossido fissa ed immutabile, cioè il 29,5% tra un lotto ed un altro. Ed è proprio questa anormalità, questo ripetersi di cifre uguali che fanno torcere le fibre di chimico di Levi. Che recuperate le quasi inviolabili PDC (prescrizioni di collaudo), leggendole con attenzione si accorge di un errore, dovuto ad una dimenticanza. Ovvero la scheda di collaudo è stata revisionata, e nell’istruzione operativa per il colludo del pigmento si legge che dopo la dissoluzione del pigmento, si devono aggiungere 23 gocce di un certo reattivo. Ma nella scheda precedente si legge che dopo la dissoluzione si devono aggiungere 2 o 3 gocce di reattivo. La “o” fondamentale è sparita nella trascrizione e revisione della scheda. L’eccesso ingiustificato di reattivo aggiunto ha falsato le analisi su quel valore fittizio di 29,5%, che ha nascosto ed impedito di respingere lotti di pigmenti troppo basici e che si sarebbero dovuti scartare.

Levi riuscirà a risolvere il problema inserendo nella formulazione di quel tipo di vernice il cloruro d’ammonio, che combinandosi con l’ossido di piombo, e liberando ammoniaca correggerà l’eccesso di basicità. Passeranno poi gli anni, e il cloruro d’ammonio inserito da Levi si continuerà ad usare, anche se a rigor di logica avrebbe dovuto essere utilizzato unicamente per recuperare le vernici non conformi.

Questo capitolo del libro mi è sempre molto piaciuto. Credo non sia così infrequente quando si lavora, dover fare i conti con alcune convenzioni radicate, che si continuano ad osservare, ma che ormai sono prive di significato pratico. Posso dire che mi sono capitate. Molte volte soprattutto nella gestione di alcune sezioni del depuratore. E queste situazioni insegnano a relazionarsi al meglio. Perché prendere il problema di punta, o scontrarsi non sortirebbe alcun risultato. Un episodio ricollegabile all’atmosfera di questo racconto Leviano mi capitò nei primi anni di lavoro. Un addetto alla conduzione dell’impianto mi venne a cercare per dirmi che a suo parere “avevamo fatto estrarre troppo fango di supero, e in disidratazione di fango non ne arrivava più”

Premetto che un’eventualità di questo genere e quantomeno remota se non impossibile. Una vasca di ossidazione si svuota se sono in avaria le pompe di ricircolo. E’ un’impresa svuotarle con un’eventuale errata impostazione delle pompe di spurgo. E questo l’ho capito dalla teoria e da molta pratica sul campo. Ma allora era da poco meno di un anno che lavoravo nel settore. Mi aspettavo di trovare un fango con poca concentrazione di solidi, molto diluito. In realtà non trovai proprio nulla. Semplicemente il trascinamento di materiale sfuggito alla sezione di grigliatura (il famigerato “malloppo” di bastoncini per orecchie, e un groviglio di calze da donna) aveva ostruito la girante di una pompa. E quindi interrotto il flusso idraulico. L’episodio mi fece tornare in mente il racconto di Levi.

Molte volte le abitudini, la potente narcosi delle pratiche burocratiche possono spegnere le migliori intenzioni. E l’atmosfera di “Cromo” ne da conto con uno stile profondamente umoristico.

Il secondo racconto del libro che ho letto e riletto, e che molte volte mi capita di citare è “Azoto”.

In questo racconto è narrata la singolare e fallimentare ricerca di sintetizzare allossana da utilizzare per la formulazione di rossetti per labbra. Essendo la molecola sintetizzabile per demolizione ossidativa dell’acido urico, Levi cerca di procurarsi la materia prima cercando vari tipi di escrementi, di rettili o di uccelli (le galline in questo caso) che ne sono ricchi, perché eliminano l’azoto allo stato solido come acido urico insolubile, e non allo stato liquido come nei mammiferi tramite la molecola di urea.

Qui le riflessioni di Levi sulla materia “né nobile, né vile” sulla poca, anzi nulla importanza della sua origine prossima, meriterebbero di essere lette come programma nei corsi e nelle lezioni divulgative di chimica.

Anche qui c’è un fondo umoristico ed una riflessione autobiografica. Pensare che una materia prima per produrre rossetti destinati ad abbellire le labbra delle signore, possa provenire da escrementi di gallina non turba per nulla Levi. Non è avvezzo a certi ribrezzi, soprattutto dopo l’esperienza del Lager.

Io mi sono servito di questo racconto, e delle riflessioni di Levi sulla materia quando mi è capitato di parlare di argomenti quali il riciclo integrale di acque reflue, o della gestione o analisi di campioni “difficili” quali fanghi, morchie, o residui alimentari, in particolare i fanghi provenienti dalla depurazione di acque di salumificio o dalla produzione di pasti per mense scolastiche.

Non ho mai avuto problemi nell’occuparmi di queste tipologie di campioni, a differenza di colleghi o di studenti che in visita agli impianti di trattamento, o durante gli stages si trovavano in una comprensibile e tutto sommato ovvia difficoltà.

Eppure proprio in “Azoto” Levi descrive in maniera mirabile un ciclo, quello dell’Azoto appunto, con molta naturalezza e semplicità. Cogliendo in pieno la filosofia della chimica come scienza della materia e delle sue trasformazioni. Due capitoli di un libro “Il sistema periodico” che ancor più de “La chiave a stella” avvicina il lettore alla doppia anima di Primo Levi. Al suo mestiere di chimico a quello di scrittore. Sono ancora molte le persone che non sanno che Levi era un chimico. Leggendo questo libro capirebbero alcune cose di chimica, molte altre su Levi. Un autore che va letto perché ha molto da dirci. La dualità di chimico e scrittore è il fondamento del suo stile letterario.

Scienziate che avrebbero potuto vincere il Premio Nobel: Maria Bakunin (1873-1960)

In evidenza

Rinaldo Cervellati

Maria (Marussia, per famigliari e amici) Bakunin, straordinaria figura di donna e scienziata italiana napoletana, merita un post di rilievo in questa rassegna. Di origine russa, terzogenita del famoso filosofo libertario Michail Bakunin[1] e di Antonia (Antossia) Kwiatowoska, nacque a Krasnojarks (Siberia centrale) il 2 febbraio 1873. Tre anni dopo la nascita morì il padre e tutta la famiglia si trasferì a Napoli dove Michail aveva stabilito forti legami fondandovi un giornale e un’associazione libertaria.

Maria Bakunin ha passato praticamente tutta la sua vita personale e professionale a Napoli, fornendo fondamentali contributi in stereochimica, chimica organica di sintesi e fotochimica in un’epoca in cui senza metodi strumentali, ma solo attraverso manipolazioni chimiche, i chimici riuscivano a riconoscere i “pezzi” di una molecola e ad assemblarli in un’unica struttura. Per molto tempo quasi dimenticata, in anni più recenti sono comparse molte biografie e ricordi di studiosi italiani, fra questi vanno in particolare menzionati Rodolfo Alessandro Nicolaus[2] e Pasqualina Mongillo[3] alle cui opere [1,2] ho attinto per questo post. Una sua biografia si trova anche nel libro European Women in Chemistry [3].

Ritratto di Maria Bakunin,dono del Prof. R.A. Nicolaus all’Accademia Pontaniana

A Napoli, fra ideali di libertà e stimoli intellettuali, la giovane Maria ricevette un’ottima educazione: quella educazione distaccata che potenzia il controllo di se stessi [2]. Conseguì il diploma di maturità classica al liceo Umberto I, si iscrisse quindi a chimica cominciando nel 1890, ancora studente, a lavorare all’Istituto Chimico dell’Università di Napoli in qualità di preparatore. Si laureò nel 1895 a 22 anni con una estesa e brillante tesi sugli isomeri geometrici, sotto la guida di Agostino Oglialoro[4], di cui in seguito divenne moglie.

Siamo negli anni in cui la stereochimica, fondata principalmente da Van ‘t Hoff attorno al 1873, era un nuovo, fertile campo di ricerca in chimica e Bakunin apportò un notevole contributo al suo sviluppo con la sua prima pubblicazione riguardante gli stereoisomeri degli acidi fenilnitrocinnamici [4]. Proprio in connessione con gli isomeri geometrici di queste sostanze Bakunin iniziò a condurre indagini di natura fotochimica. E’ interessante sottolineare che anche la fotochimica era all’epoca un settore di ricerca in via di sviluppo specialmente in Italia grazie ai lavori di Giacomo Ciamician e dei suoi collaboratori all’Università di Bologna.

In una nota del 1898 [5], Bakunin riporta che l’esposizione alla luce solare dell’isomero trans dell’acido 2-fenil-p-nitrocinnamico ne provocava la trasformazione nell’isomero cis. La citazione precisa di questa osservazione si trova in una memoria di M. D’Auria [6], dalla quale ho preso la seguente figura:

Fotoisomerizzazione acido 2-fenil-p-nitrocinnamico [6, p. 162]

L’interpretazione elettronica della foto isomerizzazione si trova pure nel lavoro di D’Auria alle pp. 162-163.

Successivamente la reazione venne ottenuta anche utilizzando una lampada ultravioletta ma risultava molto più lenta [7]. In questo lavoro Bakunin osservò che l’acido fenilcinnamico rimaneva inalterato come pure l’acido 2-fenil-o-nitrocinnamico.

Il problema della sicura assegnazione di una struttura trans oppure cis agli isomeri geometrici degli acidi cinnamici sostituiti poteva trovare una soluzione verificando la loro capacità a dare indoni per ciclizzazione (disidratazione). Bakunin elaborò un metodo che, utilizzando l’anidride fosforica dispersa in un solvente inerte, realizzava la ciclizzazione senza che essa fosse accompagnata dalla trasformazione di uno stereoisomero nell’altro. Contemporaneamente riuscì anche a chiarire il meccanismo della ciclizzazione degli acidi cinnamici sostituiti, dimostrando che essa decorre attraverso la formazione di anidridi che furono anche isolate [1]. Durante questi studi, Bakunin notò che il 2-fenil-4-nitroindone (ottenuto per ciclizzazione dell’acido 2-fenil-o-nitrocinnamico) si trasformava alla luce in un prodotto diverso che poteva essere correlato a quello che si otteneva durante la disidratazione come sottoprodotto dopo evaporazione del solvente [8]. L’esposizione al sole del composto puro, non in soluzione, dava luogo alla formazione di un prodotto unico alto fondente [9]. Questo tema venne ulteriormente sviluppato in tre successivi lavori dal 1911 al 1914 con la conclusione che si trattava della dimerizzazione di derivati dell’acido cinnamico. Ma all’epoca non esistevano i mezzi per stabilire di quali e quanti dimeri si trattasse. M. D’Auria [6, p. 168], ci dice che la reazione del 2-fenil-4-indone non è mai stata ripetuta e si meraviglia del fatto che il contributo di Maria Bakunin alla fotochimica sia stato pressoché ignorato. La sua esauriente memoria [6] colma questo “buco”.

L’uso dell’anidride fosforica in solventi inerti sostituì presto la precedente tecnica di condensazione che implicava la fusione dei reagenti e spesso portava alla loro decomposizione. L’anidride fosforica in soluzione permetteva un approccio meno drastico con controllo della temperatura di reazione. La stessa Bakunin la utilizzò per sintetizzare diverse classi di composti, esteri, anidridi, eteri [10]. Questo metodo venne poi applicato in Inghilterra per la produzione industriale dell’aspirina [1].

I lavori di Bakunin attrassero l’attenzione di Stanislao Cannizzaro[5], fra i due nacque un rapporto di amicizia oltre che di reciproca stima, come dimostra una selezione della loro corrispondenza citata da Mongillo [2]. Nel 1896 Maria Bakunin partecipò alle celebrazioni per il 70° compleanno di Cannizzaro, sola donna fra i numerosi chimici che vi presero parte. Nella ormai famosa foto di gruppo:

I chimici italiani ai festeggiamenti per il 70° compleanno di Cannizzaro (1986)

Cannizzaro è al centro della seconda fila, Bakunin è a destra in terza fila.

La foto è emblematica della società dell’epoca dove una donna scienziato era un “fenomeno” più unico che raro[6]. Ma Bakunin appare molto sicura di sé, non a caso i suoi biografi affermano che rivelò un carattere indipendente e generoso sin da ragazza.

Si interessò anche agli eterociclici indolici, affrontando la sintesi del nucleo indolico, che ottenne mediante riscaldamento con idrossido di bario degli o-nitrofenilderivati degli acidi della serie etilenica. Studiò anche le melanine, che ancora oggi costituiscono una classe di pigmenti naturali di grande interesse sia per la loro struttura chimica sia per la loro funzione biologica. Il contributo portato in quell’epoca alla conoscenza dei pigmenti melanici è di rilievo se si considera che Bakunin, utilizzando i soli metodi chimici, riuscì a isolare da un melanoma due diversi pigmenti di diverso aspetto e colore e a prepararne i sali di argento e di ammonio [11].

Fu ammessa come socia dell’Accademia Pontaniana[7] nel 1905, lo stesso anno in cui fu nominata socia della Società Nazionale di Scienze, Lettere e Arti in Napoli.

Dal 1909 al 1912 insegnò chimica applicata come professore incaricato, poi come ordinario Chimica Tecnologica Organica nella Scuola Superiore di Ingegneria dell’università di Napoli.

Stato matricolare di Maria Bakunin, quando era docente alla Scuola di Ingegneria

Pur proseguendo le ricerche di chimica organica, Maria Bakunin si interessò di chimica applicata, studiò in particolare gli scisti bituminosi dell’Italia Meridionale. Si tratta di rocce sedimentarie, ricche di materiale organico derivante da resti fossili di animali, in prevalenza pesci. In questo materiale è contenuto l’ittiolo, un farmaco ancora oggi utilizzato in dermatologia. Negli anni 1911-1913, Bakunin si occupò, tra l’altro, della purificazione chimica dell’ ittiolo estratto dalla miniera di scisto bituminoso sita nel Comune di Giffoni in Valle Piana (provincia di Salerno).

In precedenza aveva assistito insieme a altre personalità, all’eruzione del Vesuvio dell’aprile 1906 a Torre Annunziata, alle Ville Bifulco e De Siena. Analizzò i materiali espulsi e le ceneri. Visitò le sorgenti minerali della Valle di Pompei e le analizzò chimicamente e batteriologicamente evidenziandone peculiarità e qualità [2].

Visitò poi molte aree del territorio italiano dedicandosi alla stesura di una mappa geologica del territorio nazionale commissionata agli scienziati dal Ministero della Pubblica Istruzione qualche anno prima.

Bakunin fu anche un’ottima didatta e educatrice, convinta che proprio l’educazione potesse garantire professionalità tale da assicurare sviluppo tecnico e culturale al Paese.

Per il suo talento e qualità didattiche, nel 1914 Bakunin fu incaricata dal Ministro Nitti,  di studiare i sistemi di insegnamento professionale in Belgio e in Svizzera.

Si recò quindi in questi Paesi che si mostravano professionalmente più evoluti. Nel suo resoconto illustrò le tipologie istituzionali di formazione professionale, con particolare attenzione all’insegnamento della chimica. Lo scopo dei suoi studi  era quello di vedere attivati in Italia provvedimenti simili affinché le scuole italiane diventassero “il vero granaio” che avrebbe dato ricchezza al Paese. Nell’apprendimento sottolineava l’importanza della pratica affinché l’insegnamento non si riducesse a mera memorizzazione e per ottenere delle risposte concrete chiedeva al Ministero maggiore spazio, mezzi strumentali e una mentalità più aperta dei docenti…

Tornando alla chimica organica, importanti devono essere considerati anche gli studi di Bakunin sulla reazione di Perkin che, come noto, consiste nella reazione fra un’aldeide aromatica e un sale di un acido organico in presenza di un’anidride, con l’ottenimento di acidi α-, β-insaturi.

Non esistendo a quei tempi la tecnica della sostituzione isotopica, si era sviluppata un’intensa polemica scientifica, durata circa cinquanta anni, sulla questione se fosse il sale oppure l’anidride ad iniziare la catena di reazioni con l’aldeide. Attraverso accurate indagini, Bakunin. dimostrò che, nelle condizioni in cui ha luogo la condensazione di Perkin, si stabiliscono delle reazioni di scambio e di equilibrio tra le anidridi e i sali di acidi differenti, di modo che tutta la questione controversa venne ricondotta a una semplice questione di reattività di due diverse anidridi, contemporaneamente presenti, verso una stessa aldeide. Bakunin riconobbe anche che la reazione è sempre favorita dalla presenza di sali [12,13], in accordo con quanto oggi noto sulla capacità di questi a promuovere la ionizzazione delle anidridi [1].

Maria Bakunin si occupò anche di argomenti diversi oltre quelli ricordati, come lo studio chimico e biologico della picrotossina, della morfina e della stricnina, sostanze le cui strutture chimiche vennero caratterizzate solo con l’impiego dei moderni metodi fisici di indagine.

Come ricordato, la scienziata Maria Bakunin fu anche una fine intellettuale, una donna appassionata e mossa da un grande senso di giustizia, descritta da molti con un carattere forte e assertivo capace di farsi valere ai limiti della prepotenza. Estremamente esigente e anche discretamente originale era soprannominata “La Signora” nell’Istituto Chimico dove insegnava e faceva ricerca. A questo forte carattere si univa però una notevole umanità e una vasta cultura, per molti anni fu l’animatrice dell’ambiente culturale napoletano e il suo salotto, sempre aperto a esponenti del mondo intellettuale, perseguitati e rifugiati, divenne una istituzione.

Nel 1936 passò alla Cattedra di Chimica Industriale e nel 1940 fu chiamata per trasferimento alla Cattedra di Chimica Organica della Facoltà di Scienze, che ricoprì oltre i limiti di età, fino al suo collocamento a riposo, il 5 novembre 1948.

Maria Bakunin fu anche audace e coraggiosa, nel 1938 salvò dal carcere con uno stratagemma suo nipote, il matematico Renato Caccioppoli[8], reo di aver fatto suonare “La Marsigliese” in un bar in presenza di un gruppo di gerarchi fascisti[9]. Durante la seconda guerra mondiale protesse i libri dalle fiamme del rogo appiccato dalle truppe di occupazione tedesche all’Università di Napoli il 12 settembre 1943. Benedetto Croce anche per questo gesto la nominò presidente dell’Accademia Pontaniana nel 1944, carica che ricoprì fino al 1947. In quell’anno fu ammessa come socio corrispondente dell’Accademia dei Lincei.

Il 19 febbraio 1949, su proposta del Consiglio di Facoltà del 20 ottobre 1948, insieme ai più vivi ringraziamenti per l’opera prestata a vantaggio della Scuola e delle Scienze, il Ministero della Pubblica Istruzione della Repubblica Italiana, le conferì il titolo di professore emerito.

In questa veste “La Signora” continuò a frequentare assiduamente l’Istituto di Chimica fino quasi alla sua morte, avvenuta il 17 aprile 1960.

Desidero terminare questo post con la seguente citazione, presa da un breve ricordo di Maria Bakunin:

probabilmente proprio in quanto donna il suo valore di scienziata ha avuto bisogno di tempo per essere adeguatamente comunicato e per un lungo periodo non è stata ricordata per l’importanza che ha avuto nel pensiero scientifico e culturale dello scorso secolo.

http://renneritalia.com/maria-bakunin-scienziata/

Bibliografia

[1] a) R.A. Nicolaus,  Ricordo di Maria Bakunin., Atti dell’Accademia Pontaniana, LII, Napoli 2004, pp. 27–32; b) R.A. Nicolaus, Marussia Bakunin, Dizionario Biografico degli Italiani, Istituto dell’Enciclopedie Treccani, vol. XXIV (1988).

http://www.treccani.it/enciclopedia/marussia-bakunin_%28Dizionario-Biografico%29/

[2] P.Mongillo,  Marussia Bakunin, una donna nella storia della chimica, Rubbettino 2008, ampi stralci in: http://www.mariabakunin.com/cat/maria-bakunin/

[3] M. Ciardi, M. Focaccia, Maria Bakunin (1873-1960), in: J. Apotheker, L.S. Sarkadi (Eds.), European Women in Chemistry, Wiley-WCH, 2011, pp. 51-54

[4] M. Bakunin, Sugli acidi fenilnitrocinnamici e sui loro isomeri stereometrici, Gazzetta chimica italiana, 1895, XXV, pp. 137-189.

[5] M. Bakunin, 1898. Stereoisomeri degli acidi fenilnitrocinnamici., Gazzetta Chimica Italiana, 1898, XXVII, 34-48.

[6] M. Dall’Auria, Maria Bakunin e i primi studi in fotochimica in Italia., Atti del XIII Convegno di Storia e Fondamenti della Chimica, Roma, 23-26/9/2009, 161-169.

http://media.accademiaxl.it/memorie/S5-VXXXIII-P2-2009/DAuria161-169.pdf

[7]M. Bakunin, Sull’azione dei raggi ultravioletti sugli stereoisomeri della serie cinnamica.,

Rend. Acc. Sci. Fis. Mat. Napoli, 1911, 17, 372-375. Citato in [6]

[8]M. Bakunin, Sulla sintesi degli acidi non saturi e sui loro prodotti di disidratazione.,

Atti Acc. Sci. Fis. Mat. Napoli, 1902, 11, 2-9. Citato in [6]

[9]M. Bakunin, Gl’indoni ed i loro prodotti di trasformazione al sole. Loro comportamento con l’ozono., Rend. Acc. Sci. Fis. Mat. Napoli, 1911, 17, 379-386. Citato in [6]

[10]M. Bakunin, Sulla eterificazione di acidi con fenoli., Gazzetta chimica italiana., 1902, XXXII, 178-185).

[11]M. Bakunin, G. Dragotti, Contributo alla conoscenza dei pigmenti melanici., Rend.  AccSci. Fis. Mat. Napoli, 1904, X s.3, 222-240.

[12]M. Bakunin, Meccanismo della reazione del Perkin., Gazzetta chimica italiana, 1916, XLVI, 77-103,

[13]M. Bakunin, G. Fisceman,Sul meccanismo della sintesi di Perkin-Oglialoro., Rend.  AccSci. Fis. Mat. Napoli, 1932, II s.4, 20-22.

[1] Michail Aleksandrovic Bakunin (1814-1876) filosofo libertario russo è considerato il fondatore del movimento anarchico moderno insieme al francese Pierre-Joseph Proudhon e agli italiani Carlo Cafiero e Errico Malatesta. Scrittore molto prolifico, viaggiatore indefesso spesso ricercato da varie polizie politiche, a Napoli fondò il giornale Libertà e Giustizia e l’associazione Fratellanza internazionale.

[2] Rodolfo Alessandro Nicolaus (1920-2008) fu allievo di Maria Bakunin, chimico dai vasti interessi è stato professore di Chimica organica nelle università di Napoli, Roma e Basilea. Ha compiuto ricerche sulla chimica delle sostanze naturali, con particolare attenzione ai pigmenti. Membro di numerose società scientifiche e culturali, ha lasciato numerose pubblicazioni riguardanti la vita e l’opera di Maria Bakunin.

[3] Pasqualina Mongillo, dottore in Filosofia, scrive e lavora nel Dipartimento di Sociologia e Scienza della Politica, Università di Salerno. Oltre al libro citato in [1] è autrice di altri scritti su Maria Bakunin e di un ampio ricordo di Rodolfo Nicolaus.

[4] Agostino Oglialoro-Todaro (1847-1923) chimico organico allievo di Cannizzaro e Paternò, fu nominato professore ordinario di chimica organica nel 1879, è stato Direttore dell’Istituto Chimico dell’Università di Napoli. A lui si devono sintesi di importanti composti. Mentore di Maria Bakunin, si sposarono nel 1896 e restarono sempre uniti.

[5] Qui ricordo ancora una volta che fino al primo Congresso internazionale dei chimici tenutosi a Karlsruhe nel 1860 dominava grande incertezza nella definizione dei concetti fondamentali della scienza chimica. Questa fu l’occasione per Cannizzaro di esporre le sue idee sul concetto di peso atomico, messo in corretta relazione con quello di peso molecolare e nell’aver quindi posto su salde basi tutta la teoria atomico-molecolare, che aveva precedentemente pubblicato nel famoso Sunto del 1858. Il noto chimico tedesco Julius Lothar Meyer, di ritorno dal Congresso disse in proposito: “Sentii come se mi fossero cadute le bende dagli occhi, i dubbi svaniti e la tranquillità più sicura prese il loro posto”. A mio parere Stanislao Cannizzaro è stato il chimico più importante del XIX secolo.

[6] Tant’è che per molto tempo Maria Bakunin venne ricordata solo per questa fotografia…

[7] L’Accademia Pontaniana, fondata a Napoli nel 1458 come libera iniziativa di uomini di cultura è una delle primissime accademie fondate in Europa e la prima del Regno di Napoli. Riconosciuta con R:D: nel 1925, si propone di coltivare le scienze, le lettere e le arti.

[8] Renato Caccioppoli (1904-1959) matematico, figlio di Giuseppe Caccioppoli e Sofia Bakunin, sorella di Maria, esercitò “un’influenza decisiva sullo sviluppo dell’analisi matematica in Italia in un periodo in cui l’Italia si era isolata culturalmente dal resto del mondo”. Su di lui è stato fatto il film “Morte di un matematico napoletano” di Mario Martone, 1992.

[9] Chissà se gli sceneggiatori del famoso film Casablanca (1942) si siano ispirati a questo fatto per la scena in cui Rick (Humphrey Bogart) e Victor Laszlo (Paul Henreid) fanno suonare “la marsigliese” nel Rick’s bar pieno di ufficiali tedeschi…Chi fosse interessato a vedere o rivedere questa scena può utilizzare il link:

https://youtu.be/kOO9GsiMb1g

REACH: ultima chiamata.

In evidenza

Luigi Campanella, già Presidente SCI

Il prossimo 31 maggio il regolamento europeo REACH completerà la sua ultima fase e diverrà esecutivo a tutti gli effetti. Non sempre si percepisce questa importante scadenza nell’atteggiamento assunto dal sistema industriale nei riguardi di essa,.Vale la pena ricordare alcuni elementi, più direttamente correlati agli aspetti chimici del regolamento, di una storia durata 10 anni, tanti essendo stati necessari per completare le fasi attuative del REACH.

L’art. 3 della Direttiva 92/32/CEE del 30 aprile 1992, che disciplina la classificazione, l’imballaggio e l’etichettatura delle sostanze pericolose commercializzate negli Stati dell’Unione Europea, regola la “determinazione e valutazione delle proprietà delle sostanze” attraverso test tossicologici che prevedono esperimenti su animali. In funzione del risultato degli esperimenti, una sostanza verrà classificata in una delle seguenti categorie:

  • molto tossica
  • tossica
  • nociva
  • non pericolosa.

Un protocollo-tipo prevede lo studio di:

  • Tossicità a breve termine, che si articola nello studio di:
  • Tossicità acuta effettuata normalmente sul ratto o il topo, attraverso la LD50.
  • Studi di irritabilità degli occhi, della pelle e delle mucose solitamente effettuati sui conigli albini in ambito cosmetologico, attraverso i “Draize test” e miranti alla valutazione della tollerabilità della sostanza in esame a contatto con la cute o con le mucose.
  • Studi di sensibilizzazione normalmente eseguiti sul porcellino d’India per valutare la capacità della sostanza chimica di indurre risposte allergiche o immuni in seguito a somministrazioni multiple.
  • Tossicità ripetuta la cui valutazione avviene attraverso lo studio di:
    • tossicità sub-acuta, sub-cronica, cronica, solitamente effettuata su due specie di cui una roditrice (normalmente si usano il topo e la scimmia o il cane). La durata degli studi varia dai due ai quattro anni; la via di somministrazione è quella di esposizione.
  • Studi di tossicità riproduttiva e di teratologia per evidenziare le eventuali interferenze della nuova sostanza sulla sfera riproduttiva e sulla prole, suddivisi in tre gruppi:
    • Studi di fertilità e riproduzione.
    • Studi di teratologia.
    • Studi di tossicità peri-post natale.

Per quanto riguarda la tossicità a breve termine (effetto acuto) il livello di tossicità è definito a partire da test basati sulla quantità di composto chimico letale in funzione della via di esposizione; i limiti della Dose Letale 50 e Concentrazione Letale 50 utilizzate per classificare un prodotto come molto tossico, tossico o nocivo sono riportati nella tabella seguente [2]:

Categoria LD50 orale

mg/kg

LD50 cutanea

mg/kg

LC50 inalatoria

mg/litro/4 ore

Molto tossiche <25 <50 <0,5
Tossiche 25-200 50-400 0,5-2
Nocive 200-2000 400-2000 2-20

LD50: è la dose di una sostanza che, somministrata in una volta sola, provoca la morte nel 50% degli animali da esperimento; indica la tossicità di una sostanza solo a breve termine (tossicità acuta); non a lungo termine (cioè dovuta a contatto con modiche quantità di una certa sostanza per lunghi periodi); viene espressa di solito come quantità di sostanza somministrata rispetto al peso dell’animale usato come campione (es.: milligrammi (mg) di sostanza per 100 grammi (g) per piccoli animali o per chilogrammi (kg) per animali più grandi); va definita anche la via (orale, cutanea, etc.). Una LD50 maggiore di 2000 mg/kg permette di considerare non particolarmente pericolosa la sostanza testata.

Per la LD50 orale la normativa UE prevede come animale da esperimento l’uso del ratto, mentre per la LD50 cutanea è previsto anche l’impiego del coniglio.

LC50: è la concentrazione in aria che provoca la morte nel 50% degli animali da esperimento, se inalata per un determinato periodo di tempo.

Per la LC50 la normativa UE prevede l’uso del ratto come animale da esperimento con una esposizione di 4 ore.

Sostanze da NON registrare: Sostanze escluse completamente dal REACH; Medicinali (esclusi anche da Valutaz. e Autorizz.); Sostanze presenti in alimenti e alimenti per animali, anche usate come additivi o aromatizzanti (esclusi anche da Valutaz. e Autorizz.); Sostanze incluse in Allegato IV; Sostanze incluse in Allegato V; Polimeri (esclusi anche da Valutaz.). Alcuni esempi sostanze in allegato V. Idrati di una sostanza o ioni idrati, formati da associazione di una sostanza con H2O. – Sostanze che non sono esse stesse fabbricate, importate o immesse sul mercato, risultanti da una reazione chimica che ha luogo quando una sostanza (agente stabilizzante, colorante, antiossidante, plastificante, antischiuma, legante, agglomerante, disidratante, neutralizzatore pH, coagulante, ignifugo, chelante, ecc) agisce nel modo previsto. Alcuni esempi sostanze in allegato IV. (Reg. 987/2008 – 8 ottobre 2008 ) acido ascorbico – glucosio – saccarosio puro – acido oleico puro – CO2 – calcare – Ar – C – N2 – acqua distillata – grafite – olio girasole – soia – lino – ricino -colza ecc. – amido – vitamina A.

I metodi o le procedure che conducono alla sostituzione di un esperimento sull’animale o alla riduzione del numero di animali richiesti, nonché all’ottimizzazione delle procedure sperimentali, allo scopo di limitare la sofferenza animale sono i metodi alternativi alla sperimentazione in vivo. Questo concetto corrisponde alla definizione delle “3R” di Russel e Burch [3], dall’inglese replace, reduce, refine laddove:

  • replacement identifica la sostituzione, ove possibile, degli animali superiori con materiali biologici di minore complessità (batteri, colture cellulari, organi isolati, colture in vitro), modelli computerizzati, video, film;
  • reduction implica la maggiore riduzione possibile del numero di animali usati per un particolare esperimento pur conseguendo risultati di studio altrettanto precisi. Ciò può essere ottenuto standardizzando la popolazione animale, fattore principe della variabilità dei risultati;
  • refinement si riferisce alla ricerca di procedure sperimentali sempre più specifiche in grado di ridurre al minimo la sofferenza e lo stress causato agli animali, comunque impiegati.

I metodi del primo tipo consentono di ottenere una determinata informazione sperimentale senza ricorrere all’utilizzazione di animali; i metodi del secondo tipo sono idonei ad ottenere livelli comparabili di informazione utilizzando un minor numero di animali e consentono di ricavare il massimo numero di informazioni con un solo saggio su animali; i metodi del terzo tipo sono tutte le metodologie idonee ad alleviare sofferenze e danni imputabili alle pratiche sperimentali. Tra i metodi del primo tipo si distinguono i “metodi sostitutivi biologici” e i “metodi sostitutivi non biologici”, i primi sono i “metodi in vitro”, ed utilizzano materiale biologico di diverso tipo (di origine animale o umana); mentre i secondi si avvalgono dei contributi di scienze quali la matematica, l’informatica, la statistica, eccetera.

Un nuovo approccio sperimentale, per essere considerato alternativo alla sperimentazione animale tradizionale, deve essere riproducibile, affidabile, rapido e non più costoso di quello che si vuole sostituire. Il centro europeo preposto alla verifica del rispetto dei suddetti parametri da parte del nuovo metodo (cosiddetta “validazione”) è l’ECVAM (European Centre for Validation of Alternative Methods), istituito dalla Commissione Europea nel 1991 su proposta del Parlamento dell’Unione, nell’ambito del “Joint Research Centre” di Ispra in provincia di Varese. L’ECVAM coordina la validazione dei metodi alternativi a livello comunitario, e costituisce un punto di riferimento per lo scambio di informazioni sullo sviluppo di questi metodi, attraverso una banca dati dei metodi disponibili (già validati o in corso di validazione) impostata e gestita dal centro medesimo.

Attraverso il processo di validazione viene stabilita l’affidabilità e la rilevanza di un metodo. L’affidabilità descrive la riproducibilità dei risultati nel tempo e nello spazio, cioè, nello stesso laboratorio e tra laboratori diversi (cosiddetta “standardizzazione”); la rilevanza descrive la misura dell’utilità e della significatività del metodo per un determinato scopo. I test di validazione sono molto lunghi (possono durare anche anni) ed hanno lo scopo di verificare se un nuovo metodo fornisce, per determinate sostanze, risultati simili a quelli in precedenza ottenuti attraverso la sperimentazione sugli animali. L’approdo finale di un nuovo metodo è il suo accoglimento entro la regolamentazione internazionale, con l’introduzione dei test alternativi nelle linee guida dell’OECD (Organization for Economic Cooperation and Development). L’OECD raccoglie non solo i paesi membri dell’Unione Europea ma anche Stati Uniti, Giappone ed altri; ha il compito di armonizzare i differenti protocolli sperimentali, recependoli sotto forma di linee guida. Le linee guida dell’OECD vengono periodicamente modificate per adeguarle alle nuove conoscenze scientifiche nonché alle modifiche legislative eventualmente intervenute.

Un Libro Bianco della Comunità Europea invita la comunità scientifica a fare il più possibile allo scopo di mettere a punto dei test chimici, che non ricorrano alla sperimentazione animale, in grado di dare informazioni – specialmente avvisi di pericolosità – in tempo reale o quasi reale riguardo la tossicità di un composto. A partire dalla mia presidenza in SCI la Società Chimica Italiana ha periodicamente inventariato gli avanzamenti della ricerca nel campo dei metodi chimici di valutazione della tossicità:molte dei nostri Dipartimenti chimici sia universitari che di enti di ricerca sono impegnati in questa direzione. Le soluzioni proposte sono molto diverse fra loro e risentono ovviamente della formazione specifica dei proponenti:

test di screening mediante desorbimento termico ed analisi dello spazio di testa

fotosensori di tossicità

metodi biochimici e biomolecolari

studi in silico e chemiometrici,metodi predittivi volti alla determinazione di proprietà ed attività delle molecole in base alla loro struttura; metodi computazionali e chemoinformatici;rappresentazioni molecolari strutturate;

test in vitro su sistemi cellulari diversi (in particolare innovativi:nematode del terreno e copepode marino)

test di effetto sub letale

studio di scenari di esposizione

studi epidemiologici

Si tratta di Gruppi di Ricerca autorevoli ed accreditati che potranno costituire una preziosa risorsa per le molteplici strutture pubbliche coinvolte nel REACH,dalle autorità di controllo territoriali all’autorità competente nazionale,fino alla stessa Agenzia Europea per le sostanze chimiche

http://www.reach.gov.it/reach-sintesi

L’impatto dell’umanità sulla biosfera.

In evidenza

Claudio Della Volpe

In un recente articolo su PNAS (www.pnas.org/cgi/doi/10.1073/pnas.1711842115) alcuni ricercatori israeliani ed americani hanno stimato la biomassa globale ed anche l’impatto che l’umanità ha avuto su di essa.

L’argomento è certamente di interesse per i fini del nostro blog, per comprendere la portata dell’Antropocene. Ne facciamo un breve e parziale riassunto; tenete presente che l’articolo è fatto di due parti, una è l’articolo vero e proprio e l’altra è un supplemento molto esteso con tutte le stime dettagliate e i ragionamenti e le incertezze sui numeri ottenuti. Entrambe sono scaricabili senza problemi dato che la rivista è Open access.

La massa totale di tutti i tipi di esseri viventi appartenenti a tutti i taxa è stimata in 550 miliardi di ton equivalenti di carbonio (550GtC); ricordo per i lettori meno documentati che questo equivale a dire che la massa è stimata con riferimento alla sola massa del carbonio presente nelle varie specie mentre gli altri elementi variano da caso a caso; dunque il totale effettivo è ben superiore; la stima si può fare in questi termini a causa del fatto che il rapporto fra carbonio ed altri elementi è ampiamente costante nei vari casi.

L’80% di questo totale è costituito dalle piante, dai produttori primari che fanno la fotosintesi; a loro volta le piante sono dominate dalle piante terrestri, che hanno occupato la terra anche grazie all’avvento della difesa anti-UV costituita dall’ozono, a sua volta disceso dalla produzione di ossigeno.

Ricordo che questo elemento si è accumulato come rifiuto a partire da 2.5 miliardi di anni fa portando alla cosiddetta catastrofe dell’ossigeno, con espulsione dal ciclo della gran parte degli organismi anaerobi, rifugiatisi in poche zone povere di ossigeno (fondali marini, intestini degli animali, etc); questo portò all’accumulo di ozono e alla protezione della terra dagli UV che consentì poi la grande esplosione della vita del Cambriano di circa 530 milioni di anni fa sulla crosta.

Quello che vediamo ogni giorno sulla crosta è figlio della catastrofe dell’ossigeno.

Il secondo costituente della biomassa sono i batteri, circa 70GtC e circa il 15% del totale.

In ordine di importanza quantitativa seguono funghi, archaea (antichi batteri), protisti, animali e virus, che coprono il rimanente, inferiore al 10%.

Le biomassa che vive sopra il suolo costituisce il 60% del totale 320GtC (merito dell’ozono stratosferico!!), mentre le radici (130GtC) e i microbi del suolo e nelle superfici profonde (100GtC) costituiscono il grosso del rimanente.

La biomassa delle piante include per il 70% steli e tronchi degli alberi che sono per la maggior parte legno inerte. I batteri sono il 90% della biomassa profonda, sotto la superficie (aquiferi e fondo marino) con un metabolismo lento. Anche escludendo questi contributi comunque la biomassa globale rimane dominata dalle piante (150GtC di radici e foglie, 9GtC di batteri marini e terrestri e 12 GtC di funghi.

D’altra parte gli insetti dominano in termini di ricchezza di specie (circa 1 milione già descritte) mentre la loro biomassa è piccola. Alcune specie contribuiscono alla biomassa più di intere famiglie e classi.

Per esempio il krill antartico Euphausia superba contribuisce per 0.05GtC in modo comparabile a uomini e mucche. Stesso discorso per le termiti che così sorpassano tutti gli uccelli.

da Internazionale, n. 1257

Durante il relativamente breve percorso dell’umanità nella storia della Terra, innovazioni come la domesticazione degli animali, l’agricoltura e la rivoluzione industriale hanno accresciuto la popolazione umana con effetti ecologici molto pronunciati. Oggi la biomassa umana è 0.06GtC e quella degli animali domestici 0.1 GtC. In confronto i mammiferi selvatici sono solo 0.007GtC. Anche per gli uccelli quelli domestici sono circa tre volte più di quelli selvatici (0.005GtC a 0.002).

Di fatto gli uomini ed i loro animali superano tutti gli altri vertebrati esclusi i pesci. Ovviamente essi costituiscono solo una piccola frazione degli animali in complesso, che comprendono prima di tutto artropodi (1GtC) e pesci (0.7GtC)

Impressionante anche il paragone fra la biomassa attuale e quella preumana che dimostra l’impatto umano sulla biosfera.

L’attività umana ha contribuito alla scomparsa della megafauna fra 50.000 e 3.000 anni fa con una sua riduzione da 0.02GtC a 0.003GtC.

La caccia alla balena e agli altri mammiferi marini ha ridotto la loro massa di 5 volte (da ≈0.02 Gt C a ≈0.004 Gt C ).

Mentre la massa totale degli animali selvatici marini e terrestri è diminuita di un fattore 6, quella totale dei mammiferi si è accresciuta di 4 volte per merito della biomassa umana e degli animali domestici. (da ≈0.04 Gt C a ≈0.17 Gt C)

L’azione umana ha avuto anche impatto sullo stock di vertebrati, con una riduzione di 0.1GtC nella massa dei pesci, circa il 50% e all’aumento corrispondente di animali addomesticati.

L’impatto non si è limitato agli animali ma ha anche modificato profondamente la quantità di carbonio totale sequestrato dalle piante.

Si stima che la massa delle piante si sia dimezzata (e dunque anche la massa totale si è praticamente dimezzata) per azione dell’uomo. La biomassa totale delle specie coltivate dall’uomo è stimata in 10GtC che costituisce solo il 2% del totale delle altre piante rimanenti.

Una nota finale sul fatto che gli errori della stima sono abbastanza grandi, ma secondo me non intaccano l’utilità di questo lavoro.

La prima donna docente e ricercatore alla UC di Berkeley: Agnes Fay Morgan (1884-1968)

In evidenza

Rinaldo Cervellati

Navigando nel sito dell’University of California a Berkeley ci si accorge che Judith Pollock Klinman (di cui abbiamo parlato nel precedente post) è stata la prima donna all’University College of Chemistry a Berkeley, ma non è stata in assoluto la prima donna docente e ricercatore chimico alla Università della California a Berkeley. Il “primato” spetta a Agnes Fay Morgan, Ph.D., che è stata fra i fondatori della Chimica della Nutrizione nel Dipartimento di Economia a Berkeley dove ha lavorato e insegnato per più di 30 anni, fino al suo ritiro e anche oltre.

Agnes Fay Morgan

Ha ricoperto per lungo tempo la cattedra di economia domestica, il suo programma aveva profonde radici scientifiche, e gli studenti dovevano avere un livello di conoscenze scientifiche che non erano tipiche dei programmi di economia domestica dell’epoca. Ma andiamo con ordine.

Agnes Fay nasce il 4 maggio 1884 a Peoria (Illinois), terza di quattro figli di Mary Dooley e Patrick Fay, una coppia di immigrati irlandesi. Intelligente e portata per gli studi frequentò la Peoria High School ottenendo il diploma liceale. Ottenuta una borsa di studio da un benefattore locale, dopo un breve periodo al Vassar College (New York), si trasferì all’Università di Chicago dove conseguì il B.Sc. nel 1905 e il master in chimica nel 1907.

Come sappiamo a quei tempi era molto difficile per una donna intraprendere la carriera di ricercatore, sicchè Fay insegnò chimica all’Hardin-Simmons College (Texas) nel 1905-1906, all’Università del Montana nel 1907-1908 e all’Università di Washington nel 1910-1912. L’annuario 1905 dell’ Hardin-Simmons College del 1905 si riferisce a lei come “selvaggiamente anticonformista”. Ancor più anticonvenzionale fu considerato il suo matrimonio con Arthur I. Morgan, veterano della guerra ispano-Usa del 1898 e noto giocatore di football, suo studente all’Università del Montana[1].

Nel 1912 Fay-Morgan ritornò all’Università di Chicago dove ottenne il Ph.D. in soli due anni (1914) sotto la guida del prof. Julius Stieglitz[2]. Parte della dissertazione di dottorato di Agnes Fay Morgan fu pubblicata nel J. Am. Chem. Soc. [1].

Agnes Fay Morgan in laboratorio

Probabilmente è stata l’unica donna sposata a ottenere un dottorato in USA nelle prime due decadi del secolo scorso. Nonostante il fatto che le donne sposate non fossero generalmente accettate nelle università, Stieglitz scrisse una lettera presentando Morgan per un posto all’Università dell’Illinois. Non è noto se l’Università diede seguito a questa lettera [2], tuttavia Morgan aveva accettato un posto di assistant professor al Dipartimento di Economia Domestica (Home Economics) del College of Letters and Arts all’University of California a Berkeley[3]. Quando nel 1915 Morgan arrivò a Berkeley, scoprì che avrebbe dovuto insegnare nutrizione e dietetica. Per alcuni anni i rapporti fra Morgan e gli amministratori dell’università saranno contradditori e conflittuali, in gran parte dovuti alla convinzione di Morgan che la funzione di un dipartimento universitario di economia domestica doveva essere di scoprire e insegnare i “perché” delle cose, piuttosto che limitarsi a stabilire regole e ricette alimentari per “vivere bene”. Racconterà Morgan:

Così… nel gennaio del 1915, ho iniziato a tenere corsi di dietetica e nutrizione, argomenti di cui non sapevo nulla e a quel tempo forse nessun altro ne sapeva molto. Ho dovuto studiare l’argomento per lo più al di fuori di riviste mediche in tedesco o in inglese . . . non avevo nulla a che fare con la cucina vecchio stile combinata con l’aritmetica delle ricette che era considerata parte della dietetica. In primo luogo, non ero affatto un’ottima cuoca e non mi interessava cucinare. Ero stata chiamata qui per fare qualcosa di pratico per la preparazione dei dietologi, ma non ero in grado di suggerire nulla di pratico.[2]

Aggiungendo:

Quello che volevo fare era stabilire una base scientifica per le varie pratiche che venivano insegnate in quel momento come alimentazione. Volevo impegnarmi a costruire un approccio estremamente rigoroso, un curriculum scientifico in economia domestica e nutrizione.

La maggior parte dei dipartimenti di economia domestica non richiede molto in termini di basi scientifiche. Qui invece chimica generale, chimica organica, biochimica, fisiologia, batteriologia, analisi quantitativa e, ovviamente, statistica, sono le conoscenze richieste nel curriculum da me proposto.

Ma l’amministrazione dell’Università della California a Berkeley ha criticato il dipartimento per questi requisiti giudicandoli eccessivamente rigorosi [2].

Il Dipartimento di Economia Domestica aveva poi croniche difficoltà nel reperire fondi per la ricerca anche in periodi di disponibilità di risorse federali e statali. Per raccogliere fondi, Morgan si offrì di svolgere corsi professionali di alimentazione a insegnanti di scuola, infermieri e altre possibili figure interessate. Ma anche questa iniziativa irritò gli amministratori che considerarono questi corsi al di sotto degli standard dell’università, indebolendo così la reputazione del dipartimento. Sicchè Morgan veniva criticata da un lato per il suo insegnamento troppo rigoroso, dall’altro per l’organizzazione di corsi a carattere professionale…

Resta il fatto che a causa di tutto ciò, a Morgan fu proibito di accettare finanziamenti industriali per la ricerca e le venne fornito poco spazio per condurre il suo lavoro di ricerca.

A questo va aggiunto che inizialmente il Dipartimento era diviso in due sezioni, la divisione di scienze alimentari (con Morgan come capo) e la divisione di lavori e arti domestiche (con Mary Patterson come capo). A Morgan non piaceva condividere il dipartimento con Patterson, che aveva un background in arti decorative e nessuna inclinazione verso la scienza. Nel 1920, il Rettore di Berkeley, David Prescott Barrows, acconsentì alla richiesta di Morgan di separare le due divisioni in dipartimenti distinti poiché avevano curricula e filosofie diverse, così Morgan divenne l’unico direttore del Dipartimento di Scienze Domestiche. Le fu però negato un programma per l’istituzione del dottorato di ricerca in alimentazione e dietologia.

Morgan tuttavia non perse mai coraggio e, consapevole che per fare carriera in una prestigiosa università come Berkeley occorreva fare una buona e documentata ricerca iniziò le sue ricerche nel laboratorio didattico dei suoi studenti. Tenne sempre la sua vita privata ben separata da quella professionale, rimase incinta nel 1923, anno in cui fu promossa full professor, ma il suo staff lo venne a sapere solo in prossimità del parto. I suoi collaboratori dissero che non notarono il suo stato di gravidanza perché Morgan indossava camici molto ampi.

Prof. Agnes F. Morgan

I suoi primi lavori si indirizzarono alle richieste nutrizionali umane e alla produzione e conservazione dei cibi.

È stata la prima a dimostrare che un comune conservante alimentare usato, l’anidride solforosa, ha un effetto protettivo sulla vitamina C ma un effetto dannoso sulla tiamina. Ha studiato il contenuto vitaminico di molte importanti coltivazioni californiane, come grano, mandorle e noci e gli effetti

della loro trasformazione in cibo. Si interessò alle possibili cause di basso peso nei bambini, dimostrando che una dieta ricca di frutta, latte e germi di grano favoriva la crescita dei bambini in età scolare. Usando modelli animali analizzò le relazioni tra vitamine e ormoni.

Studiando le quantità di calcio dietetico, fosforo, vitamina D e ormone paratiroideo ha dimostrato che un sovradosaggio di vitamina D è causa di fragilità delle ossa e calcificazione dei tessuti molli.

Ha anche studiato le interazioni tra vitamina A, carotene e secrezioni tiroidee e tra riboflavina, acido pantotenico e secrezioni di ghiandole surrenali.

La sua ricerca sull’acido pantotenico e sulla funzione della ghiandola surrenale è stata probabilmente il suo maggior successo. Nel 1939 ha mostrato che l’acido pantotenico è essenziale per la normale pigmentazione di capelli e pelle [3].

Una dieta carente di vitamine del gruppo B veniva sistematicamente integrata con tiamina, riboflavina, un preparato di germe di grano, estratti di lievito e di corteccia surrenale per mostrare che la depigmentazione dei peli degli animali erano dovuti all’insufficienza surrenale causata da una mancanza di acido pantotenico (vitamina B5). Per giungere a questo risultato è rimasto famoso uno degli esperimenti, quello delle volpi: Morgan convinse un allevatore di volpi a utilizzare due gruppi di animali, un gruppo trattamento e uno controllo per studiare gli effetti di diete contenenti rispettivamente quantità basse e normali di vitamine del gruppo B. Il gruppo trattamento (le volpi alimentate a ridotto contenuto di vitamine) sviluppò un rado mantello grigio opaco, nel gruppo di controllo invece tutte le volpi presentavano una pelliccia nera lucente. Dopo gli esperimenti, fu confezionata una stola di pelliccia con entrambi i gruppi di peli. Morgan indossò questa stola in almeno due importanti occasioni: la presentazione dei dati dello studio al convegno annuale dell’American Society for Experimental Biology nel 1939 e la cerimonia di premiazione della Garvan Medal conferitale dieci anni dopo dall’American Chemical Society.

Nel 1938, il Dipartimento fu trasferito al College of Agriculture, e tutti i suoi docenti e ricercatori fecero riferimento alla California Agricultural Experiment Station. Il Dipartimento fu coinvolto in una ricerca della Stazione finalizzata a valutare lo stato nutrizionale delle persone anziane abitanti nella contea di San Mateo. La ricerca, condotta su circa 600 volonari di entranbi i sessi, includeva esami fisici completi con raggi X delle ossa, analisi del sangue e delle urine oltre a un sondaggio sull’alimentazione dei singoli individui. Dai risultati di questa lunga ricerca Morgan potè dimostrare per la prima volta che la densità ossea delle donne diminuisce tra 50 e 65 anni di età, e che il colesterolo nel siero è correlato all’assunzione di grassi (HDL e LDL) nella dieta [4].

Prima del suo pensionamento, avvenuto nel 1954, ha pubblicato circa 200 articoli scientifici, un libro di testo (Experimental Food Study, insieme a I. Sanborn Hall, Farrar & Rinehart Inc., NY, 1938) e 77 reviews. Dopo il suo ritiro ha pubblicato circa altri 40 lavori scientifici.

Morgan è stata a volte chiamata come consulente su problemi pubblici per conto di governi statali o del governo federale. In questa veste ha esaminato la qualità del cibo nella prigione di San Quintino nel 1939 e negli anni ’40 è stata fondatrice e presidente del California Nutrition War Committee e prestò servizio nell’ufficio di ricerca scientifica e sviluppo. Nel 1960, Morgan ha fatto parte della Commissione che ha esaminato la tossicità dei pesticidi usati in agricoltura.

Nonostante l’importanza della ricerca di Morgan, molti dei suoi sforzi rimasero non riconosciuti fin verso la fine della sua carriera. Nel 1949 fu insignita della prestigiosa medaglia Garvan dall’American Chemical Society per la sua ricerca pionieristica in campo nutrizionale. Nel 1950 divenne la prima donna a ricevere lo status di docente di ricerca presso l’Università della California. Altri riconoscimenti conferiti a Morgan includono il Borden Award del 1954 dell’American Institute of Nutrition e la Heare Gold Medal di Phoebe Apperson, che la riconobbe come una delle dieci donne eccezionali a San Francisco nel 1963.

Finalmente, nel 1961 l’edificio che ospitava il Dipartimento di Economia Domestica fu rinominato Dipartimento di Scienze Nutrizionali e dal 1963 si chiama Agnes Fay Morgan Hall.

Come appare evidente dal numero di pubblicazioni dianzi riportate Agnes Fay Morgan ha continuato a lavorare nel Dipartimento nella sua qualità di professore emerito fino a che fu colpita da un infarto due settimane prima della morte, il 20 luglio 1968.

Bibliografia

[1] a) Ph. D. Dissertation of Agnes Fay Morgan. I. The Molecular Rearrangements of Some Triarylmethylchloroamines. II. The Viscosities of Various Methyl- and Ethylimido-benzoate Salts and of Para- and Meta-nitrobcnzoylchloramides in moderately concentrated Aqueous Solutions.

(Typewritten.) Abstract in Univ. Chicago Science Series, I, 213-17 (1922-23);

  1. b) Agnes Fay Morgan, The Molecular Rearrangements of Some Triarylmethylchloroamines., Am. Chem. Soc., 1916, 38, 2095–2101.

[2] M. Nerad, The Academic Kitchen., State University of New York Press, Albany, 1999, Cit. in: J.C. King, Contributions of Women to Human Nutrition., J. Nutr., 2003, 133, 3693-3697.

[3] A.F. Morgan, H.D. Simms, Greying of fur and other disturbances in several species due to vitamin deficiency., J. Nutr., 1940, 18, 233-250.

[4] H.L. Gillum, A.F. Morgan et al., The nutritional status of the aging. A summary of the biochemical findings in a study of 577 supposedly healthy men and women over 50 years of age., J. Nutr., 1955, 55(2-4), 1-685.

[1] Come riportato in un precedente post, all’epoca in molti stati USA se una insegnante si sposava doveva rinunciare all’insegnamento…

[2] Julius Stieglitz (1867–1937), chimico americano di origini ebraico tedesche. Ha interpretato il comportamento e la struttura dei composti organici in base alla teoria della valenza e ha applicato i metodi fisico-chimici in chimica organica. Notevole docente con ampi interessi in chimica farmaceutica e medicinale.

[3] Quel posto era pagato 1800 $ annui, ma a un maschio con medesimo curriculum ne sarebbero stati corrisposti 2400…

Scienziate che potrebbero vincere il Premio Nobel: Judith Pollock Klinman (1941- )

In evidenza

Rinaldo Cervellati

Come ricordato nel precedente post, quando Darleane Hoffman si trasferì da Los Alamos all’University College a Berkeley nel 1984, trovò una sola altra donna docente all’UC, Judith Klinman, 15 anni più giovane di lei. Klinman è infatti nata il 7 aprile 1941, quindi ha festeggiato da poco il settantasettesimo compleanno.

Judith Pollock Klinman

Ottenuto il B.A. nel 1962 e poi il Ph.D. in chimica fisica organica nel 1966 all’Università della Pennsylvania, Klinman ha svolto ricerche come post-doc per un anno al Weizman Institute of Science in Israele, poi è stata ricercatore all’Institute of Cancer Research di Filadelfia (Pennsylvania) fino al 1978 quando è entrata a far parte dello staff dell’University College a Berkeley (California)[1].

All’inizio della sua carriera, sviluppò l’uso della sostituzione isotopica negli studi cinetici sulla catalisi enzimatica, mostrando come i composti marcati possano essere utili per verificare ipotesi sui meccanismi di reazione, per determinare ordini e costanti di velocità, nonchè per ottenere costanti di dissociazione del substrato.

Ben presto attorno a Kliman si formò un gruppo di ricerca che continua a dare contributi fondamentali in enzimologia.

Judith Klinman 1990 ca

Nel 1990, Kliman e il suo gruppo scoprì la presenza della neurotossina 6-idrossidopa chinone (TPQ) nel sito attivo di una ammino ossidasi contenente rame nel plasma bovino, superando anni di speculazioni errate riguardo la natura della struttura del sito attivo e aprendo il campo di ricerca sui cofattori derivati da proteine [1].

Il lavoro successivo del gruppo ha dimostrato che la proteina lisilossidasi extracellulare, responsabile del legame incrociato fra collagene ed elastina, contiene una variante reticolata di lisina del TPQ [2]. Dagli anni ’90, gli studi cinetici di Klinman sulle reazioni enzimatiche hanno dimostrato anomalie che implicano il tunnelling quantistico dell’idrogeno nelle reazioni di attivazione dell’idrogeno catalizzate da enzimi [3]. Al momento attuale vi è una scarsità di informazioni riguardanti i profili delle barriere di energia potenziale ai siti attivi degli enzimi, così come il contributo delle dinamiche proteiche ai processi di allentamento del legame. Un approccio estremamente valido per affrontare questi problemi, è appunto il rilevamento e la quantificazione del tunneling dell’idrogeno nelle reazioni enzimatiche. Il gruppo Klinman ha accumulato prove che il tunneling quantomeccanico a temperatura ambiente si verifica in moltissime reazioni enzimatiche.

H tunneling, Me transfer and protein dynamics

Un trattamento quantitativo dei dati fornisce informazioni sul ruolo dei movimenti di proteine ​​/ atomi pesanti nel promuovere l’attivazione del legame C-H attraverso un processo di tunneling [4].

Inoltre, l’uso di mutagenesi sito-specifica e scambio H / D, insieme a proteine ​​omologhe provenienti da nicchie di temperatura, sta rendendo possibile affrontare il modo in cui le interazioni di legame substrato-proteina e le dinamiche proteiche influenzano l’efficienza del processo di tunneling.

Negli ultimi anni è stato sviluppato un set unico di sonde sperimentali per determinare il meccanismo di attivazione dell’ossigeno. Queste sonde stanno iniziando a far luce su come le proteine possono ridurre l’O2 a intermedi radicali liberi, evitando nel contempo il danno ossidativo cellulare.

Schema attivazione ossigeno [5]

Fino a poco tempo fa, si pensava che la maggior parte dei cofattori enzimatici fossero composti a basso peso molecolare che si legavano in modo reversibile alle loro affini proteine . Negli ultimi anni è stata descritta una famiglia di proteine che contengono il loro cofattore all’interno della catena polipeptidica proteica. Una nuova classe di tali proteine è emersa dal laboratorio Klinman, nota come chino-enzimi. Due tipi distinti di cofattori sono stati scoperti negli eucarioti: il 2,4,5-triidrossifenetilammina-chinone (TPQ) derivato da una singola catena laterale di tirosina e osservato nelle ubiquitarie ammineossidasi contenenti rame; e la lisina tirosil chinone (LTQ) derivato dalla reticolazione di lisina e tirosina ossidata all’interno del sito attivo delle lisilossidasi. Nel caso del TPQ è stato stabilito che un singolo ripiegamento proteico catalizza sia la biogenesi del cofattore che il successivo turnover dell’enzima. Queste proteine vengono chiamate proteine a doppia funzione, ponendo il problema di come un singolo ripiegamento proteico possa catalizzare due reazioni apparentemente dissimili. Sono in corso studi approfonditi su questi chino-enzimi, come pure sul cofattore batterico derivato da peptidi, il pirrolo-chinolina chinone. Sono stati anche avviati studi per sondare il ruolo fisiologico di una classe di ossidasi al rame che si trova sulle superfici cellulari, generando perossido di idrogeno, un probabile agente di segnali cellulari.

La vita aerobica pone interrogativi unici. Nello specifico, come le proteine catalizzano l’attivazione dell’ossigeno molecolare evitando di generare intermedi radicalici con sufficiente stabilità per provocare il danno ossidativo cellulare. Il gruppo di Klinman ha proposto un approccio sistematico a questa domanda investigando un’ampia gamma di proteine ​​che funzionano con cofattori organici da soli, con metalli da soli o con una combinazione cofattori organico – centro metallico. La metodologia utilizzata combina mutagenesi sito-specifica, stato stazionario e cinetica rapida, sonde spettroscopiche per intermedi e la misurazione di effetti isotopici O18 [6].

Judith Klinman professore alla Graduate School in Chemistry and Molecular Biology

Judith P. Klinman ha percorso tutte le tappe della carriera accademica a Berkeley fino a professore ordinario nella Graduate School in Chemistry and Molecular and Cell Biology e membro del California Institute for Quantitative Biosciences. E’ stata la prima donna membro della Facoltà di Chimica, di cui è stata anche Preside. Oggi è professore emerito della Facoltà, in questa veste continua a fare ricerca nel gruppo da lei costituito. E’ autrice o co-autrice di più di 400 pubblicazioni scientifiche di cui venti nel quadriennio 2014-2017. Ha ottenuto numerose onoreficienze e premi da importanti istituzioni nazionali e internazionali, fra le quali la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti e il Premio Willard Gibbs dell’American Chemical Society.

Judith P. Klinman, Medaglia Gibbs dell’ACS

L’American Society for Biochemistry and Molecular Biology, di cui è stata anche Presidente, le ha conferito il Premio Mildred Cohn per la Biochimica.

Fonti consultate:

Bekely College of Chemistry https://chemistry.berkeley.edu/faculty/chem/klinman

The first woman at Cal https://chemistry.berkeley.edu/news/first-women-chemists-cal

http://www.asbmb.org/uploadedfiles/AboutUs/ASBMB_History/Past_Presidents/1990s/1998Klinman.html

Bibliografia

[1] S. M. Janes, D. Mu, D. Wemmer, A. J. Smith, S. Kaur, D. Maltby, A. L. Burlingame, Judith P Klinman, A new redox cofactor in eukaryotic enzymes: 6-hydroxydopa at the active site of bovine serum amine oxidase., Science, 1990, 248, 981-987.

[2] S.X. Wang, N. Nakamura, M. Mure, Judith P. Klinman, J. Sanders-Loehr, Characterization of the native lysine tyrosylquinone cofactor in lysyl oxidase by Raman spectroscopy., J. Biol. Chem. 1997, 272, 28841-28844.

[3] a) Y. Cha, C. J. Murray, Judith P. Klinman, Hydrogen tunneling in enzyme reactions., Science, 1989, 243, 1325-1330; b) A. Kohen, R. Cannio, S. Bartolucci, Judith P. Klinman, Enzyme dynamics and hydrogen tunneling in a thermophilic alcohol deydrogenase., Nature, 1999, 399, 496.

[4] a) M. J. Knapp, K. Rickert, Judith P. Klinman, Temperature-dependent isotope effects in soybean lipoxygenase-1: correlate hydrogen tunneling with protein dynamics., J. Am. Chem. Soc., 2002, 124, 3865-3874; b) Z.D. Nagel, Judith P. Klinman, Tunneling and dynamics in enzymatic hydrogen transfer., Chem. Rev., 2006, 106, 3095-3118.

[5] Judith P. Klinman, How Do Enzymes Activate Oxygen without Inactivating Themselves?, Acc. Chem. Res, 2007, 40, 325-333).

[6] L.M. Mirica, K.P. McCusker, J.W. Munos, H. Liu, Judith P. Klinman, 18O kinetic isotope effects in non-heme iron enzymes: Probing the nature of Fe/O2 intermediates., J. Am. Chem. Soc., 2008, 130, 8122-8123.

[1] Prima donna chimico a far parte dello staff all’University of California a Berkeley. Berkeley è stata fondata nel 1868 per cui festeggia quest’anno il 150° anniversario. In uno dei siti consultati si afferma che: “Una delle eredità più importanti del sistema UC è che le donne furono ammesse due anni dopo la fondazione dell’università, nel 1870. I Regents avevano approvato all’unanimità una risoluzione per ammettere le donne che all’epoca costituivano circa il 36% della popolazione dello stato. L’annuncio dell’University Registrar era chiaramente inteso a incoraggiarle a partecipare: “Le Giovani Donne sono ammesse all’Università a parità di condizioni, a tutti gli effetti come i giovani uomini”. Tuttavia fra il dire e il fare…

La depurazione delle acque reflue e il problema dell’antibiotico resistenza

In evidenza

Mauro Icardi

Gli impianti di depurazione tradizionali a fanghi attivi sono stati sviluppati negli anni che vanno dalla fine dell’ottocento, fino ai primi anni del novecento. L’invenzione del processo a fanghi attivi è collegato con gli sforzi degli ingegneri inglesi e americani per migliorare la depurazione biologica che fino a quel momento avveniva tramite sistemi a biomassa adesa (filtri percolatori).

Partendo dalla necessità iniziale di diminuire i problemi di odori nelle reti fognarie Arden & Locket notarono che ricircolando il fango formatosi durante il periodo di aerazione dei liquami ,si migliorava l’efficienza di trattamento e di intensità del processo depurativo. Questo sistema tradizionale adesso mostra qualche limite, relativamente alla diffusione di inquinanti emergenti di difficile o, in qualche caso, impossibile degradazione per via biologica. L’altro limite del sistema a fanghi attivi tradizionale è quello legato alla produzione di fanghi, e al loro corretto smaltimento o riutilizzo.

Posto che i fanghi sono il prodotto inevitabile di questa tecnica depurativa in essi si concentrano gli inquinanti rimossi dal liquame depurato, ma anche parte dei nuovi inquinanti.

Studi recenti hanno dimostrato che negli impianti di depurazione, ma anche nei fanghi prodotti dal trattamento possono avvenire processi nei quali aumenta la resistenza antibiotica. Il meccanismo è quello del trasferimento di geni tra batteri non patogeni e batteri patogeni.

La resistenza agli antibiotici da parte dei microrganismi può diventare uno dei principali problemi di salute pubblica. Si stima un aumento di decessi legati a problemi di resistenza antibiotica che potrebbe arrivare a causare 10 milioni di decessi causati da infezioni che i normali antibiotici in commercio non sarebbero più in grado di debellare. Quanto maggiore è il numero di antibiotici utilizzati, tanto più veloce sarà la diffusione della resistenza agli stessi. Quindi ottimizzare l’utilizzo degli antibiotici in ambito agricolo e clinico è il primo passo da compiere.

Contestualmente all’estensione di sistemi di trattamento adeguati delle acque reflue nei paesi che ne sono ancora privi.

Laddove invece i depuratori siano presenti è necessario implementare il trattamento terziario di ultima generazione (sistemi MBR o filtri in nanotubi di carbonio)

Per quanto attiene al trattamento dei fanghi prodotti negli impianti di depurazione occorre implementare sistemi efficienti di trattamento, che igienizzino i fanghi, e ne riducano il potenziale patogeno.

Il trattamento di digestione anaerobica può essere già parzialmente efficace nel ridurre il fenomeno dell’antibiotico resistenza. Per migliorare ulteriormente l’efficacia sarebbe opportuno intervenire sulla gestione di processo dei digestori.

I digestori anaerobici che normalmente lavorano in un range di temperatura favorevole al metabolismo dei batteri mesofili (valori ottimali di temperatura di esercizio 30-35°C), dovrebbero passare al trattamento termofilo (valori ottimali 55-60° C) . Questo favorirebbe una maggior igienizzazione del fango.

Il processo termofilo se associato alla codigestione di matrici organiche esterne, quali frazione umida di rifiuti organici (FORSU) avrebbe anche benefici consistenti nella maggior produzione di biogas . Un circolo virtuoso che in alcuni paesi europei quali Francia e Norvegia è già stato diffusamente sviluppato.

Ma il fenomeno della resistenza antibiotica si verifica anche sui fanghi che sono stati sottoposti al trattamento di disidratazione. Un recente studio pubblicato su “Environmental Science Water & research technology” lo scorso Aprile ha confermato questa ipotesi. Ed ha proposto di estendere al trattamento di disidratazione, ed eventuale essicamento dei fanghi, quello termochimico di pirolisi.

Per verificarne l’efficacia si sono utilizzati come indicatori sia il gene rRNA16s, sia gli integroni di classe 1.

I secondi sono già normalmente utilizzati come indicatori di contaminazione e stress ambientale dovute alla diffusione dell’antibiotico resistenza nell’ambiente.

Le prove di pirolisi eseguite in laboratorio su fanghi provenienti da depuratori municipali hanno rivelato che per esempio il gene del rRNA 16S è stato significativamente ridotto operando con temperature di pirolisi tra i 300 e i 700°C.

Lo studio suggerisce quindi di utilizzare il trattamento di pirolisi come tecnica per ridurre l’antibiotico resistenza nei fanghi da destinare a smaltimento finale, o a utilizzo agricolo. I prodotti ottenuti dal trattamento pirolitico, cioè syngas e biochair, sarebbero riutilizzabili. Il primo come combustibile, il secondo come concime o ammendante per terreni. Il trattamento di pirolisi ridurrebbe nel biochair prodotto in primo luogo la contaminazione da antibiotico resistenza, ma anche la presenza di altri inquinanti indesiderati, quali il PCB e le diossine tra gli altri. Mantenendo solo gli elementi essenziali quali azoto e fosforo. Un modo per contrastare anche lo sbilanciamento dei cicli biogeochimici di questi due elementi.

Come si può vedere dalle premesse, il settore del trattamento delle acque reflue si trova davanti ad alcune sfide primarie. La prima fra tutte è quella di una profonda evoluzione delle tecniche da applicare per trattamenti spinti di depurazione delle acque reflue, che sempre più si caricano di inquinanti emergenti. Ma anche di riutilizzo e corretta gestione dei fanghi prodotti dai trattamenti tradizionali, così da renderli riutilizzabili ed ecocompatibili. La diffusione generalizzata ed ubiquitaria di nuovi inquinanti non può più essere sottovalutata. E il problema dell’antibiotico resistenza è una emergenza in qualche modo sottovalutata. Occorre pensare in termini di lungo periodo. E destinare risorse economiche ed umane a questa rivoluzione del settore. Una rivoluzione tecnica che si collegherebbe idealmente con quella del secolo scorso, che diede il via allo sviluppo e alla maturità tecnica della depurazione delle acque reflue. E a cui, almeno noi abitanti dei paesi occidentali dobbiamo anche una buona parte del nostro benessere e della nostra salute.

Link di approfondimento.

http://pubs.rsc.org/en/content/articlelanding/2018/ew/c8ew00141c#!divAbstract

https://www.laboratoriol2a.it/inquinamento-da-antibiotici/

http://verbanonews.it/index.php/categorie/primo-piano/8580-antibiotici-e-metalli-pesanti-nelle-acque-reflue-lo-studio-del-cnr-di-pallanza-pubblicato-da-una-prestigiosa-rivista-scientifica

La qualità dell’aria negli ambienti confinati.

In evidenza

Luigi Campanella, già Presidente SCI

(altri post sull’ argomento:

https://ilblogdellasci.wordpress.com/2017/11/01/strategie-contro-linquinamento-indoor/

https://ilblogdellasci.wordpress.com/2017/08/25/inquinamento-ospedaliero/)

L’espressione ‘ambiente indoor’ è riferita agli ambienti confinati di vita e di lavoro non industriali, ed in particolare, a tutti i luoghi chiusi adibiti a dimora, svago, lavoro e trasporto. Secondo questa definizione, il termine ‘indoor’ comprende: le abitazioni, gli uffici pubblici e privati, le strutture comunitarie (ospedali, scuole, uffici, caserme, alberghi, banche, etc.), i locali destinati ad attività ricreative e/o sociali (cinema, bar, ristoranti, negozi, strutture sportive, etc.) ed infine i mezzi di trasporto pubblici e/o privati (auto, treno, aereo, nave, etc.).

Negli ultimi decenni, con l’eccezionale sviluppo del settore terziario, la popolazione dei paesi industrializzati trascorre una parte sempre maggiore del proprio tempo (fino al 90%) negli ambienti confinati; contemporaneamente, si sono verificati profondi mutamenti nella qualità dell’aria indoor a causa di un progressivo aumento delle sostanze inquinanti. Lo scadimento della qualità dell’aria interna è dovuto in parte agli alti livelli esterni di inquinamento ma, soprattutto, alle numerose sorgenti interne che determinano concentrazioni di inquinanti a volte superiori a quelle presenti all’esterno.

In seguito alla crisi delle risorse energetiche mondiali, si sono imposti nuovi criteri tecnico-progettuali per gli edifici ad uso civile: la necessità di contenere i consumi per il riscaldamento e per la ventilazione ha imposto un migliore isolamento degli edifici, con conseguente tendenza a sigillare gli ambienti interni. Alle modifiche strutturali degli edifici si sono accompagnate modifiche rilevanti degli arredi (nuovi materiali per mobili, rivestimenti, etc.) e degli strumenti di lavoro (crescente impiego di fotocopiatrici, videoterminali, stampanti, etc.).

L’attenzione dei paesi industrializzati è stata rivolta già da tempo allo studio dei fenomeni di inquinamento dell’aria ‘esterna’, di cui ben presto sono state identificate le cause (traffico automobilistico, impianti industriali, impianti di riscaldamento domestico), gli effetti (preoccupante crescita della incidenza di malattie polmonari e neoplastiche) e le eventuali misure di contenimento (lotta all’inquinamento dell’aria urbana). Di contro, solo negli anni più recenti, dall’acquisizione di informazioni ed esperienze sui danni alla salute causati da una scadente qualità dell’aria interna, è emersa l’esigenza di un approfondimento delle conoscenze relative alle fonti di inquinamento indoor, nonché dei rapporti di causa-effetto tra esposizione e salute dell’uomo.

L’inquinamento dell’aria negli ambienti confinati rappresenta un problema importante per la sanità pubblica, con grandi implicazioni sociali ed economiche: in primo luogo la prolungata permanenza della popolazione negli ambienti interni di varia natura implica una continua esposizione a inquinanti indoor; inoltre, il rischio espositivo non è limitato a categorie ben definite. Tale rischio, infatti, non è esclusivamente di tipo professionale od occupazionale, ma è di particolare gravità per alcuni gruppi più suscettibili quali bambini, anziani e persone affette da patologie croniche (malattie cardiache, respiratorie, asma bronchiale, allergie), che trascorrono negli ambienti chiusi una percentuale di tempo particolarmente elevata.

La presenza di numerosi inquinanti (es. fumo passivo) e il clima caldo-umido delle abitazioni (che favorisce la crescita degli acari e di funghi nella polvere domestica), hanno sicuramente contribuito all’aumento della incidenza di patologie respiratorie croniche, come ad esempio l’asma, ed all’incremento della loro evoluzione verso forme persistenti, gravi ed invalidanti.

Recenti studi scientifici hanno evidenziato come alcuni inquinanti siano in grado di contribuire all’aumento dell’incidenza di tumori maligni: un maggior rischio di cancro ai polmoni è stato associato all’esposizione al “fumo di tabacco ambientale” ed ai prodotti di decadimento del Radon. Quest’ultimo è un gas radioattivo incolore, estremamente volatile, prodotto dal decadimento di tre nuclidi capostipiti che danno luogo a tre diverse famiglie radioattive: il Thorio 232, l’Uranio 235 e l’Uranio 238. Il Radon viene generato continuamente da alcune rocce della crosta terrestre, in particolar modo da lave, tufi, pozzolane, alcuni graniti, ma anche da rocce sedimentarie come i marmi. Come gas disciolto, esso viene veicolato anche a grandi distanze dal luogo di formazione nelle falde acquifere ed è nota, inoltre, la sua presenza in alcuni materiali da costruzione. Generalmente, tale gas giunge all’interno delle abitazioni attraverso fessure e piccoli fori delle cantine e dei piani seminterrati degli edifici.

Molti composti chimici presenti nell’aria indoor sono causa, sospetta o accertata, di stimolazione e/o irritazione dell’apparato sensoriale e possono dare vita a senso di disagio e ad altri sintomi comunemente presenti nella cosiddetta “Sindrome da Edificio Malato” (Sick Building Syndrome). Studi condotti in uffici ed in altri edifici destinati ad uso pubblico in diversi paesi hanno rivelato una frequenza di disturbi tra gli occupanti compresa tra il 15 e il 50% .

Un altro acronimo che deve la sua nascita in massima parte proprio all’inquinamenti indoor è la SCM (sensibilità chimica multipla,MCS in inglese).La prolungata presenza in ambienti indoor caratterizzati da inquinamenti combinati,complessi e variabili ha comportato la sensibilizzazione di alcuni individui, immunologicamente più deboli, verso questa nuova patologia,riconosciuta ormai come malattia sociale,anche in PaesiEuropei,primo fra tutti la Germania

L’ipotesi Siluriana.

In evidenza

Claudio Della Volpe

Per un blog col nostro sottotitolo questo è un argomento chiave; quali sono le condizioni geologiche per parlare di Antropocene? Ne abbiamo parlato estesamente in post recenti; sappiamo che ci sono varie ipotesi, almeno 4. E sono legate alla difficoltà di trovare segni di livello geologico del nostro passaggio nella biosfera, di livello geologico, cioè che rimangano saldi per milioni di anni, non per qualche migliaio o centinaia di migliaia. La cosa, come abbiamo documentato, non è banale e la discussione è accesa.

Ma proprio per questo nasce spontanea una domanda: e se in passato ci fossero state altre civiltà come la nostra, da cosa ce ne accorgeremmo? Come potremmo distinguere gli effetti di cause “naturali” da quelli di cause “artificiali”?

Ecco in due parole il senso dell’articolo pubblicato di recente da Gavin Schmidt e Adam Frank.Non tutto il grande pubblico conosce il nome di Gavin; ma per me che mi sono appassionato di clima e ci ho lavorato e insegnato per un pò, Gavin è una sorta di geniaccio; impossibile non conoscerlo.

Ricercatore alla NASA, è stato il fondatore di RealClimate, la pagina di climatologia che ha reso in tutto il mondo la discussione sul clima e la lotta contro il negazionismo climatico, la divulgazione ad altissimo livello della Fisica e della Chimica del clima un argomento di valenza culturale e, diciamolo, anche politica. Ma senza mai dismettere la coerenza e la autorevolezza di essere tenuto e gestito da scienziati militanti. Un esempio da imitare.

E per questo l’articolo di Gavin è estremamente stimolante ed importante.

L’analisi parte dall’equazione di Drake, coniata per stimare la probabilità che esistano altre civiltà; si tratta di una equazione che è semplicemente il prodotto di una serie di termini ciascuno dei quali esprime la probabilità (inferiore all’unità) che un certo evento appartenente alla sequenza necessaria per riprodurre una civiltà tecnologica (come noi la immaginiamo) abbia luogo nelle stelle della galassia o dell’Universo conosciuto.

Alcuni termini si conoscono ormai dallo studio dell’astronomia, altri da quello della geologia della Terra, altri sono stimati anche a partire dalla nostra esperienza. A questo riguardo è interessante notare come per risolvere l’equazione occorra stimare la probabilità che la vita e l’intelligenza si riproducano o si siano riprodotte nella storia della Terra; è possibile che si siano riprodotte più volte? Quasi sicuramente si: vite non basate sul DNA e intelligenze diverse da quella umana (delfini o scimpanzè) sono state robustamente ipotizzate o sono studiate.

Allo stesso modo lo studio della astronomia planetaria tramite i satelliti sta facendo scoprire ed ipotizzare altri ambienti in cui la vita può essersi sviluppata nel passato remoto (Venere e Marte o alcuni dei satelliti di Giove costituiscono ambienti possibili).

Altre note interessanti sono legate al modo in cui raccogliamo informazioni di tipo geologico e antropologico: culture diverse da Homo sapiens sono state già scoperte e recenti sviluppi riguardano per esempio Homo sapiens neanderthalensis che è stato provato capace di arte e culto dei morti, molti eoni prima di noi (fra l’altro dal mio collega di Trento, Diego Angelucci); ricordiamo sempre che il fuoco l’ha inventato Homo erectus, quasi un milione di anni fa mentre noi abbiamo solo 200mila anni.

Quanto dura un manufatto complesso? Il più complesso manufatto “tecnologico” che conosciamo è il meccanismo di Antikythera (probabilmente un planetario alessandrino, una sorta di calcolatore analogico) datato 205aC e trovato in fondo al mare. I nostri computer quanto dureranno?

(Thanassis Stavrakis, Associated Press)

Nonostante la ampia e stimolante introduzione il lavoro è comunque ristretto all’analisi delle condizioni geochimiche necessarie ad individuare una civiltà industriale pre-quaternaria dai record geologici compresi fra il Devoniano e il Pliocene, dunque fra 400 e 4Ma fa.

Il primo pezzo dell’articolo è dunque dedicato all’impronta geologica dell’Antropocene (The geological footprint of the Anthropocene), l’epoca che viviamo e a cui il nostro blog è dedicato.

La discussione verte su tracce geologiche che rimangano stabili per milioni di anni; a questo riguardo Gavin dice una cosa molto interessante. C’è un paradosso; uno si aspetta che la civiltà umana lasci tracce più evidenti col trascorrere del tempo, ma in effetti, nota l’articolo, se una civiltà dura molto tempo vuol dire che diventa sostenibile e se diventa sostenibile allora la sua impronta ecologica diminuirà, NON crescerà. Voi che ne dite? Già questa è una domanda di quelle che meritano, e fare domande è il ruolo dello scienziato.

Alcuni elementi di livello geologico sono:

-l’alterazione del rapporto 13C/12C legato all’aver bruciato in due secoli e mezzo oltre 500Gton di C di origine fossile e dunque con bassissimo tenore di 13C; il rapporto fra i due isotopi è dunque diminuito e rimarrà tale nel record geologico;

– a causa dell’aumento di temperatura indotto da questa combustione è cambiato il δ18O, ossia è cambiato il rapporto 18O:16O, che sono i due isotopi stabili dell’ossigeno;

– e infine l’effetto combinato della combustione dei fossili, della sintesi Haber-Bosch, dell’applicazione su larga scala della concimazione sintetica e la selezione di piante che fissano più azoto ha alterato profondamente il ciclo dell’azoto così da alterare anche δ15N in sedimenti lontani da quelli delle zone “civilizzate”.

Sono cambiati i sedimenti oceanici sia in quantità sia in composizione a causa dell’aumentato flusso di materiali.

Alcuni animali “domestici” hanno avuto uno sviluppo enorme mentre altri invece sono scomparsi a causa della scomparsa dei loro habitat.

Queste modifiche si noterebbero anche a molti milioni di anni di distanza. Poi ci sono le molecole sintetiche per esempio i cosiddetti POPs, ossia le molecole organiche persistenti che si comportano di fatto come degli inquinanti molto insidiosi; molti di essi sono costituiti da molecole con legami C-Cl o C-F, più forti e stabili di quelli C-C e C-O, anche se non sappiamo in effetti quanti anni effettivamente queste molecole persisterebbero nell’ambiente.If an industrial civilization had existed on Earth many millions of years prior to human era, what traces would it have left and would they be detectable today? Image credit: Michael Osadciw, University of Rochester.

http://www.sci-news.com/featurednews/silurian-hypothesis-05921.html

Sappiamo comunque che nei sedimenti alcune molecole persistono per tempi molto lunghi; questo si sa che avviene per i grassi e gli steroidi; questa situazione deve essere considerata anche alla luce del fatto che le molecole di origine naturale e sintetica hanno spesso una differenza: quelle sintetiche sono presenti con entrambi i loro racemi, se le molecole sono otticamente attive, mentre quelle naturali al contrario sono presenti solo in una delle forme.

Anche le cosiddette plastiche sono ampiamente presenti in ambiente e rappresentano nei sedimenti materiali notevolmente persistenti.

Ed infine ci sono almeno due isotopi transuranici la cui origine è prevalentemente sintetica: Plutonio-244 (semivita 80.8 milioni di anni) e il Curio-247 (semivita 15 milioni di anni) sarebbero ritrovabili per un tempo molto lungo; ovviamente le quantità in gioco sarebbero significative in caso di eventi estremi come esplosioni atomiche generalizzate.

Nella seconda parte dell’articolo Schmidt considera quali eventi del passato abbiano avuto conseguenze simili a quelle che abbiamo analizzato finora per l’Antropocene. Ora questi episodi esistono nel passato geologico e sono conosciuti come ipertermali, periodi della durata di 10-100.000 anni in cui la temperatura è variata significativamente verso l’alto ritornando poi lentamente alla “normalità”.

Fra gli altri ipertermali 4 gruppi vengono esaminati in dettaglio differenziandoli a seconda della loro età geologica, situati nell’Eocene, nel Paleocene, nel Giurassico-Cretacico e poi più indietro nel Mesozoico e nel Paleozoico.

Gavin conclude che è difficile al momento attribuire o escludere con certezza cause artificiali (come una civiltà di tipo industriale) considerate come origine di fenomeni passati che presentano di fatto molti punti di contatto con quelli che stiamo vivendo adesso: esteso e rapido aumento della concentrazione di gas serra, aumento generalizzato della temperatura planetaria, alterazione della composizione anche isotopica dei depositi, alterazione della fauna e della flora con estesa riduzione del numero di specie, presenza di molecole od isotopi la cui origine naturale è improbabile o impossibile; si augura che una maggiore attenzione ad una ipotesi di questo tipo possa in futuro consentire di accettare od escludere la possibilità prospettata. Gli autori del lavoro sono al momento convinti che la loro ipotesi sia falsa; ma rimangono aperti a scoperte emozionanti.

Ho avuto modo di discutere dell’ipotesi con alcuni studenti nei vari corsi che tengo e che coinvolgono essenzialmente futuri ingegneri; parecchi la hanno considerata una ipotesi da “fisici” da “scienziati”, non cose da ingegneri; il che onestamente mi appare riduttivo. Ma la cosa che mi ha preoccupato di più è stata la riflessione di uno studente che dato che è molto probabile che tra qualche milione di anni ragionevolmente non ci sarà più traccia di noi allora tanto vale che viviamo come meglio ci aggrada, senza preoccuparci del futuro.

Voi che ne pensate?

Riferimenti.

Preprint su arxiv: https://arxiv.org/abs/1804.03748

Articolo di Gavin Schmidt:

https://www.cambridge.org/core/journals/international-journal-of-astrobiology/article/silurian-hypothesis-would-it-be-possible-to-detect-an-industrial-civilization-in-the-geological-record/77818514AA6907750B8F4339F7C70EC6

Un nuovo sistema per l’elettrolisi dell’acqua di mare a energia solare*

In evidenza

Rinaldo Cervellati

La frase del titolo è parte molto accattivante del titolo di una notizia riportata da Mark Peplow il 30 marzo scorso su Chemistry & Engineering newsletter on-line del 4 aprile.

Peplow inizia osservando che la produzione di idrogeno attraverso l’elettrolisi dell’acqua potrebbe portare a una fonte rinnovabile del combustibile, ma per piccole nazioni insulari come ad esempio Singapore, l’acqua dolce è però una risorsa preziosa. Quindi un gruppo di ricercatori della Nanyang Technological University (NTU) di Singapore, coordinati dai Prof. Bin Liu (Singapore) e S.Z. Quiao (University of Adelaide, Australia), ha rivolto l’attenzione al mare, sviluppando catalizzatori che porterebbero a elettrolizzare l’acqua di mare con efficienza record, generando ossigeno e idrogeno che potrebbero alimentare le celle a combustibile (S-H. Hsu et al., An Earth-Abundant Catalyst-Based Seawater Photoelectrolysis System with 17.9% Solar-to-Hydrogen Efficiency, Adv. Mater., 2018, DOI: 10.1002/adma.201707261).

  Un sistema di elettrolisi ad energia solare sviluppa idrogeno al catodo (a sinistra) e ossigeno all’anodo (a destra).

Il sistema è alimentato da energia solare, formando idrogeno con un’efficienza complessiva del 17,9%. Per quanto ne sappiamo, questa è la massima efficienza ottenuta con l’acqua di mare, afferma Bin Liu della NTU di Singapore, che fa parte dei coordinatori del gruppo di ricerca.

Prof. Bin Liu

Gli oceani sono un’enorme riserva di atomi di idrogeno, ma ottenere idrogeno molecolare per elettrolisi di acqua marina è una grande sfida. In una cella elettrolitica, la corrente usata per dissociare l’acqua salmastra forma anche altri prodotti, per esempio trasforma gli ioni cloruro in cloro gassoso indesiderato, mentre altri ioni come il calcio e il magnesio formano precipitati insolubili che inibiscono i catalizzatori depositati sugli elettrodi. Le reazioni di elettrolisi possono poi anche causare variazioni di pH con conseguente corrosione degli elettrodi.

Il gruppo di Liu aveva in precedenza sviluppato un catalizzatore al solfuro di molibdeno e nichel che abbassa la differenza di potenziale necessaria per generare idrogeno dall’acqua marina al catodo. (J. Miao et al., Hierarchical Ni-Mo-S nanosheets on carbon fiber cloth: A flexible electrode for efficient hydrogen generation in neutral electrolyte., Sci. Adv. 2015, DOI: 10.1126 / sciadv.1500259).

Il loro nuovo catalizzatore per l’anodo si basa su elementi abbondanti in natura (Fe, Co) per l’ossidazione anodica con sviluppo di ossigeno gas e formazione di ioni idrogeno. I ricercatori hanno coltivato nano cristalli aghiformi di carbonato di cobalto basico su tessuto in fibra di carbonio. Quindi hanno immerso il tessuto in 2-metilimidazolo formando uno strato sottile di struttura organometallica cobalto-imidazolo (MOF, Metal Organic Framework) all’esterno degli aghi. L’aggiunta di ferrocianuro di sodio lo ha trasformato in esacianoferrato di cobalto, che ha mantenuto la nanostruttura porosa del MOF formando gusci catalitici di 20 nm di spessore attorno ai nanoaghi conduttori.

Schema di un elettrolizzatore a energia solare per acqua di mare. Il catalizzatore esacianoferrato di cobalto favorisce lo sviluppo di ossigeno sull’anodo (freccia gialla, a destra). Nel contempo, il catalizzatore di solfuro di molibdeno e nichel sul catodo favorisce lo sviluppo di idrogeno (freccia rossa, a sinistra). Il pannello solare è mostrato a sinistra con il collegamento agli elettrodi.

Con una cella solare a tripla giunzione commerciale per fornire elettricità, il gruppo di ricercatori ha testato il sistema utilizzando acqua di mare locale, aggiungendo solo un tampone fosfato per mantenere neutro il pH. Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la produzione diminuita solo del 10%.

Al contrario, un elettrolizzatore che utilizzava catalizzatori convenzionali di platino e ossido di iridio per decomporre l’acqua marina locale ha subito una diminuzione di attività molto più rapida, producendo anche cloro.

Il fatto che sia selettivo per l’evoluzione dell’ossigeno piuttosto che per l’evoluzione del cloro è molto significativo, afferma Michael E. G. Lyons, ricercatore elettrochimico al Trinity College di Dublino, aggiungendo: È un risultato molto difficile da ottenere.

Michael E.G. Lyons

Peter Strasser dell’Università tecnica di Berlino, che ha lavorato all’elettrolisi dell’acqua di mare, sottolinea che il sistema ha una densità di corrente molto bassa. Per produrre utili quantità di idrogeno, il sistema avrebbe bisogno di una densità di corrente molto più elevata, che potrebbe innescare l’evoluzione del cloro o altre reazioni collaterali indesiderate, e aggiunge: I problemi sorgono quando si passa a densità di corrente elevate“.

Peter Strasser

Bin Liu afferma che i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro. Ma riconosce che le prestazioni del sistema potrebbero essere migliorate. Ad esempio, con l’utilizzo di acqua dolce, gli elettrolizzatori ad energia solare hanno raggiunto efficienze da solare a idrogeno superiori al 30% (J. Jia et al., Solar water splitting by photovoltaic-electrolysis with a solar-to-hydrogen efficiency over 30%., Nat. Commun. 2016, DOI: 10.1038/ncomms13237).

Il gruppo di Liu sta ora lavorando con i ricercatori del Dalian Institute of Chemical Physics (Dalian, Rep. Pop. Cinese), per sviluppare il loro sistema in un prototipo di dispositivo per la produzione pilota di idrogeno dall’acqua di mare.

Dopo i commenti dei due ricercatori Michael Lyons e Peter Strasser, riportiamo quelli di due esperti che fanno parte della redazione del blog.

Vincenzo Balzani dice:

Argomento importantissimo, studiato da molti scienziati. Ai catalizzatori buoni ci si arriva un po’ per caso. Tutto plausibile. Il punto è se è vero che “Dopo 100 ore di funzionamento continuo, l’elettrolizzatore aveva prodotto idrogeno e ossigeno, senza cloro. Inoltre, i suoi elettrodi e catalizzatori erano intatti e la  produzione diminuita solo del 10%.”  e se “ i test iniziali a densità di corrente più elevate non hanno prodotto alcun cloro”. Poi bisognerebbe sapere se è economicamente convenente rispetto ai metodi basati su osmosi inversa (elettrodialisi inversa).

Claudio Della Volpe commenta:

Il cobalto usato come catalizzatore nel processo non è il massimo come materiale; in un solo posto al mondo (miniera di Bou Azzer in Marocco che ha riserve limitate) si estrae cobalto direttamente, altrimenti è una impurezza di altri metalli; in altre tecnologie come le batterie al litio il cobalto ha mostrato problemi proprio nei limiti di produzione come risorsa; se ne producono solo 100.000 ton all’anno e quelle da risorsa primaria sono solo meno di 2mila; in definitiva il cobalto è una risorsa limitata e costosa.

Non mi pronuncio sugli altri aspetti, ma già l’articolo chiarisce che c’è un limite nei dati; gli sperimentatori hanno usato una densità di corrente bassa, ossia non hanno esplorato veramente la sovratensione del sistema e inoltre aumentando la corrente non solo aumenterebbe la sovratensione (che è una sorgente di dissipazione energetica, di inefficienza) ma sorgerebbe anche il problema potenziale di innescare altri processi, un tipico problema elettrochimico. Nel libro di elettrochimica di Bianchi e Mussini (G. Bianchi, T. Mussini, Fondamenti di Elettrochimica. Teoria e Applicazioni, CEA, Milano, 1993) la parte teorica termina proprio con questo tipo di analisi: due reazioni con diverse sovratensioni: quella termodinamicamente favorita potrebbe essere quella più limitata da motivi cinetici (sovratensione).

Infine come giustamente dice Vincenzo non ci sono analisi differenziali del processo contro altri concorrenti agguerriti e attualissimi; diciamo che gli autori fanno pensare di non aver approfondito ancora cose veramente importanti, d’altronde basta aspettare e vedere se il risultato viene confermato.

*Tradotto e ampliato da c&en del 4 aprile 2018.

I controlli sulle acque reflue come monitoraggio sanitario

In evidenza

Mauro Icardi

Dal 2004 fino a tutto il 2012 presso l’impianto di depurazione di Varese, si sono svolte diverse campagne di monitoraggio aventi lo scopo di verificare le quantità e le concentrazioni di metaboliti di farmaci e di droghe d’abuso, in particolare la cocaina. In particolare io mi sono occupato del controllo dell’impostazione corretta dei campionatori programmabili, e della supervisione ai campionamenti . I prelievi venivano predisposti nell’arco temporale di una settimana e in periodi di tempo secco. Queste attività si sono svolte in collaborazione con l’Istituto farmacologico Mario Negri di Milano, e con l’Università dell’Insubria di Varese. L’ateneo ha successivamente svolto altre campagne di campionamento focalizzando maggiormente l’attenzione su altri aspetti , in particolare la verifica di funzionalità degli impianti di depurazione tradizionali relativamente alle rese di abbattimento di questi particolari inquinanti che rientrano tra quelli definiti emergenti. Nel caso delle verifiche effettuate in collaborazione con l’Istituto Mario Negri i campioni venivano prelevati all’ingresso impianto. Per le successive campagne svolte con l’Università di Varese, anche all’uscita dell’impianto. In questo caso per ottenere dati congruenti   la partenza del ciclo di prelievi era ritardata tenendo conto del tempo di ritenzione idraulica, relativo a tutte le fasi di trattamento delle acque fognarie. Entrambi i campionatori erano comunque impostati con frequenza di campionamento proporzionale alle variazioni di portata idraulica.

Nel 2005 venne pubblicato il risultato della campagna di monitoraggio del lavoro svolto dal gruppo di Fanelli e Zuccato dell’Istituto di Ricerche Farmacologiche Mario Negri in collaborazione con Davide Calamari dell’Università dell’Insubria, purtroppo deceduto prematuramente.

https://ehjournal.biomedcentral.com/articles/10.1186/1476-069X-4-14I campionamenti furono effettuati anche su altri tre impianti di depurazione di acque reflue, quelli di Cuneo, Latina e Cagliari e sul fiume Po.

La determinazione della Cocaina e del suo principale metabolita, la benzoilecgonina (BE) furono determinati attraverso l’utilizzo combinato di cromatografia liquida e spettrometria di massa, presumendo il riscontro di quantità basse. Questo servì a stabilire che effettivamente i due composti si potevano misurare e per verificare che il loro rapporto fosse compatibile con quello che viene indicato da altri studi nell’uomo, e cioè circa 0,15 parti di cocaina per ogni parte di BE eliminata. La BE è escreta completamente attraverso le urine, la cocaina solo in parte.

Le misure effettuate presso i depuratori di quattro città di provincia italiane e cioè Cagliari, Cuneo, Latina e Varese stabilirono inoltre le concentrazioni di BE che oscillavano a seconda delle città da 383.000 a 751.000 picogrammi per litro. Sulle acque superficiali del fiume Po si ci si rese conto, considerando una portata media di 750 m3/sec ,che il fiume trasportava 4 kg al giorno di cocaina. Ogni anno poco più di una tonnellata (1,3 t).
Nello stesso modo considerando i valori di portata influente sugli impianti oggetto di monitoraggio si verificarono le quantità di cocaina che vi transitavano. Il valore per Varese risultò pari a circa 13 kg/anno di cocaina, del tutto simile a quelli degli impianti di Cuneo e Latina, pari a 11 e 12 kg/anno rispettivamente. Il valore più elevato riscontrato a Cagliari (47kg/anno) è da riferirsi ad una città con dimensioni e popolazione maggiori. Successivamente due monitoraggi   effettuati da studenti del corso di Ingegneria della sicurezza dell’ambiente dell’Università dell’Insubria , effettuati sul depuratore di Varese hanno mostrato incremento di concentrazione di metaboliti della cocaina nei campioni di acque prelevate nel fine settimana. L’incremento di concentrazione aveva anche punte del 40-50% rispetto ai giorni feriali. Situazione abbastanza prevedibile considerando che a fronte di un consumo già diffuso e abbastanza generalizzato di cocaina, esso si incrementi molto nei fine settimana. L’uso di cocaina per il fenomeno dello sballo del week end.L’altro aspetto che si ipotizzava e che si e confermato, è che il trattamento biologico tradizionale avesse efficacia molto limitata nella rimozione di questo genere di inquinanti, che transitano praticamente inalterati allo scarico finale. Questo, come altri studi simili, dimostra come l’adeguamento generalizzato degli impianti di depurazione, con adatti trattamenti di tipo terziario sia urgente e indifferibile. Ciò che il depuratore non riesce a trattenere finisce inevitabilmente nell’ambiente. Questo è argomento che deve essere affrontato dalla politica, sia a livello nazionale che locale. Studiosi e gestori hanno fornito documentazioni e dati, e considero che il loro compito sia stato correttamente svolto. Molti altri articoli e studi mostrano gli effetti nefasti dei modificanti endocrini e dei composti organici persistenti sulla fauna ittica. Ma purtroppo si può dire, utilizzando una battuta sarcastica, che i pesci sono muti.

E non sentiamo quindi i loro lamenti. Un inquinamento di questo tipo è subdolo. Generalmente non provoca evidenti morie di pesci. Ma per esempio muta i loro caratteri sessuali e la fertilità. Un inquinamento che non si percepisce immediatamente, se non quando il numero di specie ittiche sono ormai ridotte. E un altro importante aspetto da considerare, è quello dell’accumulo di metaboliti provenienti da consumo di farmaci, antidolorifici o calmanti che sono tra quelli più usati. Spesso anche dei farmaci si fa un uso che dovrebbe essere maggiormente ponderato. E occorre verificare gli effetti collaterali che questi metaboliti potrebbero avere sulla nostra salute, attraverso il loro concentrarsi tramite la catena alimentare. Questo aspetto ha del surreale, un effetto boomerang.

Per quanto riguarda l’aspetto morale del consumo di stupefacenti non voglio pronunciarmi. Personalmente ho avuto la fortuna di non subire nessuna fascinazione in tal senso nel corso degli anni. Mi è capitato spesso di parlare con persone cercando quantomeno di sfatare un mito, cioè quello che la cocaina non dia assuefazione e non sia dannosa. Purtroppo molti associano l’uso di questo stupefacente a sensazioni diffuse di benessere e di potenza sessuale. E normalmente a quel punto la conversazione finisce per infilarsi in un “cul de sac” e io solitamente la interrompo.

Questo primo studio ha però dato adito ad un nuovo ulteriore approccio che per altro origina fin dagli anni 90. Cioè il monitoraggio delle acque in ingresso ai depuratori, come strumento per verificare le condizioni di benessere e salute della popolazione in maniera anonima. Questo è il contenuto di un articolo che mi è stato segnalato dal collega di redazione Rinaldo Cervellati che ringrazio.

Pubblicato sulla rivista Chem Eng News suggerisce che, non solo le droghe e i farmaci possano essere monitorati, ma anche per esempio i lipidi, o i metaboliti legati al fumo di sigaretta.

Secondo Rolf Haden un ingegnere ambientale e direttore del Centro per l’Ingegneria della Salute Ambientale presso l’Arizona State University’s Biodesign Institute, all’ingresso di un impianto di trattamento delle acque reflue “Si può osservare tutta la chimica che viene utilizzata in una città. È possibile misurare i metaboliti che sono migrati attraverso il corpo umano. È possibile guardare i farmaci che vengono presi. In sostanza, sei in un luogo dove è possibile osservare la salute umana in tempo reale“.

Nel 2010 , i ricercatori di sette organizzazioni che effettuano misurazioni di questi nuovi inquinanti si sono riuniti per formare la rete SCORE, acronimo di Sewage Analysis CORe group Europe.

Dal 2011 la rete Score ha coordinato misure annuali di quattro droghe illecite-cocaina, 3,4-Methylenedioxymethamphetamine (MDMA, la droga sintetica comunemente nota come ecstasy), anfetamine, e metanfetamine in tutta Europa. La rete riporta tali dati all’Osservatorio europeo delle droghe e delle tossicodipendenze (OEDT), che rilascia i risultati al pubblico nell’ambito dei suoi sforzi in corso per fornire informazioni sui problemi di droga in Europa.

Sebbene l’epidemiologia basata sulle acque reflue si sia finora concentrata principalmente sulle droghe illecite, i ricercatori si stanno attivando per esaminare altri composti. Ad esempio, i membri del SCORE hanno utilizzato l’approccio per monitorare il consumo di composti legali, tra cui caffeina, nicotina e alcol

L’articolo decisamente molto interessante interessante può essere consultato qui:

https://cen.acs.org/environment/water/monitor-health-citiesresidents-look-further/96/i18

La lettura è consigliata perché mostra quali siano le possibilità di un approccio di questo genere, e anche quali gli aspetti organizzativi e pratici. Dalla creazione di circuiti interlaboratorio per la verifica delle performance analitiche, la scelta delle molecole da determinare in funzione delle loro stabilità e delle eventuali modificazioni durante il transito negli impianti, fino alla gestione di altri dati da interfacciare ai risultati delle analisi (popolazione residente, portate affluenti agli impianti di trattamento ecc..).

E concentrandosi non solo sulle fasi acquose, ma a maggior ragione sui fanghi di risulta, dove si accumulano le sostanze depurate in fase acquosa.

Rispetto ai lavori precedenti sulle droghe illecite, l’epidemiologia basata sulle acque reflue con marcatori di salute endogeni ha avuto un avvio lento. Ma è auspicabile che possa essere sviluppata ulteriormente.

Il mio personale auspicio è ovviamente quello che queste iniziative portino in primo luogo maggior consapevolezza nella popolazione. Siamo noi consumatori che, dobbiamo e possiamo modificare i nostri stili di vita. La tecnologia nulla può nel risanamento ambientale se non è affiancata a questo basilare concetto. Dovremmo cercare di essere maggiormente equilibrati da questo punto di vista.

Per semplificare non è che la possibilità di avere depuratori più efficienti ci possa indurre a consumare più droghe o farmaci, e quindi a scaricarne maggiormente i residui e i metaboliti nelle acque, sentendoci giustificati in qualche modo.

Iniziative volte ad un monitoraggio maggiormente capillare delle acque reflue, sia per scopi di controllo della salute pubblica, che della qualità delle acque è necessario. Ultima considerazione quella di estendere i confronti e lo scambio di informazioni tra più soggetti. Università, centri di ricerca, gestori di impianto, enti di controllo.

Dalla terapia fotodinamica alla fotofarmacologia: le applicazioni mediche di una delle prime macchine molecolari

In evidenza


Rinaldo Cervellati

Ne parla diffusamente Katharine Sanderson in un articolo intervista su* Chemistry & Engineering newsletter del 2 aprile scorso, che vale certamente la pena di riportare integralmente.

Nella terapia fotodinamica, le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche. Un’impostazione simile potrebbe presto essere utilizzata in fotofarmacologia, oppure i medici potrebbero aver bisogno di impiantare LED per illuminare le aree bersaglio del corpo umano.

Terapia fotodinamica: le cellule tumorali sono esposte alla luce laser, a volte tramite sonde a fibre ottiche.

Nella lotta contro il cancro, le nostre opzioni terapeutiche sono migliorate nel corso degli anni. Ma sono ancora lontane dall’essere ottimali. Oggi i medici somministrano farmaci chemioterapici nella speranza di eliminare o ridurre un tumore prima che provochi troppi danni ad altre parti adiacenti del corpo del malato.

Ora i chimici sperano di guadagnare ancor più terreno in questa battaglia, progettando piccole molecole che possono essere attivate dalla luce all’interno dell’organismo dopo aver raggiunto il bersaglio, limitando così drasticamente gli effetti collaterali.

Gli scienziati mirano a utilizzare questi farmaci fotosensibili non solo per combattere il cancro, ma pensano anche che composti con un comportamento simile potrebbero essere utili nel trattamento della cecità e di altre gravi malattie. Antibiotici regolabili con segnali luminosi potrebbero persino aiutare a combattere la farmacoresistenza. Si deve pensare a questi farmaci come a interruttori molecolari, quando colpito dalla luce il farmaco si attiva, quando si spegne la luce il farmaco si disattiva. Mantenendo quindi la luce spenta quando il farmaco non lavora si impedirà ai patogeni di riconoscerlo come pericoloso e quindi di svilupparne resistenza.

Sebbene l’interesse per lo sviluppo di questi interruttori molecolari sia in aumento, la ricerca nel settore presenta ancora importanti problemi da risolvere. Ad esempio, i ricercatori devono assicurarsi che gli interruttori molecolari funzionino a lunghezze d’onda clinicamente inerti, per intenderci quelle che possono passare attraverso i tessuti senza fare danni. Inoltre i ricercatori devono poter lavorare in stretta collaborazione con i clinici per trovare dispositivi adatti a accendersi e spegnersi in prossimità di uno o più bersagli all’interno del corpo del malato.

L’idea di usare la luce per trattare alcune patologie non è completamente nuova. Ad esempio, la terapia fotodinamica (PDT) tratta i tumori e altre malattie della pelle. In questo tipo di terapia ai malati vengono somministrati farmaci colorati sotto forma di pillole, iniezioni sottocutanee o creme applicate sulla cute. La pelle così trattata viene illuminata con luce di opportuna lunghezza d’onda, che attiva le molecole del farmaco le quali convertono l’ossigeno dal suo stato normale di tripletto allo stato eccitato di singoletto, un potente radicale libero che distrugge le cellule malate.

Il fatto però che molti tumori sono ipossici, cioè richiedenti abbondante ossigeno, può ridurre molto l’efficacia di questo tipo di strategia.

Edith C. Glazer e il suo gruppo all’Università del Kentucky ha sviluppato complessi polipiridilici del rutenio (II) che espellono un ligando quando attivati dalla luce.

Effetto della luce su uno dei complessi di Glazer

Il composto residuo si lega poi al DNA delle cellule cancerose provocandone l’apoptosi.

Edith C. Glazer

A differenza delle molecole colorate nella PDT, le terapie fotofarmacologiche “utilizzano l’energia di un fotone per provocare un cambiamento chimico all’interno della struttura del farmaco”, spiega Glazer, “e questa nuova struttura si lega a un particolare bersaglio causando la morte delle cellule cancerose”.

In altre parole l’espulsione irreversibile di un ligando consente ai complessi di reticolare il DNA delle cellule cancerose provocandone danni irreparabili. Glazer può regolare la solubilità dei complessi e le lunghezze d’onda della luce che assorbono scegliendo opportuni ligandi, oppure creare composti a “doppia azione” che espellono i ligandi e sviluppano ossigeno singoletto (S.B. Howerton et al. Strained Ruthenium Complexes are Potent Light-Activated Anticancer Agents., J. Am. Chem. Soc. 2012, DOI: 10.1021/ja3009677).

Queste molecole possono essere davvero potenti, dice Glazer. “Le cellule si sono evolute per opporre resistenza all’ossigeno singoletto, poiché questo si forma naturalmente, ma addotti DNA-metallo non esistono in natura e quindi può essere più difficile per la cellula sviluppare una resistenza”.

Ma molti chimici, come Wiktor Szymanski dell’University Medical Center di Groningen, vogliono fare un ulteriore passo avanti e utilizzare la luce per “accendere” (attivare) e “spegnere” (disattivare) farmaci, facendoli diventare veri e propri interruttori. Recentemente si è concentrato su antibiotici fotocommutabili.

Viktor Szymansky

In questo modo il medico potrebbe decidere non solo quando ma anche dove gli antibiotici dovranno andare ad agire all’interno del corpo del malato. Una volta che un antibiotico attivato dal segnale luminoso ha esercitato il suo effetto, potrebbe essere disattivato con un diverso segnale luminoso.

Struttura di un antibiotico di Szymanski

Per rendere questi antibiotici on-off, Szymanski e collaboratori hanno modificato alcuni noti antibiotici inserendo nella loro molecola un gruppo azobenzenico, un gruppo fotosensibile a isomeria trans-cis. La luce ultravioletta converte l’azobenzene dalla sua forma trans alla forma cis. La luce blu può invertire il processo rapidamente. Altrimenti, l’azobenzene recupererà lentamente nel tempo la sua forma stabile, trans. L’isomerizzazione modifica la dimensione, la forma o la polarità complessiva della molecola, consentendole di colpire il microorganismo bersaglio.

Szymanski afferma che è sorprendente il numero di farmaci a cui basta aggiungere un gruppo fotocommutatore per conferir loro questa proprietà, esiste quindi la potenzialità per migliorarne la capacità di azione.

Glazer dice che un tale approccio è senza dubbio attraente ma osserva che ha alcune limitazioni. Una è la lunghezza d’onda della luce necessaria per eseguire la commutazione. Le migliori lunghezze d’onda per innescare l’isomerizzazione sono nella regione UV. La luce UV non è molto utile dal punto di vista medico, afferma Glazer, “poiché essa non penetra più di qualche millimetro nel tessuto e può inoltre indurre mutazioni del DNA nelle cellule sane”.

La luce rossa e infrarossa, d’altra parte, penetrano nel tessuto in profondità e in sicurezza. Stefan Hecht dell’Università Humboldt di Berlino sottolineava però che la luce rossa e infrarossa ha in genere i propri limiti. “Con la luce UV c’è molta energia che colpisce la molecola, ma se si irradia una molecola con luce rossa o quasi IR, la quantità di energia che scarichi nella molecola è minore piccola, e continuava: “fondamentalmente, quando la luce rossa o IR colpisce un gruppo foto-commutatore, lo fa con meno energia, e quindi l’isomerizzazione può essere meno probabile che con la luce UV. Ciò significa che il farmaco potrebbe essere meno potente. Sarebbe possibile superare alcuni di questi limiti e sintonizzare le molecole su lunghezze d’onda più lunghe concentrandosi sulla progettazione di interruttori migliori”, affermava Hecht.

Stefan Hecht

Alla fine dello scorso anno, Szymanski e collaboratori, fra i quali Ben Feringa[1], hanno fatto un passo avanti con gli antibiotici foto commutabili proprio nella direzione indicata da Hecht (M. Wegener et al. Photocontrol of Antibacterial Activity: Shifting from UV to Red Light Activation., J. Am. Chem. Soc., 2017, DOI: 10.1021/jacs.7b09281).

Essi hanno aggiunto alla molecola dell’antibiotico trimetoprim, azobenzeni in diverse posizioni sull’unità metossifenilica del farmaco per creare una libreria di molecole attivate da UV.

Nello screening su Escherichia coli, hanno trovato che una fra le molecole della libreria, è particolarmente potente quando attivata dalla luce UV. Per spostare la lunghezza d’onda a cui si verifica l’isomerizzazione trans-cis di questa molecola, il gruppo di Szymanski ha sostituito gli atomi sugli azobenzeni con fluoro e cloro. Una versione sostituita da cloro potrebbe essere isomerizzata da luce rossa. Non solo, ma quando questo trimetroprim fotoattivabile è stato attivato con luce rossa, risultò otto volte più potente contro E. coli rispetto a quando si interrompeva la luce. Per spegnere completamente il farmaco, i ricercatori hanno usato luce viola, che ha restituito rapidamente il farmaco alla sua forma originale, trans.

Fare farmaci antitumorali fotocommutabili “on”- “off” richiede un approccio diverso da quello per la progettazione di antimicrobici, afferma Oliver Thorn-Seshold della Ludwig Maximilian University di Monaco.

Oliver Thorn-Seshold

Con farmaci foto commutabili antitumorali selezionabili, i ricercatori devono infatti assicurarsi che i composti si leghino alle proteine bersaglio solo nella loro configurazione “on”. Legarli nella configurazione “off” significherebbe che i farmaci potrebbero danneggiare le cellule sane, anche esse contenenti quella proteina. Gli antibiotici fotocommutabili, d’altra parte, mirano a proteine specifiche dei batteri, non presenti nelle cellule umane sane. Sicchè essi non danneggiano le cellule sane qualsiasi sia la configurazione che assumono.

Thorn-Seshold fa parte del gruppo di ricerca e sviluppo CytoSwitch di Monaco, guidato da Yelena Wainman e sta progettando composti chiamati fotostatine, o PSTs (M. Borowiak et al. Photoswitchable Inhibitors of Microtubule Dynamics. Optically Control Mitosis and Cell Death., Cell, 2015, DOI: 10.1016/j.cell.2015.06.049). Quando attivati ​​dalla luce blu, questi composti, basati sulla struttura del prodotto naturale combretastatina A-4, interferiscono con la replicazione delle cellule tumorali prendendo di mira elementi strutturali chiamati microtubuli.

Antitumorali di Thorn-Seshold e Dirk Trauner: colpiti da luce blu cambiano configurazione da trans a cis, in questa configurazione interferiscono con i microtubuli che regolano la replicazione delle cellule tumorali.

Le fotostatine di CytoSwitch (originariamente sviluppati da Thorn-Seshold e Dirk Trauner, ora alla New York University), sono completamente inattive prima di essere colpite dalla luce, dice Thorn-Seshold. Ciò significa che i medici potrebbero somministrare ai pazienti anche alte dosi di questi farmaci senza preoccuparsi degli effetti collaterali negativi. Alte dosi significano anche che si possono utilizzare lunghezze d’onda a bassa intensità e biocompatibili, perché anche se solo una piccola frazione del farmaco viene attivata, i livelli risultanti di molecole attive saranno sufficienti per il trattamento. Come altre molecole fotosensibili, dopo essere state inizialmente attivate con la luce, le fotostatine tornano alla loro forma originale, inattiva con una tipica emivita di 15 minuti, afferma Wainman.

Nello sviluppo delle fotostatine, Thorn-Seshold si sta imbattendo in un problema pratico estremamente importante per l’applicazione pratica: come fare arrivare la luce nella parte del corpo dove è necessario attivare o disattivare il farmaco. Ritiene che i diodi ad emissione di luce opportunamente impiantati potrebbero essere un’opzione praticabile. E’ infatti una tecnologia esistente, resa popolare da alcuni tatuatori che impiantano i LED sotto la pelle come espressione di una moda originale. I LED sono anche usati in studi di fisiologia optogenetica in modelli animali (topi).

Dirk Trauner

Trauner, uno dei pionieri della fotofarmacologia, non deve preoccuparsi tanto del problema della luce in almeno uno dei progetti cui sta lavorando, ripristinare la vista ai ciechi. Colpire gli occhi di un individuo con luce brillante non richiede alcuna procedura invasiva di impianto LED, sebbene possa essere necessaria una sorta di visiera protettiva.

Fra la miriade di composti fotocommutatori che Trauner sta studiando ve ne è uno che, acceso negli occhi di topi ciechi, sblocca un canale ionico e ripristina la sensibilità alla luce degli animali (A. Polouskina et al., Photochemical Restoration of Visual Responses in Blind Mice., Neuron 2012, 75, 271-282, DOI: 10.1016/j.neuron.2012.05. 022). Questi topi erano ciechi perché le i coni e i bastoncelli nei loro occhi non funzionavano più, il che accade anche nella degenerazione maculare umana.

Trauner è sicuro che questo lavoro di ripristino della visione diventerà clinicamente rilevante presto, o al massimo fra pochi anni. Dice che ora ha circa 120 esempi di molecole fotocommutabili che funzionano in colture cellulari o modelli animali. Alcuni di queste sono quasi allo stadio preclinico o clinico. E prevede che i suoi farmaci per il ripristino della vista saranno i primi farmaci fotofarmacologici approvati clinicamente.

Tuttavia, fare arrivare luce in aree del corpo umano diverse dagli occhi per periodi prolungati, come giorni o settimane nel caso di antibiotici, potrebbe presentare un problema significativo per la fotofarmacologia, afferma il chimico farmaceutico Dennis Liotta della Emory University (Atlanta), editor-in chief della rivista ACS Pharmaceutical Chemistry Letters. “Dal momento che la luce non può facilmente penetrare in profondità nella pelle degli adulti, bisogna superare la barriera tecnica di portare la luce sul luogo di azione”, dice, e prosegue: “Ci sono vari modi per farlo, ma per quanto ne so, tutti implicano l’uso di dispositivi sofisticati, e sono tutti impiegati in ambiente ospedaliero.”

Dennis Liotta

I punti più facili da raggiungere sono la pelle e gli occhi perché si può fare arrivare la luce direttamente su di essi. Per organi più difficili da raggiungere come il tratto gastrointestinale, i polmoni o la vescica, gli endoscopi potrebbero essere gli strumenti idonei. Per aree davvero difficili da raggiungere, tra cui il cervello e il midollo osseo, dovranno essere sviluppate nuove strategie.

Trauner concorda con Thorn-Seshold che a differenza dagli occhi, per molte di queste aree i LED impiantati potrebbero essere in definitiva il modo più utile per fornire luce.

Il settore dovrà affrontare anche possibili ostacoli normativi prima che questi farmaci fotocommutabili possano raggiungere la sperimentazione clinica. Szymanski afferma che ognuno di questi farmaci è in realtà costituito da due molecole – la versione “on” e la versione “off” – che devono essere sviluppate, testate per la sicurezza e la tossicità e sottoposte all’approvazione di un Organismo di Regolamentazione.

Hecht dice che i chimici farmaceutici con cui discute sono spesso scettici su quanto siano commerciabili medicinali foto commutabili. “Produrre una molecola di piccole dimensioni è già così complicato, l’introduzione del gruppo fotosensibile potrebbe aggiungere complicazioni che renderebbero più difficile il processo di approvazione.”

Liotta invece è più ottimista: “L’unico problema che vedo sono i profili tossicologici dei composti attivi e inattivi. Se sono entrambi sicuri, non dovrebbero esserci problemi intrinseci “.

Sia la Food and Drug Administration statunitense che l’Agenzia Europea per i Medicinali (EMA) non hanno ancora parlato di procedure normative per i farmaci fotocommutabili perché il settore è ancora agli inizi.

A causa di questo per ora vuoto normativo, Glazer sostiene che è importante concentrarsi sulla sperimentazione pre-clinica e clinica e assicurarsi che le molecole che i chimici stanno sviluppando possano condurre a trattamenti fattibili. Ciò è importante al fine che tempo e risorse non vengano spesi perseguendo idee anche teoricamente possibili, ma che in pratica sarebbe troppo macchinoso mettere in atto.

Abbiamo chiesto il parere di Vincenzo Balzani che volentieri di seguito riportiamo.

Si tratta di problemi noti; in linea di principio molto utili, ma, come al solito, bisogna vedere che risultati si ottengono. In questo campo la difficoltà maggiore, come qua e là accennato nel testo, è che i tessuti umani non sono trasparenti a luce visibile-UV, cioè di alta energia, che in genere è necessaria sia per fotosensibilizzare la formazione di ossigeno singoletto, sia per provocare reazioni di dissociazione di leganti o di fotoisomerizzazione. Altro problema è che la forma al buio e gli eventuali prodotti secondari della fotoreazione (qualcosa c’é sempre) non siano dannosi.

C’é molto da fare per cercare composti che siano attivabili  con infrarosso. Altrimenti si può usare eccitazione a due fotoni infrarossi, per avere l’energia necessaria a provocare  la fotoreazione. Si possono anche usare luce UV visibile  con guide ottiche se il tumore da distruggere è in una cavità del corpo (es. esofago). Alcune di queste cose sono descritte succintamente nel libro: V. Balzani, P. Ceroni, A. Juris, Photochemistry and Photophysics. Concepts, Research, Applications. Wiley, 2014, p. 370.

In conclusione, l’articolo è interessante, come una piccola review, anche se poco approfondito.

[1] Bernard Feringa, insieme a Jeanne-Pierre Sauvage e Fraser J. Stoddard, vincitori del Premio Nobel per la Chimica 2016 per la progettazione e la sintesi di macchine molecolari. Il comitato Nobel chimica si è però dimenticato che Vincenzo Balzani ha contribuito in modo fondamentale non solo alla realizzazione dei primi prototipi di macchine molecolari, in collaborazione con Fraser Stoddart e Jean-Pierre Sauvage, ma anche allo sviluppo e al consolidamento dei concetti alla base di questo campo di ricerca, divenuto negli anni uno dei settori più attivi e stimolanti della chimica moderna. Balzani e il suo gruppo posero le basi progettuali per la costruzione di macchine molecolari in un articolo del 1987. Anche il termine “molecular machine” venne pienamente discusso per la prima volta in un articolo firmato da Balzani, Stoddart e collaboratori nel 1993.

http://bologna.repubblica.it/cronaca/2016/10/12/news/chimica_il_nobel_mancato_l_appello_degli_scienziati-149629201/

*Katharine Sanderson- Photoswitchable drugs could light the way to more targeted treatments​

Termodinamica ferroviaria.

In evidenza

Mauro Icardi

Spesso mi trovo a pensare a quanto la curiosità sia stata e sia ancora una delle spinte ad approfondire il mio bagaglio di conoscenze. Ricordo anche che venivo spesso indicato come il bambino che chiedeva spesso perché. Mia madre mi raccontava che per trovare un attimo di riposo da questo continuo fare domande, spesso mi affidava ad amici e conoscenti, che la sollevavano da questa incombenza. Considerato che (e oggi potrebbe sembrare impossibile), fino a quando io non ho compiuto i sei anni, a casa nostra si viveva tranquillamente senza auto privata. Il modo usuale di viaggiare era ovviamente l’utilizzo dei mezzi pubblici ed in particolare del treno. Utilizzato per andare da Torino fino al piccolo paese del Monferrato, Mombaruzzo, dove vivevano nonni e zii. Proprio questi ultimi, saliti magari in qualche stazione precedente, e al corrente della mia passione per i mezzi che viaggiano su rotaia mi facevano passeggiare su e giù per tutto il convoglio. Se è vero, sostenuto da alcuni studi di psicologia, che la personalità si forma nei primi cinque-sei anni di vita, ecco spiegata sia la mia passione per i treni, sia per i temi che riguardano l’energia ed il suo corretto uso. Il periodo dell’austerity del 1973/74 avrebbe ulteriormente rinforzato in me passione e curiosità per entrambi.

Acqua ed energia sono due parole certamente legate in maniera particolare al motore a vapore, e particolarmente alle locomotive.

Nella sua forma più semplice, la locomotiva comprende una caldaia, cioè un lungo cilindro colmo d’acqua e attraversato longitudinalmente dai tubi bollitori; attraverso questi tubi passano i fumi prodotti dalla combustione del carbone, che avviene nel forno, situato in cabina di guida. Il calore riscalda l’acqua e la fa evaporare, portandola ad una certa pressione: il vapore si concentra in una apposita camera (duomo), posta nella parte superiore della caldaia, e da qui viene prelevato per essere inviato al motore. Il motore è costituito da almeno due cilindri, in cui, grazie a un meccanismo di distribuzione, è possibile immettere il vapore stesso ora a un estremo, ora all’altro. Il vapore è così in grado di premere contro lo stantuffo, contenuto nel cilindro, facendolo muovere avanti e indietro: il moto alternativo viene trasformato in rotativo attraverso due bielle motrici (una per cilindro), imperniate sulle ruote della locomotiva che costituiscono un asse.

Col passare degli anni e l’evoluzione della ferrovia nel mondo, la necessità pratica di aumentare il rendimento delle locomotive diede l’avvio allo studio teorico delle leggi della termodinamica. Fino a definire che il rendimento massimo teorico di un motore a vapore è legato solo alla differenza tra le due temperature estreme del ciclo di lavoro, che nel nostro caso sono quella del vapore e quella dell’ambiente esterno in cui esso verrà scaricato. Rendimenti teorici che spesso erano molto superiori a quelli reali.

In Italia che da sempre ha sofferto la carenza di materie prime, vennero sviluppate diverse soluzioni che miravano a migliorare il rendimento delle macchine a vapore, e nello stesso tempo diminuire il consumo di carbone. Considerato come periodo d’oro in Italia per la trazione a vapore quello dei primi anni del novecento, dopo la fine della prima guerra mondiale la trazione a vapore inizia un lento declino, anche se molte locomotive arriveranno ad essere pienamente operative sino alla fine degli anni settanta. E nel contempo il periodo precedente la seconda guerra mondiale, le sanzioni economiche giustamente inflitte all’Italia per l’invasione dell’Etiopia, avranno almeno il merito di essere uno stimolo per lo sviluppo di queste tecniche, e più in generale di razionalizzare per quanto possibile l’utilizzo di energia e materiali.

La prima innovazione però risale ai primi anni del XX secolo e si tratta della doppia espansione. Il ragionamento era semplice: dato che il vapore scaricato dai cilindri contiene ancora molta energia, è possibile immetterlo in una seconda coppia di cilindri, per farlo ulteriormente espandere, e sfruttare quindi un’ulteriore percentuale di quell’energia. Per questo motivo sulle locomotive che montavano una coppia di stantuffi e cilindri per lato, vengono aggiunti altri due cilindri più grandi, i cilindri denominati a bassa pressione.

Il miglioramento termodinamico portava anche diversi inconvenienti legati all’ingombro dei cilindri più grandi, all’aumento della pressione in caldaia per poter garantire una pressione utile anche nel secondo cilindro, nonché a complicazioni nella costruzione e manutenzione.

Nello stesso periodo però venne sviluppata un’altra innovazione per aumentare il rendimento. L’utilizzo del vapore surriscaldato.

La temperatura e la pressione di un fluido sono legate fra loro: di conseguenza, data la pressione, non è possibile alzare ulteriormente la temperatura del vapore saturo, cioè del fluido “bifase” costituito da acqua e vapore, che è appunto presente in caldaia.

Quindi anziché prelevare direttamente il vapore dalla caldaia e inviarlo direttamente ai cilindri, lo si faceva passare attraverso una serpentina di condotti, infilati nei tubi bollitori della caldaia. In questo modo il vapore aumentava la propria temperatura, cioè si “surriscaldava”, dal momento che non era più in contatto con l’acqua della caldaia. Il surriscaldatore, costituito da quei condotti, aumentava la temperatura del vapore dai 200°C del punto di saturazione a oltre 300°C (per caldaie a 12 bar), rendendo disponibile una maggiore quantità di energia per il motore. Anche il rendimento termodinamico migliorava, data la maggiore differenza tra le temperature estreme del ciclo di lavoro. Non si dovevano affrontare spese più alte e problemi costruttivi dovuti all’installazione di una caldaia che lavorasse a pressione più alta.

L’ultima innovazione tecnica sulle locomotive a vapore in Italia sarà il sistema di preriscaldamento studiato e perfezionato dagli ingegneri Attilio Franco e Piero Crosti. Il sistema era stato studiato già negli anni venti dal solo ingegner Attilio Franco, ma a partire dal 1940 nella versione migliorata da Piero Crosti venne applicato diffusamente su vari modelli di locomotive circolanti sulla rete italiana in quel periodo. Le tecniche di preriscaldamento consistono nel non iniettare direttamente in caldaia l’acqua fredda prelevata dal tender, bensì nel farle dapprima percorrere uno scambiatore di calore che utilizza il vapore esausto proveniente dal motore. Il sistema Franco-Crosti era innovativo perché , oltre al vapore esausto, usava anche i gas di scarico per il preriscaldamento dell’acqua.

Il risparmio del consumo di carbone fu soddisfacente, mantenendosi su valori mediamente del 15% ma arrivando anche al 18%. I preriscaldatori applicati lateralmente alla caldaia come nel caso della locomotiva 743 sono come delle caldaie supplementari. All’interno vi sono i fasci tubieri e il vapore esausto dei cilindri, ed i gas di scarico non si scaricano all’esterno dal normale fumaiolo della locomotiva posto nella parte anteriore, ma percorrono in senso inverso il preriscaldatore e sono poi espulsi da un fumaiolo sistemato lateralmente e più vicino alla cabina di guida.

Nella foto in alto si vede una locomotiva modello 743 che montava due preriscaldatori laterali ed aveva due fumaioli laterali ai lati della cabina.

Le locomotive modello 741 avevano invece in solo preriscaldatore sistemato sotto la caldaia ed un solo fumaiolo di scarico.

Il sistema non passava inosservato e l’estetica delle macchine ne risentiva. Queste due locomotive sono rimaste in servizio fino alla prima metà degli anni settanta in val Pusteria e sulle linee minori della pianura padana. Nei miei viaggi ricordo di avere incrociato qualche volta locomotive modello 743 in stazione di Nizza Monferrato, adibite al traino di treni merci. La Cavallermaggiore- Alessandria vedeva un discreto traffico merci per le industrie dello spumante. Era la linea descritta anche da Cesare Pavese, oggi purtroppo chiusa al traffico.

Per completare il quadro occorre anche citare la costruzione di tre automotrici sperimentali costruite dall’Ansaldo, e funzionanti a gas povero conosciuto con il nome di gassogeno, cioè monossido carbonio e idrogeno (ma anche diossido di carbonio, azoto e acqua, dunque veramente un combustibile povero) ottenuto per combustione incompleta di carbone di legna.

Il gas necessario al funzionamento dei motori veniva prodotto da due generatori sistemati nella zona centrale del veicolo, accessibili soltanto dall’esterno per eliminare ogni possibile pericolo di infiltrazione di gas tossici nell’ambiente destinato ai viaggiatori.

Queste macchine utilizzate in Toscana, nei collegamenti ferroviari tra Firenze e Grosseto entrarono in servizio tra il 1940 e il 1941. Nelle corse di prova nonostante il combustibile povero riuscirono a raggiungere la ragguardevole velocità di 120km/h.   Nel 1942 furono trasferite a Mantova. Dopo la fine della guerra rimasero solo due automotrici erano integre e vennero riconvertite a trazione diesel con l’utilizzo di motori di recupero.

Bibliografia

Italo Briano Storia delle ferrovie in Italia Volume 2° Cavallotti Editrice Milano 1977 pp. 73-75,116,171-173

Erminio Mascherpa, Un accessorio discusso: il preriscaldatore sulle locomotive a vapore, in I treni oggi, 1 (1980), n. 3, pp. 12–18

Marcello Cruciani, Ansaldo e le sue automotrici. Seconda parte: le automotrici a gassogeno, in I treni oggi, vol. 7, nº 59, 1986, pp. 14-19.

Il Santo Graal del riciclo della plastica.

In evidenza

Claudio Della Volpe

C&N ossia Chemical and Engineering news è una della più brillanti riviste divulgative ed informative di Chimica; curata dall’ACS, la American Chemical Society, la potremmo considerare la sorella maggiore de La Chimica e l’Industria. Ha un settore ampio dedicato proprio alla divulgazione dove sforna figure come questa che vi mostro fatta da Andy Brunning (April 19, 2018 | APPEARED IN VOLUME 96, ISSUE 17):


Vi dà un’idea immediata della situazione del riciclo della plastica (a livello americano e mondiale, guardate i dati con attenzione nelle due colonne), che è stata il tema della recente Giornata della Terra del 22 aprile.

Per fare una cosa del genere ci vuole conoscenza sia della Chimica che della Comunicazione, e anche una abilità grafica e persone che vi si dedicano; eh già direte voi ma dove le troviamo noi? Questo blog si fonda su alcuni volontari quasi tutti pensionati (lo 0.3% degli iscritti SCI e non tutti sono iscritti) che lavorano gratis e C&I ha una redazione fatta da 1 persona a tempo pieno; non azzardo ipotesi sulle cause, mi accontento di considerare le conseguenze disastrose in cui è facile ricevere critiche, ma molto più difficile avere una mano dai medesimi colleghi che criticano: provate voi a scrivere un post, colleghi criticoni, giuro che sarà pubblicato. Ma torniamo al riciclo.

Come vedete dalla grafica la situazione mondiale è tragica; dei 6.3 miliardi di tonnellate di plastica prodotte fra il 1950 e il 2015 solo il 9% è stato riciclato e in effetti buona parte è stato disperso in ambiente, è da questi 6.3 miliardi di ton che arrivano le isole della monnezza dell’oceano. La situazione del riciclo americana è tremenda dato che al massimo riciclano meno del 20% (in media il 9), mentre la situazione europea ed italiana è un poco meglio, siamo in media quasi al doppio.

Dai dati, discussi al recentissimo show del riciclo, PRS, si evince che l’Europa (che ha l’ambizioso progetto di riciclare la plastica completamente dal 2030) ricicla al momento il 41% circa del totale dei rifiuti di plastica.

Se fate il confronto con il riciclo del ferro (>40%), del vetro (80%), dell’alluminio (75% dell’ alluminio mai estratto è ancora in circolazione), Piombo (>60%), della carta (56%) o di sua maestà l’oro che è il materiale più riciclato (chissà perchè?! Si calcola che l’85% di tutto l’oro estratto nella storia umana sia ancora in circolazione) la plastica nella sua media è piazzata veramente maluccio. D’altronde è anche l’ultima arrivata fra tutti i materiali che ho nominato, è un prodotto di massa da pochi decenni, l’alluminio lo è da ben più di un secolo e il ferro o il vetro lo sono da parecchi millenni! I tempi di maturazione delle tecnologie non sono così veloci dopo tutto.

La decisione della Cina di bloccare l’importazione dei rifiuti in plastica ha messo in crisi il giovane apparato industriale di riciclo plastica dell’Europa; l’Europa produce all’incirca un quinto del totale della plastica mondiale (60Mton su 330).

(dati da https://www.plasticseurope.org/application/files/5715/1717/4180/Plastics_the_facts_2017_FINAL_for_website_one_page.pdf)

Solo nel 2016 per la prima volta il riciclo europeo ha superato la discarica, (31% a 27%) ma ATTENZIONE; l’industria considera riciclo “energetico” anche bruciare la plastica, un affare (a mio parere) ecologicamente assurdo che recupera solo una frazione del totale dell’energia immessa nel ciclo e che in realtà serve a mascherare il fatto che il grosso della plastica NON viene riciclata per problemi tecnici, il PVC e il PP per esempio sono di fatto non riciclabili o lo sono poche volte, e nonostante le loro proprietà tecnologiche notevoli non dovrebbero trovare posto nella nostra produzione se non in settori di nicchia (applicati solo in usi di lunga durata, non in altri) mentre fanno la parte del leone.

Quali sono i tempi di uso della plastica? Molto variabili da 1 a 50 anni a seconda dei casi e occorrerebbe evitare di usare in usi dai tempi corti materiali NON riciclabili; per esempio mi risulta che la schiuma di PP come imballaggio sia una sciocchezza: vive pochissimo e non è riciclabile, al massimo la bruciano. Se è così è una assurdità.

Il recupero energetico della plastica (al momento) è un affare solo a certe condizioni: da noi in Italia grazie ai notevoli supporti economici statali verso gli inceneritori: il caso CIP6 in Italia ne è una dimostrazione palese; una scelta che ha deformato il settore energetico, facilitando la costruzione di giganteschi impianti di incenerimento che costituiscono investimenti di lungo periodo e che hanno senso solo pensando a voler continuare a bruciare e non a riciclare; sono i proprietari di questi impianti a combattere una battaglia CONTRO le rinnovabili.

In altri paesi che si sono affidati al “mercato”, (seguendo la più grande bufala concettuale mai inventata ossia che il mercato oligopolistico attuale sia un mezzo efficiente di allocazione delle risorse, posizione che non ha alcuna dimostrazione teorica seria) cosa succede?

In Germania ci sono molti impianti che a causa della riduzione dei consumi nel periodo della crisi e con l’aumento sia pur lento del vero riciclo hanno conosciuto un deficit di offerta. Per riempire il deficit alcuni impianti tedeschi importano regolarmente rifiuti da Italia, Irlanda, Gran Bretagna e Svizzera. La Germania non è l’unica nazione a importare immondizia altrui: la Svezia anche importa rifiuti per alimentare i proprii impianti di generazione termoelettrica mano a mano che i residenti riciclano sempre più: nel 2014 la Svezia ha importato 800.000ton di rifiuti. Se vi sembra una politica “ecologica”!

Considerate infine che il “recupero energetico” della plastica NON elimina le scorie (da recupero fumi) e le ceneri , che rappresentano una quota significativa (5-10%); queste sono poi rifiuti tossici e dunque anche complessi da smaltire e a volte finiscono in discariche speciali.

La realtà è che occorre cambiare strada, e prima di tutto cambiare plastica; o si inventano metodi di riciclo efficienti per materiali come PVC o PP o si rinuncia ad essi: so che molti storceranno il naso. Lo ripeto: prodotti tecnologicamente notevoli ma attualmente non riciclabili come il PVC od il PP che di fatto sono pochissimo riciclati per vari problemi (in genere esistono le tecnologie ma sono costose e poco diffuse), bene per questi o si aggiornano le tecniche oppure occorre passare ad altri prodotti come il PET o altri ancora che consentirebbero proprietà meccaniche E riciclo completo o quasi.

Basterebbe una legge mondiale di un solo articolo: è vietato produrre polimeri che non si possano concretamente riciclare a costi ed in condizioni ragionevoli. La plastica non riciclabile si può usare solo per applicazioni limitate e durature e chi la produce ne deve garantire lo smaltimento a sue spese.

Vi presento una scoperta di questi giorni che affronta il problema in modo radicale e che secondo me potrebbe, se confermata, riconciliare tecnologia e ambiente.

Si tratta del 3,4-T6GBL, una sigla che nasconde un intelligente derivato del γ-butirrolattone; quest’ultimo è un lattone ciclico, un estere ciclico di formula:

sulle cui proprietà di solvente e anche di droga ci sarebbe molto da dire, ma al momento ci concentriamo sul fatto che un polimero basato su questo monomero esiste già e non ha proprietà notevoli.

Alcuni anni fa Eugene X.-Y. Chen all’Università del Colorado pubblicò un lavoro sulla possibilità di ottenere un polimero dalla reazione di apertura del ciclo del GBL, a sua volta ottenibile dallo zucchero. Ma la reazione che proponevano era difficile da realizzare su ampia scala a causa del fatto che occorreva gestirla a -40°C o meno e inoltre il polimero così ottenuto era poco stabile e aveva basso peso molecolare come anche proprietà fisiche e meccaniche che ne limitavano l’uso pratico.

Nel frattempo un gruppo dell’Università di Yamagata aveva provato una nuova strada, polimerizzare non il GBL ma un suo derivato ottenuto fondendo il suo ciclo con quello del cicloesano e i cui risultati vedete rappresentati nella figura seguente.

Polymer Journal

Vol.46  No.2 (2014)   pp.89 – 93

Questa sintesi non produsse risultati utili, ma diede l’idea ai ricercatori del Colorado di sfruttare una sintesi simile ma con un nuovo obiettivo che vedete rappresentato nella parte centrale della figura seguente, con lo spostamento dell’afferraggio dell’anello a 6 termini in posizione 3-4 e che ha consentito di realizzare un nuovo polimero molto interessante.

Il nuovo polimero si può ottenere in forma ciclica o lineare con peso molecolare fino ad 1 milione di dalton, quindi con migliaia di monomeri; può essere rapidamente depolimerizzato a temperature accettabili (inferiori a 200°C) con l’aggiunta di un catalizzatore a base di cloruro di zinco; il polimero ottenuto usando i due enantiomeri del monomero ha proprietà eccellenti; la resistenza a rottura è dell’ordine di quella del polipropilene; il limite principale è che la sintesi del nuovo monomero a partire dalla anidride dell’acido trans-1,2-ciclo­esancarbossilico appare costosa e dunque occorre un ulteriore passo verso una diversa sorgente.

Sembra dunque una scoperta molto interessante che potrebbe fornire un polimero termoplastico “ideale”, una sorta di Santo Graal del riciclo plastica, in grado di essere polimerizzato e depolimerizzato in condizioni tali da non esserne danneggiato e di mantenere proprietà meccaniche di primo ordine nella sua forma pratica anche dopo un numero indefinito di ricicli. In questo modo basterebbe un catalizzatore poco costoso per depolimerizzare il materiale di un oggetto qualunque ottenuto dal nuovo polimero e riforgiare una molecola perfettamente identica, senza danni significativi dal processo di depolimerizzazione, come invece avviene attualmente in altri casi di polimeri termoplastici. Il futuro ci dirà se questa scoperta può aiutarci nello sviluppo di una plastica effettivamente riciclabile e con proprietà analoghe se non superiori a quelle del PET e di altri polimeri canonici.

Nel frattempo pensateci anche voi (sia a nuovi polimeri riciclabili che a scrivere qualcosa per il blog).

https://cen.acs.org/materials/polymers/Strong-stable-polymer-recycled-again/96/i18

Zhu et al., Science 360, 398–403 (2018)         27 April 2018

Creare le connessioni.

In evidenza

Mauro Icardi

In questi giorni mi è capitato nuovamente di trovarmi a riflettere su un tema sul quale mi interrogo da diversi anni. Cioè la necessità, a mio parere fondamentale, di riuscire ad utilizzare una comunicazione efficace quando si parla di argomenti tecnici, e a maggior ragione di quelli scientifici.

Non è un problema superficiale. Negli anni passati, seguendo con molto impegno e passione le attività di stages e di tutoraggio di studenti universitari, ho avuto la fortuna di riuscire a stabilire una buona comunicazione. Ma riflettendoci adesso, mi rendo conto che vi erano le condizioni adatte.

Dovevo insegnare a persone mai entrate prima in un laboratorio, prima di tutto a lavorare in sicurezza, poi ad eseguire campionamenti ed analisi in maniera che producessero alla fine dati corretti e rappresentativi.

E la cosa ha sempre funzionato bene. Creando un legame di amicizia e di reciproco scambio umano e culturale con molti di loro, con cui sono in contatto ancora oggi. Ma in quelle condizioni gioca a favore il fatto di trasmettere con molta immediatezza l’entusiasmo che ancora oggi provo per il lavoro che svolgo.

Può sembrare banale, ma in realtà quando il lavoro si svolge sul comparto fanghi e digestione anaerobica, può non essere immediato che un giovane abbia lo stesso entusiasmo quando si rende conto di quale sia esattamente la materia prima su cui deve operare. Io in quel caso citavo invariabilmente il capitolo “Azoto” de “Il sistema periodico”. Cioè il tentativo di Levi di ricavare l’allossana usando come materia prima la pollina, ovvero le deiezioni delle galline. E questo invariabilmente funzionava. L’analogia con il lavoro da fare per ottenere una migliore produzione di biogas dai fanghi stabiliva una connessione comunicativa efficace. E faceva agevolmente superare un eventuale ritrosia. In fin dei conti sempre citando Levi “La materia è materia, né nobile né vile, infinitamente trasformabile

Il discorso invece diventa molto più difficile, quando si passa da situazioni pratiche al dover fare informazione e divulgazione. Non posso dire che questa sia una seconda attività che mi occupa molto, ma mi è capitato diverse volte di essere invitato a tenere lezioni presso scuole, dalle elementari fino agli istituti tecnici.

E ho scoperto che il modo migliore per attirare l’attenzione degli studenti fosse quello di proporre oltre alle slide, delle operazioni basilari di laboratorio. Per fare questo mi attrezzavo con una piccola cassettina portatile, dove mettevo un pH-metro, qualche indicatore e dei becher. Semplici misure di pH, viraggio di indicatori catturavano l’attenzione.

In altri casi, come per esempio serate dedicate alla situazione ecologica dei corsi d’acqua e fra tutti il lago di Varese, oppure nel periodo precedente al referendum del 2011 se partecipavo a serate dedicate a questi temi, anche non in veste di relatore, ma intervenendo, mi sono trovato in palese difficoltà.

Perché notavo come ognuno avesse una sua personale ricetta. E soprattutto avesse delle granitiche certezze. Relativamente a chi attribuire le responsabilità del degrado ambientale, alle iniziative da intraprendere. In sostanza percepivo una sorta di “sciachimismo idrico” che mi lasciava, e mi lascia tutt’ora piuttosto perplesso.

Col passare degli anni la situazione non è migliorata. Ormai viviamo in una società dei media che è caratterizzata da una forte interattività di informazioni. Ma nel periodo di tempo di una sola decina di anni, la possibilità di connessioni in rete più veloci ha purtroppo amplificato il fenomeno della ripetitività all’interno di un gruppo, omogeneo e chiuso , di informazioni spesso distorte o errate. In un primo momento pensavo che questo tipo di fenomeni non fosse legato a argomenti di carattere tecnico- scientifico. Ma mi sono sbagliato. Dalle scie chimiche, fino alle acque alcaline ionizzate e miracolose il web pullula di queste amenità. Se poi allarghiamo il campo al problema ambientale e climatico le amenità, o fake news aumentano.

Devo ammettere che in questi anni non ho ottenuto grandi risultati da questo punto di vista. Cioè ho ottenuto buoni risultati come tutor di studenti, o divulgatore sempre per studenti. Su altri temi quali il corretto uso dell’acqua, o su come ridurre il proprio impatto ambientale molto meno.

Una cosa è significativa da questo punto di vista. Dove lavoro sono il solo a bere regolarmente acqua del rubinetto. Il resto dei colleghi beve acqua in bottiglia. Qualcuno si è dimostrato particolarmente coraggioso ed ha cominciato a bere quelle delle casette dell’acqua. Ma la cosa non è durata molto. Non sono riuscito a scalfire questa sorta di muro di gomma. Sia che utilizzassi un linguaggio tecnico, sia che modificassi il mio approccio in maniera più discorsiva. Venivo spesso rimandato ad informazioni che i colleghi avevano recepito in rete.

La pervasività di miti, di bufale, di schemi mentali ed abitudini difficili da cambiare sta diventando un problema su cui porre attenzione. Attualmente sempre più spesso si possono leggere articoli in cui siamo invitati ad una disintossicazione dalla rete e dai social. Ma il problema è stato solamente scalfito. Ed è un problema complesso. Soprattutto quando l’utilizzo della rete incrina il senso critico che ognuno dovrebbe sviluppare sia autonomamente, sia durante il proprio percorso di formazione.

Internet è una opportunità che, a posteriori, mi spiace di non aver potuto avere quando studiavo. Ma allo stesso modo dover reperire fonti tramite per esempio le librerie le biblioteche mi è servito molto. Non ho mai pensato che si debbano introdurre correttivi o censure sul web. Ma che si abbia la necessaria capacità di educare ad utilizzarlo correttamente. Cosa che ho fatto con mia figlia.

Relativamente alla divulgazione di temi importanti ma tendenzialmente non graditi alla maggioranza delle persone, credo che si debba attuare un maggior dialogo tra scienze naturali e scienze umane.

Entrambe possono contribuire a mettere insieme concetti acquisiti, ma oggi molto frammentari. I mezzi di comunicazione ci sono, e ci offrono molte opportunità. E’ un peccato utilizzarli per regredire fino alla teorizzazione della terra piatta. Eppure si, si riesce a credere e teorizzare anche a questo, e basta fare un giro in rete per rendersene tristemente conto. Per affrontare in maniera logica e coerente il cambiamento di paradigma a cui siamo chiamati bisogna fare ordine. Essere rigorosi e coerenti nelle attività scientifiche, senza dimenticare le altre condizioni a contorno, cioè creare per quanto possibile una vera formazione intellettuale dell’uomo moderno. Che potrebbe ( e direi dovrebbe) crearsi una formazione di base anche sui rami più significativi della conoscenza umana, anche se esulano dalle sue attività ordinarie.

Scienziate che avrebbero potuto vincere il Premio Nobel: Darleane C. Hoffman (1926- )

In evidenza

Rinaldo Cervellati

Al momento in cui scrivo questo post Darleane Christian Hoffmann si avvia a compiere 92 anni, nella sua lunga vita professionale ha dato fondamentali contributi in chimica nucleare e delle radiazioni per i quali avrebbe meritato il Premio Nobel per la Chimica.

Darleane Christian nasce l’8 novembre 1926 a Terril, una piccola città della Contea di Dickinson nel nord-ovest dell’Iowa[1]. I suoi genitori si erano trasferiti in quella cittadina un anno prima, quando il padre Carl B. Christian, insegnante di matematica, aveva ottenuto il posto di sovrintendente della locale scuola. La madre, casalinga, organizzava eventi e feste scolastiche inoltre scriveva articoli per il giornale cittadino. Scriveva sotto pseudonimo perché questa attività non era considerata conveniente per la moglie del sovrintendente scolastico. Darleane frequentò la locale scuola, a quei tempi dominio quasi assoluto di donne non sposate, un mondo monotono e ristretto di vedove e zitelle. Racconterà la stessa Darleane:

Se una giovane insegnante si sposava era obbligatorio per lei dare le dimissioni… giurai a me stessa di non diventare mai un’insegnante [1].

Nel 1944 Darleane Christian si iscrisse allo Iowa State College[2] frequentando il corso di chimica tenuto da Nellie Naylor, il cui insegnamento la affascinò. Dirà infatti:

Darleane Christian nel 1944

Il suo insegnamento mi ha convinto che la chimica era la scienza più logica, interessante e pratica nel mondo [1].

Dopo essersi diplomata nel 1948 con un B.Sc. in chimica e matematica, Hoffman decise di rimanere allo Iowa State College per proseguire gli studi di dottorato, per il quale ha continuato il lavoro di ricerca con il chimico nucleare Donald S. Martin.

Insieme hanno scoperto diversi nuovi isotopi usando il sincrotrone, uno strumento allora innovativo che utilizza elettroni accelerati per generare raggi X ad alta energia.

Darleane allo Iowa State College per il dottorato, 1950

Nel suo primo semestre di scuola di specializzazione, Darleane incontrò Marvin Hoffman, uno studente di fisica che aveva contribuito a costruire il sincrotrone e pertanto aveva il permesso di utilizzarlo anche di notte. Darleane e Marvin spesso continuavano gli esperimenti fino a tarda sera. Darleane completò la sua tesi di ricerca in tre anni, conseguendo il dottorato nel dicembre 1951. Si sposò con Marvin Hoffman il giorno dopo Natale 1951.

All’inizio del 1952 Dearlane Hoffman iniziò a lavorare all’Oak Ridge National Laboratory, in Tennessee, dove Marvin la raggiunse alcuni mesi dopo aver completato la sua dissertazione di tesi.

Tuttavia fu Marvin a suggerire di spostarsi al Los Alamos National Laboratory, dove egli aveva fatto uno stage di ricerca quando era studente.

Come noto Los Alamos è stata la sede del Progetto Manhattan che ha realizzato le bombe atomiche che hanno azzerato la popolazione civile di Hiroshima e Nagasaki. Negli anni ’50 in piena guerra fredda gli esperimenti nucleari proseguivano nel Nevada Test Site, un desolato tratto di 1.360 miglia quadrate di deserto a nord di Las Vegas. Si calcola che in quel periodo vi furono più di 1000 esplosioni nucleari, per più del 90% sotterranee.

Il lavoro che interessava Darleane Hoffman era comunque l’analisi dei prodotti della fissione. Molti campioni, altamente radioattivi, venivano prelevati dai crateri con opportune precauzioni e inviati ai laboratori di Los Alamos per dettagliate analisi radiochimiche, che a volte rivelavano la presenza di nuovi isotopi. Proprio dai residui di una di queste esplosioni fu fatta una scoperta inaspettata: un nuovo isotopo del plutonio, il plutonio 244 (Pu 244). Misure successive dimostrarono che il Pu 244 aveva un’emivita di oltre 80 milioni di anni.

Racconta Hoffman [1]: Per anni si è supposto che l’uranio 238, che ha un’emivita di 4,5 miliardi di anni, fosse l’isotopo radioattivo più pesante in natura. Con la scoperta del plutonio 244, abbiamo iniziato a ipotizzare che potrebbe essersi formato durante l’ultima nucleosintesi nel nostro sistema solare da 4,5 a 5 miliardi anni fa. Se quell’evento ha prodotto uranio 238 potrebbe anche aver prodotto il plutonio 244, e parte di esso avrebbe potuto essere ancora presente sul nostro pianeta. La caccia al Pu 244 sulla Terra si era aperta.

Darleane Hoffman, da ottimo chimico sapeva bene che le proprietà redox del plutonio erano simili a quelle del cerio, un elemento dei lantanidi (terre rare) situati appena sopra agli attinidi (cui appartiene il plutonio) nella tavola periodica degli elementi. Questo la portò a cercare un luogo ricco di minerali contenenti cerio. Negli Stati Uniti la fonte più nota di minerali contenenti terre rare era all’epoca il Mountain Pass di California dove Hoffman si procurò il minerale, principalmente bastnasite, il cui componente principale è fluorocarbonato di cerio. Utilizzando procedimenti chimici standard su larga scala e piuttosto complicati di estrazione con solventi e cristallizzazione frazionata, nell’ipotesi basata sulle proprietà chimiche, che cerio e plutonio si sarebbero concentrati nel solvente, Hoffman e collaboratori riuscirono a purificare il campione di minerale fino a rilevare in esso la presenza dell’isotopo Pu 244 attraverso misure di spettrometria di massa, in concentrazione stimata di 1 parte su 1018 parti[3]. Il risultato fu pubblicato nel 1971 [2].

Successivamente Glen T. Seaborg[4] definì questa impresa “un tour de force sperimentale”.

Va ricordato che fra il 1952 e il 1960 Darleane Hoffman iniziò a crescere una famiglia, una figlia, Maureane nel 1957 e un figlio, Daryl nel 1959, continuando comunque attivamente il lavoro di ricerca.

Darleane Hoffman col marito e i due figli a Los Alamos nel 1974

Lavoro di ricerca che fece un altro importante passo avanti proprio nel 1971.

Hoffman stava continuando a cercare nuovi isotopi radioattivi di elementi pesanti nei campioni provenienti da test nucleari sotterranei. L’elemento più pesante che fu in grado di rilevare era il fermio 257[5], un attinide con numero atomico 100 e emivita di circa 100 giorni.

Il suo gruppo aveva isolato abbastanza isotopo per studiarne la fissione spontanea, ricontrollando i dati della frammentazione Hoffman fece una scoperta sorprendente. Una parte significativa dei nuclei di fermio 257 non si divideva in modo coerente con la teoria esistente, secondo la quale nella fissione il nucleo atomico si spacca in due nuclei diversi, non simmetrici. La fissione di questi nuclei di fermio produceva invece due frammenti simmetrici di massa uguale, quindi doveva esserci qualcosa di cui la teoria esistente non aveva tenuto conto. Quando Hoffman presentò questi risultati a una riunione dell’American Physical Society, i fisici l’ascoltarono con fare sprezzante. Pare che alcuni le abbiano detto con una risatina: “Bene, i chimici non sanno come misurare queste cose, è meglio che tu vada a casa a controllare i tuoi rivelatori”. Dice Hoffman [1]:

Pensavano che io, come chimico, dovevo aver fatto un errore.

Ma il gruppo a Los Alamos, insieme ai colleghi del Lawrence Livermore National Laboratory (LLNL) confermarono presto i risultati.

Hoffman aveva scoperto l’importanza dei gusci nucleari nella fissione spontanea. Diversi anni prima era stato postulato che il nucleo atomico fosse costituito da gusci simili ai gusci degli elettroni.

Hoffman seguì questa ipotesi per chiarire il ruolo di questi gusci nucleari nella fissione spontanea degli isotopi del fermio. Hoffman e collaboratori identificarono diversi isotopi del fermio con diverso numero di neutroni nel nucleo. Riporta Hoffman [1]:

L’isotopo fermio 258 ha un tempo di emivita molto basso e può scindersi simmetricamente in due frammenti di massa uguale, entrambi consistenti di gusci nucleari di neutroni e protoni quasi pieni.

È stata una delle mie scoperte più importanti.

L’importanza dei gusci nucleari nei frammenti di fissione fu un notevole passo avanti nella comprensione della fissione spontanea, disse G. T. Seaborg quando commentò i risultati da Berkeley.

Nel 1975, Hoffman divenne una leader del settore di ricerca avente lo scopo di studiare la diffusione dei radionuclidi lontano dal sito dei test nucleari sotterranei. Il suo lavoro in questo progetto è stato un contributo fondamentale alla comprensione del comportamento dei radionuclidi nell’ambiente.

Durante gli anni ’70, Seaborg aveva sviluppato un crescente rispetto per il lavoro scientifico di Hoffman. Nel 1978, grazie a una borsa di ricerca Guggenheim, Seaborg la invitò a lavorare nel Lawrence Berkeley National Laboratory (LBNL) da lui diretto. Hoffman accettò e rimase a lavorare a Bekeley per quasi un anno intero sulla fusione spontanea utilizzando il ciclotrone da 88 pollici disponibile all’LBNL.

Hoffman con la collaboratrice Lee al sincrotrone da 88, Berkeley 1979

Tornò a Los Alamos nel 1979, chiamata a dirigere la Divisione di chimica nucleare, prima donna alla guidare una divisione scientifica a Los Alamos. Anche se per un certo tempo ha provato a fare avanti e indietro fra Berkeley e Los Alamos, i suoi doveri amministrativi le ha lasciavano poco tempo per la propria ricerca e la situazione stava diventando sempre più difficile.

Nel 1982 Seaborg compiuti 70 anni sarebbe andato in pensione. Conoscendo il desiderio di Hoffman di continuare la sua ricerca, vide un’opportunità per attirarla al LBNL assicurando così una continuità per la chimica nucleare a Berkeley. Con l’aiuto di altri chimici nucleari del LBNL e dell’

University College di Berkeley, fu in grado di offrire a Hoffman una cattedra a pieno titolo allo University College e la leadership del gruppo di chimica nucleare e radiochimica del LBNL.

Incerta, chiese consiglio al marito Marvin che pare le abbia detto: “Saresti una pazza a rifiutare l’offerta.”

Nell’agosto del 1984, dopo 31 anni a Los Alamos, Darleane e Marvin fecero il grande passo di trasferirsi a Berkeley. Racconta Hoffman [1]:

Ero esitante, di certo non sono andata per sostituire Glenn Seaborg, nessuno poteva farlo, piuttosto ero molto devota alla mia divisione a Los Alamos, sentivo però che era in buone condizioni e che era giunto il momento di aiutare a educare la prossima generazione di studenti nel settore nucleare e radiochimico. E aggiunge: Ovviamente, ciò significava che dovevo rinnegare il voto che avevo fatto in gioventù di non insegnare mai! Ma negli anni ’80 c’erano pochissime donne professori nei dipartimenti di chimica delle principali università e ho sentito l’obbligo di aiutare a formare donne e uomini nel settore. Ero solo la seconda donna all’University College di Berkeley, arrivata poco dopo Judith Klinman, che in seguito divenne la prima donna Preside della Facoltà di Chimica.

In effetti, dall’arrivo di Hoffman a Berkeley altre quattro donne si aggiunsero al personale docente dell’University College e Darleane ne fu molto orgogliosa.

Hoffman è grata per gli anni in cui ha lavorato con Seaborg, morto nel 1999. Di lui dice [1]:

Era gentile, generoso e un meraviglioso mentore. Seaborg era alto un metro e settantacinque, io sono a malapena sopra 1,50. Preferiva le scale per partecipare alle riunioni nel campus ed era letteralmente difficile per me tenere il suo passo.

Darleane C. Hoffman e G.T. Seaborg

Insieme a Seaborg e a Albert Ghiorso hanno pubblicato il libro “The Transuranium People. The Inside Story” [3].

Una volta stabilitasi a Berkeley, Hoffman ha continuato il suo lavoro di individuazione degli isotopi di elementi transuranici. Continuò dapprima il lavoro sul fermio, poi ha contribuito alla caratterizzazione del bohrio (Bh), l’elemento 107, oltre a verificare l’esistenza di elementi più pesanti. Il suo gruppo ha anche confermato la scoperta nel 1974 dell’elemento 106, permettendo così che fosse chiamato Seaborgio (Sg) in onore di Glenn Seaborg.

Il gruppo di Hoffman è stato il primo a studiare la chimica in soluzione acquosa dell’elemento 105[6] . Tali studi sono stati condotti utilizzando un isotopo del 105 avente un’emivita di 34 secondi !.

Nel 1991 si ritirò dall’insegnamento attivo per aiutare a fondare il Seaborg Institute for Transactinium Science al LLNL, di cui è stata il primo direttore dal 1991-96. Nel 1997, il presidente Bill Clinton l’ha premiata con la National Medal of Science, la più alta onorificenza pubblica che uno scienziato può ricevere negli Stati Uniti. Nel 2000 ha ottenuto La Medaglia Priestley della American Chemical Society, la più prestigiosa onorificenza conferita da questa società. In precedenza, nel 1983 la stessa ACS le aveva assegnato il Premio per la Chimica Nucleare.

Hoffmann riceve la National Medal of Science, 1997

Ma l’infaticabile Darleane non si ferma, nel 2011 si reca a Oslo per partecipare a un Convegno in ricordo del centenario del Premio Nobel a Marie Curie dove parlò verso la fine della conferenza, dopo l’intervento della nipote della Curie, Helène. “Era un compito difficile perché Helène è un noto fisico nucleare francese, ma mi sono concentrata sulla lezione tenuta da Marie Curie in occasione del ricevimento del Nobel, in cui predisse l’uso della chimica per identificare nuovi elementi”.

Ma i coniugi Hoffman erano già stati in Norvegia nel 1964 con borse di studio postdottorato e vi rimasero per un anno. Visitarono anche l’antica casa del bisnonno di Darleane, di nazionalità norvegese. La figlia Marleane frequentò la prima elementare a Oslo, imparando un “norvegese di primo livello”. Nel 1991 Darleane Hoffman fu eletta membro della Norvegian Academy of Science and Letters.

Hoffman non è stata solo un modello per le donne che intendevano intraprendere la carriera scientifica ma ha lavorato con organizzazioni aventi lo scopo di incoraggiare le giovani donne allo studio delle scienze. Quando le è stato chiesto perché tanti importanti ricercatori nel nucleare sono state donne, Hoffman rispose: Era un campo nuovo, e poi le donne sono sempre in grado di assumere nuovi ruoli. Inoltre vi era una gerarchia meno consolidata e le donne incontravano meno ostacoli che in campi scientifici più tradizionali [1].

Oltre al riferimento [1] altre informazioni biografiche si trovano in SMALL-TOWN IOWA GIRL MAKES GOOD, http://pubs.acs.org/cen/hotarticles/cenear/032700/print/7813pries.html

 

Bibliografia

[1] D. Hoffman, Adventures in the nature of matter, Catalyst, 2011/2012, 6(2), 12-15.

[2] D.C. Hoffman, F.O. Lawrence, J.L. Mewherter, F.M. Rourke, Detection of Plutonium-244 in Nature., Nature, 1971, 234, 132–134.

[3] D. Hoffman, A. Ghiorso, G.T. Seaborg, The Transuranium Peole. The Inside Story., 2000, Imperial College Press, London, 2000.

[1] Terril è veramente un piccolissimo comune di circa 400 abitanti allora come oggi, con una scuola (elementare e media) e una chiesa, vedere la mappa satellitare:

https://www.google.it/maps/@43.3059332,-94.9782066,2299m/data=!3m1!1e3

[2] Dal 1960 Iowa State University of Science and Technology.

[3] Il procedimento utilizzato da Hoffman è in scala più ridotta, simile a quello che portò Marie Curie a isolare prima il polonio e poi il radio da tonnellate di pechblenda, un minerale contenente uranio, nel 1898. Del resto Hoffman afferma che fino da ragazza aveva avuto Marie Curie come modello di donna completamente realizzata [1].

[4] Glenn Theodore Seaborg (1912-1999) chimico statunitense di origine svedese, allievo di G.N. Lewis a Berkeley Premio Nobel per la chimica 1951 (insieme a E.M. McMillan e A.J. Porter Martin) con la motivazione: per le loro scoperte sulla chimica degli elementi transuranici.

[5] Il fermio, elemento transuranico artificiale radioattivo fu scoperto nel 1952 nei frammenti dell’esplosione della prima bomba nucleare all’idrogeno, dal gruppo di ricerca di Abert Ghiorso, scienziato statunitense che ha contribuito alla scoperta di molti elementi transuranici.

[6] All’epoca, 105 era conosciuto informalmente come hahnium (uno dei nomi proposti), ma in seguito fu ufficialmente chiamato dubnio.

Nulla si distrugge, tutto si trasforma.

In evidenza

Mauro Icardi

Nulla si distrugge, tutto si trasforma!Antoine-Laurent de Lavoisier

La vicenda relativa alla chiusura in Lombardia di un impianto destinato al trattamento di fanghi di depurazione destinati al riutilizzo agricolo, è il tipico esempio di una vicenda che, nel suo svolgersi mostra come ancora oggi si ricada nei medesimi errori. Errori di valutazione e di comprensione che riguardano un po’ tutti.

Vediamo di approfondire il problema. Partendo da un dato oggettivo, conosciuto da chi lavora nel settore, ma probabilmente meno da altri.

La depurazione di acque reflue è la chiusura del cerchio del ciclo idrico. Questo significa in poche parole che tutto quello che viene scaricato nelle acque che abbiamo usato deve subire un trattamento. Perché non è pensabile che le acque reflue possano essere scaricate nei fiumi o nei laghi, senza subire nessun tipo di trattamento. Questa perlomeno è la situazione dei paesi economicamente avanzati. Purtroppo non in tutti i paesi a livello mondiale le cose stanno in questo modo. Ma torniamo a concentrare l’attenzione, per comodità sulla situazione italiana.

Nel processo di depurazione di tipo biologico, i fanghi sono un normale ed inevitabile prodotto del trattamento di depurazione. E’ mediamente si può stimare che si producano 0,3 kg di sostanza secca per ogni kg di COD rimosso con umidità che può variare dal 75% all’85% In letteratura i dati possono essere variabili, ma è importante questo concetto.

Ricordo che il termine COD (dall’acronimo inglese Chemical Oxygen Demand) che in italiano può essere reso come domanda chimica di ossigeno, è la quantità di ossigeno( mg O2/lt) necessaria per l’ossidazione completa delle sostanze organiche e inorganiche contenute in un campione di acqua. Si associa al valore del BOD5 che è la misura che esprime la quantità di ossigeno necessaria per l’ossidazione biochimica delle sostanze organiche contenute in un’acqua da parte di microrganismi aerobici, già presenti oppure inoculati nel refluo. Il saggio del BOD5 si esegue in condizioni controllate (alla temperatura di 20°C tenendo il campione al buio, e misurando il consumo di ossigeno (mg O2/lt) dopo 5 giorni. Il rapporto COD/BOD è l’indice che misura la biodegradabilità di un refluo. Un rapporto tra i due parametri che abbia un valore di 1,9-2,5 indica una buona biodegradabilità. Rapporti con valori più alti indicano una minor presenza di sostanze biodegradabili, tipicamente quelle contenenti una maggior componente di scarichi di origine industriale.

Il fango ottenuto dal trattamento acque deve subire un trattamento che lo renda certamente stabilizzato ed igienizzato, un trattamento che sia economicamente sostenibile, e anche accettato socialmente.

Per meglio dire, il concetto che io ho sempre sostenuto personalmente, ma credo di non essere il solo, è che tutto quello che può far funzionare bene un impianto di trattamento acque reflue è la corretta progettazione e gestione della linea di trattamento fanghi. Adottando anche le nuove tecniche di riduzione della produzione degli stessi. Su questo blog ne ho scritto. Trattamenti di lisi termica, aumento della funzionalità dei digestori anaerobici sfruttando la possibilità della codigestione di matrici adatte (per esempio la Forsu che migliorando la funzionalità del digestore anaerobico, contestualmente riduce le quantità di fango da destinare al successivo trattamento di disidratazione.) Le possibilità tecniche esistono. Vanno valutate attentamente caso per caso.

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

I fanghi concentrano i materiali e i composti che possono essere trattati in un trattamento biologico convenzionale. Sappiamo che la diffusione di composti refrattari a questo tipo di trattamento convenzionale può innescare situazioni di criticità. Quindi parallelamente alla gestione e alla progettazione corretta del comparto fanghi, vanno potenziati i sistemi di trattamento terziario. Sistema di solito presente negli impianti di grandi potenzialità e solitamente assenti in quelli di piccoli (potenzialità intorno 5000 abitanti equivalenti). Come si nota i problemi sono sempre collegati in serie. Non aiutano in questo senso molti articoli di stampa generalista che parlano dei fiumi di cocaina o dei metaboliti di farmaci nei fiumi italiani. Occorre fare un ragionamento un po’ più critico sul perché sono finiti lì. Per esempio far notare che su un totale di 75 milioni di abitanti equivalenti effettivi serviti, solo 50 milioni sono quelli che hanno un trattamento terziario (66%). Se ragioniamo sul numero di impianti la percentuale scende addirittura al 19%, cioè 2309 impianti dotati di trattamento terziario su 17897, dato che fa riferimento al territorio nazionale, dati istat 2015. E’ un trattamento terziario potrebbe semplicemente essere, nella realtà una semplice disinfezione finale, anche se dal punto di vista tecnico non sarebbe ovviamente corretto.

Tornando ai fanghi, questi una volta usciti dal depuratore e disidratati diventano rifiuti, a meno che non abbiano caratteristiche tali da renderne idoneo l’utilizzo in agricoltura.

La normativa italiana fa ancora riferimento al decreto legislativo 99 del 1992. Decreto ormai invecchiato e che necessiterebbe di una nuova versione. Il decreto per valutare l’idoneità dei fanghi all’utilizzo agronomico concentra l’attenzione solo sui metalli pesanti dando limiti per la concentrazione dei metalli pesanti. Vista l’attenzione ovviamente doverosa sui nuovi inquinanti la Regione Lombardia ha per esempio introdotto una normativa maggiormente strutturata che prevede i controlli analitici della qualità dei fanghi in funzione della potenzialità in abitanti equivalenti degli impianti che li hanno prodotti, inserendo tra i parametri da determinare anche gli idrocarburi policiclici aromatici, oltre ai più consueti azoto e fosforo totale, che ne caratterizzano la possibilità di utilizzo agronomico. Sulla base di queste caratterizzazioni ha stabilito tre diverse classi di caratterizzazione (fanghi di alta qualità, fanghi idonei, e non idonei). Questo è un primo passo.

Ma non basta. Tornando alla vicenda dell’azienda incriminata per traffico illecito di rifiuti, è doveroso ricordare come in Italia troppo spesso il caos normativo porti alla tentazione di utilizzare e smaltire rifiuti illegalmente. Triste pensare che spesso il business del fango sia più redditizio di quello degli stupefacenti. E che dove le istituzioni sono distratte o assenti prospera la criminalità, che riempie un vuoto.

Tornando a temi meno tristi e più tecnici, occorrerebbe che gli investimenti da destinare al ciclo idrico nel complesso non fossero ulteriormente procrastinati o rimandati. Investimenti che dovrebbero comprendere anche una quota destinata alla ricerca. Sugli inquinanti persistenti, sui loro effetti su salute ed ecosistema. Ricerca che dovrebbe necessariamente interfacciarsi in maniera imprescindibile con i gestori degli impianti. Non ultima la necessità di inserire l’educazione idrica anche nelle scuole elementari. Educazione che non dovrebbe limitare i suoi temi soltanto nel doveroso intento di insegnare come si possa e si debba risparmiare l’acqua. Ma che dovrebbe anche insegnare i concetti di base della depurazione delle acque.

Un piccolo aiuto potrebbe venire anche dall’informazione. Che dovrebbe cercare meno il sensazionalismo e più la correttezza informativa tecnico scientifica. Viviamo nel periodo di dissipazione della realtà oggettiva, delle fake news, problema ritenuto critico anche dal World Economic Forum.

E’ doveroso segnalare i problemi, ma anche indicare le soluzioni possibili e le scelte che si prospettano. I fanghi non possono sparire per magia, come vuol suggerire il titolo. Possono essere ridotti, gestiti con attenzione e rigorosità. Ma se non destinati all’uso agricolo, che può effettivamente far storcere il naso a molti, le alternative sono discarica, riutilizzo per laterizi o incenerimento. E francamente non so quante persone di un pubblico generalista gradirebbero una qualunque di queste soluzioni.

E a volte mi piacerebbe che la parola fosse maggiormente lasciata a ricercatori o tecnici. Che possano ricordare ccome tutto si trasformi e non si distrugga, magari ricordandolo ai distratti, o a chi lo aveva studiato ed ora lo ha dimenticato.

Si veda anche:

http://www.de-gustare.it/fanghi-agricoltura-solito-caos-allitaliana/

https://www.ilgiorno.it/lodi/cronaca/fanghi-agricoltura-1.3505437

https://www.ilcittadino.it/cronaca/2017/03/17/inchiesta-fanghi-chiesto-il-processo-per-12-persone/UF2ldivngd1z4rjeRP9ix3/index.html

Oggi 25 aprile non ho testi.

In evidenza

Claudio Della Volpe

Non ho testi da pubblicare; eh si capita che il ritmo si rallenti, che le parole si fermino; e allora ci si rivolge al passato, ci si ferma a pensare .

Voglio ricordarvi qui due brevi poesie del nostro indimenticato cantore, Primo Levi; la prima la conoscete certamente è quella celeberrima, Shemà:

Ne trovate facilmente il testo completo, scritta il 10 gennaio 1946:

Voi che vivete sicuri
Nelle vostre tiepide case
Voi che trovate tornando a sera
Il cibo caldo e visi amici:
Considerate se questo è un uomo
Che lavora nel fango
Che non conosce pace
Che lotta per mezzo pane
Che muore per un sì o per un no.
Considerate se questa è una donna,
Senza capelli e senza nome
Senza più forza di ricordare
Vuoti gli occhi e freddo il grembo
Come una rana d’inverno.
Meditate che questo è stato:
Vi comando queste parole.
Scolpitele nel vostro cuore
Stando in casa andando per via,
Coricandovi alzandovi;
Ripetetele ai vostri figli.
O vi si sfaccia la casa,
La malattia vi impedisca,
I vostri nati torcano il viso da voi.
10 gennaio 1946

E’ la poesia della denuncia e dell’orrore, scritta nell’immediato del ritorno, piena di patos.

Ce n’è poi una seconda che sempre ha come titolo una parola ebraica, Bereshid, nel principio, la prima parola della sacra scrittura una poesia che Levi scrisse nel 1970 , in occasione della pubblicazione su Scientific American di un articolo sul Big Bang; stavolta sono passati 25 anni dall’orrore e piano piano l’occhio del poeta riesce a staccarsi da quel ricordo e ad ammirare la bellezze e la grandezza della natura; un inno materialistico ma pieno di amore per la natura, per la grandiosa immagine del Big Bang origine di tutto ciò che conosciamo.

Dunque l’alfa e l’omega, dall’orrore umano allo splendore maestoso dell’Universo.

Anche di questa si trova il testo su molte pagine web e dunque non temo di ripubblicarla qui (comunque mi scuso se sto violando una qualche regola), ma come si fa a limitare una poesia con la P maiuscola di un autore che è nel cuore di noi tutti?

 

Fratelli umani a cui è lungo un anno
Un secolo un venerando traguardo,
Affaticati per il vostro pane,
Stanchi, iracondi, illusi, malati, persi;
Udite, e vi sia consolazione e scherno:
Venti miliardi d’anni prima d’ora,
Splendido, librato nello spazio e nel tempo,
Era un globo di fiamma, solitario, eterno,
Nostro padre comune e nostro carnefice
Ed esplose, ed ogni mutamento prese inizio.
Ancora, di quest’una catastrofe rovescia
L’eco tenue risuona dagli ultimi confini.
Da quell’unico spasimo tutto è nato
Lo stesso abisso che ci avvolge e ci sfida,
Lo stesso tempo che ci partorisce e travolge,
Ogni cosa che ognuno ha pensato,
Gli occhi di ogni donna che abbiamo amato,
E mille e mille soli, e questa
Mano che scrive.

 

Levi scrive di tanto in tanto come poeta, “ ad ora incerta” , come titola la sua prima raccolta; e anche noi lo seguiamo in momenti incerti come questi che viviamo.

https://phys.org/news/2015-02-big-quantum-equation-universe.html