Informazioni su devoldev

chemist, university researcher, marxian, peakoiler,climate worried, bridge player, Mozart/Vivaldi loving, pedal biker

…per i miracoli ci stiamo attrezzando!

In evidenza

Claudio Della Volpe

Giorni fa il collega Gustavo Avitabile mi ha scritto una mail raccontandomi un episodio avvenuto nel contesto dell’Università di Napoli, dove sono nato e cresciuto; e dunque mi scuserete se, prendendomela a cuore, lo racconto anche a voi. Secondo Gustavo è off-topic sul blog, ma non credo.

Gustavo è un chimico molto bravo e ormai in pensione, si è occupato di raggi X e didattica al computer; ma è anche il Gustavo che insieme ad altri amici di Napoli, come Ugo Lepore, Pina Castronuovo, Guido Barone, Luciano Ferrara, Vittorio Elia hanno fatto di me quel che sono oggi, Gustavo (e Ugo) mi hanno anche fatto il primo esame (nell’estate di 50 anni fa! sono proprio vecchio). E dunque a questa intellettualità napoletana che ha fatto il 68 e ha ancora il buon gusto di indignarsi io devo questo post.

Di cosa parliamo?

L’Università Federico II fa una serie di conferenzedi cui vi mostro la locandina ed in una di queste il prof. Alessandro De Franciscis, 15° presidente dell’Ufficio delle constatazioni mediche di Lourdes, ha raccontato la sua esperienza e anche la storia di Lourdes. Conferenza indubbiamente brillante e vivace, come nella personalità del relatore, tipicamente partenopea, ma anche capace di far indignare Gustavo, perchè poco fondata scientificamente perchè di fatti si passa dalle remissioni spontanee ai miracoli senza soluzione di continuità e senza soprattutto metodo scientifico; la conferenza è visibile su YouTube, potete seguirvela, dura un’ora e mezza e capisco se vorrete farne a meno, ma è piacevole; una sera che non avete di meglio da fare vale la pena al posto del Festival di Sanremo o di altre amenità. Vedrete che la parte finale del titolo, la verifica, è mancata.

Vi accorgerete di quel che dice Gustavo; la conferenza parte bene, il relatore ricorda che le remissioni spontanee sono sempre esistite, ma si finisce male, con l’enumerazione dei 70 miracoli riconosciuti dalla Chiesa Cattolica. Ora è questo che Gustavo rimprovera all’Università di Napoli, con una mail inviata a tutti i colleghi che non è passata, che è stata censurata diciamo così, di non aver saputo garantire il contesto; solo un collega del pubblico, intervenuto a titolo personale il prof. Pignata ha fatto notare i punti deboli del relatore, la mancanza di elementi di controllo e verifica nell’approccio “miracolistico”, la mancanza di considerazione degli aggravamenti ingiustificati come delle remissioni spontanee.

Quel che nessuno ha detto bene e che forse Gustavo avrebbe voluto sentir dire lo dirò io qui.

Cosa sono i 70 miracoli riconosciuti di Lourdes o se volete anche i 7500 casi di guarigioni elencate ma non riconosciute come miracoli? Sono una parte della numerosa congerie di “remissioni spontanee” elencate per esempio in questa pagina:

https://noetic.org/research/projects/spontaneous-remission

E in questo libro scaricabile gratis: http://library.noetic.org/library/publication-bibliographies/spontaneous-remission

Si tratta di 3500 casi analizzati in dettaglio su 800 riviste pubblicate in 20 lingue, dunque al livello dei 70 miracoli, ma circa 50 volte di più. In fondo a Lourdes ci sono andati solo alcune decine di milioni di persone, ma sono una minima parte della popolazione mondiale.

Per quelli che hanno meno tempo consiglio il bel post della counselor in psicosomatica Luciana Giordo: https://www.psicosomatica.eu/remissioni-spontanee/ molto ben scritto o i riferimenti citati allla fine.

La remissione spontanea da malattie anche traumatiche normalmente inguaribili è un fenomeno ben documentato ma ancora non spiegato, nel quale elenco i 70 casi provati di Lourdes rientrano bene; dice la Giordo: se andate su Medline il numero di riferimenti per le chiavi di ricerca “spontaneous remission” o “spontaneous regression”, passa dai 10.603 del periodo 1966-1992 ai 20.502 attuali. Insomma ampio data base sul quale però lo studio non è altrettanto esteso; e questo è il limite della scienza. Le remissioni spontanee da malattie molto gravi (eccettuati i casi fasullli, gli errori, le diagnosi sbagliate etc.) sono non miracoli ma eventi rarissimi ed inaspettati ed al momento non spiegati.

L’interazione corpo-psiche è un argomento poco studiato; certamente c’è la chimica dietro, ma c’è anche un mistero: cosa è l’autocoscienza? Cosa rende noi e tanti altri animali coscienti di se stessi; cosa ci fa comunicare col nostro gatto o col nostro cane e rende noi capaci di guarire spontaneamente (la percentuale è ridottissima, 1/100.000 non vi illudete, se avete un tumore andate dal medico) e lui capace si di guardarsi allo specchio ma non riconoscersi? Non lo sappiamo. Dobbiamo studiarci e tanto.

http://www.treccani.it/enciclopedia/il-rapporto-tra-mente-e-cervello_(XXI-Secolo)/

Ecco questo è il punto; quale è la base materiale della coscienza e dell’autocoscienza e dunque di tutte quelle interazioni fra corpo e mente, per lo più inconsce, automatiche ma potentissime che sperimentiamo continuamente? Milioni di reazioni chimiche, migliaia di enzimi e di sequenze reattive, un “sistema” di reazioni complesse della cui complessità stiamo appena accorgendoci; questo è il cervello, la base fisica; ma la mente, il sistema informatico che è basato sul cervello, il programma che ci gira, il software se volete (so di essere impreciso, ma ci sta, non sono un esperto) dove sta e cosa fa, come comunica col resto, dove sta scritto? La scienza dei sistemi complessi, i meccanismi della retroazione che esploriamo tramite sistemi di equazioni differenziali non lineari, questo contesto che tende ad unire mente e cervello, la tomografia NMR unita alle neuroscienze se volete, questo è mancato nella conferenza, dando spazio al miracolismo; ognuno può pensarla come gli pare ed essere religiosi non è in contrasto per forza con il fare scienza, ma la cosa dovrebbe essere detta e distinta più chiaramente di quanto ha fatto De Franciscis (e ci sta, lui è dichiaratamente cattolico e dichiaratamente di parte) e soprattutto di come gli hanno consentito di fare l’Università di Napoli e anche l’intellighenzia partenopea, che invece dovrebbe essere garante e che a volte dimentica di aver fatto il ’99 e anche il ’68 e si riduce al più modesto presente.

Un’ultima considerazione per giustificare come mai questo apparente OT non sia poi OT; non solo per motivi generali, politici, I care, direbbe Vincenzo, io come intellettuale DEVO occuparmi della società e delle ricadute della scienza, ma anche per un motivo di merito; cosa è una remissione spontanea o se volete col linguaggio di De Franciscis un miracolo? E’ un evento inaspettato, un cigno nero, un accadimento NON LINEARE! Dunque di esso ci occupiamo con i metodi che conosciamo che usiamo per questo: i sistemi lontani dall’equilibrio come il nostro corpo e quello di ogni essere vivente o la biosfera sono proprio il luogo deputato agli eventi non lineari che studiamo con la retroazione, la dialettica, i metodi della termodinamica irreversibile, le equazioni differenziali; ecco perchè non siamo OT (Off Topic).

Bravo Gustavo per esserti indignato, ma non avevo dubbi; su Gustavo si può contare. Un abbraccio e un ricordo grato a te e agli altri chimici ribelli di Napoli (dei quali ho fatto parte e mi scuserà chi non è stato ricordato) da un ex studente.si veda anche: http://www.cicap.org/emilia/miracolo/

http://www.medbunker.it/2013/10/guarire-miracolosamente-o-spontaneamente.html

Precursori dell’Adenina nella sintesi abiotica nello spazio

In evidenza

Diego Tesauro

Tra le ipotesi sull’origine della vita terrestre nelle ultime decadi, ha avuto maggiori fautori l’ipotesi che i primi organismi viventi avessero alla base la molecola dell’RNA. L’RNA quindi avrebbe svolto il ruolo sia di catalizzatore delle reazioni nelle cellule che di trasmettitore dell’informazione. Solo successivamente la maggiore stabilità del DNA e delle proteine avrebbero portato alla sostituzione dell’RNA. Il mondo basato sull’RNA richiede la sintesi abiotica dei nucleotidi e la loro partecipazione nelle reazioni di replicazione dell’RNA non enzimatica. Entrambe le due funzioni mostrano delle criticità non risolte. In questo intervento mi vorrei focalizzare sulla sintesi dei nucleotidi in particolare di una delle basi, l’adenina, per cui di recente sono stati osservati alcuni precursori chiave nella sintesi.

Storicamente la presenza dell’adenina di origine extraterrestre, e quindi di sintesi abiotica, è stata rilavata alla fine degli anni sessanta nella famosa meteorite carbonacea di Murchison (https://it.wikipedia.org/wiki/Murchison_(meteorite)), fonte di innumerevoli molecole organiche di origine prebiotica. Una possibile via sintetica abiotica era già stata proposta da Oro et al. all’inizio degli anni sessanta in una pubblicazione sulla rivista Nature [1]. In questo schema la sintesi prevede la presenza del cianuro di idrogeno e l’ammoniaca come reagenti, verosimilmente presenti nell’atmosfera primordiale terrestre. Per poter spiegare la sintesi dell’adenina nelle nubi idi gas molecolare, da cui hanno origine per contrattazione gravitazionale i sistemi planetari, Chakrabarti ha proposto successivamente che l’adenina si possa formare attraverso l’oligomerizzazione di HCN nella fase gassosa in quattro fasi: HCN → H2C2N2 → NH2CH(CN)2 → NH2(CN)C = C(CN)NH2 → H5C5N5 in cui il primo step è una dimerizzazione del cianuro di idrogeno per dare la cianometanimmina [2] .

Figura 1 I due isomeri geometrici della cianometimmina

Figura 2 Sintesi attraverso due vie dei due isomeri geometrici della cianometimmina

Tuttavia, eseguendo calcoli teorici, negli ultimi decenni, la formazione del dimero di HCN, non sembra verificarsi in maniera efficiente nelle condizioni del mezzo interstellare (ISM). Pertanto il meccanismo di formazione e la possibilità di rilevare la molecola nelle nubi interstellari è di cruciale importanza per spiegare la formazione dell’adenina. La cianometanimmina presenta due diversi isomeri geometrici: l’isomero Z e l’isomero E (Figura 1). Pur essendo l’isomero Z più stabile dal punto di vista energetico fino ad oggi nell’ISM era stato rilevato solo l’isomero E. Solo recentemente è stata osservata la presenza di entrambi gli isomeri geometrici nella nube molecolare quiescente G + 0.693 del Centro Galattico mediante le osservazioni del radiotelescopio 30 m dell’IRAM sul Pico Veleta della Sierra Nevada in Spagna, nel dominio delle onde millimetriche [3]. Il rapporto osservato di abbondanza relativa tra i due isomeri [Z/E] è circa 6. Questo valore è estremamente maggiore rispetto a quanto previsto teoricamente dalle due vie di formazione chimica precedentemente proposte (in fase gassosa o sulla superficie dei grani di polvere della nube). Infatti la prima via prevede la reazione del radicale ciano con la metanimmina con formazione dei due isomeri nel rapporto 1.5 mentre l’alternativa, avente come reagenti il cianogeno e due atomi di idrogeno, mostra un rapporto nel prodotto tra gli isomeri intorno a 0,9 (Figura 2). Invece il rapporto [Z/E] osservato è in buon accordo con l’equilibrio termodinamico alla temperatura cinetica del gas (130-210 K). Poiché l’isomerizzazione non è possibile nell’ISM, le due specie potrebbero essersi formate ad alta temperatura. Nuovi modelli chimici, inclusa la chimica delle superfici su grani di polvere e reazioni in fase gassosa, dovrebbero essere esplorati per poter spiegare questi risultati. Qualunque sia il meccanismo di formazione, l’elevata abbondanza di Z-HNCHCN mostra che i precursori dell’adenina si sono formati nell’ISM. Ancora più recentemente è stata osservata per la prima volta anche la presenza di idrossiacetonitrile o glicolnitrile (Figura 3) in una protostella di tipo solare in formazione in IRAS 16293-2422 B, una zona della nebulosa oscura r Ophiuchi (Foto 1) [4]. La rilevazione è stata ottenuta mediante il radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array) in Cile (Foto 2), osservando a frequenze comprese tra 86,5 GHz e 266,5 GHz Sono state identificate in totale 15 transizioni di glicolnitrile.

Figura 3 Sintesi del Glicolnitrile e sue reazioni per produrre Adenina e Glicina

 

Foto 1 Il complesso Rho Ophiuchi cloud, una nebulosa oscura di gas e polveri localizzata ad 1° a sud dalla stella ρ Ophiuchi della costellazione dell’Ofiuco. Trovandosi a circa 131 ± 3 parsecs, (430 anni luce) è una delle zone di formazione di sistemi planetari più vicine al sistema solare.

Foto 2 Alcune delle antenne del Radiotelescopio interferometrico ALMA sull’altopiano di Chajnantor delle Ande cilene (https://www.eso.org/public/italy/teles-instr/alma/)

Anche questa molecola è coinvolta nella sintesi dell’adenina. Nel mezzo interstellare (ISM), il glicolnitrile potrebbe formarsi su superfici di grani ghiacciate attraverso la reazione tra formaldeide e cianuro di idrogeno. Questo composto, in presenza di ammoniaca e cianuro di idrogeno a pH basico, è in grado di accelerare il processo di sintesi dell’adenina. Inoltre in una miscela eutettica ghiaccio-acqua in presenza di ammoniaca, si può ottenere dal glicolnitrile la glicina. Quindi questa molecola gioca un ruolo chiave nella sintesi abiotica e nella chimica dei nitrili nell’ISM. Inoltre i dati mostrano la presenza della molecola sia nel core caldo interno che nell’involucro esterno freddo di IRAS16293 B, pertanto ci si può spiegare la sua presenza (e di composti organici quali la glicina) in oggetti appartenenti alle zone remote dei sistemi planetari come le comete e gli asteroidi. Molti punti restano però oscuri per cui è necessario condurre ulteriori esperimenti nonché elaborare dei modelling per avere una visione completa della chimica in fase gassosa a bassa densità e nelle interfaccia dei sistemi eutettici a bassa temperatura.

[1] J. Oro Mechanism of Synthesis of Adenine from Hydrogen Cyanide under Possible Primitive Earth Conditions Nature 1961, 1193-1194)

[2] S. Chakrabarti, S.K. Chakrabarti Astronomy and Astrophysics, 2000, 354, L6-L8 doi astroph/0001079

[3] V. M. Rivilla, J. Martín-Pintado, I. Jiménez-Serra, S. Zeng, S. Martín, J. Armijos-Abendaño, M. A. Requena-Torres, R. Aladro, D. Riquelme Abundant Z-cyanomethanimine in the interstellar medium: paving the way to the synthesis of adenine Monthly Notices of the Royal Astronomical Society: Letters, 2019, 483(1), L114–L119. doi 10.1093/mnrasl/sly228

[4] S. Zeng, D. Quénard, I. Jiménez-Serra, J. Martín-Pintado, V M. Rivilla, L. Testi, R. Martín-Doménech First detection of the pre-biotic molecule glycolonitrile (HOCH2CN) in the interstellar medium Monthly Notices of the Royal Astronomical Society: Letters, 2019, 484(1), L43–L48. doi:10.1093/mnrasl/slz002

 

 

La chimica di Star Trek

In evidenza

Claudio Della Volpe

Alla base della tecnologia di Star Trek c’è una macchina che si vede poco ma che giustifica allo spettatore attento tutte le incredibili cose che si possono fare sulle astronavi della Federazione (dei Pianeti Uniti, che lasciatemi dire, oggi a due minuti dalla mezzanotte nucleare, è ancora più incredibile del resto): il replicatore.

Do per scontato che abbiate anche solo sentito nominare Star Trek anche se non siete appassionati di fantascienza; io sono un lettore di fs da sempre, da quando ho letto Dalla Terra alla Luna; in realtà lo sono diventato nel tempo passando dalla fs ingenua, ipertecnologica degli anni iniziali a quella mano a mano più sottile, psicologica e intelligente, una vera letteratura fantastica, ma mica tanto, che aveva attratto anche persone come Primo Levi.Bene, alla base dell’universo di Star Trek c’è una macchina fantastica che è in grado di ricostituire qualunque oggetto le sia richiesto o che abbia in memoria usando la sua capacità di trasformare energia in materia e formarla a partire dagli atomi e dalle molecole sintetizzate; anche se la riproduzione non è esattissima per evitare di poter sintetizzare esseri viventi dal nulla; un limite etico che richiama le 3 leggi della robotica di Asimov. Nell’universo di ST questo avviene solo quando si teletrasportano esseri già viventi, senza crearli ex-novo. Fa anche il contrario ritrasformando in energia qualunque materia e dunque costituendo un perfetto dispositivo di riciclo. Dunque dovremmo farne una sorta di “santo Graal” del blog.

Senza il replicatore le astronavi della Federazione avrebbero ben poco spazio dovendo trasportare cibo e ricambi; anche l’aria viene ricreata e riciclata dal replicatore, eliminando così molti problemi delle nostre piccole astronavi planetarie.

Il replicatore di ST è basato sulla medesima fisica immaginaria che permette di trasferire le persone e le cose da un punto all’altro dell’universo.

Quando furono inventate le stampanti 3D ci fu chi fece un parallelo fra il replicatore di ST e la nuova tecnologia; ovviamente le stampanti 3D sono una grande idea, ma molto lontana dal replicatore; ma si sa gli inventori non stanno a guardare e se non sanno che una cosa è impossibile è meglio.

Necessario ricordare poi che se dietro Star Trek c’è una fisica (ci hanno anche scritto un libro), dietro le applicazioni reali c’è una chimica molto bella.Sull’ultimo numero di Science è stato pubblicato un articolo che racconta di una nuova tecnologia di stampa 3D che manda in soffitta quella presente (eh si chi ha appena comprato una stampante 3D ci rimarrà male) e apre un intero mondo; la nuova tecnologia consente di stampare in blocco, non a strati, oggetti di forma complessa, anche se inglobano altri oggetti e con una superficie molto ben rifinita: il tutto è controllato da una reazione fotochimica e dalle proprietà fotochimiche del materiale usato, che è un polimero. La stampante è basata su un dispositivo che proietta radiazione in quantità ben controllata nello spazio in cui è contenuto un polimero liquido e fotosensibile; man mano che nell’intervallo di pochi minuti la radiazione si accumula nel liquido in opportuna quantità nelle diverse zone del volume di controllo, si inizia una reazione di polimerizzazione che si conclude rapidamente, a questo punto il polimero non reagito viene eliminato per semplice aggiunta di solvente ed aspirazione e rimane l’oggetto che ci serve. Idea semplice e potente. L’acronimo della nuova tecnica è CAL, Computed Axial Lithography; ci avrei visto bene Tomography, perchè ricorda l’inverso della tomografia; nella tomografia NMR o X le radiazioni consentono di ricostruire la forma dell’oggetto, mentre qui la radiazione consente di costruire l’oggetto, casomai analizzato prima con la tomografia.Il primo oggetto stampato è stato “Il pensatore” di Rodin.

Nature battuta dalla eterna rivale si rifà descrivendo magistralmente la tecnologia:

As the projector cycled through the images, which covered all 360 degrees, the container rotated by a corresponding angle. “As the volume rotates, the amount of light received by any point can be independently controlled,” says Taylor. “Where the total amount exceeds a certain value, the liquid will become solid.”This is because a chemical in the resin absorbs photons and, once it reaches a certain threshold, the acrylate undergoes polymerization — the resin molecules link together into chains to make a solid plastic.

La nuova tecnologia oltre a vantare una superficie finale di altissima qualità può anche usare polimeri senza adattatori di viscosità che servono al flusso nell’ugello della matrice; tutte tecniche ormai da gettar via; dalla luce all’oggetto grazie ad una chimica sofisticatissima. La radiazione generata dal proiettore mentre il contenitore del polimero ancora “liquido” ruota consuma poco a poco l’ossigeno che fa da scavenger ai radicali prodotti; appena la soglia di ossigeno scende la polimerizzazione parte veloce e da luogo all’oggetto così, tutto in una volta, come per magia; osservate il filmato .gif che non ho riprodotto sul blog per motivi di proprietà, ma che potete gustarvi sul sito di Nature. Si possono inglobare materiali di altro genere senza problemi. Il polimero usato è stato ottenuto da una miscela delle sostanze denominate comunemente BPAGDA e PEGDA (3:1) con una viscosità di circa 5200cp. Il fotoiniziatore che è l’antenna che permette di “accumulare” la luce in arrivo integrandone gli effetti è il canforchinone (CQ) (che si usa nelle polimerizzazione dentarie) insieme con l’etil 4-dimetilamminobenzoato (EDAB).canforchinone

BPAGDA

PEGDA

La fotochimica e la chimica dei materiali trasformano un sogno in realtà; speriamo che sia usato bene.

PS (Un sogno lo aveva anche Prince Jerry, giovane immigrato economico, laureato in chimica nel suo paese, ma si è infranto sui binari di Tortona.)

Donne da ricordare e cose da ricordare per le donne (e per gli uomini).

In evidenza

Claudio Della Volpe

Nei numerosissimi post pubblicati in questo blog e scritti da Rinaldo Cervellati, dedicati alle donne scienziate che avrebbero potuto vincere il Nobel od avere comunque un ruolo di primo piano in ambito scientifico si è evidenziato ripetutamente il percorso difficile e lungo che si è seguito a partire dalla metà dell’800 fino ad oggi (non è ancora terminato) verso una effettiva parità delle opportunità di genere.

In occasione del 27 gennaio, giornata della memoria, quest’anno riprendiamo dall’oblio i nomi di alcune donne che si occuparono di Chimica nei momenti più bui per il nostro paese.

L’oscurità per le donne era cominciata presto, appena dopo la conquista del potere da parte del movimento fascista. Basta guardare la sequenza legislativa.

Negli anni fra il 1900 e il 1919 era iniziato, a partire dalla cosiddetta legge Carcano un percorso di emancipazione:

la legge 242/1902 che introduce il congedo di maternità, limita a dodici ore giornaliere l’orario massimo di lavoro per la manodopera femminile, vieta alle donne i lavori sotterranei e proibisce l’impiego delle minorenni nel lavoro notturno e per mansioni pericolose e insalubri;

fu seguita dal Regio decreto 1905 che apre alle donne l’insegnamento nelle scuole medie; dalla legge 816/1907 che vieta alle donne il lavoro notturno in ottemperanza alla convenzione di Brema del 1906;

poi la legge 520/10 che Istituisce la Cassa di Maternità per dare un sussidio fisso uguale per tutte durante il congedo obbligatorio

ed infine la Legge 1176/1919, la legge Sacchi, che cancella l’autorizzazione maritale e ammette le donne ad esercitare tutte le professioni, escluse quelle che «implicano poteri pubblici giurisdizionali o l’esercizio di diritti e di potestà politiche o che attengono alla difesa militare dello Stato»

Anna Maria Mozzoni antesignana dell’emancipazione della donna in Italia

Anna Kuliscioff

Maria Montessori

Eleonora Duse

Questo percorso emancipativo si interrompe bruscamente con il potere fascista; il governo più lungo nella storia dell’Italia unita, rimane in carica dal 31 ottobre 1922 al 25 luglio 1943; e già nel 1923 il neoministro Gentile realizza una famigerata riforma rimasta in vigore anche ben dopo la caduta del fascismo; in quella legge,

Regio Decreto 1054/1923, la cosiddetta Riforma Gentile (quella che ha escluso i chimici dall’insegnamento di Chimica nei licei) si inizia a proibire alle donne la direzione delle scuole medie e secondarie;

col Regio Decreto 2480/1926 si continua proibendo alle donne l’insegnamento della filosofia, della storia e dell’economia nelle scuole secondarie;

con le scelte economiche deflazionistiche che portarono alla cosiddetta quota 90 nel cambio si aumentarono le tasse del 20% sui salari e il 20 gennaio 1927 furono dimezzati con un decreto i salari femminili. Dopo l’instaurarsi delle crisi economica mondiale del 1929 la situazione portò ad ulteriori restrizioni per il lavoro femminile; nel 1933 al culmine della crisi si vietò alle donne (e ai pensionati) in cerca di occupazione di iscriversi nelle liste di collocamento. Negli anni successivi la pubblica amministrazione potè discriminare le donne nelle assunzioni, escludendole da una serie di pubblici uffici (Legge 22/1934) ed il Regio Decreto 15/10/1938, che vieta ai datori di lavoro pubblici e privati di assumere più del 10% di donne. Esclusi solo i lavori considerati particolarmente “adatti” alle donne. Tutte queste scelte restrittive oltre alle motivazioni economiche avevano come scopo di rafforzare l’idea che il compito delle donne era quello di stare a casa e fare e crescere i figli. In quindici anni, dal 1921 al 1936, la percentuale delle donne che svolgevano attività extradomestiche passò dal 32,5 per cento al 24 per cento. ( da L’avventurosa storia del femminismo di Gabriella Parca Arnoldo Mondadori Editore S.p.A. – Milano – Prima edizione Collana Aperta maggio 1976)

Marussia Bakunin, figlia di Mikail e zia di renato Caccioppoli

C’è da ricordare che nel 1925 le donne ebbero la possibilità di votare nelle elezioni locali; ma tali elezioni vennero eliminate l’anno successivo. Dovettero aspettare il 1945 per avere il diritto di votare alle politiche.

E’ questo il quadro in cui dobbiamo valutare la forza di carattere e l’impegno profuso da quelle donne che nonostante tutto studiarono e si laurearono impegnandosi nell’insegnamento e nella ricerca.

Ricordiamo qui quattro casi che hanno a che fare con le discriminazioni ebraiche ma che non sono gli unici casi di donne discriminate ovviamente.

I testi sono stati estratti da un sito molto bello dedicato alle donne nella scienza che vi invito a leggere:

http://scienzaa2voci.unibo.it/

Vita Nerina (chimica) a Bologna;

Nerina Vita nacque a Bologna il 29 settembre 1891. Frequentò l’istituto tecnico “Pier Crescenzi”, ottenendo la licenza fisico-matematica con sessantaquattro punti su ottanta il 25 ottobre 1909. Nel 1910 si iscrisse alla Facoltà di scienze matematiche, fisiche e naturali dell’Università di Bologna, laureandosi il 14 novembre 1914, in chimica pura, con la tesi: Sulla trasformazione degli alcaloidi (studio sul seme del lupino) (108/110). Suo relatore fu il noto chimico Giacomo Ciamician.

Nell’anno accademico 1914-15, dopo la laurea in chimica, si iscrisse alla Facoltà di farmacia del medesimo Ateneo. Il 30 gennaio 1916 scrisse poi una lettera al rettore sottoponendogli la propria domanda di congedo per trasferirsi nella stessa facoltà a Parma, città ove era allora domiciliata in quanto assistente nel laboratorio di chimica di quella università. Nel 1934 ottenne l’abilitazione alla libera docenza: a quel tempo era aiuto presso la cattedra di chimica industriale nella Scuola superiore di chimica industriale di Bologna. L’anno successivo passò un brevissimo soggiorno presso la Stazione zoologica di Napoli per apprendere la cosiddetta ‘tecnica Warburg’ per la misurazione del consumo di ossigeno nelle cellule.

Nel 1939, a seguito delle leggi razziali, venne dichiarata decaduta dall’insegnamento. Con la sorella Elda si recò allora clandestinamente in Svizzera: tornò in Italia solo alla fine della guerra. Venne riammessa all’insegnamento il 7 giugno 1945.

Tra il 1959 e il 1960, la direzione della pubblica istruzione la sollecitò affinché regolarizzasse la sua posizione di libera docente; Nerina rispose di non aver proceduto a causa delle proprie condizioni di salute malferma.

Clara Di Capua Bergamini (chimica) a Firenze;

Allorquando, nel 1938, le leggi razziali promulgate dal regime fascista privarono i cittadini italiani di origine ebraica dei diritti civili  e politici, Clara Di Capua era aiuto ordinario di chimica analitica, libero docente di chimica generale nonché professore incaricato di chimica applicata presso la Facoltà di medicina dell’Università di Firenze. In quanto ebrea e nonostante si dichiarasse aconfessionale fu estromessa dal proprio incarico. A nulla valse la sua operosità scientifica per la quale un anno prima era stata premiata.  Aveva sposato Mario Bergamini, libero docente di odontoiatria nel medesimo ateneo. Nel 1944 venne reintegrata come incaricato, libero docente e aiuto.

Angelina Levi (farmacologia) a Modena;

Nata ad Ancona il 10 maggio 1892 da Guido e Sara Carola Castelli, nel 1929 entrò in qualità di aiuto ordinario e libera docente di farmacologia e tossicologia nell’Istituto di farmacologia dell’Università di Modena, diretto da G.M. Piccinini. Nel 1931 fu ammessa nella Società dei naturalisti e matematici di Modena. Qui esordì con una comunicazione tenuta il 30 gennaio circa le proprietà curative di un principio chimico, la periplocina, estratto da una pianta asclepiadea assai diffusa in Italia ma ancora poco studiata, la Periploca graeca; principio che, sembrava, potesse essere validamente usato nella cura delle affezioni cardiache.
Lo studio degli effetti di droghe digitaliche sul sistema cardio-circolatorio fu al centro di altre due comunicazioni, entrambe pubblicate nel 1933 negli «Atti» della Società, relative ad una sostanza estratta da una pianta del genere Acokanthera, proveniente dalla Somalia, e fatta pervenire al laboratorio di Modena, per le necessarie analisi tossicologiche, dall’Istituto di patologia coloniale. I risultati evidenziarono la presenza di principi cardioattivi, le strofantidine, da utilizzare come farmaco naturale.
Le indagini farmacognostiche e chimiche rappresentavano, infatti, il filone principale delle  ricerche della Levi, la quale si era altresì occupata di sperimentazione animale allo scopo di verificare gli effetti della somministrazione di preparati iniettabili a base di ferro, piombo e zinco in organismi affetti da neoplasie. L’idea di fondo era quella di controllare la risposta del sistema reticolo endoteliale (un insieme di cellule del sistema immunitario) al quale, correttamente, si attribuiva un’azione di difesa dell’organismo. Ne erano scaturiti un paio di lavori, rispettivamente del 1928 e del 1930, pubblicati sull’«Archivio di farmacologia sperimentale e scienze affini» e «Arch. Inter. de Pharmacod. et de Therap. ».
Aveva quindi testato l’azione dell’arsenico in una serie di sperimentazioni analoghe di cui diede notizia nel 1935 anche sul «Bollettino della Società medico chirurgica di Modena».
Nello stesso anno erano pure uscite, nelle pagine del «Bollettino della Società italiana di biologia sperimentale», altre due note nelle quali esponeva i risultati di ricerche istologiche compiute sugli apparati nervosi terminali del muscolo gastrocmenico (il più superficiale dei muscoli della regione posteriore della gamba) di rane sottoposte ad una intossicazione cronica da glicerina, stricnina e curaro. Due anni dopo, aveva raccolto dati anche rispetto alla caffeina e alla nicotina e proceduto ad un esame comparativo degli effetti istologici di questi cinque farmaci.
La sua attività, spesso condotta in collaborazione con allievi interni dell’Istituto, venne bruscamente interrotta nel 1938, allorquando, a causa delle leggi razziali promulgate dal regime fascista fu radiata dall’Università di Modena per la sua origine ebraica. Come conseguenza indiretta del provvedimento assunto dall’ateneo, ovvero in assenza di una precisa disposizione del Consiglio direttivo, perse la qualifica di membro della Società dei naturalisti e matematici, ove,  su proposta del presidente Giorgio Negodi e all’unanimità, fu reintegrata nel 1945.
Negli anni seguenti partecipò attivamente alla vita della Società ricoprendo all’interno del Consiglio di presidenza la carica di revisore dei conti dal 1951 al 1955; indi, di consigliere fino al 1957. Continuò altresì a pubblicare negli «Atti»: nel 1948 riferì sulle proprietà analgesiche dei derivati della Cannabis; mentre, nel 1949  illustrò l’azione di alcune sostanze farmacologiche (mianesina, tionarcon, stricnina) sull’attività colinesterasica del tessuto nervoso centrale e del sangue.

Ada Bolaffi (chimica biologica) farmacista

Questo nome è presente su internet come quello di una donna chimica che subì gli effetti della legge del 1938 sulla discriminazione antiebraica, ma non ci sono dati biografici precisi; è anche elencata in nota nell’articolo di Albini e Vita-Finzi citato in fondo; laureata a Firenze fu libera docente a Milano; chi ne sa di più?

 

Aggiungerei un altro nome, ricordato dal bell’articolo di Albini e Vita-Finzi, che sono due soci della SCI, sul tema generale degli effetti delle leggi razziali del 1938; in quell’articolo si testimonia come la collettività ebraica e le donne reagirono alle nuove limitazioni; l’articolo, che è liberamente scaricabile al link qui sotto, ricorda fra l’altro la storia esemplare di Lia Foà che studiò nei corsi organizzati dalla comunità ebraica e completò gli studi universitari prima a Losanna e poi a Pavia e che testimonia della volontà di reagire della comunità ebraica e delle donne.

Ed infine, anche se non era una chimica, ricordo qui Enrica Calabresi, zoologa a Ferrara, che per non farsi deportare si suicidò.

In questo post non ci sono fotografie delle donne citate perché non ne ho trovate.

Riferimenti.

https://womenforwomenitaly.com/donne-leggi-dal-1902-ad-oggi/

http://www.memorieincammino.it/file/2017/01/Una-storia-poco-nota.-Le-leggi-razziali-e-la-chimica.-Milano-1941-di-A.Albini-e-P.Vita-Finzi.pdf

http://scienzaa2voci.unibo.it/

https://www.storiadifirenze.org/?temadelmese=ottobre-1938-lespulsione-dei-docenti-ebrei-dalluniversita-di-firenze

Economia circolare, fonti energetiche rinnovabili, cambiamento di stile di vita ….

In evidenza

Fabio Olmi*

 … tra indispensabile praticabilità reale e qualche “ma” tecnico (**).

Ormai non passa giorno che non compaiano sui giornali articoli sulla economia circolare, il riciclo dei materiali e la sostituzione delle energie di origine fossile con quelle rinnovabili. Questo sarebbe positivo e indice di aumento della sensibilità per tematiche di assoluta importanza per alimentare uno sviluppo sostenibile e cercare di combattere il riscaldamento globale, peccato che spesso si generalizzano situazioni al di là del possibile o peggio si contrabbandino idee sbagliate.

Il riciclo dei materiali

Affrontiamo brevemente la prima tematica. La promozione dell’economia circolare e la massimizzazione della raccolta differenziata dei rifiuti è senz’altro una pratica da spingere al più elevato tasso possibile[1], tuttavia la separazione di carta, plastiche, vetro e umido (organico), ciascuna incanalata nella propria filiera di recupero, non può mai esaurire tutto il materiale di rifiuto e sarà sempre accompagnata da una frazione NON differenziabile e, al momento, non più riciclabile. E anche nel recupero delle altre frazioni differenziate si ha sempre al loro interno una parte di materiale non più riciclabile e quindi non reimpiegabile all’interno delle singole filiere. Questo non sembra essere sufficientemente noto. Facciamo alcuni esempi.

Nella zona di Lucca sono ampiamente diffuse varie industrie per la fabbricazione della carta[2]. Ebbene anche questo materiale, che potrebbe sembrare riciclabile al 100%, comporta un residuo allo stato attuale non riciclabile: si tratta di vari tipi di rifiuti della lavorazione di polpa, carta e cartone che dipendono dal ciclo di lavorazione. Il Codice Europeo dei Rifiuti (CER) [3] indica, ad esempio, scarti della separazione meccanica nella produzione di polpa da rifiuti di carta e cartone, fanghi prodotti dai processi di disinchiostrazione del riciclaggio della carta , ecc. Un recente articolo apparso su La Repubblica[4] mette in evidenza il problema e l’industria locale ha progettato un termovalorizzatore per il recupero almeno energetico di quest’ultima frazione. Tuttavia l’opposizione dell’opinione pubblica ne ha bocciata la realizzazione. Dove vengono smaltiti gli scarti di produzione? Per ora per la maggior parte continuano ad intasare i depositi delle varie industrie. Di recente, dopo alcuni anni di ricerca e sperimentazione, il gruppo Sofidel[5] ha messo in produzione un materiale che sfrutta una frazione dei rifiuti di lavorazione della carta per produrre, miscelandoli con plastiche di riciclo, pancali. Il 12% del materiale di impasto è formato da residui della lavorazione della carta: speriamo che questo sistema consenta un buon riciclo di almeno parte di tali residui e che la ricerca consenta in futuro di aumentare sempre più il riciclo.

Altro esempio è il caso del tessile a Prato (il distretto tessile pratese è il più grande d’Europa e conta circa 7000 imprese di cui 2000 nel tessile in senso stretto: tessuti per l’industria dell’abbigliamento, filati per la maglieria, tessuti per l’arredamento, ecc.)       e il problema qui è diventato più acuto quando gli scarti del tessile, pari a circa 50.000 tonnellate annue, sono stati riclassificati da Rifiuti Solidi Urbani (RSU) a Rifiuti Speciali (RS) e gli impianti per smaltimento di RS in Toscana mancavano e mancano. Questi rifiuti sono di vario tipo (Codice CER 04): rifiuti da materiali compositi (fibre impregnate, elastomeri, plastomeri), materiale organico proveniente da prodotti naturali (ad es. grassi e cere), rifiuti provenienti da operazioni di finitura contenenti solventi organici, rifiuti da fibre tessili grezze, ecc.[6] È chiaro che, a parte criminali che hanno imboccato scorciatoie illecite, le aziende serie hanno trasportato i rifiuti finali della lavorazione all’inceneritore di Brescia o Terni o addirittura in Austria e i costi di smaltimento, ad esempio, dei ritagli e della peluria, sono raddoppiati, mettendo in crisi molte aziende. La peggiore soluzione per lo smaltimento di rifiuti classificabili come RSU (come quelli delle cartiere) è quella, largamente diffusa nel nostro paese, di gettarli in discarica. Invece anche questa frazione potrebbe essere valorizzata ricavando da essa energia in appositi impianti di termovalorizzazione. Marcello Gozzi, Direttore di Confindustria Toscana Nord, sostiene che non c’è economia circolare senza termovalorizzazione che trasforma in energia lo scarto ultimo del riciclo[7]. In questo modo si avrebbe come residuo finale solo una piccola quantità di ceneri. C’è chi sostiene che questo processo risulterebbe inquinante per l’aria e dunque per l’ambiente e per la salute. Esistono però ormai molti esempi di termovalorizzatori realizzati anche in centro di città come Vienna e, per rimanere in Italia, Brescia[8] che, fatti funzionare opportunamente a determinate temperature e

Fig.1 Schema di un sistema di economia circolare

con moderni sistemi di depurazione dei fumi, rendono estremamente bassi gli inquinanti nei fumi di scarico. Concludendo, non è sufficiente fare la sola differenziata e riciclare le singole frazioni differenziate: anche nel caso dell’attuazione integrale dell’economia circolare si avrà sempre una frazione finale di rifiuti , sia pure piccola, non più riciclabile.

Sfruttando un’immagine particolarmente chiara di questo processo riporto una figura (Fig.1) presente in un bellissimo, ampio e ben documentato articolo del prof. Vincenzo Balzani dell’Università di Bologna apparso recentemente sull’organo ufficiale della Società Chimica Italiana,“La chimica e l’industria”[9]. Anche se non riusciremo a sfruttare anche quest’ultima frazione dei nostri residui e dovessimo ricorrere all’uso della discarica questa accoglierebbe quantità di residui estremamente ridotte. Non c’è dubbio, infine, che nella costruzione dei nostri manufatti di ogni tipo, si dovrà prestare sempre maggiore attenzione a rendere facilmente separabili e recuperabili i componenti di natura diversa (metallo, plastica, vetro, ecc.) con cui vengono costruiti.

Le energie rinnovabili

Affrontiamo brevemente la seconda tematica. Le fonti di energia rinnovabile costituiscono la risposta al problema della disponibilità di energia sostenibile al più basso impatto inquinante e c’è chi sostiene che esse potrebbero soddisfare l’intero fabbisogno energetico dei vari Paesi sostituendo completamente i combustibili fossili (carbone, petrolio, gas naturale). Sempre nell’articolo precedentemente citato, il professor Balzani, dopo ad aver messo in chiara evidenza le difficoltà connesse alla transizione energetica dai combustibili fossili alle energie rinnovabili (e aggiunge dall’economia lineare all’economia circolare e dal consumismo alla sobrietà) riporta lo studio dettagliato fatto da M. Z Jacobson (e collaboratori) della Stanford University denominato WWS (wind, water, sunlight) che, in sintesi, sostiene che le energie rinnovabili possono sostituire completamente le fonti fossili entro il 2050 e presenta una roadmap di transizione per 139 paesi del mondo, compresa l’Italia, molto più spinta di quelle previste dagli accordi di Parigi[10]. Sostituire come sorgenti di sola energia le fonti fossili non è solo possibile ma è necessario promuoverlo sempre più rapidamente, stante i problemi causati da queste fonti fossili come cause principali del riscaldamento generale del pianeta e come inquinanti e pericolose per la nostra salute: può essere assunto a testimone di questi fatti il bel libro uscito recentemente del climatologo Luca Mercalli [11]. E’ scientificamente provato che, nella produzione di energia elettrica, si possono eliminare i combustibili fossili (centrali termiche di diverso tipo) e l’energia elettrica può alimentare vari altri processi compreso quello della mobilità, almeno sulla terra e, come risulta da alcune sperimentazioni fatte, anche via mare. Ma c’è di più: è notizia di questi giorni [12] che il gruppo Maersk, il colosso danese dei supercontainer, sarà carbon free entro il 2050. L’articolo di Luca Pagni prosegue : il gruppo ha annunciato che entro il 2030 sceglierà la tecnologia più appropriata per raggiungere emissioni zero e riporta il comunicato della società: “Non solo i governi, ma anche le imprese devono dare il loro contributo per contribuire a combattere il climate change”. Per sottolineare l’importanza della decisione è bene tener presente che l’80% delle merci viaggia per il mondo via mare e la sola nafta per uso marittimo contribuisce al 3% delle emissioni globali. Sembra invece assai problematico che i possibili sviluppi delle tecnologie portino alla sostituzione dell’attuale mobilità via aerea: come si possono rimpiazzare vantaggiosamente i reattori dei nostri attuali aerei? Il problema è ancora del tutto aperto.

Alcuni “ma”….

Fin qui alcuni aspetti propositivi per agire con successo sulle problematiche trattate. A questo punto ci sono però alcuni ma: che cosa succede per esempio in due essenziali processi industriali di base come quello per la produzione del cemento e quello per la produzione del ferro?

Il cemento rappresenta il materiale di più elevata produzione al mondo e anche l’Italia partecipava in ampia misura a questa produzione: abbiamo usato l’imperfetto perché il nostro Paese, a fronte di una produzione di 46 milioni di tonnellate nel 2006 [13], dopo la crisi del 2008, ha drasticamente ridotto la produzione e i dati del 2017 indicano un calo di oltre il 60% di questa produzione. Questo drastico ridimensionamento ha determinato la chiusura di molti impianti e la perdita del 30% di occupati. Nonostante questa situazione, che ancora non accenna a modificarsi, il cemento resta un prodotto di base indispensabile per gran parte dell’industria.

Il cemento viene prodotto con apposite apparecchiature in cementifici. Il materiale di partenza è costituito da una miscela opportunamente dosata di calcare e argilla che viene frantumata e omogeneizzata e immessa, dopo un preliminare riscaldamento, in un lungo tubo rotante inclinato riscaldato dalla combustione di rifiuti e/o carbone (l’impiego del gas metano non è economicamente conveniente in Italia). Portando la temperatura a circa 1450°C la miscela di rocce calcina e si trasforma in clinker di cemento (essenzialmente silicati di calcio). Dove si usa metano si potrà sostituire questo con biogas ottenuto dalla fermentazione di recuperi organici, ma la combustione è comunque necessaria allo sviluppo del processo: è impensabile che questo, almeno allo stato attuale della tecnologia, possa essere alimentato dall’elettricità.

C’è poi un altro processo industriale essenziale in cui la disponibilità energetica termica è connessa strettamente a trasformazioni chimiche indissolubilmente legate a combustibili fossili. Com’è noto in un altoforno viene introdotta una carica formata da minerale e carbon coke e un altoforno non potrà mai essere alimentato con energie rinnovabili o da elettricità da esse ricavata; cerchiamo di capire perché. La disponibilità del metallo più impiegato nell’industria, il ferro, è legata alla trasformazione dei suoi minerali che contengono ossigeno (in genere sono ossidi) e questo va da essi sottratto per ottenere il metallo come tale. Ebbene, la trasformazione in questione avviene in presenza di carbonio e quindi l’uso del carbone (coke) nell’altoforno non ha solo la funzione di raggiungere la necessaria temperatura di fusione del ferro ma, con un processo chimico combinandosi con l’ossigeno, rende possibile l’estrazione del ferro dai suoi minerali (con produzione di CO2).

Per la produzione di acciaio si utilizzano su ampia scala anche forni elettrici che impiegano rottami di ferro per produrre nuovamente acciaio. L’elettrosiderurgia in Italia produceva oltre 16 milioni di tonnellate di acciaio su un totale di 26,8 milioni di tonnellate e rappresentava il 62% dell’intera produzione[14]. Con la crisi dell’ILVA e la chiusura dell’altoforno di Piombino, oggi la produzione di acciaio in Italia si aggira sui 24 milioni di tonnellate e l’elettrosiderurgia ha aumentato la sua percentuale di produzione: l’Italia insieme alla Spagna costituisce il Paese a maggior produzione di acciaio con forni elettrici in Europa (in Germania la produzione da altoforno copre circa il 70% e quella da forni elettrici il 30% e su percentuali del genere si aggirano anche paesi come la Francia e il Regno Unito). E’ chiaro che questi forni si possono utilizzare solo come mezzi per riciclare il ferro di risulta da demolizioni di navi, treni, macchine, ecc., ma non potranno rimpiazzare gli altiforni nella produzione del metallo ferro dal minerale. C’è poi da tener presente che esistono due colli di bottiglia nell’impiego dei rottami di ferro: il primo è quello della impossibilità di far fronte alle richieste con una capacità di fornitura di rottami variabile e praticamente impossibile da programmare; il secondo è che il recupero non è di fatto del ferro ma di acciai di vario tipo che contengono elementi secondari (Ni, Cr, Mo, ecc.) e questi rendono difficile, se non talvolta impossibile, la loro separazione per ottenere il nuovo acciaio[15].

Nel tentativo di superare la produzione di acciaio dal minerale con altiforni si è venuto sviluppando una nuova tecnologia di estrazione del ferro, quella della produzione di “ferro ridotto” (sigla inglese di ferro ridotto diretto, DRI) cioè del cambiamento che il minerale di ferro subisce quando viene riscaldato in forno ad alte temperature (inferiori però a quella di fusione del ferro) in presenza di gas ricchi di idrocarburi (essenzialmente metano), come si evince da una bibliografia segnalatami gentilmente dal collega Della Volpe [16]. Si ottiene in questo modo un prodotto solido in grumi che solitamente viene compresso in bricchette (Fig.2) prima del raffreddamento e costituisce il prodotto commerciale

Fig. 2- Bricchette di ferro

chiamato HBI. In altre parole, ecco il nostro secondo ma…, si può eliminare il carbone coke sostituendo l’altoforno, ma non il carbonio dei gas riducenti necessari per produrre DRI e questi sono sempre fonti di energia fossile. Si sono anche messi a punto nuovi processi di “fusione diretta” in cui si riduce l’ossido di ferro del minerale direttamente a ferro metallico in uno stato fuso con ottenimento di un prodotto simile a quello dell’altoforno. Tra questi tipi di processi , di cui alcuni sono attivi in Sud Africa e in Australia) ricordiamo quello Corex che parte da minerale e da carbone (senza produzione di coke, che costituisce uno dei processi più inquinanti della tecnologia dell’altoforno). Il carbone viene gassificato e la produzione di vari gas, tra cui CO e H2, costituiscono la componente riduttiva del minerale: la riduzione diretta fornisce ghisa liquida simile a quella di altoforno. Anche eliminando gli altiforni, la trasformazione del minerale in ferro comporta sempre l’uso di carbone o gas naturali, ribadendo il concetto sottolineato in precedenza: per passare dal minerale di ferro all’acciaio è comunque necessario l’impiego di carbone o di gas naturale.

Tenendo presente le eccezioni dei due processi ricordati, per attuare la transizione dall’economia lineare a quella circolare e per la sostituzione delle energie di fonte fossile con quelle rinnovabili, per evitare il rapido riscaldamento del pianeta, saranno necessari interventi mirati di orientamento e stimolo di tipo politico sostenuti da altri di natura economico-finanziaria e profonde modifiche nel modello di sviluppo consumistico per orientarlo verso un modello meno energivoro e sostenibile basato sulla sobrietà.

Infine, è ormai chiaro che un elemento indispensabile al raggiungimento di un’economia circolare, sia legato al comportamento responsabile e adeguato di ciascuno di noi: ogni singolo nostro atto che vada incontro a una accurata differenziazione dei rifiuti e al responsabile utilizzo delle energie necessarie alla nostra vita dovrebbe essere attuato e promosso là dove è possibile. In questo campo mi ritengo fortunato perché, con la mia professione di insegnante di scuola secondaria di secondo grado, sono riuscito a interagire con molti studenti e sensibilizzarli sui temi ambientali, aumentando sicuramente la loro consapevolezza dell’esigenza di promuovere la qualità dell’ambiente orientando i loro comportamenti. Negli anni in cui ho insegnato al liceo “L. da Vinci” di Firenze, nei corsi sperimentali che avevo attivato alla fine degli anni ’70 del secolo scorso, ho suggerito e discusso letture e attuato pratiche di controllo della qualità ambientale (soprattutto sull’acqua e sull’aria della città) con gli studenti delle mie classi quarte. E inoltre, per allargare agli studenti dell’intero Liceo la sensibilità verso i problemi del rispetto ambientale, ho creato un “Gruppo ambiente” (Fig.3) promuovendo letture e incontri, come pure attività di pulizia di alcune spiagge toscane dai rifiuti di ogni genere abbandonati, in accordo con le amministrazioni locali di recupero rifiuti.

Fig.3 – Pagina iniziale del depliant che illustrava caratteristiche e attività del Gruppo Ambiente.

Si trattava forse ancora di un ambientalismo di tipo naif e ricordo che allora era parere diffuso che le energie rinnovabili potessero essere solo integrative di quelle fossili e, ancora, si parlava di green economy ma non di economia circolare. Ho però una nitida memoria , ora accompagnata da un velo di commozione, di quando, nei primi anni novanta del secolo scorso, invitai nel mio Liceo l’amico prof. Enzo Tiezzi, chimico di chiara fama dell’Università di Siena. I miei studenti di IV che avevano letto il suo libro “Tempi storici, tempi biologici[17] e quelli di V che avevano letto “I limiti dello sviluppo[18]parteciparono con grande interesse e numerosi interventi alla conferenza tenuta da Tiezzi sulle variazioni del clima sulla terra dove egli presentò i risultati di una ricerca da cui emergeva l’andamento del tutto parallelo tra l’incremento del valore della CO2 nell’atmosfera dovuta alle nostre combustioni e l’aumento dei fenomeni atmosferici di grande violenza (tempeste, uragani, tornado,…) verificatisi negli Stati Uniti.

Allora queste cose potevano sembrare preoccupazioni eccessive per eventi molto lontani nel tempo, sensibilità di una minoranza elitaria, purtroppo la realtà di oggi è ben più grave di quello che pensavamo e gli effetti dei cambiamenti climatici anche in varie parti del nostro Paese si registrano ormai nelle cronache quotidiane. Se non si riuscirà a livello mondiale a trovare concretamente il modo di intervenire sui fattori che determinano il riscaldamento globale, quale futuro lasciamo in mano ai nostri figli e nipoti?

(*) Fabio Olmi è un insegnante in pensione che si è occupato per anni di didattica della Chimica anche a livello ministeriale. La sua multiforme attività educativa e formativa è documentata nel suo sito web dove c’è anche un elenco dei molti articoli da lui pubblicati.

(**) L’articolo in forma ridotta è stato pubblicato sulla rivista Insegnare – CIDI, Roma, sezione Temi e problemi, il 15/12/2018

[1] ARPAT- Rapporto rifiuti urbani 2017: i dati sulla raccolta differenziata (RD) in Italia. La RD in Italia riferita all’anno 2016 risulta del 52,5% , dato assai modesto. Se poi si esaminano le percentuali di raccolta differenziata delle varie macro-aree del Paese si hanno i seguenti dati: 64,2% per le regioni settentrionali, il 48,6% per quelle del centro, il 37,6% per quelle meridionali.

[2] Silvia Pieraccini- La carta di Lucca modello di successo- Il sole 24ore-5/7/17. Il distretto cartario di Lucca, specializzato nel tissue (carta per usi igienico-domestici) nel 2016 ha avuto un fatturato di 4,4 miliardi di euro e contava circa 200 aziende con circa 10.000 addetti complessivi

[3] Il CER riporta nella categoria 03 i diversi 11 tipi di rifiuti

[4] Maurizio Bologni – Marmo, tessile, carta, l’impennata dei costi per smaltire i rifiuti- La Repubblica, 20/11/2018

[5] Il Gruppo Sofidel è uno dei più grossi produttori di carta per uso igienico e domestico (il suo brand più noto è carta “Regina”), ha oltre 6000 dipendenti in 13 paesi del mondo (in Italia a Porcari (Lucca) ne ha circa 1200) e ha una capacità produttiva di oltre 1 milione di tonn./anno. E’ un Gruppo orientato verso una produzione sostenibile, ha una forte produzione di energia da fonti rinnovabili, investe in efficienza energetica e in formazione continua del personale.

[6] Il Codice europeo CER contiene, alla tipologia 04, 11 categorie di rifiuti tessili.

[7] Ibidem 4.

[8]https://www.a2a.eu/index.php/it/gruppo/i-nostri-impianti/termoutilizzatori/brescia

[9] Vincenzo Balzani- Salvare il pianeta:energie rinnovabili, economia circolare, sobrietà- La Chimica e l’Industria n. 6, 11/2018, pag.20

[10] Ibidem 6, pag.7.

[11] Luca Mercalli- Non c’è più tempo-, Einaudi, Torino, 2018.

[12] Luca Pagni- Maersk, il colosso danese dei supercontainer, sarà carbon-free entro il 2050- Repubblica- Economia e Finanza, 5/12/2018.

[13] FILCA-CISL, Cemento, la produzione italiana si espande in tutto il mondo, 21 Aprile 2006.

[14] Siderweb- Forni elettrici, Italia prima in Europa, 27/4/2004.

[15] Daniell B.Muller, Tao Wang, Benjamin Duvalk, T.E. Graedel, Exploring the engine of anthropogenic iron cycles, Ed. Harward University, 2006

[16] F.Grobler, R.C.A. Minnit, The increasing role of direct reduced iron in global steelmaking- The Journal of South African Institute of Mining and Metallurgy, March/April 1999, p. 111. Bibliografia

[17] E. Tiezzi – Tempi storici, tempi biologici – Garzanti, Milano, 1984.

[18] AA.VV. I limiti dello sviluppo – Club di Roma diretto da Aurelio Peccei- EST Mondadori, Milano, 1972.

Piante, animali e altre storie di chimica.

In evidenza

Claudio Della Volpe

Quest’anno per superare la solita incertezza del regalo di fine anno mi sono rivolto all’oggetto più comune della mia vita: il libro. E ho trovato una serie di testi su un argomento di cui avevo sentito parlare ripetutamente, ma senza approfondirlo: l’intelligenza delle piante.

Si tratta di un tema affascinante e che viene da lontano, ma il più recente e famoso scienziato che se ne è occupato è un italiano, Stefano Mancuso, professore ordinario presso UniFi e ricercatore al LINV (Laboratorio di Neurobiologia vegetale).

Ha scritto vari testi su questo tema ed io ho scelto il più agile fra tutti, Verde brillante, sensibilità e intelligenza del mondo vegetale, Ed. Giunti 140 pagine 2014.

E’ un testo non recentissimo scritto insieme alla divulgatrice Alessandra Viola, ma molto ben scritto che ripercorre la trama della discussione sul modo in cui concepiamo le piante, i “vegetali”, termine tutto sommato dispregiativo, che vegetano; ma che, l’autore ci fa scoprire, hanno un comportamento molto articolato e costituiscono un caso di vita senziente, non diversamente da quella animale, solo con una organizzazione diversa da quella degli animali. Le piante hanno una intelligenza ed una struttura della sensibilità distribuita invece che concentrata in organi specifici (cervello, occhi, naso, lingua) le piante “vedono”, sentono, reagiscono con molte delle loro cellule, usando una strategia di sopravvivenza diversa; non possono scappare e dunque sono state obbligate a scegliere di poter perdere anche il 90% del loro corpo potendolo ricostruire completamente; inoltre hanno nella maggior parte dei casi una velocità dei comportamenti inferiore, ma non per questo meno complessa.

In uno degli episodi di Star Trek (del 1995) si affronta questo tema della diversa velocità di esistenza; noi potremmo essere come piante per esseri che vivessero molto più velocemente di noi.

In fotografia il tema del diverso apparire delle cose molto veloci o molto lente costituisce uno splendido argomento tramite le due tecniche complementari delle riprese ad alta velocità riproiettate a bassa (diventate oggi comuni grazie all’avanzare dei processori dei cellulari) e della slow motion o delle riprese tramite filtri ND che sottolineano il paesaggio, ma eliminano le figure che ci si trovano per tempi brevi (la prima foto di paesaggio nel 1839 era di fatto slow motion). Nel caso che ci interessa si applica una terza tecnica, il time lapse, (letteralmente lasso di tempo) le riprese video che si usano anche per nuvole o il paesaggio rese comuni anche queste tramite la possibilità di fare foto ad intervalli lunghi in gran numero per poi riproiettarle a velocità normale, dunque con una grandissima accelerazione; il time lapse fa comprendere come anche le piante abbiano una vita e siano capaci di movimenti ben precisi ed altamente intelligenti se visti in questo nuovo contesto.

https://www.youtube.com/watch?v=w77zPAtVTuI

https://www.youtube.com/watch?v=g9NpE2jntNs

https://www.youtube.com/watch?v=p6rCAuzSQ8U

https://www.youtube.com/watch?v=dTljaIVseTc

Gli ultimi due video mostrano rampicanti che si avvolgono attorno ad un supporto; nel primo caso il fagiolo si gira verso il supporto ancora prima di attaccarcisi; come fa a sapere che è lì? Non lo sappiamo; ma potrebbe essere che in qualche modo avesse ragione Gottlieb Haberlandt, famoso fisiologo vegetale, che ipotizzò la presenza di ocelli foliari (finora mai confermati).

Un esempio altamente poetico di questa tecnica video si trova nel film Il giardino segreto, tratto dall’omonimo romanzo di Frances Hodgson Burnett, in cui viene mostrato il risveglio primaverile della terra e delle piantine del giardino riscoperto dalla piccola Mary Lennox; il film nella versione che ho visto io è del 1993 ed era diretto da Agnieszka Holland che usa con abilità la tecnica time lapse per mostrare la vita delle piante. Lo consiglio a voi e ai vostri bambini.

Nel libro di Mancuso si fa anche notare la ritrosia che hanno avuto anche grandissimi scienziati da Linneo a Darwin nel riconoscere questi aspetti della vita delle piante, per esempio la capacità di molte di queste di cibarsi di insetti o piccoli animali (anche mammiferi) come fonte di azoto, di comunicare fra di loro ed avere un comportamento altamente complesso che se rivisto a diversa velocità e nel contesto degli “animali” non esiteremmo a definire “intelligente” e sensibile; libro consigliatissimo e fra l’altro ottimamente illustrato, ben equilibrato negli aspetti tecnici e storici e anche fra la filosofia della natura e la scienza (sarò fesso ma non credo che l’analisi scientifica risolva ogni aspetto delle cose, la filosofia serve ancora, mia idea per carità).

La cosa che mi ha colpito di più è stata una osservazione di tipo chimico; il fatto che le piante usano delle molecole, che liberano nell’ambiente interno ed esterno per comunicare alle proprie cellule (non hanno segnali nervosi) ed alle altre piante, diverse specie di eventi.

Ora la chimica delle piante come ricorderete è stato un cavallo di battaglia della Chimica in Italia, basti ricordare i lavori di Ciamician e Ravenna di cui abbiamo parlato su questo blog.

Sapevo già che le piante usano una comunicazione “chimica”, ma mi ha colpito molto una di queste molecole in particolare, il metil-jasmonato che non conoscevo e di cui sono andato subito a cercare la formula; le piante usano il metil-jasmonato per segnalare alle congeneri o ad altre piante situazioni di sofferenza e di pericolo (per esempio l’attacco di parassiti). Ho scoperto con grandissimo interesse che è un derivato lipidico ciclopentanoico; ma, ho subito pensato, questa molecola di allarme allora è simile, molto simile, alle molecole che usano anche gli animali in condizioni analoghe: le cosiddette prostanglandine, che sono la base della risposta infiammatoria (e la cui produzione cerchiamo di inibire con gli antiinfiammatori come l’aspirina (ne abbiamo parlato varie volte)). Ho voluto verificare se la similitudine fosse stata notata; beh la risposta è si, ma non ci sono poi così tanti lavori in merito.

In particolare ho trovato il lavoro di cui vi riporto l’immagine qui sopra che parla del tema e anche della scoperta di molecole analoghe che si trovano sia nelle piante che negli animali, gli isoprostani, antenati probabilmente sintetizzati originariamente in modo non enzimatico. E questa è una bella ipotesi; perchè significherebbe che sono veramente molecole antiche; l’ipotesi del lavoro di Mueller (Chemistry & Biology 1998, Vol5 No 12 ) è che siano venute fuori prima dalla reazione spontanea fra lipidi e ossigeno; e possano essere dunque segnali dell’evento forse più traumatico per la vita sulla Terra, ossia il passaggio da forme di vita anaerobie a quelle aerobie, avvenuto fra 2 miliardi e 650 milioni di anni fa. Il pericolo da inquinamento per eccellenza che la vita ha passato finora (l’altro siamo noi che crediamo di essere superiori, ma in effetti……siamo una piaga)

L’ossigeno rimane per la vita a base ossigeno una molecola a doppia faccia; da una parte non possiamo farne a meno, dall’altra essa può produrre spontaneamente radicali liberi molto pericolosi, data la natura altamente reattiva dell’ossigeno atmosferico, la sua forma di molecola con ben due elettroni in orbitali di antilegame altamente disponibili, ciascuno dei quali cerca di appaiarsi; questo ci ha costretti a convivere con esso e anzi imparare a gestirlo.

Un esempio fra tutti potrebbe essere la nostra capacità di gestire enzimaticamente lo ione superossido O2(numero di ossidazione -1/2), che si forma spontaneamente, ma la cui sintesi noi perfino catalizziamo tramite un enzima, la NADPH ossidasi in caso di pericolo; e che usiamo, senza colpo ferire, contro i batteri molti dei quali non sono capaci di resistere al suo attacco ossidante (a meno di non possedere la superossido dismutasi). Lo ione superossido (la cui struttura elettronica è qui sotto) è un’arma letale perchè distrugge gli enzimi basati sul ferro e sullo zolfo e riusciamo a tenerlo a bada solo tramite la superossido dismutasi.

https://chemistryonline.guru/molecular-orbital-theory/

Non è l’unico radicale che usiamo sapientemente, ricordiamoci anche NO, usato in laboratorio di cinetica come scavenger dei radicali, considerato molto tossico, ma che noi maschietti umani produciamo (in piccole quantità) ed usiamo per controllare la pressione arteriosa nel luogo deputato, tutte le volte che qualche femmina della nostra specie ci fa impazzire adeguatamente. Incredibile quante cose si scoprano leggendo! Robe da chimico, ma credo interessanti per tutti.

Piccola lezione sui fanghi di depurazione.5: i controlli (considerazioni finali)

In evidenza

Mauro Icardi

(I precedenti post di questa serie sono qui, qui , qui e qui)

Terminati i controlli per verificare il corretto funzionamento della fase di ossidazione biologica, e successivamente quelli relativi alla stabilizzazione del fango , la fase successiva si riferisce ai controlli da effettuare sul fango ormai disidratato, e destinato a smaltimento, incenerimento, o riutilizzo in agricoltura.

Sul fango si possono determinare diversi parametri. Vediamo nello specifico la determinazione dei metalli.

L’analisi si effettua su campione umido per la determinazione del mercurio, e su fango secco per tutti gli altri parametri. Per la determinazione dei metalli si effettua attacco acido con acido solforico e nitrico, ed eventualmente con acqua ossigenata. Questa tecnica viene sempre di più sostituita dalla mineralizzazione con forno a microonde. Utilizzando questa tecnica le microonde riscaldano contemporaneamente tutto il campione, senza riscaldare i contenitori utilizzati che sono di materiali trasparenti alle microonde. In questo modo le soluzioni raggiungono molto più rapidamente il proprio punto di ebollizione e il riscaldamento è molto più veloce ed efficace del sistema tradizionale. La concentrazione dei metalli portati in soluzione viene determinata attraverso analisi eseguite tramite spettroscopia di assorbimento atomico, normalmente utilizzando la tecnica in fiamma, oppure con spettroscopia di emissione al plasma (ICP Ottico). La concentrazione dei metalli nei fanghi viene espressa in mg/Kg di metallo estraibile, riferito alla sostanza secca.

I fanghi di depurazione delle acque reflue industriali contengono metalli pesanti di tipo e quantità variabili e derivano dal tipo di lavorazioni e dalla dimensione delle industrie. I metalli pesanti provenienti dalle attività civili si ritrovano, inoltre, nella fase gassosa dei combustibili utilizzati per il riscaldamento, nei fumi provenienti dagli inceneritori o dal traffico veicolare; tali metalli raggiungono il suolo attraverso le precipitazioni atmosferiche. Alcune attività tipicamente agricole, come l’uso di prodotti fitosanitari e di concimi minerali, possono costituire una fonte di inquinamento da metalli pesanti.

In genere, i metalli pesanti si concentrano nei sottoprodotti di alcuni settori industriali o, anche se in misura minore, nei rifiuti urbani e nei reflui civili; per questo, lo smaltimento di questi materiali, per i rischi di tossicità sopra riportati, è regolamentato da apposite normative.

Vediamo ora, per alcuni dei principali metalli, ricercati nella matrice fanghi, le provenienze.

Cadmio totale

La concentrazione di cadmio nel suolo, è funzione delle caratteristiche dei materiali originari e dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione (concimi fosfatici, fanghi di depurazione).

Cromo totale

La concentrazione di cromo è riconducibile in parte a naturali processi di degradazione dei substrati geologici, da cui i suoli stessi traggono origine; in parte è funzione dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione. In particolare il contenuto di cromo può essere molto elevato in alcuni sottoprodotti dell’industria conciaria utilizzati per la produzione di concimi organici.

Piombo

La concentrazione di piombo riscontrabile nei fanghi di depurazione, relativamente alle attività produttive, riguarda principalmente gli scarichi delle fonderie. Un’altra fonte di contaminazione riguarda l’utilizzo di prodotti fitosanitari contenenti arseniti di piombo. Da rammentare che in passato si poteva avere contaminazione da piombo tetraetile, che veniva utilizzato come antidetonante nella benzina.

Rame

La concentrazione di rame dovuta ad attività antropica è anch’essa riferibile all’utilizzo del rame per la difesa antiparassitaria o per la fertilizzazione, soprattutto con reflui zootecnici. In particolare l’elevato contenuto di rame nelle deiezioni zootecniche è dovuto all’utilizzo di integratori e additivi alimentari che contengono questo elemento. I composti del rame sono anche utilizzati nel settore della coltivazione della vite, e molto spesso come componente alghicida per le vernici antivegetative, destinate normalmente a ricoprire il fondo delle imbarcazioni.

Per chiudere queste piccole lezioni sui fanghi, e sui controlli che si possono effettuare, parliamo di una analisi di tipo batteriologico, cioè la determinazione della Salmonella.

Considerando che i fanghi sono il prodotto finale del trattamento delle acque, essi posseggono un’ampia variabilità delle loro caratteristiche fisiche, chimiche, biologiche e tecnologiche che dipendono dalla loro origine, dal tipo di trattamento subito dai reflui, dal fango stesso, dalla durata dello stoccaggio. Se si tiene conto oltretutto che il numero dei microrganismi concentrati nei fanghi supera quello presente nelle acque grezze, bisogna considerare come diventi altrettanto rilevante lo studio delle loro caratteristiche microbiologiche. A qualunque recapito finale vengano destinati, è necessario renderli igienicamente innocui. Dal punto di vista microbiologico la normativa (dlgs 99/1992) fissa il limite di concentrazione nei fanghi per il solo parametro Salmonella. I processi di trattamento del fango sono comunque in grado di ridurre il numero di salmonelle, come di tutti i microrganismi in essi presenti.

L’analisi della Salmonella prevede l’omogeneizzazione, la filtrazione di un campione di fango precedentemente risospeso in una soluzione di acqua sterile tamponata. Il campione, diluito in funzione della concentrazione di Salmonella stimata, è omogeneizzato e filtrato; la membrana è recuperata asetticamente e incubata a 36°C,posizionata su un filtro sterile a fibre di vetro imbibito con un terreno favorevole alla crescita del microrganismo (Brodo al terationato). Dopo 24 ore la membrana è recuperata asetticamente e incubata a (36±2)°C su terreno cromogeno (Rambach® agar).

Le membrane sono esaminate dopo 24 e 48 ore. Trascorso questo tempo di incubazione si procede a quantificare il numero di colonie. Le salmonelle presuntive crescono su questo terreno come colonie di un colore rosso brillante, derivante dalla fermentazione del glicole propilenico.

Ho scritto queste brevi lezioni sui fanghi di depurazione, spinto sia dalla mia personale passione per il tema, che con la nemmeno troppo nascosta speranza che siano in qualche modo utili a chi voglia avvicinarsi ad un tema troppo spesso ancora ignoto ai non addetti. Credo sia utile ribadire un concetto: i fanghi, quali prodotti di risulta derivati dai processi di trattamento dei liquami, costituiscono il concentrato di tutti gli inquinanti presenti nei reflui: sostanze organiche, composti inorganici anche difficilmente biodegradabili, metalli pesanti e microrganismi. Bisogna lavorare a soluzioni economicamente sostenibili, ecologicamente praticabili, socialmente accettabili. E paradossalmente, più fanghi si producono, meglio le acque si depurano. In futuro probabilmente si privilegeranno trattamenti più spinti di riduzione della produzione. Ma non dimentichiamoci che “nulla si crea, nulla si distrugge, tutto si trasforma”.

E che come giustamente faceva osservare Primo Levi “La materia è materia né nobile né vile e non importa affatto quale sia la sua origine prossima”.