6 anni di blog.

In evidenza

La redazione.

6 anni di blog.

Oggi 14 novembre 2018 questo blog compie 6 anni; abbiamo pubblicato poco meno di 1000 articoli (985), 3 alla settimana in media con poco meno di un milione di contatti totali (per la cronaca sono 970.000).

Il numero di contatti al giorno è cresciuto parecchio arrivando a superare negli ultimi tempi i 1000 al giorno. Ma siamo particolarmente fieri dei quasi 500 iscritti, che ricevono notizia dei post automaticamente; si tratta in buona parte di non iscritti alla SCI, dunque che hanno scelto di seguirci autonomamente.

Poco più di 2500 interventi, circa 3 per ogni articolo.

Qualche curiosità; l’articolo più gettonato in assoluto?

Quello sulla Chimica alle elementari, della sempreverde Silvana Saiello che ha raggiunto quasi 20.000 contatti da quando (2013) è stato pubblicato e continua a ricevere una crescente attenzione; nello scorso mese di ottobre ha avuto da solo oltre 1200 lettori. Pensate un po’. Un classico della divulgazione.

Il più letto in un giorno è stato invece un articolo di Gianfranco Scorrano, gennaio 2014 una critica feroce di alcuni metodi concorsuali all’Università, oltre 2500 contatti in 24 ore , La cattedra e…. la sedia.

Non dimentichiamo però anche le serie sulla merceologia, sulla depurazione, sulla storia della scienza al femminile, le riflessioni etiche, quelle sulla contemporaneità, sulle nuove scoperte, sull’energia rinnovabile e l’economia circolare, il cuore del blog. E non dimentichiamo che ci siamo schierati, sul clima, sull’energia, sui diritti delle donne, sull’uso della Chimica; abbiamo scelto, preso posizione; non possiamo più tacere.

Tanto lavoro per la nostra piccola redazione che, seppure ha cambiato un po’ composizione nel tempo, rimane una redazione di una decina di persone.

Certo abbiamo ricevuto nel tempo anche i contributi di tanti colleghi che più o meno regolarmente ci mandano qualche testo e che ringraziamo; all’inizio speravamo di riuscire a catalizzare maggiori contributi, ma siamo contenti comunque. Non pretendiamo un Primo Levi, ma continuiamo ad insistere su una partecipazione discreta ma continua; se dei 3500 soci della SCI, che sono, dopo tutto, meno del 5% dei chimici italiani, il 10% scrivesse un articolo all’anno avremmo un post al giorno.

C’è stata una crisi di crescita quando abbiamo cambiato nome nel gennaio 2017; il blog della SCI è diventato “La Chimica e la Società” (richiamando il titolo della rivista storica della SCI); questo cambio ha corrisposto ad un notevole incremento dei lettori, che sono quasi raddoppiati .Negli ultimi mesi un ulteriore crescita catalizzata sia dagli agguerriti testi di Vincenzo Balzani sull’impegno dello scienziato, che anche dal lancio su Facebook aperto a tutti i lettori.

Siamo ancora lontani dal fare un giornale online di chimica, una piazza aperta a tutti i chimici italiani, uno strumento per fare opinione, ma col nostro sottotitolo attuale siamo una testimonianza del fatto che la Chimica è la scienza fondamentale per la nostra società e cerchiamo di stare sul pezzo, seguire i fatti importanti in cui la Chimica conta e sui quali occorre schierarsi.

Homo sapiens è stato un chimico fin dall’epoca di Blombos 101.000 anni fa, quando faceva pigmenti per dipingersi il corpo; poi ha iniziato a dipingere gli animali attorno a lui e tante, tante mani sulle pareti delle caverne.

La più antica testimonianza di pitture rupestri, Lubang Jeirji-Saleh, Borneo 40.000 anni fa (Nature nov. 2018 Palaeolithic cave art in Borneo)

Oggi, nell’Antropocene dovrebbe calmarsi un po’ dato che ha “dipinto”, ha messo le sue mani su tutto il pianeta, con una impronta non particolarmente positiva per il resto della biosfera, e che si sta rivelando un boomerang, capace di danneggiare la stessa Umanità.

Siamo qua per dare un piccolo contributo in questo senso: prendere coscienza della potenza insita nelle nostre mani, nei nostri cervelli, nell’azione comune; e della necessità di sottomettere al controllo della ragione e dell’amore la nostra intelligenza. Dunque chimica del riciclo, chimica sostenibile e rinnovabile ma soprattutto chimica dell’amore, usata con amore della Natura e per amore dell’Umanità; dopo tutto siamo solo una minuscola specie di primati saccenti, che infilano mani dappertutto, in una piccola arancia blù, un minuscolo pianeta, alla periferia di una Galassia lontana lontana.

Buona lettura.

Più aromatico di così…..

In evidenza

Rinaldo Cervellati

Evidenza sperimentale di doppia aromaticità in una molecola stabile: il dicatione esa(fenilselenil)benzene presenta aromaticità σ e π concentriche.

La scoperta, dovuta a un team di ricercatori giapponesi guidati dal prof. Masaichi Saito (S. Furukawa et al., Double aromaticity arising from σ- and π-rings, Commun. Chem. 2018, DOI: 10.1038/s42004-018-0057-4) è stata riportata da Sam Lemonick su Chemistry & Engineering newsletter on-line l’11 ottobre scorso. Vediamo di capire di cosa si tratta.

Dalla scoperta del benzene, i composti aromatici, che hanno struttura e proprietà simili a quelle del benzene, hanno svolto un importante ruolo in molti campi della chimica. Qualsiasi studente che ha seguito un corso di chimica organica sa che il carattere aromatico deriva da orbitali-π delocalizzati, completamente “occupati” da sei elettroni, come si osserva appunto nel benzene (figura 1).

Fig. 1 Aromaticità “classica” π

Ma come capita per molti concetti insegnati in un primo corso di chimica organica, la realtà è più complessa. I chimici hanno attivamente discusso ed esteso il concetto di aromaticità.

Attualmente, l’aromaticità σ- e δ- derivante da (4n + 2) elettroni σ e δ rispettivamente, sono state previste da calcoli teorici e studi sperimentali (figura 2).

Fig. 2 Aromaticità- σ

La successiva logica domanda è se diversi tipi di aromaticità possano coesistere in una singola molecola. Poiché la previsione teorica su una misteriosa molecola ipotetica che possedeva aromaticità doppia σ- e π- fu riportata da Schleyer et al. nel 1979 (J. Chandrasekhar et al., Double aromaticity: aromaticity in orthogonal planes.The 3,5-dehydropenyl cation., Tetrahedron Lett., 1979, 20, 3707-3010), la ricerca sperimentale di composti aromatici stabili σ- e π- è proseguita negli anni con pazienza.

Ispirato da un precedente lavoro di Martin (D.J. Sagl, J.C. Martin, The Stable Singlet Ground State Dication of Hexaiodobenzene: Possibly a σ-Delocalized Dication, J. Am. Chem. Soc. 1988, 110, 5827-5833), Saito e collaboratori hanno autonomamente progettato un dicatione esaselenilbenzenico come potenziale composto a doppia aromaticità σ- e π-.

Prof. Masaichi Saito

Il razionale per tale scelta si è basato sulle seguenti considerazioni: 1) la sua π-aromaticità è giustificata dalla presenza di un anello benzenico, 2) gli orbitali σ delocalizzati ciclici sono possibili a causa delle interazioni tra coppie solitarie sugli atomi di selenio, e 3) i composti di selenio sono facilmente ossidati.

In effetti, i calcoli precedentemente effettuati dal gruppo sul composto modello, [C6(SeH)6]2+, predicono il suo carattere aromatico doppio σ- e π (M. Hatanaka et al., σ-Aromaticity in Hexa-Group 16 Atom-Substituted Benzene Dications: A Theoretical Study., J. Org. Chem., 2014, 79, 2640-6). Il gruppo di ricerca è quindi riuscito a sintetizzare e caratterizzare completamente il dicatione dell’esa(selenilfenil)benzene (figura 3) e a delucidare il suo carattere aromatico doppio σ- e π.

Fig. 3 Il catione esa(selenilfenil)benzene (Ph = fenil)

Il carattere aromatico doppio σ- e π del dicatione, ottenuto dall’ossidazione del precursore neutro (M. Saito, Y. Kanatomi, Reinvestigation on the synthesis of hexakis(phenylseleno)benzene., J. Sulphur Chem., 2009, 30, 469-476), è stato chiarito in base ai criteri di aromaticità.

La struttura molecolare determinata dall’analisi di diffrazione a raggi X ha rivelato un’alterazione trascurabile dei legami C-C nell’anello centrale a sei membri, indicando che esso mantiene la sua aromaticità originaria. I legami selenio-selenio e selenio-carbonio (sull’anello benzenico centrale) sono quasi identici, caratteristica dei composti aromatici. Anche le proprietà magnetiche del dicatione supportano il suo carattere doppio-aromatico (figura 4).

Fig.4 Doppia aromaticità nell’esa(selenilfenil)benzene (E = −SePh) dicatione

Il gruppo ha dimostrato che il dicatione possiede un carattere aromatico doppio σ- e π- derivante da orbitali delocalizzati ciclici σ- e π-simmetrici, formalmente occupati da dieci e sei elettroni, rispettivamente. L’aromaticità segue quindi la regola di Hückel 4n+2 (n = 1, 2, …), indipendentemente dalla simmetria orbitale σ- o π-.

Saito e collaboratori affermano che i loro risultati ampliano il concetto di aromaticità e possono rappresentare un passo avanti nella scienza dei materiali, considerando che dovrebbero favorire lo sviluppo della prossima generazione di sistemi π-aromatici.

Alexander I. Boldyrev, un chimico teorico della Utah State University, che ha predetto molecole aromatiche doppie contenenti boro, dice che Saito ha effettivamente scoperto un vero esempio di aromaticità π e σ e afferma che il fatto più importante è la stabilità del composto. Boldyrev ritiene che la molecola potrebbe aiutare i chimici a capire il legame, la struttura e la stabilità in altre molecole, specialmente inorganiche.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Marthe Louise Vogt (1903-2003)

In evidenza

Rinaldo Cervellati

Marthe Louise Vogt, neurofisiologo e chimico, è considerata una fra i principali scienziati nelle neuroscienze, particolarmente nel campo dei neurotrasmettitori.

Marthe Louise nacque l’8 settembre 1903 a Berlino, da Cecile Mugnier Vogt, francese e Oscar Vogt, di origine tedesco-danese, discendente da una famiglia di lunga tradizione comprendente religiosi luterani, capitani di marina e perfino un pirata. Marthe ebbe una sorella minore, Marguerite, che divenne genetista.

Cecile e Oskar Vogt erano i principali neuroanatomisti del loro tempo, dal 1898 al 1937 lavorarono insieme a Berlino sull’anatomia, la fisiologia e la patologia del cervello. Essi hanno descritto la sindrome di Vogt-Vogt[1] . A Oskar Vogt fu chiesto di eseguire un esame post-mortem sul cervello di Lenin. Egli trovò cellule piramidali corticali insolitamente grandi, suggerendo che potevano essere indicazione di una funzione mentale superiore.

Marthe crebbe quindi in una famiglia di talento dove la curiosità intellettuale era la grande forza trainante. Da bambina accompagnava il padre in spedizioni per raccogliere insetti, che erano usati come materiale per studi sulla variabilità genetica.

Anche se il padre è stato un attivo socialista, sembra che la giovane Marthe abbia avuto scarso interesse per la politica: nonostante la prima guerra mondiale, la sua prospettiva era internazionale, probabilmente un riflesso delle origini cosmopolite dei genitori. Marthe parlava correntemente francese, inglese e tedesco.

Dal 1909 al 1922 Marthe Vogt frequentò l’Auguste Viktoria-Schule di Berlino-Charlottenburg, finendo con l’Abitur, qualifica di ingresso per qualsiasi università tedesca.

Marthe Louise Vogt da giovane

Dal 1922 al 1927 intraprese contemporaneamente gli studi di chimica e medicina all’Università di Berlino. Agli studenti era infatti permesso di organizzare liberamente i loro studi e orari e Martha fu in grado di frequentare molti corsi e lezioni oltre a quelli stabiliti dai singoli curricula delle due facoltà. Furono in particolare le lezioni di W. Schlenk[2] e F. A. Paneth[3] che la stimolarono a ciò che avrebbe voluto fare in futuro: applicare le conoscenze chimiche ai problemi medico-neurologici.

Marthe Vogt ottenne il diploma universitario in medicina nel 1927 e passò l’anno successivo di pratica medica per metà lavorando in ospedale e per metà nel laboratorio del padre su un progetto neuro-anatomico che fu oggetto del suo dottorato medico ottenuto l’anno successivo, il 9 maggio 1928. I successivi due anni furono spesi da Marthe al Kaiser-Wilhelm-Institut für Biochemie sotto la guida di C. Neuberg[4], per completare la formazione in chimica organica e produrre una tesi sul metabolismo dei carboidrati. Discusse la tesi e ottenne il dottorato in chimica il 27 settembre 1929. Dalla tesi ricavò due articoli pubblicati in tedesco su Biochemische Zeitschrift nel 1929.

Nel 1929, Vogt iniziò a lavorare su farmacologia e endocrinologia presso l’Istituto di Farmacologia a Berlino, diretto da Paul Trendelenburg[5] dove strinse amicizia con diversi colleghi, in particolare con il figlio di Paul, Ullrich, che rimase suo amico per tutta la vita. Qui Vogt imparò a conoscere l’endocrinologia e utilizzò tecniche chimiche nell’analisi farmacologica. All’inizio degli anni ’30, si era affermata come una delle principali farmacologhe tedesche e nel 1931, a soli 28 anni, fu nominata responsabile della divisione chimica del Kaiser Wilhelm Institut für Hirnforschung (“Scienza del Cervello”). All’Istituto intraprese studi elettrofisiologici sul cervello e indagò gli effetti di vari farmaci sul sistema nervoso centrale. Annota che all’inizio l’atmosfera lavorativa all’istituto era eccellente, ma col passare del tempo divenne sempre più opprimente a causa del clima politico, tanto da indurla a cercare opportunità all’estero. Effettivamente Vogt non aveva creduto che Hitler e il partito nazista sarebbero saliti al potere, ma dovette rendersi conto di aver sbagliato valutazione, fu per questo che si mise a cercare lavoro fuori dalla Germania.

Fortunatamente, il futuro Premio Nobel Sir Henry Dale[6] le aveva offerto un posto nel suo laboratorio a Londra se avesse ottenuto un supporto finanziario. Vogt conseguì una borsa di studio Rockefeller Travelling per un anno e lasciò la Germania per Londra il 1 aprile 1935. Chissà se in quel momento Marthe Vogt realizzò che forse non avrebbe mai più lavorato in Germania.

Vogt trascorse la prima metà della borsa Rockefeller nel laboratorio di Sir Henry Dale a Hampstead in collaborazione con Wilhelm Feldberg (1900-1993) sul rilascio di acetilcolina dai nervi motòri. Deve essere stato un momento emozionante perché l’idea della trasmissione chimica degli impulsi nervosi era relativamente nuova e questa scoperta era un’ulteriore prova della supposizione. Il lavoro fu pubblicato nel Journal of Physiology (H.H.Dale, W. Feldberg, M. Vogt, Release of Acetylcholine at Voluntary Motor Nerve Endings., J. Physiol., 1936, 86, 353-380.), lo stesso anno in cui a Dale fu conferito il premio Nobel. Dale in particolare menzionò il lavoro con Feldberg e Vogt nella sua Nobel lecture e suggerì cautamente che la trasmissione chimica che si trova in periferia potrebbe essere alla base della connettività interneuronale nel cervello.

Non possiamo sapere se questo suggerimento abbia influenzato Vogt, certamente questa fu l’area in cui fece le sue scoperte più importanti, usando metodi chimici per misurare le sostanze neuro trasmittenti. Si pensi a quanto dovesse essere difficile misurare l’acetilcolina rilasciata dalla stimolazione dei nervi motòri. La produzione è molto piccola, in particolare in relazione alla massa muscolare e a quei tempi la sostanza trasmittente poteva essere rilevata solo da un noioso biosaggio.

Vogt trascorse la seconda metà della borsa Rockefeller a Cambridge con E. B. Verney (1894-1967), professore di Farmacologia, insieme hanno compiuto notevoli indagini sull’ipertensione.

Le condizioni della sua borsa erano tali che avrebbe dovuto rientrare in Germania dopo un anno, ma con l’aiuto di Verney ottenne un’altra borsa annuale continuando così a fare ricerca a Cambridge. Nel frattempo fece domanda per l’Alfred Yarrow Research Fellowship al Girton College di Cambridge, vincendola ebbe un ulteriore supporto finanziario di tre anni. In teoria, quindi, ebbe un sostegno sufficiente per rimanere in Gran Bretagna fino al 1940. Nel 1938 l’Università di Cambridge le conferì il dottorato ad honorem, dove divenne Dimostratrice in Farmacologia e Fisiologia.

Marthe Vogt nel 1939

Sfortunatamente, lo scoppio della seconda guerra mondiale minacciò la sua carriera. Nel 1939 i servizi britannici di intelligence scoprirono che Marthe Vogt era ancora un membro del partito nazista. Tecnicamente infatti Marthe faceva ancora parte del personale docente ricercatore di un’università tedesca e automaticamente era membro di quel partito. I suoi tentativi di dimettersi non erano stati accettati dai funzionari nazisti. Fu portata davanti a un tribunale che la classificò “straniera nemica di categoria A” e dispose per il suo immediato internamento. Tuttavia, tutti i colleghi e gli amici di Vogt si radunarono in suo aiuto e le fu concesso un processo d’appello. La categoria fu cambiata in “straniera amica”, liberandola per continuare il suo lavoro a Cambridge, nel febbraio 1940. Marthe Vogt fece quindi domanda per la naturalizzazione britannica che però le fu concessa solo nel 1947, due anni dopo la fine della guerra.

Finita la borsa di studio al Girton College a Vogt si presentò l’opportunità di condurre ricerche indipendenti: nel giugno del 1941 fu nominata membro del personale dei Laboratori Farmacologici della Pharmaceutical Society of Great Britain a Bloomsbury Square a Londra, comunemente noto come “The Square” (“La Piazza”). Fu in questo ambiente che Marthe Vogt espresse maggiormente la sua originalità. Lei focalizzò l’attenzione sulla ghiandola surrenale e alla sua relazione con lo stress. Fu il suo importante, ma non principale interesse di ricerca per il resto della sua carriera (peraltro iniziato nel periodo berlinese). Uno sguardo alla sua lista di pubblicazioni mostra che pubblicò oltre 30 articoli sull’argomento, per lo più solo a suo nome, il che rappresenta uno sforzo colossale di ricerca.

Gli studi sulle ghiandole surrenali rimasero un serio interesse di Vogt anche dopo il suo trasferimento come Lecturer al Dipartimento di Farmacologia di Edimburgo nel 1947. Non vi può essere alcun dubbio che i contributi più importanti di Marthe Vogt furono in neurofarmacologia. Ancor prima di lasciare “The Square”, aveva collaborato con il suo collega e amico Wilhelm Feldberg. Insieme decisero di studiare la sintesi dell’acetilcolina in diverse regioni del cervello. Misurando la colina acetilasi (oggi chiamata colina acetiltransferasi), l’enzima che sintetizza l’acetilcolina, che poteva essere rilevata in piccoli volumi di tessuto cerebrale, hanno fornito forti evidenze del ruolo dell’acetilcolina come neurotrasmettitore e hanno dimostrato la distribuzione dei sistemi colinergici nelle diverse regioni del cervello (W. Feldberg, M. Vogt, (Acetylcholine synthesis in different regions of the central nervous system., Journal of Physiology, 1948107, 372–381).

Marthe Vogt e Wilhelm Feldberg

Mentre era a Edimburgo, Vogt pubblicò un articolo sulla concentrazione di simpatina (noradrenalina e adrenalina) nel sistema nervoso centrale che molti considerano la sua migliore ricerca (M. Vogt, The concentration of sympathin in different parts of the central nervous system under normal conditions and after the administration of drugs. J. Physiol., 1954, 123, 451–481).

Marthe Vogt Royal Society Member

Avendo già a disposizione tecniche di separazione cromatografica, metodi fluorimetrici e attraverso una serie di analisi biologiche ha analizzato il contenuto di noradrenalina e adrenalina nel cervello. Va ricordato che la concentrazione di queste sostanze è solo di circa 1μg g−1 nelle zone più ricche e in molte parti è molto inferiore. Inoltre, lavorò con campioni di massa 10-250 mg.

Tuttavia riuscì a ottenere i valori per il contenuto di 41 diverse aree del cervello. La distribuzione era irregolare, alcune aree avevano 20 volte la concentrazione delle altre. La distribuzione poteva poi modificarsi sotto l’azione di diversi farmaci. Con la dovuta cautela, Vogt diede un’interpretazione di questi risultati.

Nel 1951 fu elevata a un grado superiore e nel 1952 divenne Reader (equivalente di professore), nello stesso anno fu eletta Fellow della Royal Society, un riconoscimento assegnato in precedenza a sole altre otto donne.

Nel 1960 si trasferì all’Agricultural Research Council’s Institute of Animal Physiology at Babraham, appena fuori Cambridge, dove è stata a capo dell’unità di farmacologia fino al 1968. Anche se si è ufficialmente ritirata a questa data ha continuato a pubblicare e a ricevere visiting professors fino agli ultimi anni ’80.

Marthe Vogt in età avanzata

Nel 1988, lasciò il suo paese d’adozione per vivere con sua sorella Marguerite, 10 anni più piccola, a La Jolla, in California. Marthe Vogt è morta il 9 settembre 2003, il giorno dopo il suo 100° compleanno.

Opere consultate

Alan W. Cuthbert, Marthe Louise Vogt. 8 September 1903 — 9 September2003: Elected FRS 1952, Biogr. Mems Fell. R. Soc. 2005, 51, 409-423.

A.B. Vogt, Marthe Louise Vogt (1903-2003). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 149-152.

[1] Questa sindrome è il risultato di una lesione del corpo striato, solitamente associata a danno alla nascita che causa una forma di paralisi cerebrale. La malattia insorge nella primissima infanzia quando dovrebbe cominciare a svilupparsi un’attività motoria complessa, come sedersi, stare in piedi e camminare.

[2] Wilhelm Johann Schlenk (1879 – 1943) chimico tedesco, noto soprattutto per aver sviluppato apparecchiature che permettono la manipolazione di composti sensibili all’aria, che gli permisero di preparare per la prima volta composti organometallici del litio.

[3] Friedrich Adolf Paneth (1887 – 1958) chimico austriaco naturalizzato britannico nel 1939 dopo essere fuggito dall’Austria nazista. Dopo la guerra, Paneth tornò in Germania per diventare direttore dell’Istituto Max Planck per la chimica nel 1953. Fu considerato la massima autorità del tempo sugli idruri volatili, diede anche importanti contributi allo studio della stratosfera.

[4] Carl Alexander Neuberg (1877-1956), ebreo tedesco è spesso definito il “padre della moderna biochimica”. Il suo notevole contributo alla scienza include la scoperta della carbossilasi e la delucidazione della fermentazione alcolica che dimostrò avvenire attraverso una serie di reazioni enzimatiche, comprensione cruciale per l’interpretazione dei percorsi metabolici.

[5] Paul Trendelenburg (1884 – 1931), farmacologo tedesco particolarmente noto per le sue ricerche sull’adrenalina, per lo sviluppo di procedure di misurazione biologica per la standardizzazione dei preparati ormonali.

[6] Sir Henry Hallett Dale (1875 – 1968), farmacologo e fisiologo inglese, condivise con Otto Loewi il Premio Nobel per la medicina o fisiologia 1936 per le loro scoperte sulla trasmissione chimica degli impulsi nervosi.

Il fango e quegli idrocarburi del cavolo.

In evidenza

Claudio Della Volpe

Continuiamo a parlare dell’art.41 del decreto “Genova” di cui abbiamo già parlato in un post precedente; si tratta di un testo che è stato integrato durante l’approvazione del decreto “Genova” e il cui testo riporto in calce (lo trovate qui).

Ricordo che sulla composizione dei fanghi esisteva una legge dedicata la legge 99/92, in cui si scrivono criteri generali e nelle appendici una almeno parziale lista di limiti di composizione dell’effluente nei suoi rapporti con la matrice (qua si potrebbe discutere sul problema costituito dai rapporti fra effluenti e matrice, problema che già ebbe potente ruolo nel caso delle acque e della legge Merli, entrambi devono essere considerati). Sul tema le regioni più interessate avevano legiferato arrivando a stabilire criteri su altri componenti, in particolare gli idrocarburi C10-C40; contro quel limite e su altri, alcuni comuni lombardi avevano fatto ricorso e il TAR e la Cassazione gli avevano dato ragione, sostenendo che

i fanghi da depurazione sono destinati ad essere mescolati ad ampie porzioni di terreno e a divenire, quindi, un tutt’uno con esso; appare pertanto logico che il fango rispetti i limiti previsti per la matrice ambientale a cui dovrà essere assimilato”

una logica fallace, che impedirebbe perfino di spargere dei comuni concimi biologici, in quanto nemmeno il letame rispetta i limiti previsti per la matrice ambientale e men che meno lo fanno i concimi di sintesi o altri ammendanti; eh si perchè miei cari Giudici delle Corti se si aggiungono essi vengono aggiunti proprio allo scopo di modificare le caratteristiche del terreno, reintegrando ciò che è stato consumato dalla produzione di cibo oppure introducendo componenti necessari ma non presenti! Questo criterio trascura anche il fatto che il terreno è una struttura di massa molto maggiore del fango (che vi può venire aggiunto secondo l’art. 3 della legge 99/92 in ragione di sole 15ton/ettaro, ossia una frazione dell’ordine dell’1/1000 o meno della massa di terreno per ettaro usata in agricoltura che arriva almeno a 40cm) che dunque lo diluisce; che è una struttura viva, che è in grado cioè “metabolizzare” il fango di trasformarlo almeno parzialmente.

Per questo mentre ha senso imporre limiti uguali a quelli del suolo per il cadmio, presente come ione e che non potrà essere “smontato” in alcun modo, così come per molecole organiche stabili, i POPs, persistent organic pollutants come il DDT o il PCB, non è la stessa cosa per le molecole come gli idrocarburi lineari che sono persino presenti anche nella struttura dei tessuti organici (come vedremo più avanti).

Ma tant’è! Questo ha bloccato il riciclo dei fanghi e dunque ha portato alla necessità di modificare le cose, regolamentando meglio della legge 99 la situazione, come sta facendo il Parlamento con l’art.41 che AGGIUNGE nuovi limiti per i fanghi che prima non esistevano.

Ovviamente le proteste dei Comuni e dei loro cittadini hanno motivi ragionevoli, per esempio nell’abuso legato all’uso di fanghi non civili o all’eccesso di uso, al modo scorretto di trasporto oppure infine all’odore pestifero e così via, tutti aspetti però che non toccano il problema di fondo e che devono essere risolti per altra via, per esempio migliorando la depurazione (come descritto da Mauro Icardi in post precedenti), imponendo metodi di trasporto diversi, con maggiori controlli sulle distanze dalle abitazioni e contrastando le ecomafie che sono diffuse anche nelle regioni del Nord non solo nella “terra dei fuochi”, dunque con una legge più completa e moderna della 99/92.

I fanghi di origine civile (cioè le nostre deiezioni così come il letame e le altre deiezioni degli animali a noi asserviti) sono utili all’agricoltura e servono a chiudere il ciclo agricolo, cosa del tutto necessaria e logica e che noi non facciamo ancora o forse non facciamo più, dato che la logica del riciclo è parte della cultura dell’agricoltura tradizionale da millenni.

Ovviamente le deiezioni di una volta, che i contadini riusavano nel terreno (si veda la citazione di Liebig nel post precedente) erano diverse da quelle attuali; vi pare strano? E invece no, non solo perchè mangiamo cose diverse, ma anche perchè nei depuratori arrivano oltre ai resti del cibo anche altri prodotti casalinghi; i detersivi, i cosmetici, le droghe, i farmaci e tanti altri prodotti di sintesi che certo il contadino di Liebig non usava.

Questo impone un riesame continuo dei metodi di depurazione che sono stati esaminati nei numerosi post di Mauro Icardi in questo blog e che devono essere adeguati, studiati migliorati; il depuratore deve diventare la fabbrica dell’acqua, ma anche il centro di un modo nuovo di sentirci parte dell’ecosfera.

Noi non siamo estranei all’ecosfera, ne siamo parte integrante; la vita è a sua volta parte della superficie terrestre, di quel supersistema di interazioni che Lovelock ha chiamato Gaia. Il depuratore non è un posto che puzza, è un momento cruciale di questa interazione, il simbolo della nostra capacità di integrarci in Gaia.

Voglio chiudere questo post raccontandovi una cosa che riguarda la presenza degli idrocarburi lineari nelle piante e dunque nei campi e nel suolo; degli idrocarburi in genere abbiamo già detto (sono infatti idrocarburi lineari ma insaturi il licopene del pomodoro, il betacarotene della carota); parliamo di quelli saturi.

Come ho raccontato altrove mi occupo di bagnabilità; per esempio di cose come l’angolo di contatto delle superfici e dunque anche di quelle naturali; molti lettori avranno sentito parlare del loto e delle superfici superidrofobiche, ossia che non si bagnano. Molte piante hanno sviluppato strutture superficiali che servono proprio a questo, che tengono cioè la superficie foliare pulita, priva di acqua, perchè l’acqua oltre ad essere un bene prezioso e necessario è anche il vettore di infezioni: muffe, batteri e funghi. Dunque controllare il suo flusso ed evitare il suo accumulo in certe zone è fondamentale; anche l’acqua è una molecola a due facce, come tutte le cose, buona e cattiva, la dualità della Natura, la dialettica della natura (avrebbe detto Guido Barone che ci ha lasciato da poco: “ogni molecola ha due corni”). L’acqua è fondamentale da bere, ma evitate di farla entrare nei vostri polmoni, diventa mortale.

Una foglia di loto coltivata in una vasca nel mio laboratorio, notate la forma delle gocce di acqua che non “si attaccano” ma scivolano sulla superficie.

Come fanno le piante a creare superfici superidrofobiche? Nessun materiale supera la idrofobicità dei legami fluorurati CF o anche CH; il comune materiale idrofobico naturale sono le cere, ossia catene idrocarburiche CH2, terminate con CH3. Alcune di queste cere cristallizzano spontaneamente in forme aghiformi, dando luogo dunque a strutture “pelose” di fili idrofobici.La superficie di una foglia di loto al SEM dell’Ospedale S. Chiara di Trento che ringrazio. Notate la pelosità superficiale dovuta alle cere epicuticolari.

E’ un trucco molto comune in natura; gli uccelli acquatici si lisciano continuamente le penne costituite di strutture filamentose per spargere il grasso prodotto dalle loro ghiandole superficiali e rendono le penne idrofobiche; infatti la scadente capillarità dei grassi (e delle cere) impedisce all’acqua di scacciare l’aria dai loro sottili contorni e dunque impedisce di raffreddare l’animale, che rimane nelle sue penne come in un …piumino.

Le piante, la cui dinamica è molto più lenta degli animali, usano strutture diverse, le cosiddette cere epicuticolari che stabiliscono il loro dominio all’estremo del loro corpo, all’esterno delle pectine e della cellulosa, impedendo la penetrazione dell’acqua e anzi facilitandone lo scorrimento. Il loto è il sacro simbolo della purezza, grazie a questo trucco; ma in realtà molte piante comuni ed umili sono altrettanto ricche di cere epicuticolari.

Il comune cavolo, Brassica Oleracea, diffuso alimento delle regioni del Nord contiene 50microgrammi di cera per ogni cm2 di superficie foliare ed è altrettando superidrofobico del loto. Un metro quadro di foglia contiene dunque 0.5grammi di cere e una pianta di cavolo può contenere grammi di cere epicuticolari (Acta agriculturae Slovenica, 91 – 2, september 2008 str. 361 – 370 DOI: 10.2478/v10014-008-0016-3).

Di cosa sono fatte le cere? Sono sostanzialmente idrocarburi lineari a catena maggiore di C16, perché l’esadecano è l’ultimo idrocarburo lineare saturo a fondere a t ambiente. La cera della candela è di origine minerale, petrolifera ma è fatta al medesimo modo. Le cere epicuticolari sono costituite di varie sostanze, contenenti nel caso del cavolo, tutte una catena C27-C31, principalmente C29 , compresi in quantità notevole degli idrocarburi lineari veri e proprii (attorno a un terzo del totale delle cere); un campo di cavolo contiene dunque idrocarburi lineari di quel tipo in dose misurabile e non lontana dai limiti fissati dall’art.41 (parte f della figura successiva). Ve lo aspettavate?SEM micrographs of cell surface structuring by epicuticular waxes. (a) Thin wax films, hardly visible in SEM, cover many plant surfaces as indicated here in H. bonariensis. (b) A wax crust with fissures on a leaf of Crassula ovate, (c) β-diketone wax tubules of E. gunnii and (d) nonacosan-ol tubules on Thalictrum flavum glaucum leaves are shown. (e) Wax platelets on Robinia pseudoacacia leaves are arranged in rosettes. The waxes shown are (f) simple rodlets on a leaf of Brassica oleracea, whereas the rodlets shown are (g) transversely ridged rodlets on a leaf of Sassafras albidum. (h) Mechanically isolated waxes from a leaf of Thalictrum flavum on a glass surface show wax tubules and the underlying wax film.

Phil. Trans. Roy. Soc. A Superhydrophobic and superhydrophilic plant surfaces: an inspiration for biomimetic materials Kerstin Koch, Wilhelm Barthlott

Laila R, Robin AHK, Yang K, Park J-I, Suh MC, Kim J and Nou I-S (2017) Developmental and Genotypic Variation in Leaf Wax Content and Composition, and in Expression of Wax Biosynthetic Genes in Brassica oleracea var. capitata. Front. Plant Sci. 7:1972. doi: 10.3389/fpls.2016.01972

Ma non è il solo alimento comune; in modo simile il pisello contiene elevate quantità di cere epicuticolari, così come altre comuni piante.

Attenti dunque, nella furia antifanghista, a non mettere fuori legge i campi di cavoli e piselli!

(ah dimenticavo un dettaglio; nella cera d’api un settimo circa (15%) è costituito da idrocarburi lineari della medesima dimensione di cui parliamo qui, il resto sono in gran parte acidi grassi, sempre solita catena molto lunga, attenti dunque al suolo sotto gli alveari, sarà mica fuori legge pure quello?)

L’art.41 non è una soluzione completa, è una misura di emergenza che dovrà essere sostituita da un aggiornamento della 99/92, si potrebbe scrivere meglio, ma non è un imbroglio, né una misura da inquinatori. Se ne convincessero gli ambientalisti.

*************************************************

Testo art. 41 dopo approvazione della Camera.

Il testo è diviso in due colonne; a sinistra com’era uscito dal Consiglio dei Ministri, a destra dopo le modifiche in Commissione

Il solfuro di idrogeno forma dimeri attraverso legami a idrogeno.

In evidenza

Rinaldo Cervellati

Nel numero del 17 ottobre di Chemistry & Engineering newsletter on-line, Sam Lemonick riporta un recente lavoro con evidenze sperimentali non ambigue di legami a idrogeno nel dimero del solfuro di idrogeno e di alcune somiglianze fra il comportamento di questo dimero e quello dell’acqua.

Come noto una delle cause per le proprietà uniche dell’acqua, come i punti di ebollizione e di congelamento, è proprio la presenza dei legami a idrogeno. Per decenni i chimici hanno discusso se i dimeri del solfuro di idrogeno, H2S, “cugino” maleodorante dell’acqua, fossero anch’essi trattenuti da legami a idrogeno.

Nella struttura tetraedrica del ghiaccio, misure spettroscopiche mostrano l’evidenza di quattro legami a idrogeno dell’acqua (attraverso due atomi di idrogeno e due coppie di elettroni solitari dell’ossigeno), ma nell’H2S solido, ogni molecola è circondata da un guscio di altre 12 molecole. Questa drammatica differenza tra le fasi condensate di acqua e idrogeno solforato portò a concludere che la struttura del ghiaccio è anisotropa dovuta ai legami a idrogeno, mentre la struttura di H2S solido è determinata da interazioni isotropiche, un contorno sferico in cui sono sistemate le 12 molecole (figura 1):

Figura 1 unità strutturali di H2O e di H2S solidi

Ciò faceva pensare a molti che nel dimero dell’idrogeno solforato (altro nome del solfuro di idrogeno) non si potessero formare legami a idrogeno.

Tuttavia nel 2013 i risultati di un lavoro di spettroscopia infrarossa sul dimero di H2S, (H2S)2 hanno condotto gli autori a proporre per esso il legame a idrogeno, senza però fornire una descrizione dettagliata della sua struttura. Anche calcoli teorici quantomeccanici indicano che le strutture di (H2S)2 e (H2O)2 dovrebbero essere simili, unite da un ponte a idrogeno.

Un gruppo internazionale di ricercatori, coordinati dal Prof. Elangannan Arunan, Department of Inorganic and Physical Chemistry dell’Indian Institute of Science, hanno recentemente riferito di aver trovato prove sperimentali non ambigue che i dimeri di H2S sono trattenuti da legami a idrogeno [1].

Prof. Elangannan Arunan

Dallo studio degli spettri del dimero “genitore” e di quelli isotopicamente sostituiti, utilizzando uno spettrometro a microonde in trasformata di Fourier, il team di ricercatori è stato in grado di stabilire distanze e angoli di legame in (H2S)2 gas a temperatura molto bassa, ottenendo la seguente struttura (figura 2):

Figura 2. Struttura sperimentale del dimero (H2S)2 (dal rif. [1])

simile a quella, ben nota, del dimero dell’acqua (figura 3):

Figura 3. Struttura del dimero (H2O)2 (dal rif[1], *=calcoli teorici)

I risultati sperimentali ottenuti dagli autori sono in ottimo accordo con i più recenti calcoli quantomeccanici, riportati per confronto nella tabella 4 del loro articolo [1].

Arunan e il suo gruppo concludono che sebbene l’idrogeno solforato rimanga in forma gassosa a temperatura ambiente con ogni molecola contornata da 12 vicine, quando raffreddato sotto −60°C, i dimeri di H2S sono uniti da un legame a idrogeno. A temperature più elevate tali legami si rompono e si riformano troppo rapidamente per essere rilevati mediante spettroscopia.

Bibliografia

[1] A. Das et al., Angew Chem Chem Int. Ed., 2018, DOI: 10.1002/anie.201808162

Si fa presto a dire ricicliamo…… 2: i numeri del riciclo mondiale

In evidenza

Claudio Della Volpe

(Prima parte del post, qui)

Facendo seguito alle considerazioni generali della prima parte, esamineremo qui alcuni dati riguardanti la situazione e l’evoluzione della circolarità per il mondo nel suo complesso e per l’Europa a 27. Sia per l’Europa che per il mondo nel suo complesso abbiamo a disposizione un articolo del 2015 pubblicato su Journal of Industrial Ecology che analizza la situazione al 2005 (fig. 1 e 2, legenda dei colori in Fig. 2).

Vediamo che la percentuale riciclata era in entrambi i casi molto ridotta 4Gt su un totale di 62 Gt e 1 su 6.7 nel secondo caso, con un vantaggio significativo dell’Europa che, secondo questa stima, riciclava circa il doppio dei materiali rispetto alla media del mondo intero, costituendone poco più di un decimo e questo vi da l’idea delle dimensioni reciproche fra Europa e Mondo (la popolazione europea di circa 550 milioni di persone era inferiore al decimo della popolazione mondiale che all’epoca era appena sotto i 7 miliardi mentre i suoi consumi sono al di sopra di questa soglia). Infine l’Europa a 27 importava circa il 18% del suo flusso materiale totale.

Questo confronto è relativamente facile in quanto l’articolo usa la medesima metodologia per i due casi.

Impressiona questa analisi delle nostre società come enormi reattori, ma descrive anche con chiarezza la sostanziale linearità del processo produttivo.

Ci sono due aspetti che aiutano a capire questi grafici e il loro senso.

Il primo è che buona parte della massa di materiale impiegata è combustibile. Serve a scopi energetici e dunque spiega anche perchè non viene riciclata e contribuisce a tener bassa la percentuale del riciclo attuale; l’altro aspetto è l’importanza dell’accumulo che viene ulteriormente analizzato nel lavoro successivo.

Fig. 1

Fig. 2

Nella fig.3, che è frutto di un diverso tipo di analisi, abbiamo una parte della rappresentazione usata nel testo The Circularity Gap Report; e vediamo come vanno le cose nel mondo al 2014, dunque dieci anni dopo i grafici precedenti; in entrambi i casi si tiene conto dell’accumulo complessivo, ma qui si valuta esplicitamente quanto vale questo stock di manufatti che ha ormai raggiunto gli 800 Gt. Il totale della stima raggiunge con questo secondo metodo, non immediatamente confrontabile con l’altro, oltre 90 Gt, mentre se consideriamo i dati “netti” (trascurando l’accumulo in stock) le cose non sono distanti, 68.5Gt; di queste 90Gt circa solo il 9% sono riciclate.

Molto difficile capire bene se c’è stata una evoluzione positiva o se le differenze nascono da metodi diversi di calcolo, incluso l’aumento dei dati complessivi che sarebbe impressionante.

Fig. 3

Fig. 4

Nella figura 4 qui sopra invece abbiamo una rappresentazione fatta dagli uffici statistici dell’Europa a 27 che da per il 2014 una stima di riciclo, udite bene, inferiore a quella del 2005 dell’altro lavoro, mentre i numeri globali sono simili; ossia solo 0.7 Gt di materiale sarebbero riciclate su un totale di flusso di 7.3; se fossero comparabili questi dati indicherebbero un peggioramento della situazione; e comunque fanno vedere che la situazione non è rosea perchè a questo punto sarebbe sostanzialmente omologa a quella del mondo nel suo complesso.

In media, dato che siamo oltre 7.5 miliardi, ciascuno di noi necessita di un flusso impressionante di materiali vari che a seconda delle stime si aggira un po’ sotto o un po’ sopra le dieci tonnellate annue e che ha lasciato dietro di se un accumulo calcolabile al 2014 in 100 tonnellate pro capite di manufatti che usiamo (case, auto, strade etc). Ma non basta!

Ciascuno di noi disperde anche il 90% del suo flusso annuo sul pianeta, ossia 9 tonnellate di materiale all’anno che infestano la biosfera a partire dall’oceano e dall’aria prima di tutto, mentre solo 1 tonnellata viene riciclata in qualche forma. Difficile stimare la quantità totale di rifiuti prodotti nel corso del tempo, ma i numeri sarebbero ancora più alti.

In sintesi per ogni uomo vivente sul pianeta ci sono alla grossa 100 ton di materiale accumulato sotto forma di manufatti, 10 ton di materiale processato all’anno e di queste solo 1 ton viene da riciclo.

I due aspetti che saltano all’occhio sono da una parte che il passaggio alle energie alternative potrebbe ridurre la quota di materiale disperso in ambiente da cui dipendono il GW e l’inquinamento; dall’altra l’accumulo di materiali come case ed oggetti durevoli è enorme, ma lo è ancor più se si pensa che l’accumulo riguarda solo una parte dell’umanità (consumo di suolo, costruzione di grandi e grandissime infrastrutture, saturazione del mercato delle costruzioni, etc) e dunque il pro capite è anche parecchio più alto di 100 ton con un gap fra paesi di antica e recente industrializzazione.

La sua crescita dunque è difficile da modificare nell’immediato, perchè una parte crescente di persone dei paesi emergenti sta uscendo finalmente dalla povertà ed entra nella classe media mondiale (e quel che ci fa arrabbiare è casomai che lo fa a spese della classe media dei paesi ricchi, e non piuttosto dei ricchi o dei super-ricchi di questi medesimi paesi). A questo proposito si deve guardare il famoso grafico dell’elefante.

Quello che stiamo vivendo in questi anni: i ricchi diventano sempre più ricchi, i nostri diritti sociali vanno a scomparire e nel contempo una parte enorme di umanità entra nel gioco (o nel giogo?) del mercato.

Quanto conta in tutto ciò la tendenza a considerare imprescindibile la continua “innovazione”, ossia cambiamenti casomai non epocali ma continui e spinti da un mercato che DEVE accumulare profitti o crollare? La creazione nei paesi cosiddetti “avanzati” di bisogni “innovativi” porta ad un accumulo incredibile sia di rifiuti che di stock. Pensate solo all’abitudine che abbiamo ormai di avere prodotti cosiddetti innovativi ogni anno (auto, cellulari, computers, etc, sono i famosi “eventi” mondiali delle grandi case, una chiamata a morto per l’ambiente): ma quanto sono effettivamente innovativi i prodotti innovativi? E di quanti di essi abbiamo effettivamente bisogno? Pensate solo ad un computer un po’ più veloce di prima e con una interfaccia un po’ più graziosa di prima che rende immediatamente “vecchi” anzi “obsoleti” (fa molto più figo!) tutti i precedenti, cambiate computer e dovrete cambiare tutte le periferiche: l’obsolescenza pianificata o forzata (come si legge dai giornali lo hanno fatto Apple e Samsung) è una base tradizionale di produzione industriale, che confligge terribilmente con le esigenze dell’economia circolare; la scomparsa del mercato dei ricambi e delle riparazioni è un altro aspetto.

Quante case sono veramente necessarie e quante invece sono sfitte, vuote per motivi di mercato e non di necessità?

Quante infrastrutture nuove sono veramente necessarie? Una corsia di autostrada in più serve veramente?

Le auto Euro n+1 ha senso sostituirle alle Euro n buttando al macero l’energia investita nel produrle? (circa 15-20ton di CO2 equivalente per ogni auto).

In tutti i casi c’è molto, moltissimo lavoro da fare, prima di tutto nell’analizzare con precisione la situazione ed i possibili rimedi.

Pensiamoci, ma in fretta per favore. Il clima e l’ambiente non aspettano più, sono stufi.

Nel prossimo post parleremo del riciclo dei singoli elementi della tavola periodica.

(continua)

Riferimenti:

1) The CIRCULARITY GAP report

https://docs.wixstatic.com/ugd/ad6e59_c497492e589c4307987017f04d7af864.pdf

2) Journal of Industrial Ecology October 2015 Pages 765-777

Volume19, Issue5 Special Issue on Frontiers in Socioeconomic Metabolism Research

https://onlinelibrary.wiley.com/doi/abs/10.1111/jiec.12244

3) statistiche europee

http://ec.europa.eu/eurostat/cache/infographs/circulareconomy/

http://dx.doi.org/10.1016/j.resconrec.2017.10.019

Resources, Conservation & Recycling 129 (2018) 81–92

Critical appraisal of the circular economy standard BS 8001:2017 and a dashboard of quantitative system indicators for its implementation in organizations

Stefan Pauliuk

https://wir2018.wid.world/files/download/wir2018-summary-english.pdf

Riflessioni e spunti da “accadueo”

In evidenza

Mauro Icardi

Lo scorso 18 Ottobre, dopo qualche anno di mancata frequentazione di fiere di settore, son voluto andare a Bologna per la manifestazione “accadueo”. Devo dire di avere fatto una scelta azzeccata. Ho potuto verificare di persona quelle che sono le nuove tendenze per la gestione in particolare delle reti idriche, e le nuove tecnologie disponibili a questo scopo. La parte più interessante è stata però il corso di formazione, seguito nel pomeriggio, e dedicato all’ottimizzazione funzionale ed energetica degli impianti di depurazione. Il depuratore del futuro è destinato a diventare qualcosa di profondamente diverso da come lo abbiamo conosciuto fino ad oggi.

Tendenzialmente deve diminuire il consumo unitario di energia per m3 di acqua trattata. Questo risultato però è ottenibile solo con un’operazione accurata e precisa di verifica delle funzionalità reali delle varie sezioni di impianto. Successivamente si possono programmare interventi mirati per il miglioramento del rendimento delle varie sezioni di trattamento. Occorre quindi conoscere con molta precisione il funzionamento reale dell’impianto. Tutto questo non può prescindere dal creare delle sinergie reali e positive, tra i gestori degli impianti di depurazione, che sono quelli che ne hanno la conoscenza gestionale e pratica, gli enti di ricerca, le università. Un modello di questo tipo è ormai usuale nei paesi del nord Europa, quali Danimarca e soprattutto Olanda. E non è casuale che proprio l’Olanda adottando una politica idrica di questo genere stia producendo ed esportando brevetti di nuove applicazioni dedicate alla gestione del ciclo idrico. Questa è un idea che sostengo da molto tempo, e di cui ho spesso scritto sulle pagine di questo blog. Per esperienza personale so purtroppo che in Italia la gestione e la realizzazione concreta di progetti innovativi, o di gestioni diverse del ciclo idrico incontrano molte resistenze, della natura più varia. I progetti di tesi di laurea sostenuti dagli studenti dell’Università di Varese che ho seguito come tutor, e che si occupavano della codigestione di matrici biodegradabili da trattare insieme al fango prodotto dagli impianti di depurazione municipali, hanno purtroppo subito uno stop, e non si è riusciti a trasformarli in progetti di ricerca. La sperimentazione sia pure molto positiva in scala di prova di laboratorio, si sarebbe dovuta proseguire a livello di prova su impianto pilota. Questo personalmente mi è dispiaciuto molto, visto che la codigestione sarebbe uno dei modi con i quali si può ridurre il consumo energetico dei depuratori, nonché migliorare la stabilizzazione della materia organica dei fanghi prodotti.

Purtroppo, come per esempio la vicenda della gestione dei fanghi di depurazione sta dimostrando, intorno a queste questioni si sta facendo troppa inutile confusione. Basta fare una normale ricerca in rete, per potersene rendere conto. Non esistono solo comitati che giustamente pretendono attenzione e chiarezza sulla gestione e disciplina dell’utilizzo dei fanghi di depurazione, ma anche decine di comitati contro la digestione anaerobica, cosa che invece lascia qualche perplessità in più. Inutile ribadire quanto è già stato detto qui su questo blog. La digestione anaerobica è una delle tecniche per il trattamento dei fanghi. E’ cosa diversa dalla digestione anaerobica degli effluenti zootecnici su cui molte persone storcono il naso. Per altro la codigestione di reflui e fanghi è normalmente praticata nei soliti paesi nord europei, ed era stata anche suggerita dall’Agenzia Europea di protezione ambientale nel 2011.

http://www.eea.europa.eu/highlights/big-potential-of-cutting-greenhouse?&utm_campaign=big-potential-of-cutting-greenhouse&utm_medium=email&utm_source=EEASubscriptions

Utilizzandola in combinazione con una gestione oculata della fase di ossidazione biologica può contribuire a diminuire il consumo energetico per m3 di acqua trattata da valori di 1kWh fino a circa 0,2.

La gestione corretta della fase di ossidazione biologica può consentire risparmi ulteriori. Una manutenzione efficiente e continuativa dei sistemi di diffusione di aria nelle vasche di ossidazione, consente risparmi che in un periodo di tre anni possono arrivare a 180.000 euro. Di energia non sprecata inutilmente nel comparto di ossidazione, che da solo è responsabile del 60% circa dei consumi energetici di un impianto di depurazione.

Se i piattelli si intasano e producono bolle d’aria troppo grandi l’efficacia di areazione diminuisce drasticamente. L’importanza di un sistema di aerazione che risparmi energia negli impianti di trattamento dei liquami si è rivelata molto presto. Le riduzioni di consumi energetici si devono trasformare in costi inferiori per il trattamento dell’acqua e la fornitura di acqua al cittadino.

La questione fanghi è aleggiata come un fantasma nella giornata trascorsa a Bologna. Qui ne abbiamo scritto, e abbiamo cercato di spiegarla. Da queste pagine mi sento di lanciare un invito ad un ulteriore sinergia. Quella con i medici ambientali, che si stanno occupando della questione dal punto di vista dei possibili impatti sulla salute.

http://www.gonews.it/2017/01/21/parere-medico-sullo-spandimento-dei-fanghi-depurazione-agricoltura/

Molte delle richieste che questi medici fanno sono condivisibili. Si rifanno ad un giusto principio di precauzione. Ma credo che anch’essi dovrebbero conoscere quello che sarebbe l’effetto di un eventuale blocco degli smaltimenti del fango, sulle condizioni di funzionamento (e di lavoro degli addetti). Se tutta la vicenda dei fanghi avrà come conclusione l’avvio di sinergie, il superamento delle decretazioni d’urgenza, e l’avvio di una sorta di “new deal” idrico, sarà certamente una cosa molto positiva.

Purtroppo però, devo constatare almeno alcune cose. Tanta demagogia, in un paese che è arrivato al 95% di partecipazione al referendum per l’acqua pubblica, ma continua a bere in maniera consistente quella in bottiglia (magari “griffata” da una bella fanciulla…) Poi un’altra situazione incresciosa. Quella in cui sono incappato infilandomi in una discussione che avrei dovuto evitare, visto che i social non sono il luogo migliore per approfondimenti tematici o tecnici. Molte persone hanno la radicata convinzione che gli addetti del ciclo idrico siano al servizio delle aziende e non dei cittadini. Con dubbi sulla corretta esecuzione delle analisi e dei risultati delle stesse. Bene, da queste pagine vorrei smentire questa vulgata. Io e molti altri colleghi siamo vincolati non solo dalla deontologia professionale, se iscritti ai rispettivi ordini professionali, ma anche dalla propria deontologia personale. Questa osservazione mi deve essere consentita. Sono piuttosto avvilito e stanco di vedere non solo pressapochismo e superficialità nel trattare questi temi, ma anche di vedere trasmissioni televisive dove spesso il tema è approfondito male, o trattato altrettanto superficialmente con l’arma di un’ironia che può fare più male che bene. L’acqua pubblica non significa acqua gratis. Significa averne la comprensione, l’educazione a gestirla, la doverosa rendicontazione di spese e investimenti. La corretta e puntuale pubblicazione di dati e analisi sui siti istituzionali e delle stesse aziende di gestione. A disposizione dei cittadini che sono i soggetti a cui questo servizio si rivolge. Che però dovrebbero fare almeno un minimo sforzo di comprensione e di approfondimento. Quella educazione idrica di cui ho parlato su queste pagine. Non è immediato per chi non è del settore capire per esempio che non ci sono solo inquinanti emergenti provenienti da lavorazioni industriali, ma anche residui di inquinanti legati ai nostri personali stili di vita (residui di farmaci, droghe d’abuso e cosmetici ne sono un chiaro esempio). La divulgazione è necessaria, ma deve anche essere accolta senza preclusioni o remore dalle persone a cui si rivolge. Perché se vince il pensiero magico o la preclusione ostinata non si ottiene nessun risultato.

La “catena di montaggio” aggiornata.

In evidenza

Luigi Campanella, già Presidente SCI

La catena di montaggio è nata nel 1913 inventata da Henry Ford che la introdusse nella sua fabbrica di automobili. Sostanzialmente parcellizzava il lavoro scomponendolo in piccole isole o singole mansioni, finalizzando il tutto ad un aumento della produttività. In effetti però il fordismo aveva avuto un precedente nel Taylorismo di Frederick Taylor un ingegnere che aveva individuato già alcuni anni prima il sistema di organizzazione scientifica del lavoro.

Nasce da queste due impostazioni l’era moderna perché dinnanzi alla protesta degli operai per questa innovazione organizzativa Ford rispose raddoppiando gli stipendi e quindi aumentando le capacità di spesa e consumo degli operai, di fatto dando l’avvio al capitalismo moderno. La stessa geografia industriale, europea e mondiale, si modifica profondamente: l’Inghilterra viene superata, alcuni paesi centro-orientali europei fanno la loro comparsa al livello delle economie significative.

La seconda rivoluzione industriale si concretizza: dopo la prima, quella del cotone, del ferro, del carbone, della macchina a vapore abbiamo quella del motore a combustione interna, dell’elettricità, dell’acciaio, della chimica, i cui progressi lanciano la chimica per il tessile, la produzione del sapone e della carta su grande scala, il settore della chimica organica, in particolare dei derivati della cellulosa. La Germania doppia l’Inghilterra per la produzione di acciaio, si costruiscono in Europa 70 mila chilometri di ferrovia, gli Stati Uniti pongono le premesse per quel cambio di leadership dell’economia mondiale che si concretizzerà dopo la seconda guerra mondiale.

A causa di questo eccezionale sviluppo industriale erano a disposizione di quasi tutte le nazione europee grandissime quantità di armi micidiali e di flotte militari sempre più agguerrite. Francia e Inghilterra volevano bloccare l’espansionismo tedesco e la sua crescente, inarrestabile egemonia industriale e scientifica: erano i prodromi della prima guerra mondiale. Processi così rapidi e sconvolgenti non possono passare tranquillamente: quattro anni dopo in Russia si compie la rivoluzione bolscevica e due anni più in avanti in Italia Mussolini crea i fasci di combattimento. La catena di montaggio è però andata avanti sia pure con soluzioni diverse come l’isola di montaggio, la cella di montaggio, la cella di assemblaggio introdotte allo scopo di conciliare i vantaggi della standardizzazione con stazioni di lavoro non più affidate ad una sola persona, con una visione del lavoro meno alienante e più sociale.

In più la robotizzazione industriale, a cui la chimica ha dato impulso e motivo, contribuisce significativamente a questa visione più morale e rispettosa del lavoratore ed è oggi uno dei punti di forza di Industria 4.0 e Chimica 3.0. Per il lavoratore nasce però un nuovo timore, quello di essere progressivamente sostituito dalla macchina, lo stesso timore che provarono i lavoratori tessili prima ricordati e che li spinse a sabotare le macchine che li avevano sostituiti. Chi contrasta questa tesi si appoggia, in fondo, al processo che abbiamo vissuto e che ricordavo all’inizio di questa nota: automazione vuol dire aumento della produttività, quindi dell’economia e del reddito che genererà domanda di nuovi prodotti e servizi e quindi di nuovi posti di lavoro. Si tratta di stabilire con che intensità questo processo si svilupperà rispetto all’altro, la caduta di posti di lavoro maturi e tradizionali a causa della competitività delle macchine. Nei prossimi decenni l’avanzamento tecnologico con la realizzazione di macchine applicate ad attività che richiedono capacità cognitive che non molto tempo fa erano viste come dominio degli essere umani comporteranno uno sconvolgimento guidato da nuove ondate di automazione centrata sulla cognizione artificiale, sulla sensoristica di routine, sulle nuove interfacce utente/macchina, sull’intelligenza distribuita.

Nasce una nuova “catena di montaggio” il cui filone è la comunicazione ed il cui traguardo è la conoscenza. C’è da chiedersi-e di conseguenza sperare- se la mutate condizioni generali ci preserveranno dagli inconvenienti e dalle sciagure che seguirono al primo lancio della catena di montaggio. Sta di fatto che ci sono anche altre condizioni che rendono difficoltosa una transizione di questo tipo: global warming, inquinamento diffuso, limiti delle risorse minerali e rinnovabili.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Ida Smedley McLean (1877-1944)

In evidenza

Rinaldo Cervellati

Nel post su Martha Whiteley abbiamo accennato a Ida Smedley McLean, biochimico, prima donna a essere ammessa alla Royal Chemical Society, anche essa attivista per le pari opportunità delle donne nelle Facoltà di Chimica. Vale la pena fornirne dunque una sua appropriata nota biografica.

Nata a Birmingham il 14 giugno 1877, seconda figlia di William T. Smedley, uomo d’affari e di Annie Elizabeth Duckworth, figlia di un commerciante di caffè di Liverpool, una famiglia colta e progressista, ricevette l’istruzione primaria da sua madre fino all’età di nove anni.

Dal 1886 al 1896 frequentò la King Edward VI High School for Girls a Birmingham. Ottenne una borsa di studio con la quale entrò al Newnham College di Cambridge, iscrivendosi al Progetto Tripos di Scienze Naturali[1] nel 1896. Si piazzò al primo posto nella prima parte del progetto (1898) al secondo nella seconda parte (1899), studiando chimica e fisiologia. Dopo due anni di interruzione Ida ottenne nel 1901 una borsa di studio per fare ricerca post diploma al Central Technical College di Londra sotto la guida di H. E. Armstrong[2]. Ha insegnato come dimostratore di chimica nei laboratori didattici del Newnham College nel 1903 e nel 1904 ed è stata ricercatrice presso il laboratorio Davy-Faraday della Royal Institution dal 1904 al 1906. Conseguì il dottorato presso l’Università di Londra nel 1905.

Ida Smedley

Nel 1906 Smedley fu nominata assistente nel Dipartimento di Chimica dell’Università di Manchester, la prima donna a ricoprire un incarico in quel dipartimento. Rimase a Manchester per quattro anni, durante i quali condusse e pubblicò ricerche in chimica organica, in particolare sulle proprietà ottiche dei composti organici. Oltre a un primo lavoro del 1905, probabilmente riguardante la ricerca per il dottorato, altri sei articoli a suo solo nome furono pubblicati sul Journal of the Chemical Society Transactions fino al 1911.

Nel 1910 tornò a Londra e iniziò il suo lavoro in biochimica, che avrebbe continuato per il resto della vita. Ottenne una delle prime borse di ricerca Beit[3] (1910), lavorando presso il Lister Institute of Preventive Medicine diretto da Arthur Harden[4].

Menu di una cena dei vincitori di Borse Beit (la firma di Smedley è la quarta dal fondo)

Nel 1912 pubblicò una ricerca originale sugli acidi grassi contenuti nel burro [1] dimostrando, contrariamente a quanto si pensava, che sono costituiti da catene non ramificate, e la presenza di altri acidi insaturi accanto al già ben caratterizzato acido oleico. Il lavoro confermò anche la presenza soltanto di acidi grassi con un numero pari di atomi di carbonio. Successivamente pubblicò una prima analisi sui percorsi attraverso cui gli acidi grassi potevano essere biosintetizzati [2], facendo l’ipotesi che l’acido piruvico derivato dalla demolizione dei carboidrati fosse il precursore e che esso potesse perdere una molecola di anidride carbonica per generare un frammento con due atomi di carbonio (chiamato acetaldeide attiva) che avrebbe potuto essere usato per estendere una catena di acidi grassi in crescita attraverso una serie di reazioni di condensazione, disidratazione e riduzione[5].

Nel 1913, ricevette il premio Ellen Richards, un premio bandito dall’American Association of University Women per una ricerca originale di una scienziata donna. Nello stesso anno sposò Hugh Maclean (1879-1957), in seguito professore di medicina all’Università di Londra e all’ospedale di St Thomas, col quale ebbe un figlio e una figlia.

Durante la prima guerra mondiale, Smedley Maclean lavorò all’Ammiragliato su vari progetti di importanza nazionale, compresa la produzione su larga scala di acetone dall’amido per fermentazione.

Continuò le ricerche sugli acidi grassi che inclusero la loro sintesi dai carboidrati, la loro funzione e metabolismo negli animali. Fra il 1920 e il 1941 pubblicò più di 40 articoli su questi temi, parte in collaborazione, nel Biochemical Journal [3].

Divenne membro dello staff del Lister Institute nel 1932.

Lo staff del Lister Institute nel 1933. Nel riquadro Ida Smedley Mclean

La sua monografia The Metabolism of Fat, pubblicata nel 1943 come prima delle Monografie Methuen in Biochimica, riassumeva le sue opinioni sul campo, in cui era ormai un’autorità riconosciuta.

Ida Smedley Maclean è stata determinante nel promuovere lo status professionale delle donne nelle università. È stata una delle fondatrici della British Federation of University Women, da cui è nata la International Federation of University Women. Dall’inizio del movimento nel 1907, ricoprì incarichi di vertice e successivamente fu presidente della Federazione dal 1929 al 1935. Attualmente, la federazione amministra una borsa di ricerca post dottorato a suo nome, destinata a donne che intendono proseguire nel lavoro di ricerca.

E’ stata anche una leader nella lunga lotta per l’ammissione delle donne nella Chemical Society, che riuscì a vincere nel 1920. Fu quindi la prima donna ad essere formalmente accettata nella Chemical Society e fu membro del suo consiglio dal 1931-1934. Dal 1941 al 1944 è stata membro del comitato per le accettazioni delle donne all’Università di Cambridge.

Ida Smedley Maclean morì il 2 marzo 1944 presso l’University College Hospital di Londra e fu cremata a Golders Green.

Ida è stata una donna straordinaria riuscendo a gestire con successo e equilibrio i tre aspetti della sua vita: ricerca scientifica, impegno sociale e famiglia.

Bibliografia

[1] I. Smedley, The Fatty Acids of Butter, Biochemical Journal., 1912, 6, 451-461.

[2] I. Smedley, E. Lubrzynska, The Biochemical Synthesis of Fatty Acids, Biochemical Journal, 1913, 7, 364-74.

[3] http://www.biochemj.org/search/ida%252Bsmedley

Opere consultate

Mary M.S. Creese, Maclean Ida Smedley (1877-1944), Oxford Dictionary of National Biography, Oxford University Press, DOI: 10.1093/ref:odnb/37720.

Catherine M. C. Haines, (2001). International Women in Science: a Biographical Dictionary to 1950

  1. James, Ida Smedley was the first female member of the Chemical Society, and a vociferous campaigner for equality.

http://www.rsc.org/diversity/175-faces/all-faces/dr-ida-smedley/ https://warwick.ac.uk/fac/arts/history/chm/research/current/early_women_biochem/ida_smedley

[1] Il Progetto Tripos per le Scienze Naturali (NatSci) è tuttora vigente all’Università di Cambridge. NatSci è un corso ampio e flessibile; si inizia studiando quattro materie nel primo anno, almeno una delle quali deve essere matematica. È flessibile nel senso che uno studente può ad es. iniziare il percorso con l’intenzione di diventare un fisico e finirlo come biologo molecolare o vice versa. Ovviamente ai tempi di McLean la scansione temporale era diversa ma la “filosofia” del Tripos è rimasta inalterata. Per entrare, condizione necessaria è aver ottenuto il massimo dei voti in matematica, fisica, chimica e biologia agli esami finali della High School.

[2] Henry Edward Armstrong (1848-1937) chimico britannico. Sebbene Armstrong sia stato attivo in molte aree della ricerca scientifica, in particolare la chimica dei derivati del naftalene, è ricordato oggi soprattutto per le sue idee e il suo lavoro sull’insegnamento della scienza.

[3] Beit Memorial Research Fellowships, una delle borse di studio più prestigiose e competitive per la ricerca post-dottorato in medicina nel Regno Unito. Sono state istituite nel 1909 da Sir Otto Beit, un finanziere britannico di origine tedesca, filantropo e conoscitore d’arte, in memoria del fratello Alfred Beit.

[4]Sir Arthur Harden (1865–1940) biochimico britannico. Condivise il premio Nobel per la chimica nel 1929 con Hans Karl August Simon von Euler-Chelpin per le loro indagini sulla fermentazione degli enzimi zuccherini.

[5]Oggi sappiamo che questo schema è sostanzialmente valido e che l’acetaldeide attiva è l’acetil-coenzima A.

Recensione. Luca Mercalli “Non c’è più tempo. Come reagire agli allarmi ambientali”

In evidenza

Mauro Icardi

Luca Mercalli “Non c’è più tempo. Come reagire agli allarmi ambientali”. Ed Einaudi pag. 262. Euro 15.30

Recensione.

Il libro del noto climatologo è appena stato pubblicato per la collana “Passaggi” di Einaudi.

Libro che ho letto praticamente tutto d’un fiato. E lo rileggerò, come tutti i libri che trattano di temi che ritengo fondamentali da affrontare e da capire. Troverà il suo posto d’onore insieme a tanti altri che sono i più frequentemente consultati della mia libreria, partendo dall’edizione 1972 de “I limiti dello sviluppo”. Il libro è il compendio di vent’anni di riflessioni e articoli, che affrontano i temi più importanti, e allo stesso tempo ignorati in maniera superficiale o colpevole, del nostro tempo. La crisi ambientale, lo sfruttamento vorace ed insensato delle risorse naturali, il cambiamento climatico, la perdita di biodiversità, la modifica dei cicli biogeochimici. Prende spunto nella prima parte, dall’opera di Primo Levi e alle sue riflessioni di vita e di comprensione della realtà. Creando un collegamento tra il chimico militante che era Levi, con il climatologo militante che è Mercalli . Militante per la sua incessante attività di divulgatore, ma anche per gli esempi concreti di come si possa vivere diminuendo il proprio impatto sulle risorse del pianeta. Una parte del libro è dedicata proprio ai buoni consigli che altro non sono che accorgimenti quali, tra i tanti, l’uso consapevole e attento dell’acqua, la coltivazione dell’orto.

L’invito a non considerare tutto questo come una fatica impossibile o un sacrificio gravoso. Una doverosa consapevolezza ambientale, unita anche ad un impegno sostanziale. Non un’ecologia naif, ma anche un’ecologia della mente, che ci renda meno soggetti alle lusinghe di moda e frivolezze, più consapevoli di tutti i limiti che pensiamo di poter oltrepassare, con il ricorso a una sorta di post verità di comodo. Il pensiero magico diffuso. Tutte cose che l’autore non solo suggerisce, ma concretamente pratica. Oltre a questo anche la necessità di riportare il tema ambientale nelle agende dei governi del pianeta, cercando di rendere questo impegno condiviso a livello internazionale, come auspicava Aurelio Peccei. Perché la nostra casa, cioè il nostro pianeta è uno solo.

La recensione di un libro è un po’ come quella di un film, non è opportuno svelare troppe cose. Il libro va letto. E apprezzato. Ma ci sono certamente cose che da lettore mi hanno molto colpito, e di cui devo dar conto. Nella seconda parte del libro “Una lettera dal pianeta terra” è un piccolo gioiello.

L’ammonimento del pianeta agli esseri umani a non sfruttare le risorse che essa ha messo loro a disposizione, e di cui stanno facendo un uso sconsiderato. Perché gli esseri umani, quando vogliono sanno essere anime nobili, che producono bellezze come la musica e la pittura. Ma che se non rispetteranno le leggi naturali, saranno da esse stesse eliminati. La terra guarirà così dalle ferite che le sono state provocate, ma con dispiacere e nostalgia.

Nella prima parte il collegamento con l’opera di Primo Levi cerca di aiutarci a capire i meccanismi inconsci di rimozione delle scomode verità, che preferiamo non affrontare, sia a livello di governi, che di singoli cittadini. Delle azioni concrete che tendiamo a rimandare. Mercalli cerca una spiegazione, con un paragone che considera ardito, ma che invece a mio parere è molto adatto.

Così come si sono create realtà di comodo e consolatorie negli anni dell’ascesa delle dittature nazista e fascista, così oggi ci creiamo delle verità comode, delle zone di conforto, come le definisce la psicologia, per evitare di sottoporci all’unica cosa che dovremmo fare da subito. Rientrare nei limiti fisici del pianeta, prima che il pianeta tramite le immutabili ed inarrestabili leggi fisiche e naturali, provveda a ristabilire un equilibrio che farà a meno di noi.

Una delle citazioni dell’opera di Levi nel libro, e che da conto dell’inazione di allora, della cecità volontaria di ieri come di oggi, è questa tratta da “Potassio” del Sistema periodico:

ricacciavamo tutte le minacce nel limbo delle cose percepite o subito dimenticate , ne’ in noi, né più in generale nella nostra generazione, “ariani” o ebrei che fossimo, si era ancora fatta strada l’idea che resistere al fascismo si doveva e si poteva. La nostra resistenza di allora era passiva, e si limitava al rifiuto, all’isolamento, al non lasciarsi contaminare

Non è un libro scritto da un catastrofista, termine ormai abusato, e a cui l’autore credo si sia ormai abituato. E’ un libro che ci vuole aiutare a osservare lo stato del pianeta con un ottimismo consapevole. Che dispensa consigli di ecologia domestica, e ci ricorda anche alcuni nostri comportamenti da correggere.

Una piccola considerazione personale

Ho sorriso leggendo nella terza parte una considerazione sui ciclisti, competitivi o contemplativi. Io appartengo alla seconda categoria. Vado in bicicletta per godere del paesaggio e della natura. Tutte cose che se si tiene la testa piegata solo a guardare il manubrio non si notano. Mi sento soddisfatto quando annoto la CO2 che non emetto (94.4 g per ogni chilometro percorso in bici, invece che in auto). E ogni giorno i 23 km del tragitto casa lavoro diventano il mio piccolo contributo (2.17kg in meno), insieme ad altri accorgimenti, per diminuire impatto ed emissioni. Non ho smanie competitive, o feticismi tecnologici. E anche l’inconveniente del mio incidente, ormai risolto, è un ricordo. E ho ripreso a pedalare. Quindi il messaggio è che la resilienza, e la capacità di godere di bellezza e natura, sono doti che si possono coltivare. Con pazienza e perseveranza. Ed è anche questo messaggio che il libro trasmette e suggerisce.

Ma il tempo davvero sta scadendo, e quindi usiamolo al meglio. E’ la nostra sfida più grande. Soprattutto per chi verrà dopo di noi. Quindi facciamo nostro questo impegno etico e indifferibile.

Saperi Pubblici, Bologna, piazza Verdi, 2 ottobre 2018

In evidenza

Pubblichiamo, con il permesso dell’autore, un intervento tenuto da Vincenzo Balzani il 2 ottobre us a Bologna.

Vincenzo Balzani

Buona sera. Grazie Margherita, poi un grande grazie alle due studentesse che con i loro interventi pubblici hanno portato a questa iniziativa; grazie anche a Federico Condello e a tutti coloro che hanno contribuito ad organizzare questo incontro, e a voi che ci ascoltate.

Siamo qui questa sera per esprimere il nostro disaccordo nei confronti delle decisioni e anche degli atteggiamenti dei capi di questo governo. Siamo qui per criticare. Non è la prima volta che mi capita. Il gruppo di scienziati che ho l’onore di coordinare ha criticato, pubblicamente, il governo Berlusconi quando voleva farci tornare al nucleare, Il governo Renzi quando col decreto Sblocca Italia ha liberalizzato le trivellazioni, il Governo Gentiloni quando ha pubblicato la Strategia Energetica Nazionale imperniata sul metano, sostanzialmente dettata da ENI.

Siamo qui per criticare e qualcuno dirà che criticare è facile; ma noi cha lavoriamo nel settore scientifico sappiamo che criticare è utile e anche necessario. Noi ricercatori siamo abituati sia a criticare che ad essere criticati. Ogni nostro lavoro è sottoposto al vaglio critico di colleghi e spesso tocca anche a ciascuno noi di dover leggere e criticare i lavori di altri. E’ il metodo chiamato peer review. Le critiche che facciamo e che subiamo fanno progredire la scienza perché correggono sviste o anche errori gravi nostri o di nostri colleghi e in certi casi bloccano pubblicazioni che non rispondono a due dei criteri basilare della scienza, che sono oggettività e competenza. Altri pilastri della scienza, oltre a oggettività e competenza, sono la collaborazione, lo scambio di idee, il mantenere vivo il dubbio, il non ritenersi superiori agli altri. Se uno ci pensa bene, si accorge che i pilastri della scienza sono anche i pilastri della democrazia. Ecco perché difendere la scienza significa anche difendere la democrazia.

I filosofi, in particolare Edgar Morin, ci insegnano che i problemi importanti sono sempre complessi e spesso sono pieni di contraddizioni. Nella scienza sappiamo che non esistono scorciatoie per risolvere i problemi complessi, sappiamo che bisogna affrontarli con competenza, con saperi diversi che debbono interagire fra loro, che bisogna affrontarli senza presunzione e senza pregiudizi. Noi siamo qui questa sera per chiedere a chi ci governa di riconoscere la complessità dei problemi che abbiamo di fronte e di non pretendere di risolverli con scorciatoie basate su pregiudizi, ma di attingere a quel deposito di sapienza che è la nostra Costituzione.

Il primo e più grave pregiudizio di alcuni dei nostri attuali governanti è pretendere di avere in tasca la verità, di essere migliori degli altri e quindi di non avere bisogno di nulla e di nessuno. Quindi dicono che si può fare a meno dell’Europa, si può fare a meno della Costituzione, si può fare a meno del Presidente della Repubblica, si può fare a meno della magistratura, si può fare a meno del ragioniere generale dello Stato … Dicono che se ne può fare a meno, perché sono solo ostacoli al “cambiamento”: “sappiamo noi cosa si deve fare e come si deve fare”. In realtà non dicono “si può fare a meno”, ma spesso usano il “me ne frego ” di derivazione fascista. A noi invece don Milani ha insegnato I care, il prendersi cura delle persone e delle cose.

In questi giorni mentre cercavo del materiale per una ricerca sulla sostenibilità ecologica e sociale mi sono imbattuto in un articolo scritto nel 1870 da James Freeman Clarke, un teologo e scrittore americano. Mi ha colpito il titolo dell’articolo: Wanted a Statesman, cioè vogliamo, cerchiamo una statista. Nulla di più attuale, ho pensato. Quindi me lo sono letto tutto. Se a qualcuno interessa, posso fornire il link. Questo Wanted a statesman dice molte cose interessanti. La prima è che uomini politici si nasce, e ce ne sono molti, ma statisti si diventa, e ce ne sono pochi in giro. Clarke fa l’esempio di Abramo Lincoln, il 16mo presidente USA assassinato nel 1865, che aveva iniziato come politico mediocre e poi diventò un grande presidente.

Nel suo articolo Wanted a Statesman Clarke dice che diventano statisti gli uomini politici che, anche a costo di divenire impopolari e di rimetterci la carriera, cambiano, maturano il loro modo di pensare.

Clarke discute in dettaglio questi cambiamenti con vari esempi; io per ragioni di tempo posso solo riassumere cosa, secondo lui, distingue un politico da uno statista. Alcune di queste differenze sono ben note e spesso anche citate. Clarke fa un elenco di sei punti:

  • l’uomo politico si preoccupa delle prossime elezioni, lo statista delle prossime generazioni.
  • L’uomo politico agisce per il successo del suo partito, lo statista opera per il bene del suo paese.
  • L’uomo politico si lascia spingere dal mutevole vento delle opinioni di altri (oggi, potremmo dire, dei sondaggi), lo statista guida il paese lungo una rotta studiata con cura.
  • L’uomo politico mette in atto questa o quella misura specifica, lo statista agisce sulla base di principi incorporati nelle istituzioni.
  • L’uomo politico è prigioniero delle sue idee, lo statista guarda sempre al futuro.
  • L’uomo politico promette che sistemerà tutto in pochi mesi, lo statista sa e dice di avere un compito difficile.

In base a quanto è accaduto in passato e accade tuttora in Italia, potremmo aggiungere che il politico fa annunci mirabolanti (come, ad esempio: abbiamo abolito la povertà) e dopo l’annuncio va sul balcone per farsi acclamare dalla folla entusiasta. Questa “politica del balcone” non mi piace, anche perché suscita brutti ricordi. Lo statista invece parla poco finché non ha conseguito il risultato che si era prefisso.

L’articolo di Clarke, Wanted a statesman, conclude con un concetto molto importante.

Finché saremo soddisfatti di essere governati da politici, ce li terremo. Ma se cercheremo con forza di avere qualcosa di meglio, cioè di essere governati da statisti, la nostra stessa ricerca li farà nascere. Le cose bisogna volerle, conquistarle con impegno. Ecco perché è importante fare manifestazioni come questa, che ci richiama ad un impegno quotidiano. E per mantenere accesa la speranza di far nascere fra noi qualche statista, proporrei di ripeterle, queste giornate, di rivederci nei primi giorni di ottobre del prossimo anno; o anche prima, se ce ne sarà bisogno.

Per finire, vorrei dire che ho letto il contratto di governo Lega-5 Stelle e ho cercato di vedere se da qualche parte è menzionata una parola che mi preme molto: PACE. Mi aspettavo di trovarla nella parte dedicata alla politica estera, abbiamo tanto bisogno di pace mentre, come sapete, continuiamo a vendere armi. Ebbene, sì, ho trovato la parola pace, ma solo nella sezione in cui si parla di tasse: lì c’è la pace fiscale.

 

I 50 anni del Club di Roma

In evidenza

Giorgio Nebbia

Gli anni sessanta del Novecento sono stati un periodo tempestoso della storia: la tensione fra le due potenze nucleari, Stati Uniti e Unione Sovietica, si era aggravata anche per la guerra del Vietnam; si moltiplicavano gli incidenti industriali e gli inquinamenti dei mari e dell’aria; l’uso indiscriminato dei pesticidi persistenti avvelenava il cibo e le acque. Aurelio Peccei, un intellettuale attento alla “difficile situazione” dell’umanità, pensò che gli uomini importanti dei vari paesi avrebbero dovuto collaborare per cercare delle soluzioni; ne riunì alcuni a Roma nel 1968 e nacque così un gruppo, chiamato il Club di Roma.

Con la collaborazione di alcuni studiosi americani il Club di Roma curò la pubblicazione, nel 1972, di un “Rapporto” intitolato “The Limits to growth”, tradotto in tutto il mondo; in Italia col titolo “I limiti dello sviluppo”, fuorviante perché lo sviluppo umano è diverso dalla crescita economica.

Il libro sosteneva che soltanto fermando o almeno rallentando la crescita della popolazione mondiale e della produzione agricola e industriale sarebbe stato possibile far diminuire gli inquinamenti e rallentare il consumo e lo sfruttamento delle risorse naturali non rinnovabili: minerali, petrolio, fertilità dei suoli.

Il libro del Club di Roma suscitò una tempesta. Gli economisti si scatenarono sostenendo che soltanto con la crescita economica e con innovazioni tecniche il mondo avrebbe potuto superare le crisi ambientali.

I comunisti, che allora c’erano ancora, sostennero che i guasti erano dovuti alla maniera capitalistica di produrre e consumare e che in una società pianificata i principali problemi potevano essere risolti. I cattolici contestarono la proposta di rallentare la crescita della popolazione con metodi contraccettivi.

Un economista americano, Georgescu Roegen, scrisse che neanche una società stazionaria, con popolazione e consumi costanti, avrebbe potuto durare a lungo a causa dell’inevitabile impoverimento delle risorse naturali limitate in un pianeta, come la Terra, di dimensioni limitate.

Il dibattito fu vivacissimo anche in Italia, come ha scritto lo storico Luigi Piccioni in un saggio pubblicato nella rivista altronovecento (n. 20, 2012).

Col passare del tempo gli avvertimenti del Club di Roma furono accantonati. Il Club di Roma continuò il suo lavoro, anche dopo la morte di Peccei avvenuta nel 1984; il 17 e 18 ottobre si celebre a Roma il 50° anniversario della sua fondazione con la pubblicazione di un nuovo rapporto che suggerisce vari possibili rimedi come l’uso di energia solare, il riciclo dei prodotti usati, la progettazione di prodotti a vita lunga, in modo da far durare di più le risorse naturali scarse.

Le proposte di limiti alla crescita sono accantonate: la popolazione umana, rispetto a 50 anni fa è raddoppiata nei paesi in via di sviluppo i cui abitanti premono alle porte dei paesi industrializzati, porte che restano egoisticamente chiuse benché la loro popolazione stia diminuendo e aumentino gli anziani.

La differenza fra ricchi e poveri è aumentata; le montagne dei crescenti rifiuti della società dei consumi avvelenano i campi, esplodono le città sovraffollate, i rumori di guerra si moltiplicano e cresce il commercio delle armi, al punto da spingere il papa Francesco a scrivere una enciclica “ecologica” e ad avvertire continuamente che il mondo, specie quello dei ricchi, deve cambiare.

Gli eventi stanno dimostrando che i pur sgradevoli avvertimenti del libro sui “Limiti” alla crescita” erano fondati e ha fatto bene la casa editrice Lu::ce di Massa, a ristamparlo nella versione originale italiana del 1972.Si può comprarlo per 12 euro bene spesi perché vi si parla di fenomeni che sono sotto i nostri occhi. Con i suoi grafici il libro mostra che se cresce la popolazione mondiale (oggi cresce in ragione di 80 milioni di persone all’anno), cresce la richiesta e la produzione di beni agricoli e industriali. Di conseguenza diminuisce la fertilità dei suoli e cresce la produzione di rifiuti che non si sa più dove mettere e come smaltire e cresce un inquinamento che non si può fermare e che non si riesce neanche a rallentare; lo prova il crescente riscaldamento globale dovuto alla crescente immissione nell’atmosfera dei “gas serra”, come l’anidride carbonica e il metano, che trattengono all’interno dell’atmosfera ogni anno una crescente quantità di energia. Il conseguente riscaldamento del pianeta porta all’alterazione degli ecosistemi terrestri e marini, a sempre più frequenti e devastanti tempeste, all’avanzata, altrove, della siccità.

Le promesse di edificazione di una società ”sostenibile” e di innovazioni tecnologiche si sono rivelate finora vane; per far fronte ad una società mondiale insostenibile non sono gran che efficaci le proposte di resilienza, di adattamento agli eventi negativi, le proposte di alzare barriere per frenare l’aumento del livello dei mari o di macchine che spazzino via i residui plastici che galleggiano negli oceani o le promesse di colonizzare Marte.

La rilettura, a mezzo secolo di distanza, del libro ora ristampato dovrebbe indurre le autorità mondiali a ripensare al ritornello che si sente ripetere, che occorre incrementare “la crescita” per far aumentare l’occupazione e il benessere. Quando invece davvero il benessere dei paesi ricchi aumenterebbe impegnando l’occupazione in opere di difesa del suolo, di prevenzione degli inquinamenti, di bonifica delle terre contaminate dalle scorie di una crescita industriale sconsiderata; le condizioni di vita dei paesi poveri migliorerebbero se fossero valorizzate e destinate agli abitanti le ricchezze dei loro campi e del loro sottosuolo.

Un ripensamento, insomma, delle regole economiche e dei sistemi politici attuali. Come aveva scritto Peccei nel 1972, la “situazione dell’umanità è difficile” e può migliorare con coraggio e lungimiranza. Chi sa che qualche uomo politico, magari di sinistra, leggendo il libro sui “Limiti” non sia indotto a interrogarsi su un progetto di sviluppo umano piuttosto che di “crescita” di beni materiali e di soldi ?

L’art.41 del decreto “Genova” è un imbroglio o un ragionevole compromesso?

In evidenza

Claudio Della Volpe

Da pochi giorni su tutti i giornali è esploso il problema degli idrocarburi nei fanghi, a causa del fatto che nel cosiddetto decreto Genova uno degli articoli è dedicato a risolvere il problema dell’uso dei fanghi in agricoltura, una delle emergenze che si è sommata negli ultimi giorni a tutto il resto.

L’art. 41 recita:

Disposizioni urgenti sulla gestione dei fanghi di depurazione

  1. Al fine di superare situazioni di criticita’ nella gestione dei fanghi di depurazione, nelle more di una revisione organica della normativa di settore, continuano a valere, ai fini dell’utilizzo in agricoltura dei fanghi di cui all’articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99, i limiti dell’Allegato IB del predetto decreto, fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale). Ai fini della presente disposizione, per il parametro idrocarburi C10-C40, il limite di 1000 mg/kg tal quale si intende comunque rispettato se la ricerca dei marker di cancerogenicita’ fornisce valori inferiori a quelli definiti ai sensi della nota L, contenuta nell’allegato VI del regolamento (CE) n. 1272/2008 del Parlamento europeo e del Consiglio, del 16 dicembre 2008, richiamata nella decisione 955/2014/UE della Commissione del 16 dicembre 2008.

Non sto a pronunciarmi sul fatto che il decreto denominato “Genova” dai giornali contenga altre norme; questo è un fatto che è successo tante volte nella decretazione di urgenza del nostro paese e non ne farei un problema, ma c’entra poco col resto.

Come era la situazione del riuso dei fanghi in agricoltura? Complessa, con un recente intervento del TAR che ha di fatto bloccato il tutto in attesa di un pronunciamento del Governo e del Parlamento. La situazione precedente era ben riassunta da un documento di ISPRA il 228 del 2015 che riporta una dettagliata analisi in ben 115 pagine con i dati riguardanti le regioni che fanno più uso di questo procedimento: Lombardia, Veneto ed Emilia Romagna.

Anche da una rapida scorsa si può vedere che i limiti consentiti di idrocarburi nella sostanza secca del fango raggiungevano in alcune regioni come l’Emilia i 10g/kg sostanza secca, un valore cioè nettamente superiore a quanto stabilito dall’art.41 (1g/kg tal quale, la quota di acqua nel fango arriva all’80%, dunque moltiplicate questo numero per 5 sulla sostanza secca, 5g/kg di sostanza secca).

Quando leggete che la normativa attuale limita a 50mg/kg il valore degli idrocarburi nei fanghi sversabili sul terreno sappiate che si tratta non di una norma nazionale decisa con una legge ma di una una sentenza emanata dal TAR Lombardia il 20 luglio scorso sulla base di un ricorso di alcuni comuni lombardi. La sentenza ha annullato alcune parti della delibera regionale (n.7076/2017), che definivano i parametri di alcuni componenti contenuti nei fanghi per il loro utilizzo in agricoltura. Fino ad allora valevano le decisioni regionali riportate nel documento ISPRA.

Nella sentenza si spiega la ratio della decisione che vi sintetizzo con questa frase:

In proposito si deve anzitutto osservare che, come eccepito dai ricorrenti (che a suffragio delle loro conclusioni hanno prodotto una controperizia) – a differenza di quanto accade per altri materiali (le parti resistenti portano l’esempio di alcuni prodotti alimentari) – i fanghi da depurazione sono destinati ad essere mescolati ad ampie porzioni di terreno e a divenire, quindi, un tutt’uno con esso; appare pertanto logico che il fango rispetti i limiti previsti per la matrice ambientale a cui dovrà essere assimilato.

Se si volesse seguire questo criterio “logico” alla lettera non si potrebbe aggiungere al terreno nulla con una diversa composizione, né un concime, nemmeno naturale né qualunque altro ammendante; perfino il letame non rispetta i limiti della matrice ambientale.

Se voleste seguire questo criterio quando vi prendete un farmaco o un integratore o perfino quando mangiate, la concentrazione del quid nella pillola o nella fiala o nel piatto non dovrebbe superare quella nel vostro corpo!!! E’ un criterio del tutto cervellotico.

Comunque da questo nasce la regola invocata che il tasso di idrocarburi nei fanghi non debba essere superiore a quello dei terreni in cui riversarli; si consideri che nei terreni c’è un tasso naturale di idrocarburi “biogenici” che dipende dal tipo di terreno e di vegetazione e dal livello di inquinamento.

Aggiungo una ultima osservazione; nel suolo ci sono idrocarburi di varia origine, idrocarburi sono le cere vegetali che noi non digeriamo e ricoprono varie specie di foglie e di tessuti vegetali e che finiscono nei fanghi, ma ci sono anche idrocarburi (in questo caso insaturi) dagli splendidi colori, come il licopene del pomodoro o il beta carotene.

Se occorre costruire l’economia circolare e se occorre chiudere il ciclo della produzione il caso agricolo è fondamentale; il cibo produce rifiuti prima di tutto attraverso il nostro corpo e le nostre deiezioni (e quelle degli animali asserviti, ma ce ne sarebbero comunque, tenete presente) ed esse devono essere riciclate e reimmesse in circolo recuperandone l’apporto minerale ed organico.

Questo processo non può essere eliminato e non potrà mai essere eliminato; molti dei problemi che viviamo vengono dal fatto che lo facciamo troppo poco: nitrati e fosfati vengono immessi in circolo in quantità troppo maggiori della bisogna, a partire da aria e minerali, distruggendo i depositi minerali o estraendo azoto atmosferico e accumulando l’eccesso nelle zone morte che stanno crescendo negli oceani del pianeta, nei laghi e nei fiumi. Molto meno da origini naturali, come le deiezioni animali e ancor meno da deiezioni umane (dai depuratori si può recuperare il fosforo per via elettrochimica).

Dunque non ci sono alternative: dobbiamo riciclare i nostri rifiuti organici più e meglio di quanto facciamo ora.

Allora, se le cose stanno così, il riciclo dei fanghi civili, provenienti dalla depurazione dell’acqua delle nostre città costituisce il modo principale di realizzare questo fine.

Stiamo solamente facendo quello che già Liebig chiedeva quasi 200 anni fa:

“But how infinitely inferior is the agriculture of Europe to that of China! The Chinese are the most admirable gardeners and trainers of plants…the agriculture of their country is the most perfect in the world.” Perfect because the Chinese understood the importance of the “most important of all manures,” human excrement. …..“Indeed so much value is attached to the influence of human excrements by these people, that laws of the state forbid that any of them should be thrown away, and reservoirs are placed in every house, in which they are collected with the greatest care.” (Agricultural Chemistry, pp 65-66.)

Non solo azoto e fosforo ci sono nelle nostre feci e in quelle degli animali, ma anche carbonio, organico, organicato, preziosissimo, che occorre evitare si ritrasformi in CO2 e contribuisca all’effetto serra e rimanga invece nel suolo.

Torniamo all’art.41 che analizzo in dettaglio.

Anzitutto l’articolo stabilisce che la legge da seguire sul tema è l’

articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99,

che recita:

Art. 2.

                             Definizioni

  1. Ai sensi del presente decreto, si intendono per:
  2. a) Fanghi: i residui derivanti dai processi di depurazione:

   1) delle acque reflue provenienti esclusivamente da insediamenti

civili come definiti dalla lettera b), art. 1-quater, legge 8 ottobre

1976, n. 670;

   2) delle acque reflue provenienti da insediamenti civili e

produttivi:   tali   fanghi   devono   possedere   caratteristiche

sostanzialmente non diverse da quelle possedute dai fanghi di cui al

punto a.1.;

   3) delle acque reflue provenienti esclusivamente da insediamenti

produttivi, come definiti   dalla   legge   319/76   e   successive

modificazioni ed integrazioni; tali fanghi devono essere assimilabili

per qualita’ a quelli di cui al punto a.1. sulla base di quanto

disposto nel successivo articolo 3.1.

  1. b) Fanghi trattati: i fanghi sottoposti a trattamento biologico,

chimico o termico, a deposito a lungo termine ovvero ad altro

opportuno procedimento, in modo da ridurre in maniera rilevante il

loro potere fermentiscibile e gli inconvenienti sanitari della loro

utilizzazione.

  1. c) Agricoltura: qualsiasi tipo di coltivazione a scopo commerciale

e alimentare, nonche’ zootecnico;

  1. d) Utilizzazione: il recupero dei fanghi previsti al punto a)

mediante il loro spandimento sul suolo o qualsiasi altra applicazione

sul suolo e nel suolo.

Questo articolo è in vigore da quasi 20 anni. In sostanza si chiarisce che NON si possono usare fanghi da insediamenti produttivi diversi nella sostanza da quelli civili.

I limiti delle varie sostanze sono stabiliti nell’allegato IB

Anche la nota L rimane in vigore:

Nota L:

La classificazione come cancerogeno non è necessaria se si può dimostrare che la sostanza contiene meno del 3 % di estratto di Dmso secondo la misurazione IP 346 «Determinazione dei policiclici aromatici negli oli di base inutilizzati lubrificanti e nelle frazioni di petrolio senza asfaltene — estrazione di dimetile sulfosside», Institute of Petroleum, Londra. La presente nota si applica soltanto a talune sostanze composte derivate dal petrolio contenute nella parte 3.

Dunque cominciamo col dire che chi sta gridando e sostenendo che i fanghi si potranno usare senza verificare la loro origine o il loro contenuto in cancerogeni e metalli pesanti e altro dice una sciocchezza.

Nessun valore viene modificato eccetto quello relativo agli idrocarburi la cui catena sia compresa nell’intervallo 10-40, dunque si eccettuano i leggeri e i molto pesanti.

Per questi che costituiscono un elemento rivelatore di qualità, ma alcuni dei quali sono anche di origine naturale si dice:

fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale).

Cominciamo col dire che non c’era un limite precedente NAZIONALE NEI FANGHI; c’era nei suoli, che era quello a cui si attaccano oggi i critici (50mg/kg peso secco), ma scusate cosa c’entra il limite nei fanghi e quello nei suoli? Anzi diciamo che questa è una regola nazionale che prima non c’era.

Il limite scelto è la metà di quelli usati dalle regioni secondo i dati del documento ISPRA; infatti dato che la tipica composizione del fango è acqua per circa l’80% quel 1000 viene moltiplicato per 5 circa, siamo dunque ad un valore limite dei C10-C40 nel fango di circa 5000mg/kg di peso secco. Questa è comunque una scelta che può creare ambiguità e raggiri, tornerei alla definizione in peso secco.

Il limite europeo nei suoli è di C10-C40 50mg/kg di suolo, misurato in un modo analitico. Quando mettete alcune tonnellate di fanghi per ettaro, tipicamente 5 per ettaro, con una densità del secco che è pari a quello del suolo attorno a 2ton/m3, state distribuendo un volume dell’ordine di 2.5m3 su 10.000m2. Questo corrisponde a 0.25mm di spessore su un suolo che poi le operazioni di aratura, erpicatura, vangatura smuoveranno e mescoleranno per almeno 30cm, ossia 300mm; potrei usare il valore di 40cm come in alcune proposte di legge, ma dato che sono conservativo uso 30. Dunque i vostri 5000mg/kg di fango diventeranno 5000mg/(300/0.25)=4.16mg/kg di suolo. Il suolo finale avrà un incremento di circa 4mg/kg di suolo negli idrocarburi C10-C40, questa sarebbe la variazione nella composizione della matrice.

Ho letto allarmi perchè in tre anni si sverserebbero 75kg/ettaro di idrocarburi; allora calcoliamo quanti ce ne possono stare; il limite è 50mg/kg di terra; i primi 30cm di un ettaro pesano in media 10.000*0.3*2=6000 ton ossia 6.000.000kg che corrispondono a un limite di 300kg di idrocarburi “preesistenti” per ettaro a cui se ne aggiungerebbero 25 all’anno, circa l’ 8%; questa è l’alterazione della matrice.

E’ vero che c’è un limite di 500mg/kg di peso secco per gli idrocarburi di questa fascia nei materiali da portare in discarica, ma con due note: a) si tratta di olio minerale, la tabella lo dice esplicitamente, valutato attraverso questo dato, in sostanza si tratta di fanghi che possono venire anche dall’industria mentre in questo caso la cosa è vietata dal richiamo contenuto nell’articolo e b) inoltre le discariche di cui si parla sono di INERTI; ma l’uso nel terreno non può essere assimilato a quello di una discarica di inerti, il terreno è vivo, in grado di metabolizzare le cose.

A riprova di ciò noto che nella legge che impone la composizione dei rifiuti da scaricare nelle discariche di inerti anche i metalli pesanti sono meno concentrati; le discariche di inerti non sono il suolo.

(in tutti questi calcoli grossolani non sto tenendo conto dell’acqua nel terreno; l’acqua nel terreno insaturo sta al massimo al 20-30% del totale a secondo se è argiloso o sabbioso, dunque i conti possono variare ma l’ordine di grandezza rimane questo che dico).

Ancora non ho capito di cosa si stanno lamentando i Verdi e mi spiace perché di solito condivido le loro critiche. Mi sembra una critica strumentale.

Certo non è una soluzione definitiva, né completa del problema; sarebbe meglio riferirsi ad una legge organica che integrasse e superasse la legge 99; ma è meglio che rimanere con impianti di riciclo e produzioni agricole bloccate.

Certo sarebbe meglio che si dicesse ancora una volta e CHIARAMENTE che i reflui industriali, i fanghi industriali NON possono essere usati nei campi (quasi mai, solo per certe industrie alimentari) specificando i vari casi, chiarendo in dettaglio quali IPA e quali concentrazioni oltre i valori GIA’ stabiliti.

Ma nelle more di una revisione organica della normativa di settore ci sta; l’art. 41 non è una soluzione finale, ma un compromesso ragionevole e TEMPORANEO, non un imbroglio, conserva le regole base contro l’inquinamento da metalli pesanti e cancerogeni e varia solo la componente C10-C40.

La condizione è che:

  • ci sia in futuro, prima possibile, una legge dedicata chiara e completa; questa legge dovrebbe porre limiti differenti per suoli differenti, i suoli argillosi o sabbiosi o con pH diversi non sono da trattare al medesimo modo;
  • che in questa legge si dica che i depuratori devono operare per ridurre i fanghi, cosa che si può fare se si usano accorgimenti opportuni, così si evita il problema alla radice; occorre anche investire nella ricerca di questo settore; per esempio nelle celle MFC (microbial fuel cell) non si generano fanghi;
  • ci siano controlli SEVERI e continui sull’uso dei fanghi, per evitare l’ingresso o contrastare od eliminare l’attività della malavita che cerca continuamente di entrare in ogni lucroso mercato e che sicuramente ha le mani in pasta in questo (come ce l’ha in quello dei rifiuti, fate caso al numero crescente di incendi nei depositi di plastica di cui abbiamo parlato).
  • Sarebbe utile modificare l’articolo 41 sostituendo al termine tal quale e al valore 1000 la dizione equivalente 5000mg/kg s.s.

Pregherei inoltre la TV la prossima volta che fa una trasmissione sui fanghi di chiedere la consulenza di qualche chimico e di non sparare a zero nel mucchio spaventando e senza informare adeguatamente.

Mi spiace per Bonelli e i Verdi e anche per Cianciullo; dovrebbero rifare l’esame di chimica.

Si veda anche:

https://ilblogdellasci.wordpress.com/2014/03/28/chimica-e-agricoltura-una-risposta-a-carlo-gessa/

https://www.lanuovaecologia.it/un-codicillo-infangato/?fbclid=IwAR111r1Rzi2UxaavFJO_L8X68wVgSrwgAODqIKrOl_-Rl8zeADJY5k8Dd1A

 

Una scienziata affermata scomparsa prematuramente: Phyllis Tookey Kerridge (1901-1940)

In evidenza

Rinaldo Cervellati

Come ricordato in un precedente post, Phyllis Margaret Tookey Kerridge, chimico e fisiologo inglese ideò il microelettrodo a vetro per la misura del pH del sangue e di altri fluidi corporei ed è considerata la fondatrice della moderna audiometria.

Phyllis nacque nel 1901, unica figlia di William Tookey, un noto ingegnere di Broomley, nel Kent. Completò gli studi preuniversitari nella City of London School for Girls, distinguendosi in particolare nelle materie scientifiche. La sua carriera universitaria è descritta come “brillante”[1], ma la sua ricostruzione è complicata in quanto elencata sia come membro dello staff dell’University College London (lettore dal 1923) che come studente (dal 1919 – fino al completamento degli studi in medicina 14 anni dopo). Conseguì il B.Sc. in Chimica e Fisica nel 1923, il M.Sc. in Chimica nel 1924 e completò il dottorato di ricerca nel 1927. Tuttavia, nel frattempo continuò gli studi di medicina diventando membro del Royal College of Surgeons e ammessa al Royal College of Physicians nel 1933 (membro RCP a tutti gli effetti nel 1937)1.

Phyllis M. Tookey Kerridge

Phyllis visse in famiglia fino al 1926, quando si sposò con William Kerridge, prendendo residenza a Londra in St Petersburgh Place . Del marito si sa poco, ma l’insistenza di Phyllis a mantenere il suo nome da nubile anche dopo il matrimonio (da allora in poi Phyllis Tookey Kerridge) è certamente un’indicazione delle sue idee sul ruolo delle donne nella società e il suo sostegno alle istanze femministe. Nel periodo studentesco fu registrata come membro del comitato della Women’s Union Society.

Il suo interesse per lo sviluppo di un elettrodo a vetro in miniatura nacque dalle ricerche per il suo dottorato in chimica. Phyllis Tookey conosceva bene la chimica fisica e questo le permise di progettare elettrodi a vetro in grado di fare misure su piccole quantità di campioni o che fossero inseribili nei tessuti dei viventi. A quest’ultimo scopo molte fonti[2] riportano che Tookey risolse il problema cercando di massimizzare l’area della superficie dell’elettrodo, senza aumentare le dimensioni del contenitore esterno. Trattò il filo di platino con cloruro di platino scaldando poi fino al calor rosso ottenendo un’area di superficie efficace per la misura del potenziale.

Tuttavia nei due articoli che Phyllis Tookey pubblicò prima della discussione della dissertazione scritta [1,2] non è menzionata questa procedura, è invece descritta la preparazione di un recipiente miniaturizzato di vetro sottile.

Nel suo importante articolo del 1925, Tookey, dopo aver discusso le difficoltà tecniche nella miniaturizzazione, nonchè lo schema dell’intero circuito utilizzato per le misure, riporta la seguente figura della parte elettrochimica dell’apparato:

Figura 1 Apparato di P. Tookey Kerridge: a sinistra l’elettrodo di misura (vetro + calomelano), a destra l’elettrodo di riferimento a calomelano (dall’originale [1])

A proposito dell’elettrodo a vetro, Tookey scrive [1]:

A form of electrode found very convenient for biological purposes is illustrated in Fig. 2. The membrane in this case is in the shape of a deep spoon sucked inside a bulb of thicker glas. This is very easily glass-blown after a little practice. The solution of known pH may be filled into the outer bulb by turning the electrode on its side and putting the tube A under the jet of a pipette or burette, the air in the bulb escaping through B. The other solution, that of unknown pH for example, is put into the spoon. The advantages of this form are self-evident. Filling, washing and emptying the inside solution are simple operations. The membrane blown in this way seems to be under less strain than when blown at the end of a tube, and does not break so easily, and the quantity of liquid required for the spoon is very small. The total capacity of the spoon is about 1 cc. and it need never be more than half-full. A smaller quantity than 0,5 cc. may be used if necessary. If the liquid under experiment is liable to air oxidation or to loss of CO2 it may be covered with liquid paraffin without affecting the E.M.F.

[traduzione]

Una forma di elettrodo trovata molto conveniente per scopi biologici è illustrata in Fig. 2. La membrana in questo caso ha la forma di un cucchiaio profondo aspirato all’interno di un bulbo di vetro più spesso. Ciò si ottiene facilmente dopo un poco di pratica. Il bulbo esterno viene riempito con la soluzione a pH noto ruotando l’elettrodo su un lato, attraverso il tubo A con l’aiuto di una pipetta o di una buretta, l’aria fuoriesce attraverso B. L’altra soluzione, quella a pH sconosciuto viene posta nel cucchiaio. I vantaggi di questa forma sono evidenti. Riempire, lavare e svuotare la soluzione interna sono operazioni semplici. La membrana soffiata in questo modo sembra essere meno sollecitata di quando viene soffiata all’estremità di un tubo, e non si rompe così facilmente, e la quantità di liquido richiesta per il cucchiaio è molto piccola. La capacità totale del cucchiaio è di circa 1 cc. e non deve mai essere più che mezzo pieno. Una quantità inferiore a 0,5 cc. può essere usato se necessario. Se il liquido in esame è suscettibile all’ossidazione dell’aria o alla perdita di CO2, può essere coperto con paraffina liquida senza influenzare la f.e.m.

 

Niente filo di platino, la sua funzione è assicurata dalla giunzione con l’elettrodo a calomelano. Lo stesso assemblaggio è descritto nel successivo lavoro del 1926 [2]. Potrebbe essere che il discorso sul platino sia contenuto nella tesi discussa nel 1927, che non sono riuscito a ritrovare (molti archivi di quegli anni sono andati distrutti durante la 2a guerra mondiale).

Di platino non ne parla nemmeno nell’articolo sugli effetti di vari additivi sul pH del sangue, scritto in collaborazione con Robert Havard [3]. Quest’ultimo sembra essere il termine delle ricerche di Tookey Kerridge a carattere principalmente chimico.

Dopo essersi diplomata in medicina all’inizio degli anni ’30, Kerridge fu raccomandata dal Dr. Edward Poulton al costruttore di strumenti scientifici Robert W. Paul, che stava cercando una persona per condurre rigorosi test fisiologici su un respiratore chiamato “pulsatore” creato da William Henry Bragg[3]. I test di Tookey Kerridge fornirono numerose misurazioni fisiologiche utili per migliorare l’efficienza del dispositivo. Suggerì anche miglioramenti al design per ridurne complessità e ingombro. Oltre a ciò Tookey Kerridge svolse anche un ruolo attivo nel pubblicizzare l’apparecchio. Scattò molte fotografie dei suoi assistenti di laboratorio con il dispositivo, consigliò a Bragg e Paul di pubblicare l’apparato nei Proceedings of the Royal Society of Medicine e lei stessa ne scrisse su Lancet [4].

Respiratore di Bragg-Paul-Tookey Kerridge

Nella seconda metà degli anni ’30, Tookey Kerridge lavorò al Royal Ear Hospital e sviluppò standard audiometrici per i test dell’udito. Svolse anche un ruolo significativo nella costruzione di apparecchi acustici per i non udenti. Il suo vivo interesse per la musica le ispirò simpatia per coloro che hanno perso l’udito. Il suo lavoro si incentrò quindi in particolare sull’incidenza della sordità nei bambini. Incoraggiò i suoi studenti ad accompagnarla durante le visite ai sobborghi di Londra per stabilire potenziali fattori socio-economico-ambientali nell’eziologia della sordità in bambini in età scolare. Per questa ricerca ottenne nel 1936 un finanziamento dal Medical Research Council di Londra. Gli esperimenti audiometrici furono effettuati nella ‘stanza del silenzio’, un’enorme stanza insonorizzata nel seminterrato dell’University College Hospital a Londra, la prima istituzione britannica a possedere un audiometro elettrico che utilizzava test a toni puri piuttosto che a registrazione vocale.

La ‘stanza del silenzio’

L’esperienza di Kerridge nella tecnologia degli apparecchi acustici fu utilizzata dalle Poste e Telefoni Britannici. Inizialmente erano interessati al miglioramento della qualità del suono nelle linee telefoniche. Tuttavia, Tookey Kerridge ha collaborato con l’ufficio postale in modo più approfondito quando iniziò a testare l’udito dei telefonisti con il suo audiometro. Nel 1937 fece installare negli uffici postali i telefoni amplificati progettati per le persone con problemi di udito.

Allo scoppio della seconda guerra mondiale, Tookey Kerridge stava lavorando all’University College Hospital. È stata distaccata al servizio medico di emergenza dell’ospedale di St Margaret, a Epping. Lì, Kerridge e i suoi colleghi attrezzarono un laboratorio improvvisato per trasfusioni di sangue e indagini patologiche.

Omaggio a Phyllis Tookey Kerridge

Colta da una improvvisa rara malattia, Phyllis Margaret Tookey Kerridge morì il 22 giugno 1940 all’età di 38 anni. Scienziata già affermata e nota, oltre alla rivista Nature, anche il quotidiano The Times ne pubblicò un necrologio il 26 giugno 1940.

Bibliografia

[1] P. Tookey Kerridge, The Use of the Glass Electrode in Biochemistry., Biochemical Journal, 1925, 19, 611-617.

[2] P. M. Tookey Kerridge, The Use of Glass Electrodes., Rev. Sci. Instr., 1926, 3, 404-409.

[3] R. E. Havard, P. Tookey Kerridge, An Immediate Acid Change in Shed Blood., Biochemical Journal, 1929, 23, 600-607.

[4] P.M. Tookey Kerridge, Artificial respiration for two years., The Lancet1934, 223, 786–788.

[1] University College London Annual Report for 1940, http://www.inventricity.com/phyllis-kerridge

[2] Oltre al sito della nota precedente v. http://www.inventricity.com/phyllis-kerridge-chemist-inventor

[3] Sir William Henry Bragg (1862-1942), britannico, fisico, chimico e matematico, condivise il premio Nobel per la Fisica 1915 con il figlio Lawrence Bragg, “per le loro ricerche sull’analisi della struttura cristallina mediante raggi X”.

Un chimico alla prova dell’emozione.

In evidenza

Mauro Icardi

Terminata la mia breve presentazione alla cerimonia di premiazione dei vincitori della selezione regionale lombarda dei giochi della chimica 2018, scrivo questo breve post, che è sostanzialmente un ringraziamento.

Certamente rivolto agli organizzatori, che hanno voluto la mia presenza, per una breve conferenza che ho intitolato “Spirito di osservazione e sensibilità chimica: due doti del chimico”. Ho cercato di trasmettere alcune sensazioni personali. Di identificare in qualche modo quel qualcosa che unisce chi si occupa di chimica. La sensibilità nella pratica di una scienza che, a fronte di tanti che ancora banalmente denigrano considerandola con leggerezza la dispensatrice di ogni male, invece suscita ancora fascino ed entusiasmo.

Ho aggiunto anche qualche argomento legato al mio ormai quasi trentennale lavoro di chimico del ciclo idrico. Ma devo dire, e lo dico con molta emozione, che ho certamente ricevuto più di quanto ho dato nella mia conferenza.

Ho visto negli occhi dei ragazzi che sono stati premiati molta comprensibile emozione, ma tanto entusiasmo per le meraviglie che la chimica può suscitare. E come sempre mi accade ho ricevuto davvero ottime sensazioni. Gli interventi di alcuni ragazzi premiati che hanno parlato della loro esperienza di studio e di conoscenza della chimica, sono stati un grande segno di positività. In primo luogo per il giusto ringraziamento ai loro insegnanti, capaci di instaurare con loro un corretto e proficuo rapporto docente-studente. Fondamentale per migliorare l’apprendimento ed il percorso scolastico, ma anche per la crescita personale dei ragazzi. Come sempre, gli alberi che cadono (mi riferisco a fatti di cronaca che riportano notizie di insegnanti insultati o addirittura percossi e minacciati) sovrastano nell’immaginario le foreste che crescono. E c’è un gran bisogno che queste diventino rigogliose.

I ragazzi spiegando cos’è per loro la chimica mi hanno fornito molti spunti. La chimica come linguaggio, in riferimento alla tavola periodica ( e quindi come non collegare immediatamente il pensiero a Levi che la definì “La più alta e più solenne di tutte le poesie”.) La chimica come chiave di lettura del mondo, di come esso funziona ed evolve. La chimica “Bella e potente”.

Mi ha contagiato il loro entusiasmo giovanile. Le discussioni di chimica che i ragazzi hanno citato, passando dalla cristallizzazione dell’acqua nei gelati, fino alle discussioni fino all’alba sul riconoscimento degli spettri IR. Ho provato le ben note sensazioni di arricchimento reciproco. Non sono un insegnante o un docente universitario. Quindi potrei difettare di conoscenze pedagogiche. Ma ho dedicato negli anni ad altri studenti un poco del mio tempo, e li ho ascoltati e incoraggiati quando sono venuti a svolgere i loro stages o a completare il loro percorso di tesi, in campo, nel luogo dove lavoro ormai da quasi trent’anni. Un depuratore di acque reflue. E questo ha aiutato anche me a crescere. Lasciando ricordi indelebili.

L’auspicio è che questi ragazzi possano trovare la loro realizzazione professionale. La chimica può e deve fare tanto, ad esempio per il disinquinamento. Ci sono dei problemi che aspettano una soluzione, penso agli inquinanti emergenti. Alla sintesi di nuove molecole e prodotti che possano essere rimessi in circolo senza perturbare l’ambiente. Il loro entusiasmo, la loro passione, la loro futura preparazione e professionalità meritano di essere riconosciute e premiate.

Ringrazio il comitato organizzatore nelle persone di Domenico Albanese (Presidente della sezione regionale Lombardia della Società Chimica Italiana),Mariano Calatozzolo, Carmen Capellini, Donatella Nepgen, Paolo Tenca.

Estendo il ringraziamento alla redazione del blog. L’invito che mi è giunto gradito ed inaspettato arriva dopo anni di lavoro con una redazione dove si lavora davvero bene. Quindi ringrazio Claudio Della Volpe, Margherita Venturi, Vincenzo Balzani, Rinaldo Cervellati, Giorgio Nebbia, Luigi Campanella, Silvana Saiello e Annarosa Luzzatto.

Un ringraziamento va anche a Valentina Furlan, la collega con la quale lavoro ormai da sedici anni. Per l’incoraggiamento a vincere l’emozione prima della conferenza, e per aver documentato con qualche foto il ricordo di questa giornata.

E ringrazio ancora i ragazzi. Quelli premiati, e quelli che si sono cimentati nei giochi.

E vorrei chiudere questo post con questo brano di Francesco Muzzarelli tratto dal libro “Studio dunque sono”

Il proprio sistema di apprendimento plasma la visione del mondo e determina le nostre opportunità.

Saper imparare, non smettere mai di imparare, significa dare un orientamento consapevole e responsabile alla propria evoluzione

Glifosato e api da miele

In evidenza

Rinaldo Cervellati

Il discusso erbicida glifosato (di cui abbiamo parlato diffusamente nel blog, cercate glifosato in alto a destra e anche nella rubrica La Chimica allo specchio di C&I) potrebbe incrementare la mortalità delle api da miele come ritiene uno studio riportato da M. Satyanarayana nell’ultimo numero di settembre di Chemistry & Engineering newsletter on-line.

Struttura molecolare del glifosato

Lo studio, effettuato da un gruppo di ricercatori in Texas, ha evidenziato che l’erbicida, commercializzato col nome RoundupÒ, potrebbe danneggiare le api indirettamente perturbando la flora batterica del loro intestino. (E.V.S. Motta et al. Glyphosate perturbs the gut microbiota of honey bees., Proc. Nat. Acad. Sci. USA., 2018, DOI: 10.1073/pnas.1803880115). Gli scienziati pensano che i risultati potrebbero aiutare a spiegare il declino delle api da miele osservato negli ultimi anni.

Il gruppo, coordinato da Nancy Moran, esperta in biologia delle api alla Texas University di Austin, ha esposto centinaia di api operaie al glifosato a concentrazioni uguali a quelle che avrebbero potuto incontrare nei pressi di campi agricoli trattati con l’erbicida.

Nancy Moran

Questo gruppo di api è stato poi reintrodotto nel proprio alveare. Dopo tre giorni la flora batterica dell’intestino di queste api è stata analizzata e confrontata con quella di un gruppo di api non trattato col glifosato. I ricercatori hanno scoperto che l’abbondanza di alcune delle otto specie predominanti di battèri intestinali era significativamente diminuita nelle api trattate rispetto a quelle non trattate, suggerendo che l’esposizione al glifosato aveva modificato la composizione della flora batterica intestinale nel gruppo di api trattato. I due gruppi sono stati poi esposti a un comune agente patogeno delle api. E’ risultato che le api operaie esposte al glifosato sono decedute a velocità più elevate rispetto alle api non esposte, portando alla conclusione che la diminuzione di alcuni battèri della flora intestinale aveva reso gli insetti trattati più vulnerabili degli altri.

Queste conclusioni corrispondono a quelle riportate in precedenza che hanno dimostrato che le api da miele con flora intestinale compromessa sono malnutrite e suscettibili alle infezioni. Moran sostiene che questi risultati, insieme ai dati che mostrano che il glifosato può influenzare i battèri del suolo e che si accumulano nelle api, suggeriscono ai ricercatori di valutare se i possibili effetti indesiderati del popolare erbicida abbiano avuto un ruolo nel declino delle api.

Continua Moran: “Circa 10 anni fa, ci fu un preoccupante declino nelle popolazioni di api da miele, in seguito chiamato colony collapse disorder. I tassi di mortalità hanno continuato ad essere alti, ma i decessi non sono stati così improvvisi.”

Fred Gould, entomologo, patologo ed ecologista, professore distinto della North Carolina State University, fa notare che ricercatori hanno esaminato il ruolo di diversi pesticidi e fungicidi nel declino e nell’infezione delle colonie di api, ma il glifosato non era mai stato preso in considerazione. La ricerca di possibili effetti trascurati, come quelli descritti nel nuovo studio è un sintomo che questo settore di indagine è in netto miglioramento rispetto al passato.

Fred Gould

Come quasi tutti gli erbicidi, il glifosato agisce bloccando un enzima chiamato EPSP sintasi nelle piante, necessario per la biosintesi di amminoacidi aromatici come la fenilalanina, la tirosina e il triptofano, impedendo così la crescita delle piante[1]. Il glifosato non uccide i battèri, ma impedisce loro di crescere, e la maggior parte dei batteri trovati nell’intestino delle api portano il gene che codifica l’enzima.

Ma mentre alcune specie di battèri che abitano nell’intestino delle api sono sensibili al glifosato, altre lo sono meno, perché portano un gene per una forma di EPSP resistente al glifosato, o per altri meccanismi sconosciuti, dice Moran. Il suo gruppo ha in programma di ripetere i loro esperimenti su alveari interi e di esplorare i meccanismi di nonresistenza degli EPSP.

Colonia di api da miele

L’impatto ambientale e gli effetti sulla salute del glifosato sono una questione ancora controversa dice Gould, quindi studi sull’ intero alveare potrebbero far luce sugli effetti dell’ erbicida su una specie critica per l’agricoltura.

Questi studi potrebbero anche aiutare a evitare possibili effetti negativi del glifosato sulle api. Il risultato probabile sarà una sorta di miglior pratica su quando e dove spruzzare il glifosato, dice Juliana Rangel, entomologa della Texas A & M University.

Juliana Rangel

L’impollinazione attraverso le api è un’industria di circa 15 miliardi di dollari l’anno, dice, e “molte volte, tragedie come il colony collapse disorder possono essere evitate con una migliore comprensione dell’ecosistema”.

[1] A differenza di molti altri erbicidi che risultano efficaci contro alcune specie, cioè selettivi, il glifosato è un erbicida totale il che ne spiega l’uso generalizzato.

Le molecole della pubblicità: ma dove sta la camomilla nella Saugella?

In evidenza

Claudio Della Volpe

(per gli altri articoli di questa serie si cerchi “molecole della pubblicità” nel riquadro in alto a destra)

Uno dei prodotti detergenti intimi più comuni è la Saugella, prodotto della italiana Meda (oggi Rottapharm); lo uso anche io, è un detergente a pH neutro indicato per la pelle delicata. Utile prodotto, almeno nella mia esperienza; non ve ne parlo per fare pubblicità, ma per capire una cosa: ma dove sta la camomilla, dato che il prodotto è declamato come “a base di camomilla”?

I detergenti a pH neutro o perfino acido sono giustificati dal fatto che il pH della pelle non è basico come i comuni saponi che contengono spesso residui di OH in quantità significativa; dopo tutto la saponificazione è il processo per la produzione del sapone a partire da grassi e idrossidi di metalli alcalini. In termini tecnici, la saponificazione è l’idrolisi basica (solitamente si impiega soda caustica, NaOH) di un trigliceride per produrre il corrispettivo sale sodico (carbossilato, più propriamente).

Ma la nostra pelle è prima di tutto coperta di sebo e dunque una pulizia totale è sconsigliata, eliminerebbe il grasso naturale con funzione protettiva, e d’altronde l’igiene, ossia la riduzione del carico batterico indesiderato, è utile; inoltre il pH è dell’ordine di 5.5, ossia vicino a quello dell’acqua naturalmente carbonatata dall’atmosfera.

5.5 non 7.

E’ un trucco di tutti i tecnici di laboratorio di chimica: ohi ragazzo dimmi quale è il pH dell’acqua distillata; e noi tutti a pecorella: 7! Ah, ah; ma quando mai! Dice il tecnico è 5-5.5; e perchè? Ma perchè il diossido di carbonio ci si scioglie dentro alla grande, forma acido carbonico, è il motivo per cui se lasci aperta una soluzione di idrossido di sodio calibrata te la ritrovi fuori range in poche ore; una volta ci si metteva una valvola di ingresso piena di idrossido di potassio o di sodio che si carbonata; anche nel famoso romanzo di Verne, Intorno alla Luna (seguito di Dalla terra alla Luna) si usa questa capacità degli idrossidi per purificare l’aria del proiettile lanciato verso la Luna, assorbendo l’anidride carbonica prodotta dalla respirazione degli astronauti.

Allora tornando a noi: guardiamo l’INCI della Saugella e cerchiamo la camomilla della pubblicità:Apparentemente la camomilla non c’è; ricordiamo che l’elenco INCI riporta i prodotti in ordine quantitativo (solo dopo l’1% in ordine sparso); il primo prodotto “naturale” è un estratto di timo (non camomilla), ma di essenziale c’è un sapone magnesio laurilsolfato, e varie altre molecole detergenti, molecole tutte sintetiche che fanno da regolatori dell’acidità, profumi; dato che non contiene parabeni contiene altre sostanze antibatteriche e conservanti (i parabeni servivano a questo e devono essere sostituiti in qualche modo, se no la scadenza dei prodotti si riduce notevolmente).

Ma la camomilla? Dov’è?

Beh dopo lunga osservazione e riflessione, in 11esima posizione e dunque in quantità mooolto , ma moolto piccola trovo il bisabololo.

Ecco qua, dove si nasconde la camomilla!

Eh si perchè l’α-bisabololo, anzi

l’α-(−)-bisabololo è un alcool naturale sesquiterpenico monociclico che si forma per neutralizzazione con acqua del catione bisabolile.

Costituisce il componente principale (10-25%) dell’olio essenziale di camomilla derivato dai capolini freschi o essiccati.

Possiede proprietà calmanti ben conosciute da secoli e perciò viene utilizzato in numerosi prodotti cosmetici. Ha proprietà lenitive e disarrossanti.

(da Wikipedia)

il bisabololo naturale è lo stereoisomero indicato con 118

da Handbook of Cosmetic Science and Technology A.O. Barel ed. pag 277 e seguenti; la prima molecola è α(-)-bisabololo, la seconda  α(+)-bisabololo, l’una enantiomera dell’altra.

Si tratta di una molecola con due stereocentri , e quello naturale è uno solo dei quattro possibili*. I primi due sono enantiomeri, in quanto le loro configurazioni assolute si invertono. 1S,2S nel α-(-) bisabololo e 1R,2R nel α-(+)bisabololo. Il bisabololo della Saugella non è esplicitamente dichiarato come estratto dalla camomilla, anche se sulla bottiglia è scritto  a base di camomilla e a base di estratto di camomilla, ma negli ingredienti c’è solo il bisabololo che potrebbe venire dalla camomilla.

In genere viene estratto anche dalla camomilla, Matricaria Camomilla var. recutita (e anche da un’altra pianta del tutto diversa), ma può essere anche sintetizzato.

Ora la questione che si pone è la seguente: la pubblicità dice che la Saugella è “a base di camomilla”, mentre è solo l’11esimo prodotto dell’INCI, pochino proprio; ma soprattutto, questo bisabololo da dove viene? è un estratto dall’olio di camomilla oppure è sintetico o ha ancora altre origini? Come facciamo a capire?

Vabbè direte voi, ma tanto sono identici: il bisabololo è bisabololo!

Certo, è vero (quasi al 100%) ma con qualche piccola differenza che esaminiamo qua .

Cominciamo a dire che ci sono tre possibili sorgenti di α-bisabololo;

  1. A) c’è quello della camomilla, 10-15% dell’olio di camomilla che contiene solo lo stereisomero indicato comunemente come α(-)-bisabololo , relativamente raro al giorno d’oggi sul mercato.

Occorre quasi una tonnellata di fiori di camomilla (cosiddetta tedesca, ma ne esistono altre varietà) per ricavare due chilogrammi di olio essenziale di camomilla il cui colore blu intenso è dovuto all’alta percentuale di azulene, un idrocarburo, che non è contenuto nell’olio di Candeia (altra sorgente di α-bisabololo), ma è contenuto in altre piante e funghi. L’azulene ha proprietà lenitive analoghe al bisabololo e molto potenti.

Anti-inflammatory drugs- Vane e Ferreira Springer 1979

Si veda anche: https://www.tandfonline.com/doi/abs/10.1080/0972060X.2016.1224689?journalCode=teop20

Nel libro di Heinrich e altri, Fondamenti di farmacognosia e fisioterapia si chiarisce che l’olio essenziale di camomilla si può avere in una seconda versione in cui però dominano gli ossidi di bisabololo.

  1. B) c’è una seconda sorgente naturale, una pianta brasiliana dal cui olio essenziale si estrae tramite un processo di distillazione diretta; la pianta è l’albero brasiliano Candeia (Vanillosmopsis erytropappa), per distillazione in corrente di vapore del legno delle piante si estrae l’olio dal quale si può distillare un equivalente (che però ha certamente impurità diverse rispetto a quello della camomilla) e comunque non viene dalla camomilla, ma certo è ancora propriamente α(-)-bisabololo, lo stesso stereoisomero; da una rapida indagine sul mercato questo olio costerebbe meno di quello di camomilla. La pianta appartiene alle composite o asteracee come la camomilla, ma è un albero sia pur non altissimo. Le asteracee sono originarie del sud America e si sono differenziate dopo la separazione del supercontinente Gondwana. In pratica la camomilla è una discendente della Candeia. (https://it.wikipedia.org/wiki/Asteraceae)
  1. C) ed infine c’è un bisabololo sintetico che però è una miscela dei 4 stereoisomeri la cui composizione esatta dipende dal tipo di sintesi scelta*   e dunque, supponendo che la sintesi produca solo i due indicati nella figura e che non ci siano problemi con la molecola 127 in figura , è efficace la metà e non ha a che fare con la camomilla se non in linea indiretta. Altre sintesi darebbero risultati ancora diversi*.

Nel bisabololo sintetico sul mercato, che come detto è un una miscela di enantiomeri , c’è ancora un altro problema, che circa il 10% del prodotto è farnesolo;In anni recenti sono stati lanciati prodotti sintetici a base di bisabololo di maggiore purezza (nome commerciale Dragosantolo) che contengono solo lo 0.01 o perfino lo 0.001 di farnesolo.

https://www.cosmeticsdesign.com/Article/2005/03/09/Symrise-gets-EC-compliance-for-purer-Bisabolol

Quale di questi tre è contenuto nella Saugella?

L’INCI parla di bisabololo, non di estratto di camomilla come la pubblicità. Però possiamo rifarci alla definizione che dà, se non l’INCI stessa la legislazione europea che si rifa all’INCI

http://ec.europa.eu/growth/tools-databases/cosing/index.cfm?fuseaction=search.details_v2&id=74499

dove troviamo che il termine usato sul contenitore della Saugella escluderebbe uno dei tre casi; infatto il temine “bisabololo”(Nota: non fatevi ingannare dai simboli R*,R*, ricordando che secondo il goldbook (https://goldbook.iupac.org/html/R/R05260.html) questo indica solo che i due centri hanno la stessa configurazione; infatti sono entrambi S, come descritto nella immagine del Barel)

******************************

corrisponde al CAS 515-69-5/23089-26-1 che corrisponde al solo (α-(−)-bisabololo ), mentre l’altro stereoisomero (α-(+)-bisabololo ) corrisponde ad un diverso CAS. Dunque saremmo portati ad escludere nella Saugella la presenza del bisabololo di sintesi che sarebbe efficace la metà o meno, in quanto nella lista dei componenti NON è indicato l’altro stereoisomero.

Dunque anche se il bisabololo della Saugella è indicato solo come bisabololo il rispetto della legislazione europea ci porta a concludere che è presente solo α-(−)-bisabololo che è di origine naturale.

Diciamo che qua un piccolo dubbio mi rimane; se il bisabololo fosse di sintesi sarebbe d’obbligo indicare la presenza dell’altro o degli altri stereisomeri visto che esso NON è indicato nella lista INCI? Di fatto sarebbe solo una questione di titolo: se uno usasse il sintetico, quello giusto ci sarebbe, mentre l’altro (o gli altri) che non è presente in INCI sarebbe un di più, senza nome. Non so se è possibile.

Supponiamo col beneficio di inventario che non ci sia. Rimane comunque un problema; la denominazione INCI non decide della provenienza.

Il bisabololo della Saugella potrebbe anche venire dalla Candeia, il distillato dell’olio di Candeia sarebbe solo α-(−)-bisabololo, e la composizione sarebbe allora giusta.

Diciamo però che la pubblicità non sarebbe del tutto corretta. Intendiamoci nulla di male, il prodotto sarebbe sempre quello, ma non sarebbe “a base di camomilla”, ma di Candeia. Come stanno le cose? Non lo so. Da chimico capisco che di fatto la differenza, se fosse così, sarebbe minima, ma questa incertezza mi dà un certo fastidio.

Non sarebbe nemmeno un caso unico.

Si sa che l’acido carminico estratto dalla cocciniglia, che è un insetto, colora le fragole degli Yogurt; al massimo in quelli per bambini si usa la carota nera che vira al rosso cambiando il pH; grande chimica, ma tutto ciò ripeto mi da un certo fastidio.

Bah; sulla Saugella spero in un chiarimento del produttore al quale ho anche mandato una richiesta, poi vi dico.

Sul resto voi che ne dite?

NdB: Rottapharm-Madaus è proprietà di un gruppo italiano, Meda (oggi Meda AB) che si occupa di prodotti per la cura della persona, ha acquisito la Rottapharm-Madaus nel 2014; è a capitale italiano, ha 1800 dipendenti ed è presente in 90 paesi.

*

a proposito della sintesi del bisabololo si veda THE TOTAL SYNTHESIS OF NATURAL PRODUCTS vol. 5 di J. ApSimons, J. Wiley & Sons 1983 pag 59 dove si analizzano in dettaglio le varie strade di sintesi e le diverse quote di prodotto ottenute fra i 4 stereisomeri.

Chimica, società, vaccini.

In evidenza

Luigi Campanella, già Presidente SCI

Alla recente riunione del Consiglio Centrale della SCI ho avuto l’opportunità di partecipare ad una discussione, purtroppo per esigenze organizzative limitata nel tempo, relativa al dibattito in atto nel Paese circa l’obbligatorietà o meno di vaccinazioni.

Il tema è caldo: la politica ha tentato di scavalcare la scienza, in parte-per fortuna solo in parte- riuscendovi. Giustamente sono apparsi sulla stampa interventi di prestigiose ed eminenti istituzioni scientifiche e loro ricercatori, soprattutto medici, a difesa dei vaccini obbligatori. La domanda che è emersa in sede di Consiglio Centrale SCI è stata: è opportuno che una Società Scientifica non medica si pronunci su un tema così dibattuto e non strettamente di sua competenza? Mi permetto in questo post di focalizzare i motivi per cui la mia risposta a quella domanda non può che essere: sì è opportuno, utile e necessario. Innanzitutto la scienza non ha comparti stagni: i punti di contatto e le correlazioni sono presenti sempre avvicinando discipline a volte un tempo considerate lontane (si pensi ad archeologia e chimica,ad economia e matematica, a diritto e statistica).

La chimica tradizionalmente oltre a sviluppare una propria ricerca di scienza molecolare è stata considerata una disciplina di supporto (di servizio si diceva con irrispettosa espressione ) per molte altre: dalla medicina alla biologia, dalla geologia alla merceologia, dalla fisica all’antropologia. In passato talvolta questo ruolo non è stato riconosciuto così da perdere occasioni di progresso e di avanzamento. Noi stessi chimici mentre da un lato ci siamo lamentati per questi mancati riconoscimenti e delle resistenze e mancate permeabilità di alcune componenti scientifiche , dall’altro ci siamo impegnati a trovare sbocchi culturali alla nostra disciplina, che camminassero parallelamente alla riconosciuta importanza della chimica nella vita di tutti i giorni ed aprissero settori di studio poco esplorati. Così abbiamo fatto crescere il nostro patrimonio metodologico e tecnico offrendo modelli di approccio, metodi e strumenti avanzati di indagine per i ricercatori delle altre discipline. Nel caso della medicina è mia ferma convinzione che un contatto più stretto ed assiduo con la chimica avrebbe certamente giovato al progresso già esaltante di questa scenza. Per tutto ciò io credo che laddove questa correlazioni scientifiche e culturali ci siano si debba cogliere l’occasione di esprimere la nostra posizione. Che poi queste correlazioni ci siano nel caso dei vaccini mi pare quasi ovvio per numerose ragioni. Esistono settori della Chimica dedicati al tema: si pensi alla Chimica Biologica, in particolare all’Immunochimica,alla Chimica Farmaceutica; i vaccini sono sistemi complessi la cui composizione prevede la coesistenza con l’antigene di numerosi composti generalmente tutti a concentrazioni di sicurezza, ma da valutare integralmente; si tratta di associazioni di elementi che non esistono nei manuali dei materiali conosciuti; questi materiali sono in massima parte non biodegradabili, per cui una volta iniettati rimangono nel corpo laddove il sangue li ha trasportati; le particelle di dimensione ridotta possono venire incamerate da cellule ed interagire direttamente con il DNA danneggiandolo. Apprezzo quindi molto la proposta-che spero si concretizzi- del Presidente della SCI al Consiglio per creare un GdL che sintetizzi questi punti evidenziando gli aspetti chimici di un problema che è soprattutto medico, sociale, culturale.

Perché oggi la scienza non può tacere.

In evidenza

Vincenzo Balzani

In occasione dell’iniziativa Saperi Pubblici, piazza Verdi, 1 e 2 ottobre 2018, Bologna, Vincenzo Balzani ha scritto e pubblicato questo intervento che è anche apparso sul quotidiano la Repubblica.

Perché oggi la scienza non può tacere? Perché la scienza per sua natura è rivoluzionaria e, come dice una celebre frase di George Orwell, “In un’epoca dove si diffondono bugie, dire la verità è rivoluzionario”.

Potremmo anche partire da una frase celebre di Aldous Huxley, filosofo, scrittore e pacifista: “Molte persone credono di stare pensando quando, in realtà, stanno solo riorganizzando i loro pregiudizi”. E’ proprio questo che sta accadendo: fra la gente e, cosa ancor più pericolosa, fra molti di coloro che ci governano emergono pregiudizi che si concretizzano in discriminazioni, attacco ai diritti civili, spregio della diversità, disprezzo della scienza e più in generale delle competenze, fino alla formulazione di proposte di legge disgiunte dai principi costituzionali: la flat tax che è in contrasto con l’art. 53 della Costituzione, la discriminazione sul reddito di cittadinanza e la legittima difesa che sconfina nella giustizia fai da te.

Il primo e più grave pregiudizio che certe persone hanno, anzi coltivano, è quello di avere in tasca la verità, di essere migliori degli altri e quindi di non avere bisogno di nulla e di nessuno. La loro unica preoccupazione è difendere, con muri materiali, mentali e culturali, la loro identità. Quindi: si può fare a meno dell’Europa, si può fare a meno della Costituzione, si può fare a meno della magistratura, si può fare a meno del ragioniere generale dello Stato … Se ne può fare a meno perché sono solo ostacoli al “cambiamento”, perché “sappiamo noi cosa si deve fare”.

Per raccogliere consensi questi governanti non usano argomenti razionali, ma lo fanno suscitando paure, facendo credere ai cittadini che sono minacciati nei loro averi, nel loro lavoro, persino nella loro religione. Diffondono la xenofobia e isolano così la gente sotto una cappa di spavento e di ignoranza dalla quale è poi difficile uscire.

Le caratteristiche della scienza sono oggettività, rigore, collaborazione, confronto, libertà di pensiero e anche accettazione del dissenso, ma non del pregiudizio. La scienza è libera, non può sottostare ad imposizioni, sia che vengano dal basso, dalla gente, e tantomeno dall’alto, da chi governa. La scienza è per abbattere muri e costruire ponti. La scienza è per l’uomo, per tutti gli uomini. La Scienza educa alla democrazia perché i pilastri su cui si regge sono anche i pilastri della democrazia.

Ecco, quindi, perché oggi la scienza non può tacere: perché nella scienza non c’è posto per bugie e pregiudizi, non c’è posto per chi vuole rimanere isolato, non c’è posto per chi non ha dubbi e per chi agisce senza competenza. Noi scienziati pretendiamo che questo accada anche nella politica “quella tecnica regia (basiliké téchne) che deve far trionfare ciò che è giusto attraverso il coordinamento e il governo di tutte le conoscenze, le tecniche e le attività che si svolgono nella città” (Platone).

Detto questo, noi docenti e ricercatori dobbiamo, però, fare autocritica: dobbiamo chiederci perché ci troviamo in questa situazione. Forse siamo arrivati a questo punto, dove non possiamo più tacere, perché non abbiamo parlato prima, nel modo giusto, alla gente e anche alla politica. Molti di noi docenti, persone che hanno avuto il beneficio di poter studiare e il privilegio di potersi dedicare alla ricerca scientifica, forse non hanno ancora capito di essere in debito verso la società.

L’iniziativa dell’1 e 2 ottobre ha per titolo Saperi Pubblici. Ecco, forse abbiamo accumulato saperi, ma non siamo stati capaci di farne saperi pubblici. Molti di noi non si sono dedicati con sufficiente impegno, non hanno “sprecato” tempo a divulgare in modo corretto la scienza e se ne sono stati chiusi nei loro laboratori, affascinati dalle loro ricerche, senza curarsi dei problemi del mondo che ci circonda. Quanti di noi nelle lezioni si sono preoccupati di collegare la scienza alla pace, alla politica, all’etica, alle disuguaglianze, alla necessità di custodire il pianeta?

Il mondo ha molti problemi e noi docenti e scienziati abbiamo il dovere di contribuire a risolverli. Lo dobbiamo fare con le nostre ricerche, ma anche rendendo partecipi le persone dei nostri saperi e prendendo posizioni chiare. Se l’avessimo fatto, ci sarebbero in giro meno bugie e meno pregiudizi. Non siamo innocenti come scienziati e forse neppure come docenti e come cittadini; dobbiamo infatti svolgere il nostro ruolo con un maggior impegno civile.

Preistoria e storia dell’elettrodo a vetro

In evidenza

Rinaldo Cervellati

 L’elettrodo a vetro è noto a tutti i chimici ma anche a tutti coloro che se ne servono per misurare il pH di soluzioni acquose. La sua invenzione è generalmente attribuita al fisiologo Max Cremer nel 1906 [1] e a Fritz Haber e Zygmunt Klemensiewicz nel 1909 [2]. In effetti l’origine delle scoperte di questi tre scienziati è da far risalire a osservazioni e esperimenti effettuati almeno una trentina di anni prima. Cerchiamo di andare con ordine.

Fu Wilhelm Giese[1], uno studente di dottorato del noto scienziato Hermann von Helmholtz (1821-1894), che nel 1878 fece una serie di importanti misurazioni mentre conduceva ricerche per la sua tesi di dottorato. Giese era interessato a cercare di capire la natura delle cariche residue in una bottiglia di Leida[2] scaricata e sospettava che il fenomeno fosse collegato a cariche superficiali rimaste sul vetro. Preparò un pallone di vetro a pareti sottili dotato di un filo di platino e vi mise del mercurio. All’interno di questo pallone pose un secondo pallone a pareti sottili, anch’esso dotato di un filo di platino, ma riempito con una soluzione acquosa di un sale. In questa apparecchiatura venne fatto il vuoto. Giese scoprì che fra i due elettrodi di platino si stabiliva una tensione elettrica. Stabilì poi che questa differenza di potenziale dipendeva dalla natura della soluzione acquosa, mentre la velocità con cui la tensione si stabiliva dipendeva dallo spessore del vetro – tanto più sottile il vetro tanto più veloce la risposta. Il lavoro influenzò indubbiamente Helmholtz, che ne parlò a Londra, nella Faraday Discussion del 4 aprile1881 [3]. In quella occasione, mostrò una cella simile a quella di Giese, ma con il mercurio sostituito da solfato di rame e solfato di zinco nell’altra soluzione. L’apparecchiatura (Figura 1) si comportava esattamente come una pila Daniell[3], il vetro agendo come un setto altamente resistivo.

Figura 1 Cella di Hemholtz-Giese, adattata da Fig. 20 [1]

Hemholtz fece l’ipotesi che l’elettrochimica potesse essere interpretata solo in termini di particelle cariche, ma non andò oltre.

Un decisivo passo in avanti fu fatto dal fisiologo Max Cremer 25 anni dopo.

Max Cremer nacque a Ürdingen, sulle rive del Reno nella Ruhr, il cuore industriale della Germania. Studiò medicina a Bonn, a Würzburg e a Berlino, ma, piuttosto che alla pratica medica era interessato alla ricerca fisiologica e studiò fisica e matematica, combinazione improbabile a quei tempi per uno interessato alla biologia [e oggi in Italia? NdR]. Ottenne l’abilitazione presso l’Istituto di Fisiologia a Monaco di Baviera, dopo aver studiato con il noto fisiologo Carl von Voit[4] e il chimico Franz von Soxhlet[5]. A Monaco Cremer studiò il metabolismo dei carboidrati, stabilendo la relazione tra glucosio e glicogeno e studiando i percorsi biochimici nel fegato in modelli animali.

L’interesse di Cremer si rivolse poi alla biofisica. Voleva capire il ruolo delle membrane cellulari. Consapevole del lavoro di Helmholtz e Giese, suppose che il vetro sottile poteva essere una buona analogia di una sottilissima membrana. Prendendo un tubo di vetro, soffiò una piccola e sottile bolla ad una estremità del tubo. Con un filo di platino immerso in una soluzione standard all’interno, mise il suo tubo a bolla in una seconda soluzione in cui immerse pure un filo di platino. Una differenza di potenziale si stabilì fra i due elettrodi e Cremer notò che essa variava cambiando il grado di alcalinità e acidità delle soluzioni. Era la nascita di quello che ora chiamiamo l’elettrodo a vetro.

Max Cremer

A proposito degli esperimenti di Helmholtz e Giese, Cremer scrisse:

The idea that the glass as a diaphragm between the two liquids may possibly lead to a rather considerable electromotive force, obviously did not occur at that occasion to Helmholtz, and in any case no experiments have been arranged to test such possibility.[1]

Ovviamente deve essere sembrato importante a Cremer enfatizzare la rivendicazione della priorità di questa scoperta. Cremer aggiunse:

I recalled the bulbs which the glassblowers used to fabricate when they join glass tubes;
therefore I decided to perform experiments with such glass bulbs. Only later I carefully searched the literature in how far glass membranes have been used earlier for similar purposes.
[1]

In effetti gli esperimenti di Cremer differiscono da quelli della classica pila di Giese-Helmholtz nel contenuto dei recipienti di vetro. Cremer potè documentare che la differenza di potenziale dipendeva dai cambiamenti nell’acidità e alcalinità delle soluzioni. Sebbene Cremer sia da molti accreditato della scoperta dell’elettrodo a vetro, sembra non aver mai immaginato che il suo apparato potesse diventare uno strumento di misura.

Il passo successivo nello sviluppo dell’elettrodo a vetro fu fatto dal famoso chimico Fritz Haber e soprattutto dal suo studente di dottorato Zygmunt Klemensievics nel 1909. Il loro contributo è celebrato in un articolo del 2010 di B. Marczewska e K. Marczewski [4], per commemorare il centenario dell’elettrodo a vetro che essi attribuiscono appunto essenzialmente a Haber e Klemensievics.

Fritz Haber (1868-1934) è stato un famoso chimico tedesco, Premio Nobel 1918 per la sintesi dell’ammoniaca.

Zygmunt Aleksander Klemensiewicz nacque a Cracovia il 24 aprile 1886. Suo padre Robert era un insegnante, sua madre Maria Jozefa era una scrittrice e una traduttrice di lingue scandinave.

Nel 1904 si diplomò con il massimo dei voti nella scuola secondaria di Leopoli (allora Lemberg, parte dell’impero austro-ungarico). Quindi iniziò gli studi universitari presso il Philosophical Department della Jan Kazimierz University di Leopoli dove studiò chimica, fisica e matematica. Nel luglio del 1908 Zygmunt Klemensiewicz ottenne (summa cum laude) il suo dottorato di ricerca discutendo la dissertazione scritta intitolata: Il cloruro di antimonio come diluente ionizzante, sotto la guida del prof. Stanislaw Tołłoczko (1868-1935).

Dopo il dottorato ottenne un finanziamento dal Dipartimento Nazionale, una istituzione governativa eletta dal parlamento della Galizia, per partecipare a uno stage scientifico, parte di un programma di ricerca in cooperazione. Nel novembre 1908 si recò quindi alla Friedrich Technische Hochschule di Karlsruhe per lavorare con il professor Fritz Haber.

Non si sa con esattezza perché Klemensiewicz abbia scelto di andare da Haber per il suo stage scientifico post-dottorale, una delle ragioni potrebbe essere la notorietà o anche l’amicizia del prof.

Haber con il professor Tołłoczko o anche l’argomento della sua tesi di dottorato che convinse Haber che il nuovo stagista sarebbe stato utile nelle ricerche di elettrochimica. Fatto è che immediatamente dopo il suo arrivo nel laboratorio di Haber, il 22 novembre 1908, Klemensiewicz fu incaricato di indagare il comportamento elettrochimico del vetro in soluzioni acide e basiche. Fortunatamente abbiamo la descrizione del lavoro direttamente da una lettera che Klemensiewicz scrisse a Malcom Dole (che migliorò notevolmente la tecnica di costruzione degli elettrodi a vetro) molti anni dopo, [5]:

…queste indagini erano ispirate dai lavori di Cremer ripetuti nel laboratorio di Haber senza risultati degni di nota. Per le mie indagini ricevetti un primo apparecchio consistente in un pezzo di un cilindro di vetro rotto, con pareti di spessore 3 mm ricoperte di un foglio sottile di stagno. Mi resi subito conto che un dispositivo di questo tipo era inadeguato a causa della possibilità di un cortocircuito che avrebbe potuto facilmente verificarsi attraverso la superficie bagnata del vetro e quindi era necessario proteggere il sistema contro la dispersione di corrente lungo la superficie del vetro. Non conoscendo gli articoli di Cremer e Giese, realizzai un elettrodo costituito da un tubo di vetro di 7 – 8 mm di diametro e lungo 8 cm, terminante con un bulbo di vetro di 2,5 cm di diametro e 0,06 – 0,1 mm di spessore. Il vetro che usai era un vetro facilmente fusibile, specifico di Thüringen. Subito dopo averlo soffiato fuori, trattai il bulbo di vetro con vapore surriscaldato per sterilizzarlo e successivamente lo immersi in acqua distillata per idratarlo prima dell’uso o fra una misurazione e la successiva … Scoprii l’importanza di queste due procedure accidentalmente. Ho usato la sterilizzazione come metodo di purificazione, perché pensavo che residui di altri metodi, come l’acido cromico o solventi organici avrebbero potuto interagire chimicamente col vetro o essere adsorbiti da esso. Giunsi inoltre alla conclusione che il funzionamento dell’elettrodo sarebbe stato meglio presentato dalla registrazione di una titolazione poiché una serie di valori è più attendibile di una sola misura di forza elettromotrice. Il suo apparato per la titolazione potenziometrica fu schematizzato in [2]. Continua Klemensiewicz:

Gli elettrodi utilizzati erano l’elettrodo a vetro e un normale elettrodo a calomelano [Figura 3]. La differenza di potenziale fu misurata con un elettrometro a quadrante il cui uso mi era famigliare. Quando Haber venne a trovarmi in laboratorio dopo pochi giorni, sono stato in grado di mostrargli una curva molto buona per la reazione HCl-KOH, con una differenza di potenziale di circa 0,5 V fra inizio e fine titolazione… all’inizio Haber non voleva credere che fosse possibile ottenere questi risultati in così poco tempo, ho dovuto insistere a fargli ripetere l’esperimento tracciando da solo il diagramma delle letture sperimentali. L’esperimento procedette alla perfezione e Haber ebbe uno scoppio di entusiasmo.

Figura 3. L’apparato di Klemensiewicz e Haber, figura originale [2]

Figura 4. Una delle prime curve di titolazione tracciata per punti[6]

Klemensiewicz terminò di scrivere l’articolo sull’elettrodo prima del Natale 1909. Il lavoro [2] consiste di due parti: una parte teorica con cui Klemensiewicz non era completamente d’accordo e quindi è firmata solo da Haber, e da una seconda parte, sperimentale, a firma di entrambi (Fig. 5).

Figura 5. Titolo, autori e affiliazione dell’articolo citato, in originale [2]

Secondo il parere di Klemensiewicz, il professor Haber aveva troppa fretta di arrivare a una conclusione sulla natura e ruolo del vetro in base a dati di letteratura inadeguati.

Sempre secondo Klemensiewicz, il resto della sua permanenza a Karlsruhe non fu molto fruttuoso. Haber gli propose di portare a termine, come egli ha scritto, alcuni esperimenti “stravaganti”. Tuttavia, questo parere non può essere del tutto vero, perché a Karlsruhe intraprese ricerche sulla formazione di ioni positivi per riscaldamento di metalli, che in seguito divenne oggetto della sua abilitazione alla docenza. L’articolo sull’elettrodo a vetro resta comunque l’unico che Haber e Klemensiewicz hanno scritto in collaborazione. Per Klemensiewicz è stata una delle pubblicazioni più importanti della sua vita. Più tardi Klemensiewicz lavorò con Marie Curie e divenne infine professore di fisica al Politecnico di Leopoli.

Deportato dai russi in Polonia nel 1940, passò un anno e mezzo fra prigione e campi di concentramento finchè, con l’aiuto di amici, ottenne un posto al Technical College di Londra nel 1947.

Tornò in Polonia nel 1956 e nel 1959 partecipò ai festeggiamenti per il 50° anniversario del suo dottorato organizzati dalla Slesian University of Technology, importante Politecnico della Slesia fondato nel 1945 dai professori e tecnici polacchi che dovettero abbandonare Leopoli causa l’annessione all’Ucraina. Klemensiewicz morì il 25 marzo 1963.

Il termine glass electrode fu coniato per primo da Haber già nel 1907 come antonimo di “porcelain electrode”[6], tuttavia il termine in inglese si deve a Brown [7].

Diversi studi ebbero per oggetto l’elettrodo a vetro, fra i quali quello di Huges [8] che ne confrontò le prestazioni e i vantaggi rispetto all’elettrodo a idrogeno. In particolare va menzionato il lavoro di Phyllis Tokey Kerridge [9], che nel 1925 utilizzò l’elettrodo a vetro in biochimica facendo ben 450 misure di pH su soluzioni e fluidi biologici fra cui quella sul sangue (7.42) con un elettrodo miniaturizzato da lei costruito. Provò anche diversi tipi di vetro accorgendosi che un vetro di puro quarzo non funzionava qualsiasi ne fosse lo spessore.

Mac Innes e Dole nel 1930 [10] trovarono che la composizione ottimale per un elettrodo a vetro era 72% biossido di silicio, 22% ossido di sodio e 6% ossido di calcio. In ogni caso, sebbene la tecnologia abbia compiuto continui perfezionamenti dell’elettrodo durante più di ottanta anni, i principi di base rimangono gli stessi. Si è a lungo ritenuto che l’elettrodo funziona perché gli idrogenioni migrano attraverso il vetro come se fosse una membrana semipermeabile H+selettiva. Oggi sappiamo che la realtà è molto più complessa. Gli interessati possono trovare una interpretazione formalmente rigorosa in [11, 12]. Nel seguito se ne espone una, diciamo più ‘casalinga’, senza formalismi.

Non c’è da meravigliarsi se Kerridge non riscontrò alcuna attività in un elettrodo formato da silice pura. Oggi è infatti noto che le impurità ioniche (e in particolare il contenuto di sodio) nel vetro svolgono un ruolo importante nella sua funzione di “elettrolita atipico”, e non è quindi un caso che MacInnes e Dole abbiano scoperto che la composizione del vetro “ideale” per la membrana dell’elettrodo dovesse contenere circa un quarto di ossido di sodio.

La stessa membrana di vetro non lascia migrare ioni idrogeno di per sé. All’interfaccia fra la soluzione acquosa si forma invece un “gel idratato”, come mostrato in figura 6.

Figura 6. Schema del funzionamento elettrodo a vetro

Questo strato è incredibilmente sottile (~ 10 nm) ed è composto da vetro saturo d’acqua . Può essere strano pensare al vetro come materiale assorbente, ma in realtà questa proprietà di assorbimento è fondamentale: se un elettrodo di vetro si disidratasse completamente, cesserebbe di funzionare come dispositivo di misurazione del pH.

Quindi, si può pensare al vetro come a una “spugna di silicato amorfo”, composta da siti anionici e vacanze cationiche. E così, quando una soluzione a maggiore attività di H+ incontra questa spugna idratata, si verifica uno scambio di cationi. Questo scambio cationico può essere rappresentato dall’ equilibrio:

(H+(soluzione) + Na+(vetro)) ⇌ (Na+(soluzione) + H+(vetro))

Ovviamente, ogni lato del gel ha un’equazione separata per descrivere il suo equilibrio. Nel caso in cui il pH è diverso per le due soluzioni, l’equilibrio favorirebbe un diverso rapporto H +/Na+; quindi ci sarebbe una differenza di carica positiva tra i due strati di gel idratati. Ciò si traduce in un flusso di carica positiva attraverso il vetro secco, come conseguenza del piccolo movimento degli ioni (litio e sodio nella maggior parte degli elettrodi moderni). Anche se le frecce in grassetto nella figura potrebbero far pensare che un piccolo ione sodio (1.02´10-7 mm) attraversi il massiccio strato di gel idratato (0.1 mm), in effetti ogni singolo ione probabilmente muove solo pochi diametri atomici, scambiando posto con lo ione vicino in una sorta di staffetta.

Opere consultate (oltre a quelle citate in bibliografia)

https://www.chemistryworld.com/opinion/cremers-electrode/3008550.article

https://derangedphysiology.com/main/core-topics-intensive-care/arterial-blood-gas-interpretation/Chapter%201.1.2/history-glass-electrode

Bibliografia

[1] Cremer, Max. Über die Ursache der elektromotorischen Eigenschaften der Gewebe, zugleich ein Beitrag zur Lehre von den polyphasischen Elektrolytketten., Zeit. Biologie, 1906, 4, 562 – 608.

[2] Haber, F., Klemensiewicz, Z. Über elektrische Phasen grenzkräfte., Zeit. Physik. Chem.

1909, 67, 385-431.

[3] H. von Helmholtz, The Modern Development of Faraday’s Conceptions of Electricity, originariamente pubblicata in J. Chem. Soc., 1881, 39, 277, scaricabile da:

https://www.chemteam.info/Chem-History/Helmholtz-1881.html

[4] B. Marczewska, K. Marczewski, First Glass Electrode and its Creators F. Haber and Z. Klemenskievics – On 100th Anniversary., Bunsen-Magazin, 2010, 12 (5), 220-222, reprinted by permission from Zeitschrift fur Physikalische Chemie., 2010, 224 795–799.

[5] M. Dole, The Early History of the Development of the Glass Electrode for pH Measurements., J. Chem. Educ., 1980, 57, 134.

[6] F. Haber, F. Fleischmann, Uber die Knallgaskette. I. Mitteilung, Z. Anorg. Chem., 1907, Bd. 51 S. 245-288 (scritto nel 1906).

[7] W.E.L. Brown, The measurement of hydrogen ion concentrations with glass electrodes., J. Sci. Inst., 1924, 2, 12.

[8] W.S. Hughes, The Potential Difference Between Glass and Elrctrolytes in Contact with the Glass., J. Am. Chem. Soc.192244, 2860–2867.

[9] P.T. Kerridge, The use of the Glass Electrode in Biochemistry., Biochemical Journal., 192519 611-617.

[10] D.A. MacInnes, M. Dole, The Behavior of Glass Electrodes of Different Compositions., J. Am. Chem. Soc., 1930, 52, 29-36.

[11] P. Kurzweil, Metal Oxides and Ion-Exchanging Surfaces as pH Sensors in Liquids: State-of-the-Art and Outlook., Sensors 2009, 9, 4955-4985.

[12] D. J. Graham et al., Development of the Glass Electrode and the pH Response., J. Chem. Educ. 2013, 90, 345−351.

[1] Su Wilhelm Giese non si sa molto. Un articolo di Giese (Giese, W. Ann. Phys. (Wieri. Ann.) 1880, 9, 161-208) è citato da C.E. Moore et al., Development of the Glass Electrode, Electrochemistry, Past and Present. Chapt. 9, pp. 272-285. Giese partecipò come fisico alla Spedizione Scientifica Polare Tedesca all’isola di Baffin negli anni 1883-1884 (F. Boas, Among the Inuit of Baffin’s Island 1883-1884. Journals & Letters, Univ. Toronto Press, 1998).

[2] La bottiglia di Leyda è la forma del primo condensatore elettrico, invenzione attribuita al fisico olandese Pieter van Musschenbroek di Leyda (Paesi Bassi), nella seconda metà del XVIII secolo.

[3] La pila Daniell, croce e delizia degli studenti di chimica, è stata inventata nel 1836 da John Frederic Daniell (1790-1845) chimico e meteorologo inglese. Daniell ha fatto molte ricerche in chimica, meteorologia e agricoltura, il suo nome è inevitabilmente legato a quello della pila, usata nello sviluppo del telegrafo e degli apparecchi Morse.

[4] Carl von Voit (1831-1908) fisiologo e chimico tedesco, è considerato il fondatore della moderna dietetica. Come chimico scoperse che il contenuto in azoto dell’urea è una misura del turnover delle proteine.

[5] Franz Ritter von Soxhlet (1848-1926) chimico tedesco. Inventore dell’estrattore che porta il suo nome (1879) tuttora utilizzato, propose che la pastorizzazione venisse applicata anche al latte per prevenire infezioni batteriche.

[6] Vale la pena ricordare che il concetto di pH fu proposto da SØrensen nello stesso 1909. v. https://ilblogdellasci.wordpress.com/2016/06/29/il-concetto-di-ph/

Domani, 29 settembre, mi son svegliato e…

In evidenza

Luigi Campanella già Presidente SCI

Il 29 settembre è diventata una data nota a molti in quanto ad essa è stata dedicata una popolare canzone degli anni 60.

A me piacciono le canzoni,  ma da buon ricercatore, quale spero di essere, non posso non ricordare che quella data è importante per tutto il mondo per ben altro motivo, è la data di nascita di Enrico Fermi, il ragazzo di via Panisperna e Nobel per la Fisica, nato a Roma nel1901, come si diceva, il 29 settembre. A lui di deve l’idea di utilizzare neutroni lenti per bombardare gli atomi dei diversi elementi. Giunto all’elemento più pesante, l’uranio, pensò di aver ottenuto elementi transuranici. In effetti successivamente ammise che gli esperimenti eseguiti da Hahn e Strassmann facevano pensare piuttosto alla disintegrazione dell’uranio. Non sono un fisico, ma mi sento di affermare che Fermi rappresenti l’icona dello scienziato, con mille interessi, curioso e razionale al tempo stesso, intuitivo e deduttivo. Si affermò rapidamente tanto da divenire cattedratico all’età di soli 25 anni, radunando attorno a sè nell’edificio di via Panisperna studiosi come Amaldi, Setti,Segre.

Nel 1938 gli fu assegnato il Nobel e da Stoccolma dove lo ricevette si trasferì negli USA, senza tornare in Italia, per evitare che le famigerate mai sufficientemente vitupefate leggi razziali fossero scontate da sua moglie ebrea. In effetti già prima di ricevere il NOBEL e di trasferirsi negli USA era stato affascinato dalle esperienze condotte sull’atomo da Hahn e Strassman per scinderlo, tanto che nella sua Nobel Lecture aggiunse, rispetto all’originaria versione, la seguente nota: la scoperta di Hahn e Strassmann (di cui abbiamo parlato in un recente post) rende necessario riesaminare tutta la questione degli elementi transuranici poiché molti di essi potrebbero essere dovuti alla disintegrazione dell’atomo. In ogni caso a riconoscimento e dimostrazione del successivo importante lavoro di Fermi e collaboratori negli USA tre anni dopo era pronta la prima pila atomica, che frantumando un atomo di uranio produceva energia, in effetti neutroni, che colpivano altri atomi in un processo controllato  a cascata. Questo successo nasceva però dal riconoscimento da parte di Fermi della misinterpretazione dei suoi esperimenti e dall’accettazione di quella data con l’apparecchiatura di Hahn e Strassmann. Oggi la Storia della Fisica riconosce questi diversi ruoli, anche sulla base delle attente  analisi condotte sui quaderni  di laboratorio del team di via Panisperna. Dopo questo successo, affascinato da Einstein e adulato da Roosevelt, prese la direzione scientifica dei laboratori di Los Alamos dove fu preparata la bomba che esplose nel vicino deserto-era il 16 luglio del 1945- paragonata dallo stesso Fermi per i suoi effetti a diecimila tonnellate di tritolo. Quello che avvenne dopo – un nuovo test sganciandola su  “una base militare” circondata da abitazioni (NdB cioè Hiroshima, il presidente Truman la definì così nel discorso del 9 agosto 1945)- non vide d’accordo nè Fermi nè Oppenheimer, il direttore tecnico di Los Alamos. La domanda che ancora oggi si sente formulare in relazione alle responsabilità ed alle terribili devastanti  conseguenze di quel lancio è: Fermi può essere considerato il padre della bomba atomica? La storia della scienza ci insegna che le scoperte non sono mai  merito di un solo ricercatore; ciascuno è sempre l’erede di precedenti studi  e  significative  collaborazioni. Credo sia  anche il caso di Fermi i cui studi partirono e comunque si appoggiarono a quelli di Born, Einstein, Heisenberg, Rutheford.

Quello che ancora oggi gli viene imputato è di avere diretto l’esperimento su Hiroshima e soprattutto di non avere mai sconfessato la sua creatura giustificandola come necessaria per la rapida fine della guerra ed il conseguente risparmio di altre vite umane. Sappiamo che neanche questo accadde perchè ci volle un’altra bomba su Nagasaki affinchè ciò avvenisse. Fermi credette  anche nell’energia nucleare come strumento in medicina contro i tumori in particolare. Le valutazioni di un ricercatore dinnanzi alle ricerche  che svolge possono scaricarne le responsabilità? E’ questa una domanda continuamente riproposta-al centro dell’Etica della Scienza-ma  ancora con risposte ambigue e discordanti.

altri post sul tema:

https://ilblogdellasci.wordpress.com/2018/06/07/la-storia-della-scoperta-della-fissione-nucleare-i-chimici-risolvono-un-problema-fisico-prima-parte/

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/

https://ilblogdellasci.wordpress.com/2017/11/06/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-ida-noddack-1896-1978/

https://ilblogdellasci.wordpress.com/2015/08/04/era-bario-davvero/

https://ilblogdellasci.wordpress.com/2015/10/29/quanta-chimica-ce-nelle-bombe-atomiche-3/

 

Si fa presto a dire ricicliamo…… 1. Premessa.

In evidenza

Claudio Della Volpe.

Riciclare è l’imperativo categorico diventato addirittura una direttiva europea (DIRETTIVA (UE) 2018/851 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 30 maggio 2018 che modifica la direttiva 2008/98/CE relativa ai rifiuti). Ma riciclare è di fatto una attività che l’industria porta avanti da più di cento anni in qualche settore, si pensi all’industria siderurgica che ricicla il ferro: una parte significativa della produzione siderurgica si fa nei forni elettrici e il tondino del calcestruzzo è ferro riciclato, usato per fare le nostre case e i nostri manufatti stradali.

Dunque ricicliamo già, e anche parecchio, ma non basta. Abbiamo già fatto notare questa contraddizione in una serie di articoli pubblicati 6 anni fa da Giorgio Nebbia (https://ilblogdellasci.wordpress.com/2016/01/11/noterelle-di-economia-circolare/ e nei successivi di analogo titolo).

Riciclare è una necessità sempre maggiore; lo facciamo già e non in piccola quota ma dovremo farne di più e soprattutto diversamente; ma cosa distingue allora il riciclo che dovremo sviluppare da quello che già facciamo? quanto ne facciamo e quanto dovremo farne? Cosa distingue il semplice riciclo che già si fa dall’economia circolare?

Non sono domande facili. In questo post e nei successivi analizzeremo la situazione in qualche dettaglio e soprattutto cercheremo di mettere dei numeri in questo discorso.

Due o tre osservazioni basilari da fare.

La prima è che il riciclo o ricircolo è una caratteristica base dei reattori chimici che si insegna in tutti i corsi di principi di ingegneria chimica: in un impianto chimico tradizionale un riciclo è rappresentato da un “ciclo chiuso” di correnti materiali, che può passare attraverso una o più apparecchiature chimiche.

Il rapporto di riciclo è dato dal rapporto tra la portata della corrente riciclata e la portata della corrente principale prima del punto di reimmissione del riciclo. Lo scopo del riciclo è quello di aumentare la resa complessiva del processo e riciclare in un reattore è una necessità produttiva indiscutibile. Se la trasformazione è parziale il riciclo fa aumentare la resa. Dunque la chimica ha il riciclo nel proprio DNA.

Non solo, ma in qualunque azienda moderna si riciclano, almeno pro quota, gli sfridi di lavorazione; pensate all’alluminio; gli sfridi dei lingotti ottenuti vengono rimessi nei forni subito; insomma molte aziende di fatto costituiscono già dei sistemi di riciclo molto efficienti al proprio interno. In questo caso il riciclo corrisponde al risparmio. La questione nasce quando esternalizzando i problemi, diventa più economico per l’azienda lasciare all’”esterno” di occuparsi del riciclo: al mare, all’aria o alla terra. E questo non è un problema tecnico, ma di forma della proprietà; se il bene inquinato è “comune”, non privato perché l’azienda privata dovrebbe riciclare? Non altera i suoi conti, altera solo quelli “comuni”. E dunque non è interessata a meno che una legge e una serie di severi controlli non la obblighino. E’ la cosiddetta “tragedy of commons” analizzata dal famoso articolo di Garret Hardin.La seconda osservazione è che riciclare di solito si fa parzialmente, mentre l’economia circolare è un cosa diversa, è chiusa corrisponde ad un riciclo del 100%; di solito si prendono come esempio dell’economia circolare i cicli naturali degli elementi, C, N, P, S etc; e si dice in natura non ci sono discariche.

Già, ma i cicli naturali sono molto lunghi, in genere durano milioni di anni e da qualche parte occorre stoccare le cose; anche la Natura deve farlo; pensiamo al petrolio e in genere ai combustibili fossili, frutto della degradazione degli organismi a partire dal Carbonifero; noi stiamo estraendo questi intermedi di riciclo del carbonio in gran parte nascosti sotto il suolo e li stiamo rimettendo in circolo anzitempo accelerandone la trasformazione in CO2. In un certo senso stiamo solo accelerandone il riciclo. Già, ma il risultato è stato il riscaldamento globale.

E’ un tema del famoso libro: Tempi storici e tempi biologici del compianto Enzo Tiezzi. (Enzo come ci manchi.)

Aggiungiamo che anche i perfetti cicli naturali possono essere alterati; ricordiamo che l’ossigeno che respiriamo e che oggi costituisce la base della vita come la intendiamo, solo un paio di miliardi di anni fa era il prodotto di discarica della reazione di fotosintesi che, accumulandosi in atmosfera come oggi i gas serra, ne cambiò irreversibilmente la composizione. Questo costrinse gli allora dominatori del pianeta, i batteri anaerobi, a rifugiarsi nel sottosuolo, nel fondo del mare, negli intestini degli animali.

Volete un altro esempio? Beh parliamo ancora di ciclo dell’azoto e del fosforo, ma in realtà questi due cicli sono stati completamente alterati dalla nostra azione in quanto oggi produciamo noi uomini la gran parte del fosfato che va in mare e dell’azoto assorbito dall’atmosfera, ma non abbiamo inserito alcun controllo dalla parte del recupero, mandando in tilt il ciclo naturale originario. Dunque cicli naturali sono perfetti ma lunghi e delicati.

Facciamo qualche conto per far capire un’altra differenza fra riciclo naturale e artificiale. Poniamo di avere un materiale che abbia un ciclo di vita di 10 anni, chessò l’oro dei contatti elettronici e supponiamo di riciclarlo al 95%.

Cosa succede dopo 100 anni? Avremo fatto 10 ricicli e quanto dell’oro originale ci sarà rimasto? 0.9510=0.60; avremo comunque perso negli sfridi il 40% e avremo dovuto estrarre altro materiale vergine, in grande quantità. Detto fra di noi nessun materiale è riciclato dalla nostra tecnologia attuale a questo livello, ossia con meno del 5% di spreco. Tutti gli altri stanno peggio.

Ecco, fatte queste riflessioni siamo pronti a partire per una analisi più dettagliata della situazione.

(continua)

Fatberg: oli e grassi nei depuratori.

In evidenza

Mauro Icardi

Oli e grassi si riscontrano negli scarichi civili e in quelli provenienti dalle industrie alimentari. Questo nonostante molte realtà industriali del settore alimentare abbiano propri impianti di trattamento con sezioni di rimozione dei grassi residui. Le concentrazioni e le proporzioni di questo tipo di inquinanti sono variabili ma la loro rimozione è una fase fondamentale. Gli impianti di depurazione normalmente hanno una sezione di disoleatura di per sé sufficiente ad evitare questo tipo di inconvenienti. Ma si possono verificare accumuli nella stessa sezione, e in qualche caso anche nelle condutture di adduzione, provocandone in qualche caso il restringimento e la parziale occlusione.

Un anno fa la notizia del rinvenimento di una palla di grasso nelle fognature di Londra ebbe un forte risalto, sui giornali e nel web.

https://www.corriere.it/esteri/13_agosto_06/grasso-fogne-londra_ae729aea-fe80-11e2-9e44-1a79176af940.shtml

Questo è stato un caso eclatante, ma l’accumulo di grassi nelle condotte fognarie provoca ovviamente lo sviluppo di cattivi odori dovuti ad irrancidimento e parziale idrolisi. Con tutte le spiacevoli conseguenze del caso. Per i cittadini e per gli operatori.

Per altro questa reazione può trovare condizioni adatte al suo svilupparsi principalmente per la temperatura, considerando che essa si mantiene sempre intorno a valori superiori a 10°C (normalmente 12° C nella stagione invernale, e circa 20°C in quella estiva) nei reflui di fognatura e da tracce di metalli che sono anch’essi presenti nelle medesime acque.

In caso di trascinamento nella sezione di ossidazione le sostanze grasse ed oleose formano una pellicola che rende impermeabile ed ostacola l’assorbimento di sostanze nutritive ed ossigeno da parte della biomassa, ed allo stesso modo danneggiano i corpi idrici ricettori.

Nel comparto di sedimentazione finale tendono a far flottare il fango biologico, peggiorando sensibilmente la qualità delle acque scaricate. Nei casi più gravi non permettono di raggiungere i limiti previsti per legge per diversi parametri, quali BOD5,COD, odore, solidi e naturalmente quello degli oli e grassi.

In passato si sono utilizzate soluzioni diverse, dalla cattura meccanica superficiale, sfruttando la naturale tendenza al galleggiamento ed alla flottazione, o effettuando lavaggi con soda e tensioattivi. Tutte queste soluzioni sono spesso risultate parziali e costose, e con un impegno importante di manodopera, che in qualche caso si è anche dovuta addestrare all’utilizzo corretto ed in sicurezza di questi prodotti chimici.

Una soluzione praticabile più facilmente è quella dell’utilizzo di prodotti batterico enzimatici che possono iniziare il loro ciclo riproduttivo, sia in campo aerobico che anaerobico, appena le condizioni di umidità , temperatura, pH. ecc. siano idonee. La componente biologica di questi prodotti comprende microrganismi selezionati non patogeni. L’ immissione di prodotti di questo tipo in un sistema inquinato, sia solido che liquido, avvia immediatamente il ciclo metabolico e riproduttivo dei microrganismi in essi contenuti innescando una serie di reazioni. In generale si ha un aumento della riproduzione biologica e della secrezione enzimatica, sia in aerobiosi che in anaerobiosi, a spese della componente organica inquinante. L’ingegnerizzazione industriale di questi microorganismi li rende efficienti anche nei confronti di composti difficilmente biodegradabili come oli e grassi, tensioattivi, fenoli, che la normale biomassa che si sviluppa nei fanghi di ossidazione biologica degrada molto più lentamente, e dopo periodi di acclimatamento generalmente molto più lunghi.

L’aggiunta di questo tipo di prodotti generalmente riduce i tempi di mineralizzazione della componente organica inquinante riducendo i quantitativi di ossigeno ed energia da fornire.

I prodotti usati per ridurre gli inconvenienti provocati dall’accumulo di oli e grassi sono in grado, a differenza dei microrganismi spontanei, di secernere l’enzima lipasi che è responsabile della scissione dei lipidi in glicerina ed acidi grassi, composti facilmente biodegradabili. Dal punto di vista dell’applicazione pratica, prodotti di questo genere quando siano forniti allo stato liquido si possono dosare piuttosto facilmente con una pompa dosatrice, nelle condotte a monte. Le acque reflue normalmente non necessitano di correzione del pH, in quanto questi prodotti hanno attività massima in un intervallo di pH tra 5 e 9. In questo modo si crea una sorta di pellicola protettiva sulla condotta, o nei punti come la sezione di disoleatura dove il materiale viene rimosso e destinato allo smaltimento. Ovviamente il costo di questi prodotti si può ammortizzare considerando che si riducono gli interventi di pulizia e spurgo, e di manutenzione straordinaria. In chiusura però la raccomandazione solita. Anche se è meno immediato rispetto ad esempio alla raccolta differenziata, cerchiamo di porre attenzione a ciò che scarichiamo dalle nostre abitazioni e dagli insediamenti industriali. Raccomandazione niente affatto banale. Per quanto riguarda la mia esperienza diretta posso dire che attualmente situazioni di questo tipo si sono notevolmente ridotte. Ma non è detto che una palla di grasso (che i londinesi hanno   battezzata “fatberg” cioè iceberg di grasso) possa comparire anche alle nostre latitudini.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Erika Cremer (1900-1996)

In evidenza

Rinaldo Cervellati

Forse solo pochi chimici sanno che Erika Cremer è stata praticamente la prima a studiare le basi teoriche della gas cromatografia e a costruire e utilizzare con successo, insieme al suo studente di dottorato Fritz Prior, il primo gas cromatografo [1,2].

Nata a Monaco (Baviera) il 20 maggio 1900, da Max Cremer e Elsbeth Rosmund, unica femmina fra due figli maschi. Suo padre, Max Cremer, professore di fisiologia, è stato, fra l’altro, il pioniere ideatore dell’elettrodo a vetro[1], il fratello maggiore, Hubert divenne un matematico e il minore, Lothar un fisico specializzato in acustica. Anche il nonno e il bisnonno erano coinvolti in ricerche scientifiche.

In un tale ambiente Erika desiderò dedicarsi all’apprendimento delle scienze e alla ricerca, nonostante a quei tempi queste attività fossero ancora decisamente sconsigliate alle donne.

Trasferitasi la famiglia a Berlino, Erika trovò qualche difficoltà ad adattarsi al sistema scolastico prussiano, tuttavia riuscì a ottenere il diploma di scuola superiore nel 1921. Nello stesso anno si immatricolò all’Università di Berlino per studiare chimica. Seguì le lezioni di Fritz Haber (1868-1934), Walther Nersnt (1864-1941), Max Plank (1858-1947), Max von Laue (1868-1960) e Albert Einstein (1979-1953), tutti già Premi Nobel.

Cremer ottenne il dottorato in chimica fisica nel 1927 sotto la guida di Max Bodenstein[2], discutendo una tesi sulla cinetica della reazione fra idrogeno e cloro [3]. La tesi fu pubblicata con il solo suo nome perché la conclusione che la reazione seguisse un meccanismo a catena era ancora considerato un concetto estremamente originale per quel tempo[3]. A causa di questo articolo e più in generale per il suo lavoro in cinetica, Nikolay Semyonov[4] la invitò a lavorare a Leningrado. Cremer rifiutò e rimase in Germania per lavorare con Karl-Friedrich Bonhoeffer[5] all’Istituto Kaiser Wilhelm per la Chimica Fisica e l’Elettrochimica, diretto da Fritz Haber.

Erika Cremer in gioventù

Per un breve periodo Cremer usufruì di una borsa di studio all’università Di Friburgo dove compì ricerche sulla decomposizione degli alcoli catalizzata da ossidi metallici. Tornata a Berlino, Cremer lavorò nel dipartimento di Michael Polanyi[6] del Kaiser Wilhelm dove hanno approfondito lo studio della conversione dell’orto-idrogeno in para-idrogeno. Rimase in quel dipartimento fino al 1933 quando il partito nazista salì al potere in Germania e il dipartimento venne sciolto per la sua reputazione anti-nazista. Tutto lo staff fu allontanato e Cremer non fu in grado di continuare a fare ricerca o di trovare un lavoro per quattro anni [4].

Nel 1937 Cremer fu chiamata da Otto Hahn al Kaiser Wilhelm Institute for Chemistry per studiare i tipi di radiazioni emesse dai radioelementi concentrandosi in particolare sulla separazione isotopica. Nel 1938, Cremer ricevette l’abilitazione alla docenza universitaria dall’Università di Berlino. Normalmente questa qualifica l’avrebbe portata a una cattedra nella facoltà di chimica; tuttavia, il governo nazista dell’epoca aveva approvato una legge sulla posizione delle donne dipendenti pubblici. Questa legge vietava alle donne di ricoprire cariche elevate e richiedeva alle donne di dimettersi in caso di matrimonio. Molte donne scienziate e studiose furono lasciate senza lavoro o limitate nelle prospettive di carriera da questa legge, anche Cremer non divenne mai docente a Berlino [4].

Con l’inizio della seconda guerra mondiale molti scienziati e professori maschi furono chiamati o richiamati nell’esercito e Cremer nel 1940 ottenne un posto di docente all’Università di Innsbruck in Austria. Fu tuttavia informata che avrebbe dovuto lasciare il posto una volta finita la guerra e gli uomini tornati a casa.

E’ a Innsbruck che Cremer concepisce i principi della gascromatografia e realizza il primo strumento.

Erika Cremer in laboratorio

Mentre era impegnata in una ricerca sull’idrogenazione dell’acetilene stava incontrando notevoli difficoltà nel separare i due gas con calori di assorbimento simili usando le tecniche a disposizione a quel tempo. Basandosi sugli studi di cromatografia liquida di adsorbimento che venivano effettuati in quel momento all’università di Innsbruck, pensò che un gas di trasporto inerte avrebbe avuto lo stesso ruolo del solvente usato come fase mobile in cromatografia liquida. Nel 1944 sottopose un’illustrazione teorica di questa idea alla rivista Naturwissenschaften, sfortunatamente il reparto stampa della rivista fu distrutto da una incursione aerea proprio mentre era in stampa il fascicolo contenente il suo articolo, che fu pubblicato solo 30 anni più tardi [5] e quindi considerato come un reperto storico.

Nel dicembre 1944 tutte le strutture dell’Università di Innsbruck erano seriamente danneggiate dalla guerra e a Erika Cremer non fu permesso di utilizzare le poche attrezzature funzionanti. Il suo studente di dottorato e insegnante di chimica nelle scuole superiori, Fritz Prior (1921-1996) scelse l’idea di Cramer come argomento di tesi e continuò il lavoro con lei nel laboratorio della scuola dove lavorava. Anche dopo la parziale agibilità dell’istituto Cremer fu temporaneamente interdetta dal lavoro a causa della sua cittadinanza tedesca ma continuò a frequentare segretamente il laboratorio per continuare la ricerca. A Cremer fu concesso di tornare al suo lavoro alla fine del 1945. La ricerca fu completata e la tesi discussa nel 1947 dimostrando la messa a punto di un nuovo metodo strumentale di analisi qualitativa e quantitativa per gas e vapori [6]. Cremer iniziò a presentare il lavoro di Prior e suo nel 1947 a vari incontri scientifici [7]. Un altro studente, Roland Müller, sviluppò le possibilità analitiche del gascromatografo nel suo lavoro di tesi del 1950 [8].

Cremer fu nominata direttore del Physical Chemistry Institute di Innsbruck e professore ordinario nel 1951.

Schema del gascromatografo di Cremer e Prior [6,9]

Nello stesso anno, due articoli sul lavoro di Cremer furono pubblicati su Zeitschrift für Elektrochemie e uno su Mikrochemie [9-11], riviste scientifiche tedesche meno prestigiose di Naturwissenschaften. La comunità scientifica sembrò darvi poco peso o ignorarli del tutto.

Nel 1952, i britannici Anthony Trafford James (1922-2006) e Archer Porter Martin (1910-2002) pubblicarono articoli che rivendicavano l’invenzione della gascromatografia. Lo stesso fece il collaboratore di Martin, Richard Laurence Millington Synge (1914-1994). A Martin e Synge fu assegnato il premio Nobel per la Chimica 1952 per la cromatografia di ripartizione liqudo-liquido, associata al possibile uso di un gas inerte come fase mobile. Tutti costoro erano completamente all’oscuro dei primi lavori di Cremer. Secondo Bobbleter [2] , il mancato riconoscimento del lavoro di Cremer e dei suoi collaboratori può essere ricondotto a tre motivi. Innanzitutto, le loro pubblicazioni furono ritardate a causa della situazione geopolitica in Europa centrale, inoltre i risultati furono per lo più presentati ai convegni della società chimico fisica tedesca (la Bunsengesellschaft) scarsamente interessata a questo settore di indagine. Secondo, quando gli articoli di Cremer furono finalmente pubblicati, le varie parti d’Europa erano ancora divise in zone di occupazione; quindi, un risultato scientifico proveniente dall’Europa centrale poteva non essere immediatamente diffuso o riconosciuto in altre aree. Infine, non si deve dimenticare che gli articoli di Cremer furono pubblicati in tedesco e in riviste relativamente poco conosciute, in un periodo di tempo in cui la lingua scientifica era già largamente l’inglese. Va poi ricordato che nei primi anni del dopoguerra la comunicazione tra scienziati inglesi e tedeschi era scarsa.

Negli anni successivi, grazie anche all’applicazione nell’industria petrolifera per la separazione degli idrocarburi isomerici, la tecnica gascromatografica si diffuse ampiamente e il lavoro di Cremer ottenne lentamente il riconoscimento che meritava.

Erika Cremer in età matura

Cremer e i suoi collaboratori hanno continuato il lavoro sullo sviluppo teorico e l’implementazione strumentale della gascromatografia nei due decenni successivi. Si deve a loro il concetto di “tempo di ritenzione relativa” e il metodo di calcolare l’area del picchi moltiplicando la loro altezza per la larghezza a metà altezza, hanno inoltre dimostrato la relazione tra le misure e la temperatura della colonna.

Cromatogramma originale e calcolo area dei picchi

Nel 1958 le fu assegnata la Wilhelm Exner Medal, istituita dall’Associazione delle Industrie Austriache per una ricerca scientifica eccellente, e nel 1970 il Premio Erwin Schrödinger dell’Accademia Austriaca delle Scienze.

Cremer continuò la sua ricerca all’Università di Innsbruck fino al suo ritiro nel 1971. Rimase attiva nella ricerca in gascromatografia fino quasi alla fine della vita. Nel 1990 si svolse a Innsbruck un simposio internazionale in celebrazione del suo lavoro e del novantesimo compleanno [1].

È morta nel 1996 all’età di 96 anni.

Omaggio a Erika Cremer

Nel 2009, l’Università di Innsbruck ha istituito un premio a suo nome per donne scienziate altamente qualificate in attesa di concorrere al diploma di abilitazione all’insegnamento universitario.

Nota. Per chi fosse interessato, la bibliografia completa di Erika Cremer si può trovare in un in memoriam di Ortwin Bobleter: http://www.zobodat.at/pdf/BERI_84_0397-0406.pdf

In inglese vale la pena citare il ricordo comparso su Analytical Chemistry, 1990, 62, 1015A-1017A.

Bibiografia

[1] L.S Ettre, Professor Erika Cremer Ninety Years Old., Chromatographia, 1990, 29, 413-4.

[2] O. Bobleter, Exhibition of the First Gas Chromatographic Work of Erika Cremer and Fritz Prior., Chromatographia, 1996, 43, 444-446.

[3] E. Cremer, (1927). Uber die Reaktion zwischen Chlor, Wasserstoff und Sauerstoff im Licht, Thesis, University of Berlin, 1927 (in German)

[4] A.B. Vogt, Erika Cremer (1900-1996). In: J. Apotheker, L. S. Sarkadi (Eds.), European Women in Chemistry, Wiley-VCH Verlag & Co. Weinheim, Germany, 2011, pp. 135-137

[5] E. Cremer, On the Migration Speed of Zones in Chromatographic Analysis., Chromatographia, 1976, 9, 363-4 (in German); v. anche: E. Cremer, How We Started to Work in Gas Adsorption Chromatography., Chromatographia, 1976, 9, 364-366.

[6] F. Prior, Determination of Adsorption Heats of Gases and Vapors by the Application of the Chromatographic Method in the Gas Phase., Doctoral Thesis, University of Innsbruck, May 1947 (in German).

[7] v. ad es. E. Cremer, F. Prior, Meeting of the Verein Osterreichischer Chemiker, Linz, May 1949.

[8] R. Müller, Anwendung der chromatographischen Methode zur Trennung und Bestimmung kleinsten Gasmengen., Doctoral Thesis, University of Innsbruck, May 1950.

[9] E. Cremer, F. Prior, Application of the Chromatographic Method to the Separation of Gases and to the Determination of Adsorption Energies., Z. Elektrochem., 1951, 55, 66-70 (in German).

[10] E. Cremer, R. Müller, Separation and Determination of Substances by Means of Gas-Phase Chromatography., Z. Elektrochem., 1951 55, 217-220 (in German).

[11] E. Cremer, R. Müller, Trennung und quantitative Bestimmung kleiner Gasmengen durch Chromatographie. — Mikrochemie u. Microchim. Acta, 1951, XXXVI-XXXVII, 533 – 560.

[1] Parleremo dell’origine e dello sviluppo dell’elettrodo a vetro in un prossimo post.

[2] Max Ernst August Bodenstein (1871 –1942), chimico fisico tedesco, noto per le sue ricerche in cinetica chimica, fu il primo a immaginare un meccanismo di reazione a catena e che le esplosioni si potevano essere interpretate in base a un tale meccanismo.

[3] Ricordiamo che la corrispondente reazione fra idrogeno e iodio segue una cinetica semplice del secondo ordine, quindi per molti decenni è stata considerata un atto elementare. Qualche testo, fortunatamente sempre meno, la presenta ancora così.

[4] Nikolay Semyonov (1896-1986) chimico fisico sovietico noto per i suoi lavori sulle reazioni con meccanismo a catena e a catena ramificata. Premio Nobel per la chimica 1956 insieme a Sir Cyril Hinshelwood per le loro ricerche sui meccanismi delle reazioni chimiche.

[5] Karl-Friedrich Bonhoeffer (1899 – 1957) chimico tedesco, fu allievo di Fritz Haber ed è noto per le sue ricerche in meccanica quantistica che lo portarono a scoprire l’orto e para idrogeno.

[6] Michael Polanyi, (1891 – 1976), ungherese britannico è stato uno scienziato eclettico, che ha dato importanti contributi teorici alla chimica fisica, all’economia e alla filosofia. Dal 1926 al 1933 è stato professore di chimica al Kaiser Wilhelm Institute di Berlino, nel 1933 è stato il primo professore di chimica e poi di scienze sociali all’Università di Manchester. Dal 1944 membro della Royal Society. La sua opera filosofica più nota è il libro Towards a Post-Critical Philosophy del 1958, pubblicato in italiano col titolo La conoscenza personale da Rusconi, Milano, 1990. Suo figlio, John Charles è stato covincitore del Nobel per la Chimica nel 1986 per il contributo allo studio delle dinamiche delle reazioni elementari. Curioso perché fra le ricerche in chimica del padre, forse la più importante ha riguardato la teoria cinetica dello stato di transizione per le reazioni elementari.

Vaccini, negazioni e Jenner.

In evidenza

Luigi Campanella, già Presidente SCI

É dei nostri giorni il dibattito sulla obbligatorietà o meno delle vaccinazioni. Riflettevo su questo quando un mio amico mi ha dato un appuntamento a cena in un ristorante a via Jenner nella mia città. Qualcuno si chiederà quale sia il collegamento fra i due eventi. Il fatto è che io nella mia curiosità dinnanzi ai nomi delle vie dedicate a personaggi cerco sempre di raccogliere informazioni sugli intestatari, quando a me non noti.

 

Non mi vergogno di dire che lo stesso è avvenuto con Jenner e così ho potuto apprendere il grande contributo dato da questo studioso allo sviluppo della pratica protettiva basata sulla vaccinazione. Edward Jenner fu un medico inglese vissuto a cavallo fra diciottesimo e diciannovesimo secolo che per primo introdusse il vaccino contro il vaiolo.
Scriveva Voltaire che su 100 persone a quel tempo 60 contraevano questa brutta malattia ed in effetti tutta l’Europa fu vittima di questo morbo. Solo la peste nera in altri tempi aveva prodotto un maggiore numero di vittime.Eppure proprio quello è il tempo in cui Jenner, una mente scientificamente fertile, appassionata non solo alla propria disciplina,ma anche a Chimica, Fisica, Botanica fino all’Aeronautica, tanto da divenire costruttore di una mongolfiera.

(un riassunto della sua vita affascinante nel link in fondo all’articolo)
Era quello un periodo molto strano: da un lato l’illuminismo ed il razionalismo, dall’altro una medicina spesso basata su pressapochismo e ciarlataneria, condite da farmaci costituiti spesso da improbabili miscugli con nomi ambigui ed effetti imprevedibili e casuali, un’espressione della quale poteva considerarsi Cagliostro con il suo elisir di lunga vita o Mesmer con la sua vasca magnetica.
La grande scoperta di Jenner -non credo adeguatamente conosciuta- fu in effetti solo un’osservazione: le ragazze cinesi – un Paese la Cina che combatteva contro il vaiolo che si diffondeva- che lavoravano nei caseifici non si ammalavano. La spiegazione che diede Jenner al fatto osservato si basava sul fatto che le ragazze mungevano le vacche, finivano per contrarre un’eruzione e con essa si immunizzavano rispetto al vaiolo. Messa a punto l’ipotesi ecco , secondo le regole del metodo scientifico, la prova sperimentale. Cosi Jenner inoculò l’essudato dell’eruzione ad un amico disponibile che fu poi contagiato con il virus del vaiolo: il paziente non si ammalò. Era nata la vaccinazione strumento prezioso contro numerose malattie che si diffusero successivamente nel tempo. Da Pasteur a Sabin furono salvate centinaia di milioni di vite: ma queste vittorie fantastiche per l’umanitá spesso si scontrarono con ignoranza e pregiudizi, gli stessi che oggi ritroviamo in alcuni interventi del nostro tempo.
Se oggi molte gravi malattie sono state debellate è merito di persone come Jenner che hanno tracciato con intuito e studio paziente la via del progresso scientifico. Tale progresso non può essere osteggiato in assenza di controprove: come diceva Popper il compito dello scienziato con i suoi studi non é solo la conferma di una tesi, ma anche la smentita.
Ecco io credo che la lezione di Jenner che ho imparato a conoscere, apprezzare e ringraziare per quanto ha fatto sia proprio questa: la negazione va documentata al pari dell’affermazione.

https://it.wikipedia.org/wiki/Edward_Jenner

Plastica biodegradabile: il polibutirrato (PBAT)

In evidenza

Rinaldo Cervellati.

Tutti abbiamo familiarità con la pellicola da cucina per avvolgere alimenti, con i guanti in plastica sottile per la scelta di frutta e verdura al supermercato e per i sacchetti che oggi sono obbligatori in tutti i negozi di alimentari (figura 1). Sono in larga misura costituiti da una plastica biodegradabile, sostanzialmente polibutilene adipato tereftalato, in sigla PBAT (nome comune polibutirrato).

Figura 1. Pellicola di plastica biodegradabile e suoi molteplici usi

Sintetizzato per la prima volta da chimici della BASF più di venti anni fa, si tratta di un copolimero, specificatamente un copoliestere dell’1,4-butandiolo esterificato con acido adipico e del dimetil tereftalato[1]. Viene generalmente commercializzato come alternativa completamente biodegradabile al polietilene a bassa densità, con molte proprietà simili tra cui flessibilità e resistenza allo stiramento, che consente di utilizzarlo per gli usi sopra ricordati. La struttura del copolimero PBAT è mostrata in figura 2.

Figura 2. Le unità costitutive del PBAT: butandioltereftalato e butandioladipato

Nella figura, il PBAT è mostrato come un copolimero a blocchi a causa del comune metodo sintetico di sintetizzare inizialmente i due blocchi del copolimero e quindi combinarli. Tuttavia, è importante notare che la struttura effettiva del polimero è un copolimero casuale dei blocchi mostrati, ottenuta miscelando i due blocchi in presenza di tetrabutossi titanio come catalizzatore.

Questa casualità, cioè l’assenza di qualsiasi tipo di ordine strutturale fa si che il polimero non può cristallizzare in misura significativa. Ciò porta a diverse proprietà fisiche: ampio intervallo di fusione, basso modulo elastico e rigidità, ma elevata flessibilità e tenacità. Infine, la particolare struttura lo rende biodegradabile da batteri (o loro enzimi) contenuti nel terreno.

Per tenere sotto controllo le infestanti e mantenere l’umidità del terreno, gli agricoltori inseriscono piccoli ammassi (“pacciame”) di pellicole di plastica nei loro campi. Ma questi sottili film polimerici sono poi difficili da raccogliere dopo l’uso e l’accumulo di plastica riduce inevitabilmente la fertilità del suolo. I pacciami di pellicole biodegradabili evitano questi problemi e sono quindi sempre più usati. Un gruppo di ricercatori del Politecnico di Zurigo (ETH) e dell’Università di Vienna, combinando varie tecniche fra cui marcatura isotopica, spettroscopia NMR e NanoSIMS (Nanoscale secondary ion mass spectrometry), hanno sviluppato quello che alcuni esperti dicono sia il metodo più completo per rintracciare quali atomi di carbonio del PBAT finiscono nel suolo. La notizia è stata riportata da Carmen Drahl in C&EN newsletters del 31 luglio scorso (Technique tracks carbon as soil microbes munch plastic).

Il guppo di ricerca, coordinato dal prof. Michael Sander, si è prefisso anzitutto lo scopo di stabilire quale carbonio venisse utilizzato dai microrganismi, se quello presente nel terreno o quello contenuto nel polimero.

Michael Sander

La ricerca, molto dettagliata, è stata recentemente pubblicata on-line su Science Advances (M.T. Zumstein et al., Biodegradation of synthetic polymers in soils: Tracking carbon into CO2 and microbial biomass, Sci. Adv., 2018, DOI: 10.1126/sciadv.aas9024).

Di seguito una sintesi del protocollo della ricerca e dei risultati ottenuti.

La prima fase è consistita nel preparare un pacciame di PBAT marcato con isotopi 13C in diverse posizioni come mostrato in figura 3, ottenendo tre campioni diversamente sostituiti.

Figura 3. Isotopi 13C sostituiti nelle posizioni colorate

I tre campioni del pacciame isotopicamente sostituito mescolati a opportune quantità di terreno sono state fatte incubare in appositi contenitori per sei settimane. La CO2 marcata 13C emessa dalla biodegradazione dei polimeri è stata monitorata nel tempo con la tecnica CRDS (cavity ring-down spectroscopy). Questa tecnica ha permesso anzitutto ai ricercatori di distinguere fra l’anidride carbonica derivata dal polimero da quella formata dalla mineralizzazione della materia organica del suolo.

Dopo l’incubazione, le superfici dei film polimerici sono state studiate mediante microscopia elettronica a scansione (SEM), figura 4, mostrando l’incorporazione di 13C derivato dal polimero nella biomassa e dovuta ai microorganismi che ne utilizzerebbero parti specifiche.

Figura 4. Immagine di numerose colonie microbiche sul film polimerico

Quest’ultima considerazione è stata verificata attraverso spettrometria di massa di ioni secondari su scala nanometrica (NanoSIMS, figura 5).

Figura 5. Schema di un NanoSIMS

Lo studio di tre varianti PBAT con proprietà fisico-chimiche simili ma variati nel monomero che conteneva gli atomi di carbonio marcati 13C [cioè, adipato, butandiolo e tereftalato (v. figura 3] ha permesso ai ricercatori di seguire la biodegradazione dei tre blocchi costitutivi il PBAT.

Il lavoro presentato è un nuovo approccio per studiare i passaggi fondamentali nella biodegradazione dei polimeri in sistemi complessi.

Gli autori concludono che nell’arco di sei settimane la biodemolizione del PBAT non è completa, in parte viene incorporato nella biomassa. La percentuale cumulativa di CO2 marcata proveniente dal polimero marcato nella parte adipato è maggiore di quella proveniente dagli altri due. I ricercatori hanno dato una spiegazione del fatto studiando la biodegradazione del PBAT non marcato sia dalla lipasi del Rhizopus orza che dalla cutinasi del Fusarium solani, due carbossilesterasi fungine con meccanismi di idrolisi diversi. Come previsto, la spettrometria H1NMR ha rivelato che il residuo del PBAT dopo parziale idrolisi enzimatica era arricchito in tereftalato, mentre i prodotti dell’idrolizzato erano ricchi in adipato.

Infine gli autori affermano che il loro lavoro fa avanzare sia la comprensione della biodegradazione dei polimeri sia la capacità metodologica di valutare questo processo in ambienti naturali o ingegnerizzati.

Markus Flury, scienziato del suolo nella Washington State University, dice: “Questo studio mostra chiaramente che il carbonio proveniente da diverse posizioni in un polimero biodegradabile si trasferisce effettivamente in biomassa e CO2, e che ciò avviene a velocità diverse per diversi atomi di carbonio” Tuttavia Flury vorrebbe vedere uno studio a lungo termine per dimostrare che il polimero può essere completamente degradato; lo studio di sei settimane ha mostrato solo un parziale degrado. Vorrebbe anche conoscere il destino degli additivi per la pacciamatura in plastica che conferiscono proprietà ai materiali come resistenza alla luce ultravioletta.

Prof. Markus Flury

A quest’ultimo proposito Sander risponde: gli additivi sono nella lista delle cose da fare. Il mio team sta attualmente conducendo test a lungo termine in diversi terreni e pianificando progetti per condurre anche test sul campo. Il lavoro è stato supportato in parte da BASF, che ha prodotto il polimero biodegradabile.

Un certo numero di scienziati vorrebbe determinare se i microorganismi del lavoro di Sander potrebbero demolire anche altri polimeri più resistenti alla biodegradazione, come il polietilene.

Dr. Till Opaz

Till Opatz, che ha studiato la biodegradazione della plastica all’Università di Mainz, afferma: le indagini precedenti non hanno fornito risposte definitive, ma questa combinazione di tecniche probabilmente sarebbe in grado di farlo.

[1] La BASF (Badische Anilin und Soda Fabrik) lo mise in commercio col marchio ecoflex®, oggi è prodotto da molte altre industrie con i marchi Wango, Ecoworld, Eastar Bio e Origo-Bi.

Le molecole della pubblicità: l’acqua micellare.

In evidenza

Claudio Della Volpe

(per i precedenti articoli di questa serie vedi in fondo)

L’”acqua micellare” è uno dei prodotti di maggior successo pubblicitario degli ultimi tempi; il suo mercato dominante sono le donne che se si truccano poi si struccano ( a questo serve l’acqua micellare, a ripulire la pelle), una attività che in realtà risale a tempi immemorabili; certo la pubblicità e il mercato hanno spinto sul filone della bellezza femminile e non, ma il trucco femminile e anche maschile è una tradizione culturale che risale alle origini della nostra specie e si coniuga con aspetti sociali e sessuali, ma anche religiosi. La caverna di Blombos in sud Africa che testimonia attività di tipo chimico di Homo Sapiens e di cui abbiamo parlato in uno dei primi post pubblicati su questo blog, risale a 100.000 anni fa e vi si producevano, guarda un po’, polveri colorate per scopi analoghi.

Dunque non mi scandalizzo affatto che esistano prodotti del genere; qua si tratta solo di capire di cosa stiamo parlando esattamente. Ha senso questa definizione e a cosa si riferisce esattamente? Cosa è l’acqua micellare?

L’acqua micellare si presenta come una soluzione limpida ma contenente sia componenti acquose che idrofobiche, come l’olio di ricino (si veda più avanti per la formula completa di uno dei tanti prodotti commerciali); ne segue che abbiamo qui qualcosa di simile ad una emulsione, ma a differenza delle normali emulsioni tipo acqua-sapone ed eventualmente olio che sono opache o tendono comunque a diffondere la luce, questa non la diffonde.

Come mai?

Sembra che il primo prodotto di questa classe sia stato fatto in casa ed usato come detergente della lana dalle donne australiane fin dall’inizio del XIX secolo; se mescolate nelle giuste proporzioni acqua/olio di eucalipto/sapone in scaglie e una miscela del cosiddetto spirito bianco, un distillato del petrolio ottenete una emulsione di questo medesimo genere, stabile e trasparente; analogamente la ricetta di Bosisto per lavare la lana è costituita da

scaglie di sapone 300g/spirito metilato (ossia 95% di alcool etilico e 5% di metilico) 200ml agitare bene; miscelare con 50ml di olio di Eucalipto; conservare la pasta che viene fuori e aggiungere poca acqua calda quanto basta al momento del lavaggio; poi aggiungete all’acqua di lavaggio totale.

Dopo avere strizzato i panni avvolti in un tessuto fateli asciugare senza esporli alla luce.

Cosa avete ottenuto con quella miscela e perché il prodotto finale è trasparente e stabile?

Si tratta delle cosiddette microemulsioni, scoperte ufficialmente solo nel 1943 da Hoar and Schulman mescolando una soluzione lattescente con esanolo per produrre una soluzione uniforme, una fase singola e non conduttiva.

Come potete leggere nel testo il fenomeno, dicono gli autori, era già ben conosciuto. La prima applicazione commerciale   delle microemulsioni o delle “idromicelle oleopatiche”, fu infatti costituita dalle cosiddette cere liquide , brevettate da Rodawald nel 1928.

da Microemulsions Theory and Practice a cura di Leon Prince

Nella tabella sottostante vedete le differenze fra i due tipi di emulsioni:

Una rappresentazione più grafica delle differenze in cui è introdotto anche il caso intermedio della nanoemulsioni, (non fatevi confondere dal nome, le nanoemulsioni sono a micelle più grandi della microemulsioni, scherzi della lingua).

Si tratta dunque di micelle, gocce di diametro piccolo di una fase circondate da uno strato di molecole di tensioattivo ben orientate più piccole delle altre; la fase esterna o interna può essere acquosa mentre l’altra è oleosa e viceversa. Il diametro così piccolo delle microemulsioni è dovuto alla particolare geometria dei tensioattivi usati e dei co-tensioattivi, ossia le altre molecole, alcooli per esempio, che consentono di creare una forte curvatura e di rafforzarla, rendendole stabili nel tempo.

Questo giustifica la trasparenza, poichè il diametro delle micelle non consente la diffusione laterale della luce e anche il fatto che le soluzioni ottenute siano stabili, mentre sia le emulsioni normali che le cosiddette nanoemulsioni non lo sono.

Come si spiegano quantitativamente le differenze di comportamento fra i vari tipi di emulsioni? La teoria base fu sviluppata da Eli Ruckenstein negli anni 70 ed è esemplificata dal seguente grafico che vado a commentare, tratto da un classico della letteratura della termodinamica superficiale (J. Chem. Soc., Faraday Trans. 2, 1975,71, 1690-1707); Ruckenstein è stato uno dei maggiori teorici delle soluzioni e delle interfacce e forse è poco ricordato, ma molte teorie affascinanti sono dovute a lui; l’ho conosciuto di persona nel 2000 a Princeton, in un congresso dove presentavo una serie di misure che supportavano una delle sue teorie sul fenomeno della rottura dei film superficiali, fenomeno che poi ha trovato applicazione nell’industria dei detergenti (avete notato che quando lavate l’auto alla pompa usate due detergenti diversi? Uno è il solito anionico per togliere lo sporco, l’altro è un cationico che serve invece a togliere via l’acqua di lavaggio, è un rinsing aid in inglese; la teoria sui rinsing aids è di Ruckenstein). Ruckenstein era seduto in prima fila e mi fece anche una domanda; la cosa mi emozionò parecchio.

In questo grafico si confrontano le energie libere superficiali delle micelle contro la loro dimensione per alcuni casi chiave, ottenuti sommando i contributi delle varie componenti :formazione della microemulsione, aumento dell’area totale, interazione fra le micelle, adsorbimento del tensioattivo ed entropia legata alla dispersione dellla fase oleosa nelle micelle. Questi 5 termini variano al variare del diametro della micella e dunque la somma complessiva.

Per i casi C e D l’energia libera è sempre positiva per cui si possono formare solo emulsioni che non sono termodinamicamente stabili. Nel caso C che mostra un massimo relativo si possono ottenere emulsioni cineticamente stabili, ossia che si possono destabilizzare se in qualche modo il sistema può superare la barriera di energia potenziale (per esempio aumentando la temperatura) ma che rimangono stabili solo se la barrriera è sufficientemente grande. Per i casi A e B invece la energia libera è negativa in certi valori del raggio o anche sempre. Questo vuol dire che una dispersione di micelle aventi un raggio in questo intervallo è stabile rispetto alla separazione di fase e dunque si formerà una microemulsione stabile; ovviamente per il raggio R* la microemulsione presenterà la situazione di massima stabilità.

Giusto per fare un esempio di separazione di fase si pensi all’impazzimento della maionese; quello è un esempio di separazione di fase, mentre la maionese ben riuscita è una emulsione stabile (cineticamente , non è una microemulsione).

Qui sotto la composizione di una specifica acqua micellare:

Acqua micellare Venus

aqua; poloxamer 184; disodium phosphate; hexylene glycol; hamamelis virginiana water; phenoxyethanol; benzyl alcohol; disodium cocoamphodiacetate; potassium phosphate; sodium chloride; parfum; peg-40; hydrogenated castor oil (olio di ricino); limonene;

Il poloxamer 184 è il tensioattivo non ionico, coadiuvato dal glicole, dall’alcol benzilico e dal cocoamfodiacetato, che aiutano a forzare il raggio delle micelle; l’olio di ricino è la componente oleosa che aiuta invece a eliminare il trucco. Gli altri componenti servono essenzialmente a proprietà estetiche come il profumo, ma notate che possono questi avere anche proprietà allergizzanti.

Aggiungo che le microemulsioni hanno molte applicazioni in campo medico e biologico. Ma ne parleremo un’altra volta.

Venus è un marchio della Kelemata-Perlier, una azienda Italiana, fondata nel 1919 dalla famiglia Giraudi, con un fatturato attale di circa 80 milioni di euro e proprietaria di parecchi marchi. Nel 2013 aveva poco più di 200 dipendenti.

Colgate-Palmolive invece è una grandissima multinazionale americana fondata nel 1953 che ha un fatturato di 20 miliardi di dollari e 37000 dipendenti.

La storia dei brevetti su questo tema è troppo intricata per farne una sia pur breve lista; Kelemata non appare detenere brevetti specifici, dunque probabilmente produce su licenza (mi farebbe piacere saperlo).

Esistono molti altri prodotti analoghi in commercio; ho riportato l’esempio anche perchè questo mi appare uno dei pochi produttori italiani di microemulsioni cosmetiche; è da dire che esistono molte altre applicazioni nel campo della detergenza, basate su microemulsioni formulate anche da piccole aziende.

Riferimenti.

J.H. Schulman, W. Stoeckenius, L.M. Prince,

Mechanism of formation and structure of micro emulsions by electron microscopy, J. Phys. Chem. 63 (1959) 1677–1680

HOAR, T. P., & SCHULMAN, J. H. (1943). Transparent Water-in-Oil Dispersions: the Oleopathic Hydro-Micelle. Nature, 152(3847), 102–103. doi:10.1038/152102a0

Microemulsion vs. nanoemulsion Devesh Kumar Jain – SlideShare

https://patentimages.storage.googleapis.com/bd/ad/cd/18969d516e71b1/US5874393.pdf

https://ilblogdellasci.wordpress.com/2016/12/21/la-chimica-della-pubblicita-prodotti-per-la-rasatura

https://ilblogdellasci.wordpress.com/2016/12/16/le-molecole-della-pubblicita-lanticalcare-2/

https://ilblogdellasci.wordpress.com/2016/11/04/le-molecole-della-pubblicita-la-biogenina-e-i-suoi-discendenti

https://ilblogdellasci.wordpress.com/2016/11/30/le-molecole-della-pubblicita-dentifrici-ripara-smalto

https://ilblogdellasci.wordpress.com/2016/11/20/la-chimica-della-pubblicita-lacchiappacolore/

https://ilblogdellasci.wordpress.com/2016/10/24/le-molecole-della-pubblicita-2c/

Nanoinnovation 2018.

In evidenza

Luigi Campanella, già Presidente SCI

Torno a parlare del NANOFORUM (http://www.nanoinnovation.eu/2018 ) in corso dall’11 al 14 presso la Facoltà di Ingegneria della Sapienza a Roma non solo per l’importanza dell’evento, ma per focalizzare ancora una volta il peso e l’influenza delle nanoscienze sulla nostra vita di tutti i giorni, quindi sulla stessa qualità del nostro vivere quotidiano.

Il nanomateriale forse più noto, più studiato, più utilizzato è probabilmente il grafene. Per comprenderne la specificità e l’originalitá basta pensare che con esso la distribuzione degli atomi costituenti perde una delle tradizionali 3 dimensioni delle molecole che rappresentiamo nello spazio: il grafene è un composto bidimensionale, si sviluppa cioè sul piano. Esso è costituito da un singolo strato di carbonio dello spessore di un solo atomo:lo possiamo immaginare come uno strato tipo millefoglie,tanto per addolcire una spiegazione tecnica. Questa caratteristica sin dalla sua scoperta l’ha fatto individuare come un materiale prezioso con aspettative rispetto ad esso confrontabili con quanto atteso da materiali naturali che hanno segnato la storia della nostra civiltà (bronzo, ferro, acciaio, silicio). Al grafene è correlato il premio Nobel ai 2 russi (Geim e Noviselov) che con i loro studi sul comportamento degli elettroni nello spazio a 2 dimensioni hanno di fatto aperto la corsa alle possibili applicazioni del grafene stesso, che sono risultate così molteplici e speciali da assegnare al grafene stesso la denominazione di supermateriale. Come accade in genere per gli strati sottilissimi è trasparente, flessibile, conduttore elettrico (anzi in effetti il grafene è un superconduttore) e termico, ma al contrario  di essi è resistentissimo, impermeabile a gas e liquidi. Una proprietà quasi unica è quella di interagire con luce di qualsiasi lunghezza d’onda e quindi colore.Volendo confrontarlo con i materiali a noi noti si può dire che il grafene si comporta similmente ad una gomma.

Gli studi sul grafene sono stati condotti in tutto il mondo e l’Europa ha addirittura lanciato il”graphene flagship”, un consorzio con un miliardo di euro a disposizione, tanto che simulando la Silicon Valley,ci si riferisce all’Europa come alla Graphene Valley. Non si deve credere che la struttura bidimensionale del grafene sia unica: esistono migliaia di composti con questa caratteristica, il grafene è solo il capostipite più conosciuto.

Come si diceva queste proprietà sono state già sfruttate in molte applicazioni e di certo lo saranno in molte altre.

Le applicazioni già mature sono nei campi

-delle batterie con innovazioni che migliorano dimensioni, potenza e ciclo di vita

-delle telecomunicazioni nel passaggio dal 4G al 5G

-della sensoristica applicata alle tecnologie di portabilità ( vestiti e imballaggi) per il controllo ai fini ambientali ed igienico sanitari

-della sicurezza alimentare con la realizzazione di etichette intelligenti.

La produzione del grafene è oggi possibile a livelli di tonnellate o chilometri, ma resta il problema della diversificazione del prodotto in funzione dell’applicazione.

La ricerca è però molto attiva , anche in Italia presso l’Università di Pisa, i Politecnici di Torino e Milano, il CNR ed anche imprese privati e certamente arriveranno le risposte a molte delle attuali domande.

Ancora sull’aspirina.

In evidenza

Rinaldo Cervellati.

Il 4 aprile 2016 in un breve post sulla storia dell’aspirina https://ilblogdellasci.wordpress.com/2016/04/04/aspirina-breve-storia-di-un-farmaco-pluripotente/

ricordai i quattro effetti farmacologici clinicamente accertati di questo usatissimo farmaco: antidolorifico, antiinfiammatorio, antifebbrile e cardioprotettore. Dissi anche che si stavano effettuando ricerche per evidenziarne eventualmente altri. In questo post riporterò alcuni studi su possibili proprietà preventive per alcune forme di cancro e malattie neurodegenerative.

Acido Acetilsalicilico, principio attivo dell’aspirina

Fra il 2007 e il 2014 diverse ricerche osservazionali e prove randomizzate riportarono evidenze sostanziali sull’effetto chemopreventivo dell’aspirina sul cancro colonrettale. Tuttavia la suscettibilità al farmaco variava fa gli individui partecipanti alle sperimentazioni, quindi il meccanismo con cui il comune antidolorifico eserciterebbe questo effetto protettivo restava insoluto[1].

Nello stesso 2014, un folto gruppo di ricerca guidato da Andrew T. Chan del Massachusetts General Hospital e Sanford D. Markowitz della Case Western Reserve University di Cleveland (OH) ha riportato che l’effetto preventivo dell’aspirina sul cancro del colon è legato ai livelli dell’ enzima idrossiprostaglandina deidrogenasi (15-(nicotinammide adenine dinucleotide), chiamato 15-PGDH) [1].

Andrew T. Chan

Sanford D. Markowitz

                                                                                       Questo enzima svolge un ruolo nella degradazione delle prostaglandine, importanti molecole messaggeri lipidici coinvolti in alcuni tumori del colon. L’aspirina ridurrebbe i livelli di prostaglandine inibendo l’attività di un altro enzima coinvolto nella loro sintesi. I ricercatori hanno esaminato campioni di tessuto prelevati da 270 casi di tumore del colon derivanti da due studi che monitorarono gli effetti dell’ aspirina su 128.000 persone per tre decenni. Essi hanno trovato che il gruppo di individui cui erano state somministrate due compresse di aspirina da 375mg a settimana, vedeva ridotto il rischio di cancro al colon del 50% rispetto al gruppo controllo ma solo fra coloro i cui livelli di 15-PGDH erano superiori alla media. La scoperta potrebbe aiutare a identificare le persone che possono veder ridotto il rischio di cancro al colon assumendo aspirina. Allo stesso modo, l’identificazione di individui privi del giusto livello di 15-PDGH potrebbe aiutarli a evitare gli effetti collaterali del farmaco, tra cui ulcere e sanguinamento gastrointestinale.

* * * * *

Come noto il morbo di Alzheimer è una malattia neurodegenerativa che colpisce particolarmente persone in età avanzata o molto avanzata giungendo più o meno rapidamente a ridurre chi ne viene colpito in uno stato quasi vegetativo. Purtroppo sono sempre più comuni anche i casi di Alzheimer precoci che coinvolgono persone poco più che cinquantenni. Per questo l’alzheimer è oggetto di intensa ricerca medica e biomedica anche se a tutt’oggi non è stata trovata alcuna cura. Esistono comunque trattamenti che possono rallentare temporaneamente il peggioramento dei sintomi della demenza e migliorare la qualità della vita delle persone affette dal male e di chi si occupa di loro.

Nel numero di C&EN newsletters del 28 luglio scorso, Cici Zhang ha riportato i risultati di un gruppo di ricerca, coordinato dal prof. Kalipada Pahan del Rush University Medical Center, Chicago (IL), che mostra indizi di un collegamento fra l’acido acetilsalicilico e i sintomi tipici dell’Alzheimer [2].

Kalipada Pahan

Combinando esperimenti biochimici con la tecnica del computer modeling, i ricercatori hanno scoperto che l’acido acetilsalicilico si lega a un recettore chiamato peroxisoma proliferatore-attivato recettore α (PPARα), coinvolto nel metabolismo degli acidi grassi. Quando il PPARα viene attivato dall’associazione con acido acetil salicilico, si scatena una cascata di segnali che portano ad un aumento delle connessioni fra le cellule nervose nell’ippocampo, una regione chiave del cervello per la formazione della memoria. Per il momento è stata fatta una sperimentazione su un modello animale utilizzando due gruppi di topi con sintomi Alzheimer: a un gruppo è stata somministrata una soluzione di aspirina 5 μM nell’arco di 18 ore, mentre all’altro (gruppo controllo) è stato somministrato un placebo. Il primo gruppo ha mostrato un significativo aumento dell’attenzione e del coordinamento dei movimenti, indice dell’efficacia del trattamento con aspirina. Ovviamente il prof. Pahan afferma che l’obiettivo finale sarà la verifica del rallentamento dei sintomi attraverso adeguati studi clinici.

Scusatemi, ma mentre cercavo un’immagine ho trovato questa curiosa novità (almeno per me):

https://blog.kamagra.co.in/aspirina-trovata-efficace-per-la-disfunzione-erettile

Dunque, l’aspirina sarà anche un sostituto di viagra e cialis ???????????

Bibliografia

[1] S.P. Fink et al., Aspirin and the Risk of Colorectal Cancer in Relation to the Expression of 15-Hydroxyprostaglandin Dehydrogenase (HPGD)., Science Translational Medicine, 2014, 6(233), 1-7.

[2] D. Patel et al., Aspirin binds to PPARα to stimulate hippocampal plasticity and protect memory., Proc. Natl. Acad. Sci. USA2018, DOI: 10.1073/pnas.1802021115

[1] Dal 1971 era stato comunque accertato che gli effetti antiinfiammatori e cardioprotettivi dell’aspirina sono dovuti all’inattivazione irreversibile dell’enzima ciclo ossigenasi necessario alla produzione di prostaglandine e tromboxani nell’organismo (v. post citato sopra).

Lettera aperta alla SAIPEM.

In evidenza

Con il permesso dell’autore pubblichiamo qui una lettera inviata al Corriere e non pubblicata.

Vincenzo Balzani

Bologna, 22 agosto 2018

SAIPEM: mai sentito parlare dell’Accordo di Parigi?

Caro Direttore,

Leggo sul Corriere di oggi a p. 37 l’articolo di Marco Sabella che annuncia con entusiasmo il rialzo del titolo Saipem in seguito a contratti relativi alla estrazione di petrolio e metano in varie zone del globo, fra le quali Congo, Uganda e Nigeria.

Non un cenno al fatto che il governo Italiano è fra i 195 firmatari dell’Accordo sul clima di Parigi, che prevede di ridurre l’uso dei combustibili fossili e lo sviluppo delle energie rinnovabili per salvare il pianeta dai cambiamenti climatici. E’ un’ulteriore conferma di quanto ha scritto papa Francesco nell’Enciclica Laudato si’: “I combustibili fossili devono essere sostituiti senza indugioma la politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide”.

L’Africa ha un enorme potenziale di energia solare ed eolica, ed è nello sviluppo di queste energie che dovrebbe essere aiutata.

Secondo gli esperti, In base all’Accordo di Parigi la maggior parte delle riserve di combustibili fossili già note dovrà rimanere nel sottosuolo. Quindi, se l’Accordo di Parigi sarà osservato, Saipem avrà problemi economici perché parte delle sue attività saranno bloccate; forse chi ha acquistato le azioni Saipem non ha tenuto conto di questa eventualità. Se invece la politica permetterà alle aziende petrolifere di usare tutte le riserve, i problemi, purtroppo, li avremo noi,  abitanti della Terra.

Vincenzo Balzani

Professore Emerito, Università di Bologna

Nuovi materiali a base perovskite.

In evidenza

Rinaldo Cervellati

Nuovi materiali perovskite-strutturati potrebbero rivoluzionare la microelettromeccanica e forse il fotovoltaico.

La perovskite naturale è un minerale costituito essenzialmente da titanato di calcio (CaTiO3), scoperto nel 1839 nei monti Urali e così chiamato in onore del mineralogista russo Lev Perovsky (1792-1853). In seguito il nome è stato esteso a tutti i composti aventi la stessa stechiometria del CaTiO3 (A2+B4+X32-) detta appunto struttura perovskite. Molti cationi diversi possono essere incorporati in questa struttura (es. Ba2+, Pb2+, Sn2+), consentendo la crescita di diversi minerali appartenenti al gruppo delle perovskiti. La simmetria cristallina è ortorombica. I cristalli sono tipicamente cubici, ottaedrici o combinazioni di queste forme base[1].

Perovskite (minerale)

Le perovskiti sono materiali ferroelettrici: sotto un campo elettrico applicato esibiscono una polarizzazione spontanea, il che significa che le cariche positive e negative si separano rapidamente all’interno del cristallo. Per questa proprietà hanno trovato applicazioni nella conversione dell’energia solare in energia elettrica, particolarmente nella realizzazione di celle fotovoltaiche.

A questo scopo sono stati utilizzati materiali ibridi inorganici-organici a struttura perovskitica il più studiato dei quali è stato il metilammonio triioduro di piombo:

Struttura cristallina di CH3NH3PbI3

Inizialmente tuttavia la realizzazione del dispositivo non permise di andare oltre a un rendimento (power conversion efficiency o PCE) del 3.8%. Anche  il rivestimento perovskitico rimase stabile per poco tempo, finendo con il degradarsi.

Nel 2013, migliorata notevolmente la tecnologia dei pannelli fotovoltaici, un gruppo di ricercatori inglesi e italiani rispettivamente del Clarendon Laboratory (Università di Oxford) e dell’Istituto Italiano di Tecnologia (Politecnico di Milano) utilizzarono un materiale perovskitico misto metilammonio piombo ioduro-cloruro che opportunamente inserito nella cella fornì un rendimento del 12.2% [1]. Recentemente sono stati sintetizzati materiali con i quali si sono raggiunti rendimenti fino al 22.7% [2].

Oltre che nei pannelli fotovoltaici, le perovskiti artificiali sono impiegate anche nell’imaging medicale e nelle memorie dei computers in quanto conservano le informazioni anche quando un dispositivo è spento.

Nonostante tutte queste applicazioni, i materiali perovskitici sono abbastanza costosi da produrre e contengono piombo e altri metalli pesanti tossici. Per questi motivi, i ricercatori hanno cercato perovskiti senza metallo e sono riusciti a sintetizzarne alcune. Ma i composti privi del metallo pesante presentano deboli proprietà ferroelettriche che ne precludendo molte applicazioni.

Nel numero del 12 luglio scorso di C&EN newsletters on line, Mitch Jacobi riporta il lavoro di un gruppo di ricerca cinese, guidato dal prof. Yu-Meng You e Ren-Gen Xiong della China’s Southeast University, che ha prodotto una famiglia di 23 perovskiti prive di metallo, alcune delle quali stanno alla pari con il titanato di bario (BTO) per quanto riguarda le proprietà ferroelettriche [3].

Le dimensioni degli ioni sono uno degli attributi importanti del comportamento elettronico di questi materiali, ma anche altri fattori, come le forze di van der Waals e le interazioni intermolecolari tra gli ioni nel cristallo, giocano un ruolo importante. Integrando opportune strategie di progettazione con sperimentazioni ‘tentativi ed errori’ (trial-and-error), i ricercatori cinesi sono pervenuti alle loro perovskiti senza metallo pesante.

A – Struttura di una perovskite senza piombo, al centro del cubo si trova la parte organica es:

In blu = NH4+   In rosso = Cl-, Br-, I-

In breve hanno fatto reagire un gran numero di composi organici con alogenuri di ammonio inorganici. La stechiometria dei composti ottenuti è A(NH4)X3, in cui A è un eterociclo organico a due atomi di azoto carichi positivamente e X è un alogeno.

Tra i 23 composti riportati nello studio, quello denominato MDABCO-NH4I3, che contiene un gruppo diazabiciclo, sembra particolarmente promettente.

Struttura cristallina di MDABCO-NH4I3 confrontata con quella di BaTiO3

Questa struttura perovskitica esibisce un notevole valore di polarizzazione spontanea, 22 μcoulomb per cm2, molto vicino al valore 26 del titanato di bario (BTO). Il nuovo composto sembra essere particolarmente stabile in quanto rimane ferroelettrico fino a una temperatura di transizione di fase di circa 180 °C, superando di 60 °C il limite del BTO.

Gli autori concludono che i loro composti, combinando la notevole proprietà ferroelettrica con i vantaggi applicativi di materiali molecolari, possiedono un grande potenziale per la prossima generazione di sistemi microelettromeccanici.

Wei Li, uno specialista in materiali funzionali inorganici all’Università di Nankai, afferma che questi risultati sono sorprendenti, una pietra miliare raggiunta 70 anni dopo lo sviluppo delle perovskiti ferroelettriche convenzionali.

Wei Li

Li aggiunge che il contenuto organico, che può essere modificato per ottimizzare le proprietà cristalline, rende questi materiali facili da sintetizzare, leggeri e poco costosi, che potrebbero presto portare a nuove applicazioni.

Bibliografia

[1] S. D. Stranks et al., Electron-Hole Diffusion Lengths Exceeding 1 Micrometer in an Organometal Trihalide Perovskite Absorber., Science, 2013, 342, 341-344.

[2] https://it.wikipedia.org/wiki/Cella_fotovoltaica_perovskitica

[3] Heng-Youn Ye et al., Metal-free three-dimensional perovskite ferroelectrics., Science, 2018, 361, 151–155.

[1] In realtà la reale simmetria della perovskite e di alcuni altri minerali del gruppo è pseudocubica, perché lievemente distorta rispetto alla struttura ideale.

Cloaca Massima.

In evidenza

Luigi Campanella, già Presidente SCI

Il concetto di Bene Culturale si é molto evoluto nel tempo. Dapprima soprattutto statue, palazzi, quadri; oggi anche siti ambientali, strumenti scientifici ed altro ancora frutto dell’ingegno e dell’intuito umani. Oggi da chimico suggerisco una visita ad un bene culturale ed ambientale di insolita natura: intendo parlare della Cloaca Maxima, la regina di tutte le fogne, la più antica della vecchia Roma, ancora percorribile e visitabile, vero Museo dell’ingegno umano.

E’ nata per merito di Tarquinio Prisco e soprattutto dei suoi tenici per proteggere dall’inquinamento alcune zone della vecchia Roma (Foro, Suburra) convogliando i rifiuti conferiti verso il Tevere. Risale al settimo secolo a.C. ed é ancora in buone condizioni, soprattutto in relazione alla sua più che bimillenaria età.

La sua altezza era all’origine  di circa 3 m per una larghezza di 2, poi estesa ad oltre 4 m. Si sviluppava in massima parte sotterranea, ma-come alcune metrolitane del ns tempo-erano in essa presenti tratti alla luce del sole. Erano previste regolari attività di spurgo e di pulizia che ne hanno garantito il funzionamento per oltre un millennio, purtroppo anche come tomba per quanti – imperatori e cittadini-hanno chiesto di venirvi sepolti. Oggi se ne possono visitare spezzoni a via Cavour; nel Foro Romano, al Foro Boario ed allo sbocco al Tevere presso il Ponte Rotto.

Il collettore raccoglieva acque bianche ed acque nere senza alcuna differenziazione. Nell’ottocento con la confluenza della Cloaca Maxima nella rete fognaria urbana ovviamente le cose sono cambiate. Anche l’architettura della fogna è interessante e tenicamente apprezzabile con la correlazione fra muri tufacei e blocchi regolari a parallelepipedo fino ai fregi che arricchivano i suoi tombini, il più famoso e conosciuto dei quali è presso la Bocca della Verità, a S.Maria in Cosmedin, dove i turisti infilano la mano. Si pensi che i resti di queste preziosità sono stati la ricompensa pattuita con la Ditta americana che a metà novecento drenò il fiume. Malgrado rappresenti un patrimonio culturale di immenso valore che ha ispirato nei secoli autori e pittori (ad esempio il quadro di S.Sebastiano gettato nella Cloaca, esposto al Getty Museum di Londra)-si pensi che i massi utilizzati per la sua costruzione sono considerati i più antichi di queste dimensioni- non è mai stato neanche progettato uno studio articolato e sistematico della Cloaca Maxima. Credo che un progetto di tale natura troverebbe anche nella nostra comunità chimica sostegno culturale, supporto tenico-scientifico e convinta adesione.

Depuratori del futuro: trattamenti a membrana, nanotecnologie e grafene.

In evidenza

Mauro Icardi

Le tecnologie a membrana per i trattamenti di depurazione e potabilizzazione delle acque, sono note e in fase di sviluppo ed applicazione. Ma lo sviluppo tecnologico nel settore è in costante crescita e può trovare un giusto abbinamento con le energie rinnovabili, per ottenere sia una qualità dell’acqua migliore, che la riduzione di consumi energetici ed emissioni.

Il grafene è un materiale che si presta molto bene ad ottenere membrane che siano meno soggette a problemi di intasamento e di incrostazione da accumulo e deposito di organismi viventi, animali e vegetali (bioincrostazione o biofouling).

Due società australiane hanno iniziato un progetto pilota di produzione di membrane in ossido di grafene, in collaborazione con la Monash University di Melbourne.

Secondo i ricercatori impegnati in questo progetto le prospettive dell’utilizzo di questo materiale sono estremamente incoraggianti e si prevede che possano ridurre in maniera significativa i consumi energetici per il processo di filtrazione delle acque.

Altre membrane di nuova progettazione e concezione sono le cosiddette membrane “biomimetiche”.

Il loro funzionamento si ispira al meccanismo con il quale le radici delle piante di mangrovia riescono a utilizzare l’acqua salmastra delle lagune costiere, o dei litorali delle coste marine tropicali. All’interno delle radici ci sono membrane che funzionano grazie a speciali proteine (le acquaporine che sono presenti anche nei reni). Funzionano esattamente come le membrane di osmosi inversa, quindi filtrano l’acqua trattenendo all’esterno i sali. Ma per la loro speciale struttura non richiedono però l’applicazione di alte pressioni di esercizio, e anche in questo caso si ottiene un notevole risparmio energetico ed un maggior vita operativa delle cartucce di filtrazione.

La società danese “Acquaporin” ha già messo in commercio cartucce di filtrazione per uso domestico basate su questo principio. Per il futuro pensa ad una applicazione su scala industriale per la dissalazione a costi concorrenziali delle acque marine, da destinare poi all’utilizzo potabile o industriale.

Altra tecnologia applicata alle membrane, in questo caso destinate alla depurazione delle acque reflue, è quella di costruire membrane costituite da migliaia di tubicini in polimetilsilossano (una resina permeabile appartenente alla categoria dei siliconi). In questo modo si ottiene una maggiore efficienza di diffusione dell’aria alla popolazione batterica che dovrà operare le reazioni di biodegradazione.

In particolare membrane di questo genere riescono ad ottenere un’efficienza di trasferimento di aria pari al 50 – 60%, rispetto al 35% dei diffusori a microbolle presenti negli impianti di depurazione tradizionali.

Se si opera con ossigeno puro l’efficienza può arrivare anche al 100%. Con l’adozione di questo tipo di membrane l’energia necessaria per la depurazione di 1 mc di acqua passa da 0.5-0.6 a 0.2 kWh.

I tempi di trattamento sono ridotti del 40%, e la produzione di fanghi di circa 1/3. La produzione di biofilm risulta limitata dalla maggiore efficacia nella diffusione dell’aria o dell’ossigeno, che produce effetti di cavitazione idrodinamica sui fiocchi di fango biologico, e che riduce quindi la deposizione sulle membrane.

La depurazione, e più in generale il trattamento delle acque sta vivendo un momento di rinnovamento e di implementazione di tecnologie che aiutano nella gestione del bene acqua. E questo è un segnale incoraggiante. Ora l’auspicio è che queste tecniche trovino una diffusione generalizzata sia negli impianti di più antica progettazione e realizzazione, che in quelli di nuova costruzione.

Acqua di mare in vendita.

In evidenza

Luigi Campanella, già Presidente SCI

Una recente notizia ci informa circa la messa in vendita da parte di una ditta spagnola (vedi NdP) di acqua di mare ultrafiltrata o alternativamente purificata e rivitalizzata  per ovvii motivi di sicurezza igienica che non sarebbe garantita da acqua di mare non trattata. Nella sua composizione compaiono alte quantità di sostanze minerali come potassio, magnesio, ferro, iodio. Quali le possibili applicazioni di un acquisto di tale genere che ne possono giustificare la commercializzazione?

L’acqua di mare in vendita, “100% naturale” costa come e più dell’acqua minerale.

Innanzitutto gastronomiche utilizzando quest’acqua in luogo di quella corrente per la cottura soprattutto di pesce, ma anche per produrre pane ed originali birre o per essere utilizzata negli alimenti in luogo del sale. Ma non solo: anche salviette rinfrescanti, soluzioni per la pulizia interna delle orecchie proteggendole dalla dannosa presenza di cerume sono applicazioni dell’acqua di mare.

Da chimici è logico porgersi qualche domanda circa la relazione fra le proprietà chimico fisiche dell’acqua di mare ed i suoi usi, ovviamente accettato il principio della necessaria purificazione prima di qualsiasi impiego che la porti a contatto con l’organismo umano.
Vediamo insieme di analizzare questa matrice per capirne anche le potenzialità.

Si tratta innanzitutto di una soluzione matura e stabilizzata quindi capace di rilasciare il soluto senza alcuna resistenza al trasferimento di massa. Essendo poi una soluzione a concentrazione variabile, ma intorno mediamente a 35 g/l essa risulta influenzata dall’effetto sale (se fosse a concentrazione tripla l’effetto prevalente sarebbe quello salatura con risultati completamente diversi); questo effetto comporta un aumento della solubilità in essa di tutte le specie ioniche; inoltre la capacità del sale puro a coordinare l’acqua rappresenta un inconveniente alla sua assunzione diretta – si producono essiccazioni ed indurimenti e, nel caso di assunzioni da parte dell’uomo, aumento della pressione che obbliga gli ipertesi a mangiare sciapito – inconveniente ridotto nel caso dell’impiego di soluzioni che, a parità di quantità di soluto, producono un maggiore effetto sul gusto salato.
Quindi, in questo senso, l’acqua di mare di fatto contribuisce a tenere bassa la pressione sanguigna. Ma l’acqua di mare è anche antibatterica e stimolante del metabolismo; aiuta a respirare meglio e chi soffre di reumatismi , dolori articolari, problemi alla tiroide. Il paese che in passato ha maggiormente sviluppato le applicazioni dell’acqua di mare è stato la Francia; oggi il maggiore consumatore di acqua di mare è il Nicaragua. L’ acqua di mare, resa isotonica,  è molto simile al liquido interno che circonda le nostre cellule; secondo alcuni si può anche usare nelle trasfusioni. E’ il miglior mezzo di coltura: solo in quest’acqua vivono i globuli bianchi (esperimento realizzato 100 anni fa e riprodotto all’Università di Alicante nel 2012).

L’ acqua marina per certi aspetti può essere considerata complementare all’acqua minerale  naturale perché possiede alcuni elementi presenti anche nel nostro organismo, ma non nelle acque minerali ed alcuni microorganismi che vengono rilasciati, che giustificano l’azione antibatterica a cui più sopra si accennava e che inducono alcuni a ritenere che la igienizzazione dell’acqua di mare debba essere un intervento controllato. Tra  i più interessanti benefici dell’acqua di mare c’è anche quello che riguarda il drenaggio dei liquidi, da essa favorito grazie ad un processo di osmosi. Questo spiega perchè fare il bagno in questa acqua regala molti vantaggi sia per la salute della pelle, sia per l’azione vitalizzante e detergente.
Voglio concludere con una riflessione: avremmo un tesoro gratuito, invece lo degradiamo e poi lo ricompriamo a costi improponibili!

Riferimenti
https://www.dazebaonews.it/breaking-news/49168-l-acqua-marina-un-bene-comune-a-costo-zero-dai-vantaggi-incredibili.html

http://web.ua.es/es/actualidad-universitaria/octubre2012/octubre2012-22-28/un-
estudio-de-la-universidad-de-
alicante-revela-que-el-agua-de-mar-activa-el-sistema-inmunologico-y-ejerce-un-efecto-protector-reforzando-el-organismo.html

https://en.wikipedia.org/wiki/Seawater

NdP Esistono parecchi marchi di acqua di mare in Spagna ma anche in altri paesi europei e anche in Italia, con base di estrazione in Sardegna.

Inedito su medicina e omeopatia.

In evidenza

Vincenzo Balzani

Con il consenso dell’autore pubblichiamo un capitolo inedito riguardante la medicina e l’omeopatia.

I confini della Scienza

 

  1. La medicina

La medicina è una delle branche più importanti della scienza, per cui merita una discussione specifica. Si tratta di una scienza un po’ particolare perchè deve agire sull’uomo, che è fatto di corpo e di spirito. Mi limito a discutere il problema dei farmaci tradizionali e dei farmaci omeopatici.

12.1 il nostro corpo

Dal punto di vista puramente materiale (sottolineo: puramente materiale), il nostro corpo è un insieme molto complicato di reazioni chimiche. Addirittura in passato c’era la tendenza a paragonarlo ad una macchina: alimentazione mediante un combustibile, cabina di guida, produzione di energia, lavoro meccanico, scarico dei prodotti di scarto. Come in una macchina, può succedere che un componente non funzioni e allora si sostituisce il pezzo guasto, con un ricambio “originale” (un trapianto) o “non originale” (una protesi).

Abbiamo già visto che il nostro corpo è fatto di scompartimenti, le cellule, che sono molto piccoli, ma che a loro volta contengono tante cose ancor più piccole. Le ricerche di biologia molecolare hanno chiarito infatti che nelle cellule c’è un numero molto grande di dispositivi, congegni, macchine piccolissime, a livello molecolare (cioè, di dimensioni nanometriche) che funzionano mediante reazioni chimiche. Queste reazioni producono movimenti e generano segnali attraverso lo scambio di molecole e ioni. Così, ad esempio, i movimenti macroscopici dei nostri muscoli sono originati da movimenti su scala molecolare di proteine chiamate miosina e kinesina. Queste proteine si muovono sfruttando una reazione chimica, la trasformazione dell’ATP (adenosintrifosfato) in ADP (adenosindifosfato) e Pi (fosfato inorganico). I movimenti molecolari si possono mettere in evidenza con delle tecniche speciali escogitate di recente. L’ATP, che è un po’ il carburante di tutti i muscoli, a sua volta è prodotto da un altra “macchina”, un motore rotante, l’ATP synthase.

12.2 La medicina tradizionale

Vediamo adesso come si può schematizzare, nel modo più semplice possibile, il modo di agire di una medicina (un farmaco). Chiedo ai medici e a chi conosce un po’ questi problemi di scusarmi per le grossolane semplificazioni e approssimazioni, ma il mio scopo è semplicemente quello di mettere in evidenza alcuni aspetti della medicina tradizionale e di quella omeopatica.

I congegni e macchine molecolari che sono all’interno delle cellule hanno bisogno, per funzionare, di certe sostanze chimiche, ad esempio lo ione potassio (K+). Le cellule però sono delimitate da una membrana, una specie di muro che impedisce ai componenti della cellula di disperdersi e impedisce anche che nella cellula entrino componenti indesiderati. Il potassio può entrare solo attraverso opportuni canali molecolari (“porte” molto selettive) che attraversano la membrana. Supponiamo che una cellula sia “ammalata”, cioè funzioni male perché non contiene abbastanza potassio. Dico “supponiamo” perchè non sarà facile capirlo, ma supponiamo che sia vero, che lo si possa stabilire con certezza. Per “guarirla” dovrò farvi entrare più potassio. Vado dal medico che mi dice di mangiare cibi che contengono potassio e poi, sapendo che ben difficilmente cambierò le mie abitudini alimentari, mi prescrive il Polase, un farmaco a base di potassio. Prendo una bustina di Polase al giorno, e dopo una settimana supponiamo che io sia guarito (dico “supponiamo” perché a volte non si guarisce, o almeno non si guarisce subito). Dunque, se sono guarito la spiegazione sembra semplice: 1) sono guarito perché ho preso il Polase che contiene potassio; prendendo il Polase ho fatto entrare più potassio nelle mie cellule, che si sono rimesse a funzionare bene. Questa è la risposta più ovvia. Ma è proprio così? Se non avessi preso il Polase, non sarei guarito? O sarei guarito ugualmente, o addirittura sarei guarito prima? Sono proprio sicuro che nelle cellule non c’era abbastanza potassio perché ne mangiavo poco? Poteva anche essere successo che il canale attraverso cui può entrare il potassio, che è una struttura chimica complicatissima e sensibile ad un gran numero di fattori, si fosse un po’ stretto; in questa ipotesi la guarigione potrebbe essere avvenuta perché, ad un certo punto, a causa di altri fattori sconosciuti, il canale si è allargato nuovamente. In tal caso l’aver ingerito del Polase non mi avrebbe aiutato. Potrebbe anche essere successo che lo ione aspartato (o un altra sostanza secondaria presente nel Polase) abbia agito sulle proteine che costituiscono il canale attraverso cui entra il potassio impedendo al canale, che spontaneamente cercava di riallargarsi, di farlo più in fretta. In questa ipotesi, sarei guarito prima se non avessi preso il Polase; ma anche questo non posso dimostrarlo. C’è, infine, un’altra possibilità. L’uomo è fatto di carne (cioè di materia, di reazioni chimiche), ma anche di psiche: pensieri, immaginazioni, convincimenti e aspettative. Sappiamo tutti che una buona notizia ci fa star bene e che una cattiva notizia ci fa star male, attraverso meccanismi anch’essi basati su reazioni chimiche, ma complessi e del tutto insondabili. Dunque, come quarta ipotesi potrebbe essere successo questo: sono andato dal medico, che mi ha detto che la mia malattia era dovuta alla scarsità di potassio e che prendendo del potassio sarei guarito; mi ha prescritto un farmaco contenente potassio; io, ubbidiente, l’ho preso e sono guarito, ma sono guarito mediante un meccanismo psicologico, perché ho fiducia nel mio medico e so che mi prescrive sempre la medicina giusta. Se è così, sarei guarito anche se nelle bustine del Polase, anziché il potassio, ci fosse stato dello zucchero, o della farina, o qualsiasi altra cosa. E’ quello che in medicina si chiama “effetto placebo””: si crede di prendere la medicina giusta e si guarisce anche se, in realtà, non la si prende. Infatti (e anche qui schematizzo) per capire se un farmaco è efficace, si scelgono cento persone ammalate della stessa malattia e si dà a tutte una pillola uguale nell’aspetto e nel sapore; cinquanta pillole, però, contengono il farmaco, il principio attivo che cura la malattia, mentre le altre cinquanta non lo contengono. Solo il medico sa quali sono i cinquanta pazienti che hanno avuto la pillola “vera” e i cinquanta che hanno avuto la pillola “falsa” (placebo); i pazienti non lo sanno. In questi tipi di esperimenti si trova sempre che guarisce anche un certo numero dei pazienti che hanno preso la pillola “falsa”; guariscono perché il corpo umano in molti casi rimedia da solo, magari aiutato in modo misterioso dall’aspettativa e dalla volontà di guarire. Secondo studi recenti, per i problemi di depressione il placebo ha effetto positivo nell’80% dei casi.

12.3 La medicina omeopatica

Queste considerazioni si collegano direttamente alle cure omeopatiche. I principi fondamentali delle cure omeopatiche sono: 1) il simile cura il simile; 2) maggiore è la diluizione e più efficace è il trattamento; 3) la “succussione” (agitazione violenta) è essenziale per l’efficacia del trattamento. Torniamo all’esempio precedente. In caso di mancanza di potassio, il medico tradizionale prescrive il Polase: in ogni bustina ci sono, come c’è scritto sopra, 450 mg (poco meno di mezzo grammo) di aspartato di potassio. Se vado dall’omeopata, mi prescrive una cura omeopatica di potassio, cioè (anche qui schematizzo), mi fa bere una bottiglina al giorno di acqua contenente, mi dice, piccolissime quantità di potassio. Per curiosità, mi informo su quanto potassio contiene ogni bottiglina. Mi ha detto che ne contiene poco: ma quanto? Nel Polase c’è poco meno di mezzo grammo di aspartato di potassio in ogni bustina, e nella bottiglina della cura omeopatica? C’è scritto 30C. Cosa vuol dire? Vuol dire (ancora schematizzando, ma senza travisare il senso) che chi l’ha preparata ha preso mezzo grammo di aspartato di potassio (l’equivalente di una bustina di Polase) e l’ha sciolto in un litro d’acqua. In questo litro d’acqua c’è mezzo grammo di aspartato di potassio che a conti fatti significa 1022 molecole, cioè diecimila miliardi di miliardi di molecole (“molecola” nel caso dell’ aspartato di potassio non è un termine scientifico del tutto esatto, ma in questo contesto può essere usato per semplicità senza che il significato di quello che voglio dire venga modificato). Poi il preparatore della medicina omeopatica ha cominciato a diluire e a agitare la soluzione. Diluire vuol dire tenere una parte e buttare il resto. Nel caso delle preparazioni omeopatiche si opera con diluizioni 1:100, cioè si butta via 99/100 della soluzione e al rimanente 1/100 viene aggiunto solvente puro, di solito acqua. Dopo la prima diluizione 1:100, la quantità di aspartato di potassio nella bottiglia si è ridotta a 5 mg, e il numero di molecole a 1020, cioè cento miliardi di miliardi. Alla sesta diluizione c’è rimasto ben poco: 5 decimillesimi di miliardesimo di grammo, una cosa invisibile, meno di un millesimo di granellino di Polase, anche se il numero di molecole è ancora alto (10 miliardi). Ecco, alcuni preparati omeopatici hanno queste diluizioni (6C) e si fa fatica a concepire che possano avere un qualche effetto terapeutico. Ma il bello deve ancora venire, perché i preparati omeopatici considerati più potenti sono quelli che si ottengono non diluendo sei volte, ma trenta volte. A questo punto seguiamo come cala non più in numero di grammi, che giunge a frazioni incredibilmente basse, ma il numero di molecole, che all’inizio erano tante. Ebbene, alla decima diluizione rimangono 100 molecole, e all’undicesima ne rimane 1. Se a questo si effettua una ulteriore diluizione 1:100, è molto probabile che la soluzione non contenga più alcuna molecola. Se fossi stato così “fortunato” (1/100 di probabilità) di pescare nella diluizione l’unica molecola di aspartato di potassio ancora presente, questa “fortuna” non potrà continuare nella tredicesima, quattordicesima,….per cui c’è la “certezza” che giunti alla trentesima diluizione nella bottiglia non c’è più neanche una molecola di aspartato di potassio. In conclusione, nella “cura” prescritta dal medico omeopata, di potassio non ce n’è neppure l’ombra. La boccettina contiene solo acqua sbattuta, cioè acqua, acqua schietta. Quindi, quando compro una medicina omeopatica compro acqua pura, che non può avere nessun effetto chimico sul mio organismo. Eppure qualcuno guarisce. Nel caso della cura omeopatica si può certamente escludere quella che era stata la prima e più solida ipotesi della guarigione ottenuta con i metodi tradizionali (ingresso nella cellula di una maggior quantità di potassio) e anche un ipotetico effetto collaterale negativo della cura. Rimangono due casi: sarei guarito lo stesso (la più probabile) oppure sono guarito perché ho creduto nel medico e nella cura che mi ha dato. Di certo, non sono guarito per l’effetto di quella boccetta d’acqua pura sul mio organismo.

“L’efficacia” (quando c’è) delle cure omeopatiche e “l’effetto placebo” dimostrano quanto sia complicato l’organismo umano; dimostrano, se ce ne fosse bisogno, che non siamo solo “carne” e che la medicina non è una scienza “esatta”.

Samuel Hahnemann 1755-1843

12.4 La “memoria” dell’acqua

L’omeopatia va presa così com’è: dal punto di vista chimico e fisico, non ha alcun senso; se va bene, può avere un effetto psicologico. Ma i sostenitori dell’omeopatia, e in particolare quelli che producono e vendono medicine omeopatiche, giurano che queste medicine hanno un’effettiva azione scientifica, “chimica”. Secondo loro c’è proprio a livello scientifico, e non psicologico, una differenza fra l’acqua pura e le loro complicate preparazioni, che come abbiamo visto finiscono per arrivare all’acqua pura ugualmente. Se non ci fosse un fondamento scientifico, come si potrebbero far pagare tanto i farmaci omeopatici? Quindi, risultati scientifici in favore della omeopatia sono necessari per far aumentare il giro di affare.

Ecco che allora di tanto in tanto saltano fuori pubblicazioni (“lavori”) che vorrebbero dare una base scientifica all’omeopatia. Abbiamo già visto che se un lavoro scientifico viene pubblicato su una rivista poco qualificata nessuno lo legge e nessuno se ne cura; abbiamo anche visto che ci sono riviste scientifiche molto serie, che prima di pubblicare un lavoro chiedono il giudizio di esperti. I lavori scientifici che appaiono su queste riviste fanno colpo ed in effetti fece colpo, nel 1988, un lavoro di autori francesi, apparso sulla rivista scientifica più prestigiosa, Nature (volume 333, p. 816), che sostanzialmente dava credito scientifico alle cure omeopatiche.

Questi ricercatori francesi riportarono dei risultati, un po’ complicati da illustrare, che sostanzialmente dimostravano che l’acqua ha “memoria”. Sostenevano, cioè, che se un composto chimico (nell’esempio di prima, l’aspartato di potassio) viene sciolto nell’acqua e poi tolto via tutto con successive diluizioni, ebbene l’acqua , che ormai non lo contiene più, si “ricorda”, per così dire, che prima dentro ad essa c’era quella certa sostanza. Secondo questi ricercatori, rimarrebbe nell’acqua come una “impronta” della sostanza disciolta, e questa impronta conferirebbe all’acqua proprietà diverse da quelle dell’acqua in cui non ho mai sciolto quella sostanza. Molti capirono subito che questi risultati avevano sapore di magia più che di scienza, ma fecero scalpore lo stesso per l’autorevolezza della rivista su cui erano stati pubblicati, il loro possibile significato teorico e, soprattutto, perché avrebbero dato un senso scientifico all’omeopatia. Subito altri ricercatori provarono di ripetere l’esperimento, senza successo, dimostrando anzi che i ricercatori francesi avevano fatto vistosi errori di metodo tanto da rendere completamente infondati i loro risultati. Questa vicenda lascia l’omeopatia senza supporti scientifici e conferma che la scienza riesce a verificare o a smentire la validità dei suoi risultati.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Martha Annie Whiteley (1866-1956)

In evidenza

Rinaldo Cervellati

Martha Annie Whiteley, oltre a essere stata una ricercatrice originale in chimica, fu coautore e editore capo dell’11° volume, 4a edizione dell’importante dizionario britannico Thorpe’s Dictionary of Applied Chemistry e fervente attivista per le pari opportunità delle donne nelle Facoltà di Chimica.

Nata a Hammersmith, un distretto di Londra, l’11 novembre 1866 da genitori del ceto medio, Martha ricevette la sua educazione nella Girls Public Day School Trust[1] (divenuta poi Kensington High School) di Chelsea, una scuola femminile che offriva una buona istruzione scolastica. Sebbene le scienze non fossero considerate discipline adatte per l’istruzione delle ragazze, esse erano incluse nel curriculum di tutte le GPDST [1]. Martha continuò la sua formazione presso il Royal Holloway College for Women, ottenendo nel 1890 il diploma (B.Sc.) in chimica superando gli esami finali all’Università di Londra. Rimase al Royal Holloway College for Women studiando per un altro anno, superando con onore l’esame finale del primo anno di matematica all’Università di Oxford.

Martha A. Whiteley in gioventù

Nel contempo ha lavorato come insegnante prima alla Wimbledon High School e successivamente al St. Gabriel’s Training College; nel 1898 decise di continuare gli studi di chimica, avendo iniziato a lavorare a tempo parziale al Royal College of Science (poi parte dell’Imperial College of London) sotto la guida del professor Sir William Tilden[2]. Ottenne il dottorato in chimica (D.Sc.[3]) nel 1902, discutendo una tesi sulla preparazione e proprietà di ammidi e ossime, l’anno successivo fu invitata da Tilden a far parte del personale docente e riercatore del Royal College of Science.

Martha Annie Whiteley nel 1907

Promossa a dimostratore nel 1908, divenne docente nel 1914, all’età di quarantotto anni. Per quattordici anni, dal 1920 fino al pensionamento nel 1934, ha ricoperto la carica di assistant professor [1,2].

L’interesse di Whitely per la ricerca in chimica organica è evidente fin dal primo dei suoi lavori scientifici pubblicato 7 anni prima del dottorato, riguardante i punti di fusione di miscele di sostanze [3], mentre stava insegnando alla Wimbledon High School. Nell’articolo (in collaborazione con H. Crompton), l’autrice afferma che il lavoro subì molte interruzioni, dovute probabilmente ai suoi impegni didattici.

Le sue prime ricerche, pubblicate nel periodo fino al 1909, riguardarono gli studi intrapresi nel lavoro di tesi su ammidi e ossime di acidi dicarbossilici e ureidi cicliche correlate, compresi i derivati di caffeina e acido barbiturico. Si concentrò in particolare sul problema del tautomerismo nelle ossime, un’area che stava ricevendo considerevole attenzione a quel tempo, e un interesse particolare di Sir Jocelyn Field Thorpe[4].

Sir Jocelyn Field Thorpe

Anche se Whiteley era collega giovane di Thorpe e sua collaboratrice, è chiaro dai suoi scritti che lei aveva un suo indipendente programma di ricerca [2].

Questo aspetto deve essere particolarmente sottolineato perché se da un lato la produzione scientifica di Whiteley comprende solo 10 articoli nell’arco di tempo 1987 – 1927 [4], dall’altro è altrettanto vero che essa figura sempre come autore responsabile della ricerca [1]. In realtà, anche se diverse donne inglesi del tempo di Whiteley sono state più produttive dal punto di vista del numero di pubblicazioni, spesso il loro contributo è stato limitato ad assistere il professore maschio. A parte il lavoro originale di Ida Smedley MacLean[5] in biochimica, Whiteley, è stata probabilmente l’unica a “ritagliarsi” una propria ricerca in una certa area della chimica in una fra le più importanti istituzioni scientifiche e educative come l’Imperial College of London: un risultato notevole per una donna chimico della sua generazione, afferma M. Creese [2].

Allo scoppio della I Guerra Mondiale, i laboratori dell’Imperial College vennero requisiti dal Ministero delle Munizioni, e il personale fu impegnato ad analizzare campioni di bombe e esplosivi raccolti dai campi di battaglia e dalle città bombardate in Inghilterra. Whiteley e il suo gruppo rivolsero la loro attenzione all’analisi e sintesi di gas lacrimogeni e irritanti. Uno di questi, una miscela di etil iodo acetato e etanolo (noto come SK) fu effettivamente utilizzato in battaglia.

Nel 1917, i tedeschi usarono un nuovo gas vescicante, chiamato iprite[6]. I suoi effetti furono drammatici e causarono la perdita di migliaia di alleati anche perché le maschere antigas si mostrarono inefficaci contro di esso. Un piccolo campione di questo gas fu inviato al gruppo di Whiteley. Scrisse Martha:

Naturalmente ho voluto testare questa proprietà applicandomi un piccolo striscio al braccio: per quasi tre mesi ho sofferto grande disagio dalla ferita che si aprì diffondendosi fino al gomito e di cui porto ancora la cicatrice [1].

Durante la guerra il gruppo si occupò anche alla sintesi di farmaci per gli ospedali militari soprattutto fenacetina, novocaina e b-eucaina, fino a prima del 1914 importate proprio dalla Germania.

Inoltre, in assenza di Thorpe, impegnato in guerra, a Marha Whiteley fu assegnata anche la supervisione dell’intero programma di ricerca organica del Dipartimento di chimica dell’Imperial College.

Whiteley ricevette l’Ordine dell’Impero Britannico (OBE) nel 1920 per il suo contributo durante la guerra, ma il suo trattamento economico rimase invariato (300 £ annue), al contrario di quello dei colleghi maschi che ottennero fino anche al raddoppio dello stipendio.

Tuttavia, nello stesso anno, Whiteley, caduta la pregiudiziale misogina, fu eletta membro della Chemical Society (FRSC[7]), una fra le prime donne a esservi ammessa.

Certificato di candidatura e elezione di Martha Whiteley alla Chemical Society

Nel 1925 fu pubblicata la prima edizione del Manual of Organic Chemical Analysis: Qualitative and Quantitative (con J.F. Thorpe coautore), l’opera ebbe origine dall’esperienza accumulata da Whiteley in venti anni di insegnamento nei laboratori didattici e di ricerca in chimica organica dell’Imperial College, essa diresse anche il corso avanzato per studenti del dottorato. Il manuale (241 pagine) era talmente completo e aggiornato che soltanto due anni dopo si rese necessaria una ristampa.

Anche a causa della sua pluridecennale esperienza nell’insegnamento, dalle high schools ai Colleges, Martha Whiteley fu un’eccellente didatta, ricordata da studenti e giovani colleghi come punto di riferimento e fonte di ispirazione. R. Nicholson e J. Nicholson [1], fanno notare che a quei tempi, il Dipartimento di Chimica aveva più dottorandi femmine di qualsiasi altro Dipartimento dell’Imperial College, il che suggerisce che la figura di Martha Whiteley attirava più studentesse a fare ricerca sotto la sua guida.

Occorre poi menzionare il suo impegno nella compilazione del Dictionary of Applied Chemistry.

Il Dictionay fu originariamente compilato da Thomas Edward Thorpe[8] e pubblicato per la prima volta nel 1890. Whiteley fu coinvolta nella preparazione di alcuni dei volumi della seconda edizione e, quando fu programmata una terza edizione, fu invitata a modificarlo e aggiornarlo in collaborazione con J.F. Thorpe. Ciò comportò per Whiteley non solo doveri editoriali, ma anche la scrittura di diverse voci. Ha continuato con questo lavoro dopo il suo pensionamento dall’Imperial College. Dopo la morte di J. F.Thorpe nel 1940, assunse il ruolo di redattore capo del Dictionary, l’ultimo volume su cui lavorò apparve nel 1954.

Martha Whiteley ha svolto un ruolo significativo nella lunga battaglia per assicurare l’ammissione delle donne alla Chemical Society. Nel 1904, Whiteley fu una delle 19 donne chimico che presentarono una petizione per ammettere le donne nella associazione. La petizione fu ignorata. Nel 1908 successe un fatto più grave. I membri della Società votarono in maggioranza per l’accesso alle donne, ma le manipolazioni del segretario misogino della Società, Henry Armstrong, assicurarono che le donne non fossero realmente ammesse. Quello che successe fu riportato dalla rivista Nature come segue:

“… un elemento contumace e recalcitrante in minoranza ..[impostandosi] per contrastare i desideri della maggioranza … “[5]

Questa azione vergognosa significò che occorse aspettare fino al 1920 quando, come immediata conseguenza della legge sulla rimozione della pregiudiziale sessuale del 1919, le donne furono finalmente autorizzate a diventare membri della Royal Chemical Society e Martha Whiteley è stata, come ricordato, una delle prime.

Martha Whiteley morì il 24 maggio 1956, alle soglie del novantesimo anno di età, non molto tempo dopo aver visto il completamento della revisione del Dictionary.

Bibliografia

[1]R.M. Nicholson, J.W. Nicholson, Martha Whiteley of Imperial College, London: A Pioneering Woman Chemist., J. Chem Educ., 2012, 89, 598−601-

[2]M.R.S. Creese, Martha Annie Whiteley (1866-1956): Chemist and Editor., Bull. Hist. Chem. 1977, 20, 42-45.

[3]H. Crompton, M.A. Whiteley, The melting point of mixtures., J. Chem. Soc., Trans., 1895, 67, 327−337.

[4] Gli articoli scientifici di Whiteley sono citati in [1] rifs. (8)-(14) e in [2] rif. 3.

[5] Editor. Women and the Fellowship of the Chemical Society., Nature 1909, 79, 429−431.

[1] Nel 1871, le sorelle Maria e Emily Shireff fondarono in Gran Bretagna l’ “Unione Nazionale per il miglioramento dell’istruzione delle donne di tutte le classi”, con lo scopo principale di “promuovere l’istituzione di scuole diurne buone ed economiche per tutte le classi ” Per raccogliere sovvenzioni, l’Unione fondò una Società denominata la ‘Girls Public Day School Company (dal 1905 Girls Day Public School Trust, GPDST). Entro il 1905 furono istituite 37 scuole della GPDST, note come “high schools”, attirando un insieme di classi sociali a causa delle loro tasse relativamente basse. Dimostrando gli effetti positivi dell’istruzione delle ragazze, contribuirono enormemente al cambiamento delle istituzioni scolastiche britanniche [1].

2 Sir William Augustus Tilden (1842 -1926), chimico britannico. Scoprì che l’isoprene poteva essere ottenuto dalla trementina, ma non riuscì a trasformare questa scoperta in modo tale da produrre gomma sintetica commercialmente conveniente.

[3]All’epoca, in Inghilterra non esisteva ancora il titolo Ph.D. (Philosophy Doctor), l’equivalente era appunto D.Sc., Doctor of Science [1].

[4] Jocelyn Field Thorpe (Sir) (1872-1940), chimico inglese che ha scoperto la reazione che porta il suo nome e l’effetto Thorpe-Ingold.

[5] Ida Smedley Maclean (1877-1944), un biochimico inglese, considerata la prima donna ammessa alla Chemical Society. Particolarmente nota per i suoi studi sulla sintesi degli acidi grassi dai carboidrati.

[6] Nota anche come gas mostarda per il suo cattivo odore di senape e aglio, l’iprite (solfuro di 2,2’ diclorodietile) fu messa al bando dal Protocollo di Ginevra del 1925 insieme a tutte le armi chimiche…

[7] Fellows of the Royal Society of Chemistry (FRSC) è un titolo onorifico che viene assegnato dai giudici della Società a persone che “hanno fornito un importante contributo al progresso delle scienze chimiche”. Istituita nel 1840 come Chemical Society si è fusa nel 1980 con il Royal Institute of Chemistry, la Faraday Society e la Society for Analytical Chemistry nella Royal Society of Chemistry.

[8] Thomas Edward Thorpe (Sir) (1845-1925), chimico britannico, ha fatto ricerche in svariati campi della chimica. Professore al Royal College, è stato membro della Commissione Internazionale sui Pesi Atomici.

Equilibrio delle risorse.

In evidenza

Luigi Campanella, già Presidente SCI

Più volte anche in questo blog si è parlato dell’oro blù, l’acqua raccomandandone l’utilizzo responsabile e la disponibilità crescente. E’altrettanto vero che spesso abbiamo affrontato il tema dei cambiamenti climatici e delle bombe d’acqua che spesso li caratterizzano.

Due facce della stessa medaglia:mancanze ed eccessi della stessa preziosa sostanza, che ci obbligano a riflettere sulla mancata capacità dell’uomo a convogliare in misura equilibrata le risorse naturali. Ora però giunge un nuovo allarme: le bombe d’acqua non sono sufficienti, proprio per la loro disomogenea distribuzione nel tempo e nello spazio, per garantire all’agricoltura la necessaria contribuzione alle risorse alimentari. Così in Svizzera, un paese a noi così vicino, portano con gli  elicotteri l’acqua ai campi aridi ed in Austria e Germania i tempi della vendemmia sono stati anticipati proprio per l’aridità. Il problema è comunque planetario: in Argentina della caduta del PIL è responsabilizzata la ridotta produzione agricola correlata alla siccità, in Australia si sta attraversando una  crisi idrica senza precedenti, in Sud Africa cercano soluzioni tecniche per una  crescente aridità e fra quelle offerte dai  consulenti colpisce quella di trasportare un iceberg dall’Atlantide del peso di 500  mila tonnellate. La difficoltà principale della proposta è stata  individuata nella forma dell’iceberg che possa garantirne la stabilità durante il trasporto. L’idea è merito del capitano Nick Sloane, lo stesso  che ebbe  l’incarico del recupero del relitto dellaCosta Concordia all’isola del Giglio.

(http://www.dire.it/03-07-2018/217574-sudafrica-iceberg-polo-sud-siccita-nick-sloane/)

Riflettendo però si deve concludere che l’idea non è poi così nuova: le piattaforme petrolifere temono gll iceberg e quando li hanno vicini provvedono al loro spostamento,anche se si tratta di dimensioni  minori. Tornando al Sudafrica c’è anche da affrontare la conservazione dell’iceberg trasportato e la sua fusione modulata e modellata, ma da quanto   viene comunicato sembra che siano disponibili soluzioni per entrambi i problemi. Quanto fin qui detto ci fa riflettere sulle ripetute similitudini  circa il valore prezioso dell’ energia rinnovabile e dell’acqua: la ragione prima di tale preziosità è probabilmente da attribuire alla difficoltà di accumulo; gli eccessi non sono utilizzati per  coprire le carenze. Forse una delle sfide del futuro prossimo è proprio nelle tecnologie di accumulo che consentano una distribuzione equilibrata delle risorse nel tempo e nello spazio.

C’era una volta l’EPA…

In evidenza

Claudio Della Volpe

Abbiamo già affrontato in precedenti post (nei riferimenti) gli effetti dell’arrivo al potere in USA di Donald Trump, e delle forze politiche che rappresenta, con risvolti enormi sulla scienza e la tecnologia e sul controllo degli effetti di queste sulla società; si tratta di un argomento che ormai è di carattere mondiale; anche da noi la questione vaccini pone all’ordine del giorno il rapporto fra la scienza e la democrazia e l’esistenza di forze sociali che, nella loro spinta a ribellarsi ad un modo di produrre insostenibile, potrebbero stravolgere l’ossatura stessa della società.

Si tratta di una contraddizione che ci riguarda; la scienza, lo abbiamo detto altre volte, DEVE prendere posizione sulla insostenibilità del modo di produrre attuale e dei guasti che comporta per il pianeta e per la stessa società umana; ma senza rinnegare se stessa e i suoi metodi. La Scienza deve schierarsi e stare dalla parte dei più deboli.

Uno dei motivi del rifiuto della Scienza da parte di masse crescenti di persone sta nell’apparente identità fra questo modo di produrre insostenibile e la applicazione della Scienza, che viene vista come parte dell’apparato sociale opprimente che non mantiene, almeno non per la grande maggioranza delle persone, le promesse mirabolanti che fa.

E questo è il punto.

Appena arrivato al potere Donald Trump ha iniziato a smontare sistematicamente quei meccanismi sociali di controllo basati sulla Scienza; non mi riferisco qui solo alla sua volontà di disdire l’accordo di Parigi sul clima, ma allo smontaggio sistematico di quell’ enorme apparato di controllo costituito da EPA: Environmental Protection Agency.

EPA è un acronimo che quasi tutti i chimici conoscono; agenzia fondata nel 1970 da un presidente insospettabile, Richard Nixon, è guidata da un amministratore, che è nominato dal Presidente e confermato con un voto del Congresso. Pur non essendo un ministero il suo dirigente ha un ruolo analogo.

Durante la presidenza Trump questo ruolo è stato ricoperto dal 17 febbraio 2017 da Scott Pruitt e dopo le sue dimissioni, dovute a un grave caso di corruzione nell’ Ottobre 2017, è stato nominato dal luglio 2018, Andrew R. Wheeler, suo vice, un avvocato americano che aveva rappresentato prima il magnate del carbone Robert E. Murray e aveva lavorato come lobbista contro le leggi dell’amministrazione Obama in materia ambientale e come assistente del senatore James Inhofe, nella battaglia per rifiutare le modifiche e gli accordi legati al climate change. Ovviamente Wheeler è critico dei limiti di emissione stabiliti da IPCC.

EPA per quasi 50 anni è stata il simbolo mondiale del controllo ambientale pubblicando migliaia di documenti e sviluppando migliaia di metodi di analisi e controllo ambientale.

EPA è l’equivalente delle nostre agenzie provinciali e regionali per l’ambiente, dell’attuale Agenzia Nazionale, ma ne rappresenta in un certo senso l’antesignano, il punto di riferimento.

Ma le cose stanno cambiando velocemente.

A parte il ruolo apicale di Wheeler e Pruitt (in carica per poco più di un anno, Pruitt è coinvolto in una decina di indagini sulla sua condotta a capo dell’EPA, sulle spese personali fatte con fondi di EPA e dove ha dimostrato di avere posizioni in contrasto con le responsabilità della sua agenzia, soprattutto per quanto riguarda la tutela dell’ambiente e la riduzione delle sostanze inquinanti prodotte dalle attività umane. Pruitt in questi mesi era stato molto criticato da ricercatori e scienziati per avere ridotto fondi e risorse a diversi comitati dell’EPA, impegnati nella ricerca e nel fornire consulenze nell’agenzia.) un ruolo fondamentale lo sta svolgendo un altro personaggio che ha sempre lavorato dall’altra parte della barricata e alla quale avevamo già accennato (Le battaglie della Chimica, C. Della Volpe, LA CHIMICA E L’INDUSTRIA online | ANNO I | N° 5 | SETTEMBRE/OTTOBRE 2017). Si tratta di Nancy B. Beck, che, dopo essere stata per i precedenti 5 anni una dirigente dell’American Chemistry Council, l’equivalente della Federchimica italiana, è stata nominata come responsabile della sezione dell’EPA che si occupa di sostanze tossiche. I dettagli della storia li potete trovare sul NYT , ma l’essenziale ve lo riassumo io: smontare le regole di salvaguardia ambientale costruite faticosamente in USA negli ultimi decenni.

L’amministrazione Trump sta percorrendo a ritroso la via che il governo federale precedente aveva stabilito per la determinazione della tossicità dei prodotti di sintesi più importanti. Durante l’ultimo anno della presidenza Obama EPA aveva avuto la richiesta di valutare per la prima volta centinaia di prodotti di sintesi potenzialmente tossici e concludere se occorressero restrizioni o perfino il loro ritiro dal mercato. Si tratta dell’aggiornamento della TSCA ossia della Toxic Substances Control Act. La nuova legge , passata all’epoca in modo bipartisan alla Camera dei Rappresentanti e al Senato, impone:

-Mandatory requirement for EPA to evaluate existing chemicals with clear and enforceable deadlines;

-Risk-based chemical assessments;

-Increased public transparency for chemical information; and

-Consistent source of funding for EPA to carry out the responsibilities under the new law.

E fra le sostanze incluse ci sono ovviamente molte sostanze di uso comune come i solventi per le lavanderie a secco, per la sverniciatura e altre sostanze usate negli shampoo e nei cosmetici. L’EPA nello svolgere questo compito nella nuova era Trump ha deciso di escludere dai conti le potenziali esposizioni causate dalla presenza delle sostanze in questione nell’aria, nel suolo e nell’acqua. E si è invece focalizzata solo sui possibili danni che si hanno per contatto diretto sul posto di lavoro o altrove.

Questo approccio esclude per esempio lo smaltimento scorretto che porta alla contaminazione delle falde e tutti i casi analoghi. Questa scelta è stata una grande vittoria dell’industria chimica che ha fatto enormi pressioni su EPA per restringere la valutazione del rischio.

Tutto il “merito” è della signora Beck.

.

L’ultimo punto, il più sconvolgente di tutta questa vicenda riguarda l’amianto.

Gli USA sono sempre stati restii a fare la scelta che ha fatto per esempio il nostro paese, che ha escluso l’amianto da ogni tipo di applicazione e che obbliga alla sua sostituzione.

Negli USA la situazione è più “clemente”.

Come mai l’amianto non è già vietato negli Stati Uniti?

L’amianto è considerato insieme con i “grassi trans” e raggi UV come una entità oggettivamente dannosa. E per una buona ragione. L’esposizione all’amianto, caratterizzata dall’inalazione di fibre di amianto che si trovano più comunemente nei materiali da costruzione, è legata a condizioni di salute molto negative come l’infiammazione polmonare e il cancro. Secondo il National Cancer Institute: l’amianto è stato classificato come cancerogeno acclarato per l’uomo (una sostanza che causa il cancro) dal Dipartimento della Salute e dei Servizi Umani (HHS), dall’Agenzia per la protezione ambientale degli Stati Uniti (EPA) e dall’Agenzia internazionale per la ricerca sul cancro (IARC). Secondo la IARC, vi sono prove sufficienti del fatto che l’amianto causa il mesotelioma (un tumore relativamente raro delle membrane sottili che rivestono il torace e l’addome), e tumori del polmone, della laringe e dell’ovaio. Sebbene raro, il mesotelioma è la forma più comune di cancro associata all’esposizione all’amianto. Esistono prove limitate del fatto che l’esposizione all’amianto è legata ad un aumentato rischio di tumori dello stomaco, della faringe e del colon-retto.

Nonostante sia un cancerogeno riconosciuto bandito in oltre 60 paesi del mondo gli Stati Uniti, il paese più potente del mondo, sempre all’avanguardia in tutto hanno faticato a implementare un proprio esplicito divieto di uso dell’amianto.

Essenzialmente è successo questo: nel 1976 la legge, la Toxic Substances Control Act (TSCA) diede all’EPA l’autorità di controllare l’uso delle sostanze chimiche tossiche come l’asbesto; nel 1989 il regolamento per il bando dell’uso e l’esclusione dell’asbesto sarebbe stata in grado di risolvere il problema. Ma un appello giudiziario nel 1991 ha stabilito che il divieto sarebbe stato troppo gravoso, una violazione del TSCA e ha limitato la regola ai soli nuovi usi dell’amianto

Nel corso degli anni, è chiaro che non sono stati compiuti molti progressi verso l’effettiva messa al bando. Tutte queste leggi e altre normative sull’amianto adottate nel corso degli anni hanno contribuito a contenere la presenza di amianto, ma non ad eliminarla. La realtà è che milioni di americani sono ancora esposti all’amianto oggi. A causa della natura delle malattie da amianto, ci vogliono decenni dopo l’esposizione per mostrare i sintomi. Stime dicono che almeno 20 milioni di americani svilupperanno il mesotelioma nel corso della loro vita.

Dicono i movimenti popolari contro l’amianto:

Sarebbe inesatto dire che l’amianto è illegale negli Stati Uniti – solo che la restrizione sui nuovi prodotti di amianto in corso da quasi trent’anni ora ha indubbiamente forzato i produttori a capire le alternative.

Ma sfortunatamente in questi giorni, l’EPA entrerà nella parte finale del percorso regolamentare per l’approvazione di una cosiddetta “nuova regola” che permetterà ai produttori di usare l’asbesto in nuovi prodotti, anche se dopo un controllo dell’EPA. Se una regola del genere venisse implementata questa significant new use rule (SNUR) potrebbe reintrodurre l’uso dell’asbesto nei nuovi materiali da costruzione, sconvolgendo la regolamentazione che impedisce “nuovi usi” dell’amianto.

Lo SNUR espanderebbe, non limiterebbe, l’uso dell’amianto I sostenitori dell’ambiente sostengono che lo SNUR dell’EPA annullerebbe decenni di regolamenti. “Il risultato finale sarà una valutazione del rischio gravemente inadeguata che non affronta i maggiori contributori al pesante e crescente bilancio della mortalità e della malattia dell’amianto negli Stati Uniti“, afferma Linda Reinstein, presidente dell’Associazione per la consapevolezza delle malattie dell’amianto, in una dichiarazione rilasciata nel mese di giugno. “Secondo l’EPA, lo SNUR” richiederebbe ai produttori e agli importatori di ricevere l’approvazione EPA prima di iniziare o riprendere la produzione e l’importazione o la trasformazione dell’amianto “. Tuttavia, il modo migliore per prevenire nuovi usi è quello di avere un divieto totale di amianto negli Stati Uniti “. “Non c’è bisogno di uno SNUR di amianto, infatti le sue disposizioni sono controproducenti per la protezione contro i rischi per la salute derivanti dall’esposizione all’amianto

Il presidente Trump ha le idee molto chiare a riguardo; il Washington Post riporta che:

Nel suo libro del 1997, L’arte del ritorno, Trump sosteneva che l’associazione della sostanza chimica con i rischi per la salute era parte di una cospirazione creata dalla mafia. “Credo che il movimento contro l’amianto sia stato guidato dalla mafia, perché spesso le società legate alla mafia facevano la rimozione dell’amianto. Grande pressione è stata messa sui politici e, come al solito, i politici hanno ceduto “, ha scritto

.

(https://www.huffingtonpost.com/entry/donald-trump-and-the-art-of-asbestos_us_581b2e4ee4b0570d6d6f0c1d?guccounter=1)

Vi ricorda qualcosa? Qualche altra cospirazione che abbiamo sentito in Italia: scie chimiche, vaccini?

E infine un’altra cosa che fra il serio e il faceto dà il segno della amministrazione Trump.

Sul sito FB del principale produttore mondiale di asbesto, una società russa (Uralasbest) che gestisce una enorme miniera di asbesto potete vedere il seguente post.

https://www.facebook.com/Uralasbest/posts/531137150617873

La Uralasbest si fa pubblicità apponendo sui proprii sacchi di asbesto un marchio dove si legge: ” approvato da Donald Trump, il 45° Presidente degli Stati Uniti

Ecco questo è quel che succede quando la Scienza incontra una politica scorretta; d’altronde in passato abbiamo dovuto fronteggiare comportamenti diversi ma analoghi, sempre col fine di nascondere, mettere sotto il tappeto, negare i danni che una chimica scorretta può comportare; speravamo di aver trovato ed ottenuto attraverso “il progresso”, ossia la lotta del movimento popolare ed ambientalista delle regole, delle istituzioni che difendessero le nostre vite e l’ambiente; ma come per altri risultati della lotta per una società veramente democratica: lavoro, pensione, assistenza sanitaria pubblica, scuola pubblica, tasse progressive nulla è per sempre; solo un continuo e costante atteggiamento di controllo sociale e di lotta può garantirci i diritti “acquisiti”.

E attenzione chimici, nemmeno la democrazia è acquisita.

Riferimenti.

https://ilblogdellasci.wordpress.com/2017/03/13/briscole-tromboni-e-trombette/

https://ilblogdellasci.wordpress.com/2016/11/11/chimica-e-nuovo-presidente/

http://digg.com/2018/epa-asbestos-trump

https://www.nytimes.com/2018/06/07/us/politics/epa-toxic-chemicals.html

https://www.huffingtonpost.com/entry/donald-trump-and-the-art-of-asbestos_us_581b2e4ee4b0570d6d6f0c1d?guccounter=1

Minimizzare il fango di supero

In evidenza

Mauro Icardi

Il trattamento di ossidazione biologica consiste nella biodegradazione da parte di microrganismi di tutte le sostanze organiche presenti nell’acqua da depurare, fino a trasformarle in sostanze più semplici e innocue dal punto di vista ambientale. Questo trattamento riproduce artificialmente l’autodepurazione naturalmente presente nei corsi d’acqua, mantenendo condizioni il più possibile ottimali per concentrare e accelerare il processo in atto. Tipicamente mantenendo per esempio un tenore di ossigeno disciolto intorno a 2 mg/lt. Durante questa fase avvengono numerosissime reazioni di biodegradazione della materia organica, dove sostanze organiche complesse vengono convertite in sostanze inorganiche più semplici, quali: CO2, H2O, NH4+, NO2 NO3. Dopo un certo tempo di permanenza in questa vasca, opportuno per la degradazione delle sostanze organiche e per la nitrificazione dello ione ammonio a nitrato, il fango viene inviato a un sedimentatore secondario che separa il fango attivo (contenente i microorganismi attuanti la depurazione biologica) dal refluo chiarificato ovvero l’acqua che ha subito il processo depurativo biologico. I fanghi originati dalla depurazione delle acque, in particolare dalla sedimentazione primaria, e dallo spurgo della vasca di ossidazione vengono, ispessiti e poi sottoposti a trattamenti che ne diminuiscano ulteriormente il tenore in sostanza organica.

Sono state sviluppate tecniche tendenti a ridurre la quantità di fango di supero,( a volte indicato come fango di spurgo) da inviare al successivo trattamento fanghi. In particolare il trattamento di lisi dei fiocchi di fango si sta affermando nel settore del trattamento acque reflue. Il processo newlisi messo a punto e brevettato dall’omonima azienda di Paliano in provincia di Frosinone consiste nell’idrolisi termochimica del fango di supero. Il processo viene condotto alla temperatura di 90 ° C e a pressione atmosferica. In questo modo il carbonio organico viene ossidato a CO2, e successivamente la frazione organica residua viene trasformata in peptoni, oligosaccaridi e aminoacidi liberi.

Il fango così trattato possiede un biodegradabilità praticamente totale. A questo punto, dopo un processo di filtrazione o in alternativa di sedimentazione, il fango trattato (l’eluato in buona sostanza) può essere ricircolato in testa all’impianto di depurazione (tipicamente a monte dell’ossidazione biologica), oppure negli impianti dotati di fase di digestione anaerobica, caricato allo stesso digestore. Nel processo di digestione, trattandosi di biomassa solubilizzata vengono ridotti i tempi di ritenzione, in quanto i batteri metanigeni non devono più idrolizzare essi stessi la sostanza organica dei fanghi per poterla rendere disponibile per le loro esigenze nutritive e di accrescimento.

Il processo è coperto da brevetto, ma giova ricordare che è stato messo a punto in collaborazione con l’IRSA CNR di Roma. Facendo una rapida ricerca su Internet, ho potuto vedere che diverse società di gestione hanno adottato tale sistema, l’Acea di Roma, la SEITO di Siena, e l’acquedotto pugliese. E facendo ricerche in rete, si possono trovare altri processi simili a questo, di altre aziende.

Il trattamento di idrolisi termica dei fanghi costituisce decisamente una tecnica che occorrerebbe estendere in maniera generalizzata, soprattutto su quegli impianti che sono stati progettati a metà anni 70, contestualmente al grande sviluppo impiantistico seguito alla promulgazione della legge Merli.

Il depuratore tradizionale è destinato ad essere modificato sostanzialmente. E in questo caso le sinergie hanno coinvolto società di gestione, enti di ricerca, e l’azienda che ha sviluppato questo sistema brevettandolo. Sistema che è un esempio concreto di applicazione della chimica verde.

Per chiudere, qualche numero, che è sempre fondamentale ed esplicativo.

Acea ha dichiarato una riduzione di fango da smaltire pari al 70%, passando da 4700 tonnellate anno, a 1500. Questo significa meno fango, meno autocarri che lo trasportano. Con benefici ambientali, sociali ed economici. Primi passi verso la trasformazione dei depuratori in vere e proprie fabbriche di ripulitura dell’acqua, con l’applicazione di nuove tecniche, ormai mature, che non sostituiranno in toto quelle tradizionali, ma le completeranno.

Ascoltare la Scienza: l’incidente di Bologna e la transizione energetica

In evidenza

Autori vari.

Riceviamo da Vincenzo Balzani e volentieri pubblichiamo.

L’energia è la risorsa più importante. L’ambiente, la Terra, la nostra “casa comune” è il luogo dove dobbiamo vivere. Energia e ambiente sono quindi strettamente connessi. Oggi al mondo, ogni secondo, consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105.000 metri cubi di gas. Sappiamo da tempo che i combustibili fossili sono una risorsa non rinnovabile e che il loro uso danneggia la salute dell’uomo. Sappiamo anche che si tratta di sostanze con alto contenuto di energia, pericolose da trattare e da trasportare: il grave incidente del 6 agosto a Bologna non è che l’ultimo di una serie di disastri che hanno coinvolto petroliere, oleodotti, gasdotti, raffinerie, depositi. La scienza negli ultimi decenni ha scoperto che l’anidride carbonica prodotta dall’uso di questa sterminata quantità di combustibili fossili e immessa nell’atmosfera (36 miliardi di tonnellate all’anno) provoca il cambiamento climatico. Nella Conferenza COP 21 di Parigi, le delegazioni di 197 nazioni hanno concordemente riconosciuto che il cambiamento climatico è la minaccia più grave per l’umanità. L’unica soluzione per uscire dalla crisi energetico-climatica è smettere di usare i combustibili fossili. Purtroppo, come scrive il papa nell’enciclica Laudato sì, “La politica e l’industria rispondono con lentezza, lontane dall’essere all’altezza delle sfide”. La transizione energetica è ineluttabile, è già iniziata, ma è fortemente ostacolata dai giganteschi interessi economici della lobby del petrolio, che insiste nel definire immature e non affidabili le energie rinnovabili del sole, del vento e della pioggia, che producono energia elettrica. La scienza dimostra invece che la transizione dai combustibili fossili alla elettricità prodotta dalle rinnovabili è tecnicamente possibile e economicamente conveniente.

Alla nostra Scuola della Pace di Sovere, proprio nel giorno dell’incidente di Bologna, stavamo discutendo di questo problema. In particolare, abbiamo approfondito il piano WWS (water, wind, sun) proposto da scienziati delle Università di Berkeley, Stanford e Berlino. Il piano esamina in dettaglio la situazione di 139 stati del mondo. Per ciascun paese analizza i consumi energetici e la disponibilità di risorse rinnovabili per generare elettricità e propone per ogni paese un piano specifico, tenendo conto della disponibilità di sole, vento, acqua, suolo, tetti, materie prime e situazioni particolari. Per l’Italia, l’analisi dettagliata dello studio WWS si può riassumere con i seguenti dati.

Se decideremo di accelerare la transizione, nel 2050 useremo solo energia elettrica generata da fotovoltaico (56,7%); eolico (26,3%); solare a concentrazione (11,3%); idroelettrico (4,9%); geotermico (0.6%). Dal punto di vista economico, si avrà un risparmio di 382 $/persona/anno sul costo dell’elettricità e un risparmio sui costi dei danni causati da inquinamento e cambiamento climatico per una media di 7.700 $/persona/anno. Si eviterà la morte prematura per inquinamento, in media, di circa 20.000 persone all’anno. Verranno perduti circa 160.000 posti di lavoro nei settori dei combustibili fossili, ma si creeranno circa 300.000 nuovi posti di lavoro permanenti per attività di costruzione e 350.000 per attività di gestione delle energie rinnovabili con un saldo positivo di circa 500.000 posti. Un altro vantaggio è che l’energia viaggerà su fili e non sulle autostrade. Lo studio conclude dicendo che la transizione energetica, pur essendo tecnicamente possibile ed economicamente conveniente, troverà ostacoli di tipo sociale e politico. Si tratta infatti, come dice papa Francesco, di una “rivoluzione culturale” per la quale non siamo ancora preparati.

Ecco: chiediamo che l’incidente di Bologna sia almeno occasione per diffondere conoscenza e consapevolezza, sia a livello politico che fra i cittadini, sulla necessità di promuovere la transizione energetica.

Questa, fra tante di cui si parla in questi giorni, è veramente la “Grande Opera” di cui il Paese ha più bisogno.

A nome dei partecipanti alla scuola della pace organizzata dalle parrocchie della Dozza (Bologna) e Sammartini (Crevalcore). don Giovanni Nicolini, don Giancarlo Giuseppe Scimè, don Francesco Scimè

Due donne nella storia della chimica russa.

In evidenza

Rinaldo Cervellati

Titolo completo: Due donne nella storia della chimica russa: Nadezhda Olimpievna Ziber-Shumova (1854[1]56[2] – 1914216[3]) e Anna Fedorovna Volkova (? – 1876)

Insieme a Julia Lermontova (di cui abbiamo parlato nel precedente post) sono le tre donne che hanno contribuito alla “golden age” della scienza russa nella seconda metà del XIX secolo[4] per quanto riguarda la chimica.

Nadezhda Olimpievna Ziber-Shumova nacque a Kuybyshev (dal 1991 Samara), sesta città russa per estensione, capoluogo del distretto federale di Samara Oblast (ex sovietico Kuybyshev oblast).

A San Pietroburgo seguì le lezioni dei chimici Egor Vagner, Dmitri Mendeleev e A. Butlerov e del botanico A. Famincin. Nel 1872, già sposata con Nikolai Ziber (uno dei primi economisti marxisti russi), si trasferì con lui in Svizzera, a Zurigo senza tuttavia essere formalmente iscritta in quella università. Successivamente continuò i suoi studi presso l’Università di Berna, una delle istituzioni in cui le studentesse di Zurigo si dispersero nel 1873 dopo aver ricevuto l’ordine dal governo zarista di tornare in patria (v. nota 4).

Nadezhda O. Ziber-Shumova

Nel 1877 si unì al gruppo di ricerca guidato dal polacco Marceli Nencki[5], direttore del Dipartimento biochimico dell’Università di Berna e pioniere nell’approccio chimico allo studio dei microrganismi.

Marceli Nencki

La loro collaborazione durò fino alla morte di Nencki ventitré anni dopo [1]. Ottiene il dottorato in medicina nel 1880 [2].

Tra la fine degli anni ’70 e l’inizio del XX secolo, è autrice o co-autrice di oltre trenta articoli su una varietà di argomenti biochimici, tra cui ossidazione in vivo, fermentazione batterica e processi di decomposizione, studi enzimatici e idrolisi zuccherina, nonché studi chimici di base, come l’acilazione di fenoli catalizzata con ZnCl2 (nota come”reazione di Nencki). Per questo è considerata la più produttiva fra le donne che all’epoca facevano ricerche in chimica [1].

Il suo contributo iniziale più importante furono probabilmente i suoi lavori sulla costituzione del pigmento dell’emoglobina [3], parte di una lunga serie di indagini sistematiche sui prodotti di degradazione dell’emoglobina, condotti da Nencki e dai suoi collaboratori per molti anni. Integrati con il lavoro di Leon Marchlewski sulla clorofilla, questi studi portarono Nencki a formulare l’ipotesi sulla relazione chimica tra regno vegetale e regno animale (v. nota 5).

Nencki lasciò Berna nel 1891 per partecipare all’organizzazione del nuovo Istituto Imperiale di Medicina Sperimentale (IIEM) a San Pietroburgo, dove divenne direttore dell’Istituto di Chimica.

Biblioteca dell’Istituto di Medicina Sperimentale a San Pietroburgo

Ziber-Shumova si unì allo staff dell’istituto, insieme a Szymon Dzierzgowski e Martin Hahn, come collaboratori senior di Nencki.

Durante le ricorrenti carestie e le epidemie che devastarono la Russia negli anni Novanta dell’Ottocento, i ricercatori medici russi compirono notevoli sforzi nel campo della sanità pubblica e dei servizi igienico-sanitari per apportare miglioramenti e fornire assistenza nelle zone colpite. Le misure adottate includevano l’organizzazione di cliniche e unità di osservazione sul campo. Nencki, Ziber-Shumova e Dzierzgowski parteciparono attivamente a questo lavoro. Nel 1892 diedero importanti contributi, incluse ampie osservazioni sul campo, durante un’epidemia di colera. La loro ricerca di una fonte di antisettici facilmente accessibili portò a un’indagine dettagliata sulla composizione chimica di estratti di pino e all’esame delle loro proprietà disinfettanti. Più tardi pubblicarono una quantità considerevole di lavoro batteriologico sul problema della peste bovina. Nencki fu incaricato di effettuare prove di immunizzazione sul campo nel Caucaso e in Siberia.

Dopo la scomparsa di Nencki nel 1901, Ziber-Shumova fu a capo del Laboratorio Chimico dell’IIE. continuando a sviluppare i temi di ricerca proposti da Nencki. Nel 1912 fu nominata membro ordinario dell’IIEM, titolo equivalente a quello di professore ordinario. I suoi lavori successivi includevano indagini sui lipidi presenti nel tessuto polmonare e una serie di studi sugli enzimi, molti dei quali apparvero in Zeitschrift für Physiologische Chemie, continuando a pubblicare almeno fino allo scoppio della prima guerra mondiale.

Nadezhda O. Ziber-Shumova è stata la prima donna Professore di biochimica in Russia, fornendo contributi essenziali al consolidamento e allo sviluppo di questa scienza; per questo nel 1921 il Laboratorio di Chimica dell’IIEM fu rinominato Dipartimento di Biochimica.

Il riconoscimento del suo significativo contributo fu la pubblicazione della sua biografia nel famoso Brockhau and Efron Encyclopedic Dictionary[6]. È necessario apprezzare la dirittura morale di Ziber-Shumova. Istituì il premio scientifico “M.W. Nencki”, la prima sovvenzione per sostenere i giovani ricercatori in biochimica. Preparò e curò l’edizione in due volumi “Marceli Nencki Opera Omnia”, contenente 153 pubblicazioni di Nencki e coautori e circa 200 pubblicazioni dei suoi allievi. Immortalando così un ricordo del suo insegnante e mèntore, lasciò ai suoi colleghi una eccellente fonte di informazioni sullo sviluppo della biochimica.

Nel 1909 Ziber-Shumova donò alla Società polacca di ricerche biologiche 50 000 rubli (25 000 dollari dell’epoca) per la fondazione dell’istituto di ricerca Nencki, che fu inaugurato a Varsavia nel 1918 (Nencki Institute of Experimental Biology).

*****

Sulla vita di Anna Feodorovna Volkova si hanno solo poche informazioni, la data di nascita non è nota, appare certa invece quella della morte, avvenuta nel 1876. Forse proprio il fatto che Volkova è morta ancora giovane ha determinato queste insufficienze biografiche. In effetti le uniche fonti di informazioni nei siti occidentali si possono tutte ricondurre all’articolo di Mary Creese [1].

Negli anni ’60 dell’ottocento Volkova seguì le lezioni dei membri della Facoltà di Chimica dell’Università di San Pietroburgo e svolse la sua prima attività di ricerca nell’Istituto di Agricoltura e Silvicoltura di quella città sotto la guida del chimico e agronomo Alexander Engelhardt[7], impegnato insieme ai suoi collaboratori nello studio degli acidi arilsolfonici e loro derivati.

Nel 1870, Volkova si trasferì all’Istituto Tenologico dove estese le ricerche in questo campo con l’incoraggiamento e la guida di Dmitrii Mendeleev[8].

Dmitrij Ivanovic Mendeleev

I suoi due articoli sugli acidi toluenesolfonici e le loro ammidi del 1870 furono probabilmente la prima ricerca chimica pubblicata da una donna [4]. In seguito a queste pubblicazioni Volkova fu invitata a far parte della Società Chimica Russa, prima donna membro di questa Società.

Nonostante una carriera molto breve, conclusa con malattie legate alla povertà e conseguente morte prematura nel 1876, Volkova eseguì una notevole quantità di lavoro sintetico di ammidi aromatiche, in particolare le ammidi dell’acido solfonico. Il contributo per il quale è ricordata, è la sua preparazione del 1870 dell’ammide dell’acido o-toluensolfonico, che doveva diventare un intermedio chiave nella produzione della saccarina[9]. Tuttavia, nel periodo 1870-73, ha studiato un certo numero di reazioni di entrambi gli acidi o- e p-toluensolfonico e dei loro cloruri, ha preparato e studiato le proprietà di diverse nuove acidammidi. Era ben considerata dai suoi colleghi e ben integrata nella comunità chimica; non solo presentò due comunicazioni al Terzo Congresso dei Naturalisti russi a Kiev nel 1871, presiedendo una delle sessioni di chimica. I composti che ha sintetizzato sono stati tra i nuovi materiali preparati dai chimici russi esposti al World Industrial Exhibition di Londra nel 1876.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] T. V. Denisenko, Y. P. Golikov, Nadezhda O. Ziber-Shumova: the first Russian woman Professor of biochemistry, The FEBS Journal, 2013, 280 (Suppl. 1), 618–626.

[3] lavori citati in [1], rif. 21

[4] lavori citati in [1], rif. 9

[1] Registro Università di Berna.

[2] Secondo Franziska Rogger, storica svizzera, specialista nella storia dei primi studi superiori femminili in Svizzera.

[3] WBIS PAB, World Biographical Information System Polskie Archiwum Biograficzne Online

4v. R. Cervellati, https://ilblogdellasci.wordpress.com/2018/07/06/le-donne-scienziate-in-russia-nella-seconda-meta-del-xix-secolo-migranti-della-conoscenza-2/

5 Wilhelm Marceli Nencki (1847, Boczki (PL) – 1901,San Pietroburgo) chimico e medico polacco, particolarmente noto per aver identificato l’emopirrolo fra i prodotti di degradazione dell’emoglobina e mostrato la sua identità con uno dei prodotti ottenuti da un altro chimico polacco, Leon Marchlewski, nella clorofilla. Ha svolto la sua attività prima a Berna (Svizzera) e poi a San Pietroburgo (Russia).

 

[6] Il Dizionario Enciclopedico Brockhaus ed Efron (35 volumi nella versione piccola; 86 in quella più grande) è, nello scopo e nello stile, la controparte russa dell’Enciclopedia Britannica del 1911 e di quella tedesca Brockaus. Contiene 121.240 articoli, 7.800 immagini e 235 mappe.

[7] Alexander Nikolayevich Engelhardt (1832 – 1893) chimico e agronomo russo, di orientamento narodnista e socialista è stato cofondatore della prima rivista di chimica in russo. Famoso per le sue attività sociali e agronomiche e per il suo esperimento sull’organizzazione dell’agricoltura razionale nella sua tenuta. Nel 1870, lui e sua moglie furono arrestati per aver partecipato alla cerchia degli studenti socialisti dell’Istituto di San Pietroburgo. Engelhardt, ritenuto colpevole, fu poi esiliato a vita da San Pietroburgo e bandito dalla sua tenuta-modello.

[8] A parte aver ideato Tavola Periodica (di cui festeggeremo il 150° anniversario l’anno prossimo), Dmitri Mendeleev (1834-1907) è stato uomo di eccezionalmente ampi interessi scientifici, tecnologici, sociali e educativi. La sua Chimica Organica (1861) è stato il primo libro di testo sistematico in quel campo scritto da un russo e i suoi Principi di Chimica in tre volumi (1868-69) è stato considerato un classico. Ha insegnato chimica organica all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo nel 1861, professore ordinario nel 1867.

[9] La saccarina è stato il primo dolcificante artificiale.

Dalla coppa di Licurgo a Nanoinnovation 2018

In evidenza

Luigi Campanella, già Presidente SCI.

Di nanotecnologie e delle loro numerose applicazioni si parlerà in occasione di NANOINNOVATION 2018 l’evento previsto a Roma, presso la Facoltà di Ingegneria della Sapienza dall’11 al 14 settembre.

Si tratta di una delle rivoluzioni scientifiche del nostro tempo. Si pensi che a livello delle comuni attivitá si parla in termini di quantità che comprendono miliardi di miliardi di milioni di molecole fra loro indifferenziabili per comportamento e con le nanotecnologie all’interno di queste comunità si riesce invece a discriminare fino al miliardesimo individuando comportamenti molecolari specifici e diversi.

Le ricadute applicative diventano moltissime: si pensi alla medicina ed alla possibilita di individuare comportamenti anomali di singole molecole o cellule preliminari a malattie e disfunzioni. Per fare una similitudine è come in un coro di miliardi di voci scoprirne una stonata: con le macro e microtecnologie  non sarebbe possibile ciò che invece è possibile con le nano-tecnologie. Accanto a questo aspetto più strettamente analitico le nanotecnologie hanno potenzialitá applicative derivanti dalla nanodimensione delle particelle, dimensione che conferisce ai composti proprietà chimiche e fisiche assolutamente specifiche e spesso superiori rispetto alla macro e microdimensione.

Con riferimento ancora al campo delle scienze mediche si pensi alla minore invasività e la maggipre precisioni rispetto al bersaglio di colpire di agenti nanodimensionati

Ma le potenzialità delle nanotecnologie sono molte altre e continuamente ne vengono esaltate delle nuove. Ecco che un congresso internazionale diventa una sede di dibattito scientifico, ma anche un palcoscenico per non  addetti “stretti” per seguire gli avanzamenti delle tecnologie in termini di applicazione alla nostra vita di tutti i giorni. La partecipazione dei cittadini si basa sulla conoscenza ed insieme sono condizioni necessarie per ottenere il sostegno politico. Il mercato delle nanotecnologie ha registrato un’impennata esponenziale grazie ai settori industriali a cui si rivolge e che riguardano direttamente o indirettamente la vita di milioni di persone.

Dal  punto di vista più strettamente scientifico con il termine Nanoscienze si intende l’insieme  delle competenze derivanti da discipline diverse che vanno dalla fisica quantistica alla chimica supramolecolare, dalla biologia molecolare alla scienza dei materiali, utilizzate con il fine di indagare i fenomeni e le potenzialità applicative di materiali su scala atomica e molecolare. In passato é talvolta avvenuto che fra queste discipline il dialogo è stato difficile e questa difficoltà si è trasferita alla relazione fra domanda ed offerta tecnologica.

Se la storia delle nanotecnologie è relativamente recente (nel 1965 Rychard Feynman ricevette il premio Nobel per la Fisica, ma già nel 1959  aveva  intuito le potenzialità di questa innovativa tecnologia) in effetti si conoscono applicazioni delle nanotecnologie in tempi molto antichi, quando non erano certamente conosciute come tali.

La coppa di Licurgo (British Museum) è una coppa diatreta di vetro di epoca romana, risalente al IV secolo. La coppa è costruita con vetro dicroico e mostra un colore diverso a seconda del modo in cui la luce passa attraverso di essa: rosso quando illuminata da dietro e verde quando illuminata frontalmente. La coppa di Licurgo è l’unico oggetto romano integro completamente costituito da questo tipo di vetro e quello che maggiormente esibisce l’effetto cangiante. (wikipedia)

I casi più noti sono quelli di coppe di età romana costruite con vetri dicroici e di alchimisti medioevali che costruirono vetri con effetti cromatici basati sulla presenza in essi di nanoparticelle. Le stesse nanoparticelle sono oggi ben presenti nella nostra vita di tutti i giorni con i materiali di cui sono costituiti oggetti di uso comune come racchette da tennis, sci, isolanti, luci a LED.

Tutto ciò fa pensare che questo settore possa divenire uno di quelli da cui l’economia sia destinata a dipendere.

Un Nanolaser che cambia colore una volta allungato

In evidenza

Rinaldo Cervellati

In uno speciale di Chemistry & Engineering newsletter on line del 2 luglio scorso, Prachi Patel riporta l’assemblaggio di un nano laser sensibile e sintonizzabile, costituito da nanoparticelle d’oro, un elastomero e un colorante liquido. Il dispositivo è stato realizzato da un gruppo di ricerca costituito da dottorandi e ricercatori dei Dipartimenti di Chimica e di Scienza e Ingegneria dei Materiali della Northwestern University, Illinois, coordinati dai prof. Teri W. Odum e George C. Schatz. (D. Wang et al., Stretchable Nanolasing from Hybrid Quadrupole Plasmons, Nano Lett., 2018, DOI: 10.121/acs.nanolett.8b01774)

George C. Schatz

Teri W. Odum

 I ricercatori si sono ispirati alle caratteristiche dei camaleonti: la pelle di questi rettili è costituita da strati di cellule contenenti nanocristalli di guanina. Quando un camaleonte si irrigidisce o si distende, lo spazio tra i cristalli cambia, alterando il colore della luce riflessa. Nella ricerca di creare sorgenti luminose compatte con colori sintonizzabili, i ricercatori hanno cercato di emulare questo meccanismo.

In linea di principio il dispositivo prevede l’incorporamento di schiere regolari di semiconduttori nanostrutturati all’interno di un materiale elastico. In questi nanolaser, la luce riflessa rimbalza tra le nanostrutture, viene amplificata ed emerge come un raggio laser di una lunghezza d’onda definita. La lunghezza d’onda cambia quando il materiale viene allungato, perché cambia la spaziatura fra le nanostrutture.

Con un’originale modifica a questo concetto, Teri W. Odom, George C. Schatz e il loro gruppo hanno realizzato un nanolaser sintonizzabile 10 volte più sensibile dei precedenti prototipi estensibili e ha il potenziale per offrire una gamma più ampia di colori.

Innanzitutto, hanno depositato una matrice di nanoparticelle d’oro cilindriche (ampiezza 260 nm) su un foglio di polidimetilsilossano (PDMS). Hanno circondato le nanoparticelle con un opportuno materiale liquido, una sostanza colorante in un solvente organico che funge da ulteriore amplificatore di luce (mezzo di guadagno). Nel lavoro precedente, Odom e colleghi avevano realizzato un nanolaser regolabile con un materiale di guadagno liquido, ma per cambiare il colore del nanolaser dovevano sostituire il colorante nel mezzo liquido.

In questo nuovo dispositivo, la variazione di lunghezza d’onda viene ottenuta attraverso l’estensione del supporto elastico. Quando attivato con una fonte di luce esterna, il nanolaser emette una luce nel vicino infrarosso a circa 870 nm. La lunghezza d’onda aumenta o si sposta ulteriormente verso l’infrarosso, quando il dispositivo viene allungato e torna alla lunghezza d’onda originale quando viene rilasciato.

Il nanolaser elastico è costituito da una serie di nanoparticelle di oro su polidimetilsilossano (PDMS) rivestito con un colorante liquido che amplifica la luce. La lunghezza d’onda della luce laser si sposta più in profondità nell’infrarosso quando il dispositivo viene allungato e torna al colore originale quando viene rilasciato.

Un mezzo di guadagno liquido è perfetto per un dispositivo estensibile. Quando allunghi il substrato, il liquido lo segue perfettamente, quindi ci sono sempre molecole per amplificare la luce e ottenere l’effetto laser, afferma Odom.

L’altra novità del dispositivo è che imbriglia i plasmoni – oscillazioni collettive di elettroni – che agiscono sulla superficie delle nanoparticelle d’oro. Le nanoparticelle plasmoniche agiscono come piccole antenne che concentrano la luce in arrivo in campi elettromagnetici attorno alla loro superficie, dice Odom.

Quindi le superfici diventano punti di riferimento nanoscopici per il laser, e un minimo cambiamento nella spaziatura tra le nanoparticelle causa uno spostamento cromatico misurabile, rendendo il dispositivo molto sensibile. Provoca la stessa variazione di lunghezza d’onda con solo un decimo dello stretching richiesto in precedenti progetti di simili laser.

Inoltre, aggiustando sia il tipo di colorante che la spaziatura delle nanoparticelle potrebbe dare una vasta gamma di colori di luce laser emessi.

I ricercatori ora progettano di realizzare un dispositivo con una matrice mista di nanoparticelle di oro e diversi materiali plasmonici. Le nanoparticelle di argento e alluminio, ad esempio, emettono luce nelle lunghezze d’onda dell’ultravioletto e del visibile. Fianco a fianco sullo stesso substrato, si può immaginare di ottenere colori laser [visibili] diversi, sostiene Odom.

Ren-Mi Ma

Ren-Min Ma, un fisico dell’Università di Pechino, afferma: La combinazione di materiale liquido di guadagno mutevole e la risonanza plasmonica dà un laser robusto, ad alte prestazioni e compatto con una grande sensibilità. È un passo significativo verso l’implementazione di nanolaser funzionali.

*Tradotto e adattato da: P. Patel, Nanolaser changes color when stretched, special to C&EN, July 2, 2018.

Smaltimento dei fanghi di depurazione. Qualche considerazione conclusiva.

In evidenza

Mauro Icardi

(il precedente articolo di questa serie è qui)

Ritorno sulla vicenda dello smaltimento agricolo dei fanghi di depurazione. Nella letteratura specialistica del settore depurativo, questa tecnica è molto spesso vista come un buon compromesso tra la necessità di trovare una destinazione finale per i fanghi prodotti dai depuratori, e la necessità di compensare la perdita di sostanza organica e fertilità nei terreni agricoli, spesso troppo sfruttati.

La sostanza organica dei fanghi di depurazione contiene una percentuale di sostanza organica molto simile a quella del terreno. Normalmente i fanghi hanno una percentuale di circa il 40% in glucidi. Questa frazione è quella immediatamente disponibile per i microrganismi del terreno, rappresentando la fonte energetica ed alimentare per essi. E’ piuttosto elevato anche il contenuto di sostanze a struttura ligninica, che possono favorire la formazione di humus. Queste sono condizioni che di solito caratterizzano ( o per meglio dire caratterizzavano) i fanghi provenienti da impianti di depurazione con una preponderante componente di acque residue urbane, rispetto a quelle industriali. Col passare degli anni però, la distinzione netta tra uno scarico definito “civile” rispetto ad uno industriale è risultata meno evidente e più sfumata. Questo per una serie di ragioni legate alla diffusione di inquinanti emergenti, che provengono non solo dagli insediamenti industriali, ma anche dalle mutate condizioni dei costumi della popolazione. Il contenuto elevato di metaboliti di farmaci e droghe d’abuso riscontrato nei depuratori consortili ne è un esempio piuttosto evidente.

E giova ricordare che questa situazione è responsabile non solo dell’accumularsi di tali metaboliti nei fanghi di depurazione, ma anche dell’instaurarsi di fenomeni di antibiotico resistenza che sono stati recentemente studiati.

In Italia l’ente nazionale risi ha pubblicato uno studio relativo all’utilizzo dei fanghi di depurazione in    agricoltura che mostrava risultati piuttosto incoraggianti, relativi al periodo 2006-2012.

http://www.enterisi.it/upload/enterisi/pubblicazioni/Miniottietal.4feb2015comp_16405_122.pdf

In effetti un fango di buona qualità può svolgere una serie di azioni positive: fornire dopo la sua mineralizzazione elementi di fertilità, mobilizzare elementi nutritivi già presenti nel terreno, offrire microambienti favorevoli per lo sviluppo dei semi e delle radici.

La vicenda del sequestro di impianti di trattamento dei fanghi di depurazione per uso agricolo ha però modificato profondamente l’accettazione sociale di queste pratiche da parte della pubblica opinione.

Questo per un serie di motivi, alcuni comprensibili, altri meno. Per esempio molti servizi su questa vicenda, sia televisivi che giornalistici avevano un tono sensazionalistico che non giova ad una corretta comprensione del problema. Non ho la pretesa che un giornalista conosca perfettamente la materia, ma che utilizzi quantomeno un atteggiamento più equilibrato.

La normativa nazionale e quelle regionali forniscono precise indicazioni di comportamento per l’utilizzo di queste biomasse di risulta. Per esempio disciplinano la caratterizzazione analitica preventiva. I fanghi destinati all’impiego in agricoltura devono essere caratterizzati preventivamente in modo dettagliato. Tale obbligo spetta al produttore del fango e deve svolgersi per un periodo di almeno sei mesi, con frequenza di campionamento e numero di campioni variabile in ragione della potenzialità dell’impianto espressa in abitanti equivalenti (AE).

Viene definito il grado di stabilizzazione dei fanghi per consentirne l’utilizzo agronomico. Gli indicatori previsti sono: la percentuale di riduzione dei solidi sospesi volatili (SSV),che deve essere compresa nell’intervallo 35-45% o l’età del fango, che deve essere superiore a 30 giorni.

Tutto questo però non basterà probabilmente a rendere questa pratica accettabile, per diverse ragioni, non ultima una sindrome nimby ormai piuttosto diffusa. L’effetto di questa sentenza del Tar della Lombardia è un’incognita attualmente per questo tipo di destinazione d’uso.

Credo che per uscire da questo impiccio sia necessario uno sforzo piuttosto importante e coordinato, a vari livelli. Lo sforzo di razionalizzazione e ammodernamento della gestione del ciclo idrico, il potenziamento degli istituti di ricerca nello stesso settore, e lo sblocco di finanziamenti per mettere in opera l’ammodernamento degli impianti più obsoleti.

Compatibilmente con l’equilibrio economico-finanziario occorre potenziare la dotazione strumentale dei laboratori dei gestori del ciclo idrico. Oltre a questo concentrare ulteriormente l’attenzione sulla gestione del trattamento dei fanghi, già a livello della fase depurativa. Ed essere molto attenti e rigorosi nella gestione di questa sezione. Questa è una mia propensione personale, dedico molto tempo e molto impegno a questo. E’ il punto critico, ma allo stesso tempo quello che più può dare soddisfazioni a livello personale e professionale. Oltre ad essere quello più importante e complesso, ma ricco di sfide tecniche e analitiche da affrontare. Solo in questo modo i depuratori diventeranno le cosiddette “bioraffinerie”.

Gli obiettivi che l’istituto superiore di ricerca sulle acque elenca per il settore trattamento rifiuti e residui di depurazione, devono diventare anche quelli dei gestori:

  • Incrementare il trattamento anaerobico di biomasse, reflui e fanghi tramite la messa a punto e lo sviluppo di tecnologie innovative per massimizzare il recupero di biometano e/o bioidrogeno e di nutrienti
  • Valorizzare sia la componente lipidica (dove significativamente presente) che la componente ligno-cellulosica di biomasse e rifiuti tramite l’ottimizzazione di trattamenti chimici per la produzione di prodotti ad elevato valore aggiunto, con potenziale applicativo in molti settori
  • Sviluppare modelli di simulazione per la valutazione dei potenziali recuperi in termini di energia e/o risorse dal trattamento di fanghi, reflui e rifiuti
  • Minimizzare il rischio per la salute umana in processi di riuso delle acque reflue trattate attraverso un’attenta valutazione del destino dell’antibiotico resistenza e della carica patogena.

Oltre a questo è necessaria la solita opera di informazione capillare. Nel settore idrico è più complesso coinvolgere l’utente in un impegno simile a quello della raccolta differenziata dei rifiuti, magari invitandolo non solo a risparmiare l’acqua, ma anche a contaminarla di meno, ad utilizzare detergenti e materiali di pulizia con oculatezza. Perché si possono produrre rifiuti tossici anche in ambito domestico, anche se probabilmente molti non lo sanno. Le informazioni elementari sul trattamento delle acque, ma in generale l’educazione ambientale deve essere insegnata già ai ragazzi degli ultimi anni delle scuole elementari.

In futuro serviranno cittadini consapevoli, non cittadini impauriti, o ostinati e con poca conoscenza dell’impatto sull’ambiente delle loro scelte personali. Anche di quello che poi si concentra nei fanghi che nessuno vuole, e di cui nemmeno vuol sentir parlare. La politica dovrebbe avere tutti questi temi come prioritari nella propria azione.

Nel 1976, con la promulgazione della legge 319/76, la legge Merli, si aprì un importante capitolo della storia della legislazione ambientale italiana. Oggi serve una nuova normativa per la gestione dei fanghi, possibilmente condivisa tra addetti, ricercatori e fruitori del servizio idrico, se si vuole ipotizzare di continuare ad utilizzare fanghi destinandoli ad uso agronomico in futuro. E allo stesso modo occorrono controlli molto rigorosi sul loro utilizzo. Perché l’ambiente, la chiusura del ciclo delle acque non sia sempre risolta a colpi di sentenze. Non è questa la via da praticare, e che porta risultati concreti. Come si può vedere i controlli si effettuano, gli operatori disonesti vengono perseguiti. Ma poi occorre lavorare seriamente per trovare le soluzioni ai diversi problemi emergenti nel settore depurativo.

Una gestione corretta e rigorosa, una normativa chiara e non controversa, investimenti mirati ed oculati. Tutto questo non può che avere riscontri positivi, sia ambientali, che occupazionali, in un futuro che però dovrebbe essere prossimo, e non lontano nel tempo.

Per dare un’idea di cosa sta accadendo dopo la sentenza lombarda pubblico una breve rassegna stampa.

https://www.toscanamedianews.it/firenze-guerra-dei-fanghi-quattro-discariche-tar-lombardia-ordinanza.htm

http://www.arezzonotizie.it/attualita/smaltimento-fanghi-da-depurazione-civile-1-800-tonnellate-in-arrivo-a-podere-rota/

E’ non fa male ricordare sempre che ““Nulla si distrugge, tutto si trasforma!Antoine-Laurent de Lavoisier

Aggiornamento: come era ampiamente prevedibile, pena il blocco o la messa in grave difficoltà del sistema depurativo, la conferenza Stato Regioni riunita in seduta straordinaria ha trovato l’accordo su un limite di 1000 mg/Kg per il parametro idrocarburi totali, contro il precedente di 10.000 mg/Kg che la delibera della giunta regionale lombarda del Settembre 2017 aveva invece previsto.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/intesa-sui-fanghi-e-adesso-il-decreto-limiti-piu-severi-sugli-idrocarburi-1.17117716

Tutto questo tira e molla nasce come sempre da vuoti normativi, difficoltà di interpretazioni legislative, spesso incoerenti o complicate. Non so se questa soluzione soddisferà i comuni pavesi che erano ricorsi al Tar e l’opinione pubblica. Temo che questo sia solo un’altra puntata di una presumibile lunga telenovela.

Nel frattempo la regione Lombardia prepara il ricorso al Consiglio di Stato contro la sentenza per rivendicare la legittimità a deliberare in campo ambientale.

Aspettando che il decreto legislativo diventi operativo la situazione è ovviamente ancora critica.

http://laprovinciapavese.gelocal.it/pavia/cronaca/2018/08/02/news/miasmi-depuratori-al-limite-resisteremo-venti-giorni-1.17117722

Non dovrebbe essere più il tempo dei litigi. Il ciclo idrico deve essere profondamente riformato, e bisogna passare a fatti concreti. Acque reflue e fanghi non possono essere visti come un problema emergenziale, ma necessitano, lo ripeto di investimenti, di opere di ammodernamento. L’Arera (autorità di regolazione per energia, reti e ambiente) ha varato il ‘metodo tariffario’, che consente di calcolare gli effetti economici delle scelte industriali. La multa dell’UE all’Italia, da 25 milioni di euro forfettari, più di 164 mila euro al giorno per ogni semestre di ritardo fino all’adeguamento – riguarda la mancata messa a norma di reti fognarie e sistemi di trattamento delle acque reflue in alcune aree del nostro Paese.

L’adeguamento deve essere una priorità. Senza ulteriori incertezze e tentennamenti. Si è perso già troppo tempo.

Le Olimpiadi della Chimica, qualche commento.

In evidenza

Claudio Della Volpe

In questi giorni si sono concluse le 50esime olimpiadi della Chimica, nella stessa città che ne vide i natali 50 anni fa, Praga, associata con Bratislava; 50 anni fa la Cecoslovacchia era un solo paese, mentre oggi è divisa nei due paesi Repubblica Ceca (capitale Praga) e Slovacchia (capitale Bratislava).

Non ho ancora i risultati finali se non la (consentitemi un commento: un po’ enfatica) comunicazione interna della SCI di pochi giorni fa:

Cari Soci il capo delegazione alle Olimpiadi Internazionali della Chimica, il Past-President Raffaele Riccio mi ha appena comunicato i risultati della nostra squadra e sono lusinghieri in quanto TUTTI i nostri studenti hanno vinto una medaglia!

Daniele Furlanetto  (Veneto), Giovanni Pellegrino (Puglia) e Luca Spagnoletti (Liguria) si sono aggiudicati la Medaglia di Bronzo, mentre Filippo Bigi (Emilia Romagna) ha ripetuto l’impresa dello scorso anno vincendo per la seconda volta la Medaglia d’Argento!

Devo dire che le Olimpiadi della Chimica non mi hanno mai molto entusiasmato per motivi che vi dirò in questo post. Ma prima vorrei con voi riepilogare le regole e i risultati di questa iniziativa che si svolge ormai da così tanto tempo e per la quale converrebbe forse fare una riflessione più approfondita.

Si tratta di una competizione internazionale, proposta inizialmente da 3 paesi al di là della cosiddetta Cortina di Ferro, e che si è estesa nel tempo e alla quale partecipano studenti di molti paesi del mondo, ma mai più della metà dei paesi (i paesi della Terra sono 196 e i partecipanti sono stati al massimo una novantina); ci sono delle selezioni preliminari in tutti i paesi partecipanti che coincidono di fatto con i Giochi della Chimica e le squadre prescelte partecipano poi ad una serie di prove teoriche e pratiche nel paese prescelto; i punteggi sono individuali e sono ripartiti fra risultati nelle prove pratiche e teoriche con un massimo di 100.

I premi vengono assegnati con i seguenti criteri:

http://www.ichosc.org/documents-of-the-icho/regulations

(1)        The best 10% to 12% of all competitors receive gold, the next 20% to 22% silver, and the following 30% to 32% bronze medals.

(2)        An honorable mention is received by non-medalists who are in the best 70 to 71% of all competitors.

(3)        The exact number of recipients for each award is determined automatically to yield the largest possible difference in the marks of students receiving different honors. In the case of identical differences, the one resulting in more medals will be selected.

(4)        Each medalist must receive the medal and a corresponding certificate from the organizer.

(5)        In addition to the medals other prizes may be awarded.

(6)        Each competitor receives a certificate of participation.

(7)        In the awarding ceremony, the non-medalists are called alphabetically.

(8)        Team classification is not made.

(9)        The organizer must provide a complete list of results as a part of the final report.

Di fatto dunque circa il 66% dei partecipanti riceve COMUNQUE una medaglia, 2 su 3, comunque vadano le cose vengono premiati; su 100 partecipanti di una ipotetica competizione 66 verrebbero premiati; i primi 10-12 riceverebbero una medaglia d’oro, dal 13esimo fino al 32esimo classificato una d’argento e da lì al 66esimo una di bronzo.

Sono regole discutibili ma queste sono. Non so quali altre tipologie di gare abbiano regole che assicurano una medaglia ai 2/3 dei partecipanti, ma ripeto così è. I partecipanti vinceranno statisticamente nel 66% dei casi una medaglia.

Quali sono stati i risultati nel tempo?

Non è banale recuperarli completamente perchè le graduatorie complete con i punteggi divisi fra teoria e pratica sono solo sui siti dei paesi che le hanno indette mentre sul sito internazionale si trovano dei riassunti parziali; capita quindi, per esempio, che i risultati dettagliati dello scorso anno in Thailandia non siano al momento disponibili.

Tuttavia possiamo usare i riassunti di ICHO che è la organizzazione internazionale interessata.

Alcuni risultati complessivi degli ultimi 49 anni li trovate elencati qui:

Italia  Gold medal: 7. Silver medal: 30. Bronze medal: 57. Honorable mention: 12

Germania (riporto separatamente le due germanie di cui una quella democratica non esiste più dal 1989)

Gold medal: 43. Silver medal: 67. Bronze medal: 49. Honorable mention: 9

Gold medal: 9. Silver medal: 12. Bronze medal: 20. Honorable mention: 7

 

Francia  Gold medal: 6. Silver medal: 42. Bronze medal: 68. Honorable mention: 5

 USA Gold medal: 36. Silver medal: 63. Bronze medal: 33. Honorable mention: 1

Paesi bassi  Gold medal: 7. Silver medal: 18. Bronze medal: 78. Honorable mention: 9

Austria   Gold medal: 23. Silver medal: 58. Bronze medal: 59. Honorable mention: 4

UK   Gold medal: 9. Silver medal: 56. Bronze medal: 65. Honorable mention: 1

 Cina   Gold medal: 89. Silver medal: 27. Bronze medal: 4. Honorable mention: 0

 Come vedete i nostri risultati non sono eccezionali anche se occorre dire che partecipiamo dal 1980, dunque ci siamo persi 12 anni di gare. Quattro partecipanti italiani alla volta per un totale di 136 partecipanti hanno meritato in totale 94 medaglie (alcuni anni non abbiamo partecipato), il che ci dice che le nostre performances totali sono 94/136=0.69, poco al di sopra della casualità (0.66 in media se siamo bravi nella media) , come risultati totali.

Ancor più facciamo un esempio dettagliato: anche nel 2016 tutti e quattro gli studenti si sono piazzati, ma l’ordine di arrivo è stato: 63esimo e 70esimo (med. Argento), 151esimo bronzo, e 178esimo, menzione.

Volete un confronto impietoso?

La Germania “Federale” ha mandato in totale 160 studenti e ha avuto 159 medaglie, praticamente tutti gli studenti hanno vinto una medaglia.

La Cina partecipa dal 1987, ha mandato 128 studenti che in 120 casi hanno vinto una medaglia, ossia nel 94% dei casi.

La Cina ha vinto solo una volta il Nobel in Chimica come noi, ma le sue vittorie alle Olimpiadi fanno ben sperare per il futuro.

I risultati dettagliati non  sono esaltanti né rispetto a paesi di dimensioni comparabili come Inghilterra o Francia, ma nemmeno a paesi più grandi e con enorme interesse industriale nella Chimica come Germania, Usa e Cina, ma non lo sono nemmeno rispetto a paesi nostri immediati vicini come l’Austria che sono ben più piccoli di noi come popolazione (ma che vantano però 6 Premi Nobel in Chimica rispetto alla nostra singola vittoria). L’Austria ha mandato 156 studenti e ha vinto 140 medaglie, 9 studenti su 10 hanno vinto.

Diciamo che i risultati di quest’anno con tutti gli studenti italiani che hanno vinto una medaglia sono quello che altri paesi fanno dal primo momento. Bene, molto bene, ma era anche ora.

Anche perchè la nostra ultima medaglia d’oro risale al 1999, quindi ad ormai 19 anni fa.

Attenzione il grafico sotto è indicativo; i singoli punti sono esatti, mentre le zone individuate lo sono “a senso”, i confini fra le zone medaglie sono imprecisi.

Il grafico mostra quel che dicevo prima: incremento del numero di partecipanti mondiali con espansione delle posizioni possibili nel tempo,  medaglie d’oro italiane azzerate da 20 anni, argenti e bronzi si sono consolidati ma con notevoli alternanze e le nostre posizioni attuali tipiche in graduatoria sono fra la 50esima e la 200esima posizione assoluta. Per arrivare sotto la 50esima dobbiamo tornare indietro di quasi 10 anni. Mentre per vincere un oro occorre arrivare sotto la 30esima. Questi i nudi numeri.

Ora dopo 50 anni è da chiedersi: queste gare che senso hanno, a che servono, che indicazioni danno?

Anzitutto sono importanti perchè in qualche modo mostrano l’interesse crescente nei confronti della Chimica, quindi ben vengano; anche la partecipazione dei giovani in quanto tale è importante, sono l’avanguardia di una massa di altri studenti che rappresentano la Chimica nei loro paesi. Tuttavia diciamo anche che mancano molti paesi; tutti i paesi poveri non ci sono ancora; paesi dell’Africa o dell’America Latina sono assenti e non c’è stato interesse finora  a superare questo gap.

Inoltre c’è la questione di come si fanno le gare, di come ci si prepara alle gare; alcuni amici che insegnano dicono che di fatto c’è una situazione di “drogaggio” degli studenti; chi partecipa viene seguito da noi e ancor più in altri paesi moltissimo sulla Chimica a cui dedica tantissime energie, ma trascurando le altre cose, dunque è una preparazione non standard, ma finalizzata alla partecipazione alle olimpiadi; fra l’altro questo cambia anche i contenuti che divengono anno per anno più specialistici, secondo alcuni perfino nozionistici, a volte da ricerca vera e propria. Che significa questo? Chi ne trae vantaggio? Quegli studenti? Gli altri? La scuola tutta?

Non credo; diventa come in altri campi una competizione fine a se stessa, che non misura lo stato della situazione media dei giovani e nemmeno dei più bravi fra di loro, ma è solo una  misura delle risorse umane ed economiche spese nella competizione, invece che nella didattica e nella divulgazione della Chimica. Ma allora se le cose stessero così veramente ci sarebbe da cambiare l’organizzazione delle Olimpiadi della Chimica. (E anche di altre materie credo). Non abbiamo bisogno di fare altre graduatorie per farci belli dei risultati (basati peraltro su uno scalino economico) ma di portare avanti quanti più giovani possiamo e rendere la chimica veramente di tutti, per tutti, in tutti i paesi del mondo. Se no ripeto a che servono le Olimpiadi della Chimica?

E’ un augurio che faccio e lo faccio ringraziando chi si impegna e anche i giovani che hanno ottenuto i risultati, ma sottolineando che occorre cambiare impostazione.

L’anno prossimo sarà l’anno internazionale della tavola periodica; quale migliore occasione di fare diversamente le olimpiadi della Chimica?

Siti.

http://www.icho-official.org/results/organizers.php

Ciclo dell’acqua: il problema dello smaltimento del fango residuo.

In evidenza

Mauro Icardi

Lo scorso 27 Aprile ho scritto un post riguardante la controversa e discussa situazione del recupero agricolo dei fanghi di depurazione.

https://ilblogdellasci.wordpress.com/2018/04/27/nulla-si-distrugge-tutto-si-trasforma/

Ho tentato di dare le informazioni essenziali relativamente ad un problema appunto delicato. Lo scorso 20 Luglio la terza sezione del Tar della Lombardia, ha accolto il ricorso di una cinquantina di comuni del pavese e del lodigiano contro la delibera regionale n. 7076 dell’11 settembre 2017 con cui la Regione Lombardia aveva modificato i parametri relativi all’utilizzo dei fanghi da depurazione delle acque reflue degli impianti civili ed industriali in agricoltura. Le sentenze ovviamente si rispettano, così come le legittime istanze dei proponenti. Ma in questo momento viste le limitazioni di parametro per i parametri relativi agli idrocarburi C10-C40, che era stato fissato in 10.000 mg/kg ss, e di 50 mg/kg per i parametri Nonilfenolo e Nonilfenolo mono e dietossilato esse rendono di fatto impraticabile questa destinazione per i fanghi prodotti dai depuratori.

Questi limiti non sono sempre superati, ma anche a livello analitico, data la matrice particolarmente difficile i valori che si ottengono, sia da laboratori interni, che da laboratori esterni sono decisamente “ballerini”.

Ma qualche considerazione deve ovviamente essere fatta. Per il momento solo alcune considerazioni sugli effetti immediati di questa decisione, dal punto di vista gestionale ed operativo. Successivamente dopo una lettura ulteriore della sentenza del tar, potrò ulteriormente approfondire altri aspetti di questa vicenda ,che come è intuitivo non è possibile trattare in un solo articolo, data la complessità.

Per altro, la sensazione che si sarebbe arrivati ad un ulteriore stop l’avevo da tempo. E così effettivamente è stato.

In ogni caso le prime reazioni non si sono fatte attendere, basta fare una breve rassegna stampa.

http://iltirreno.gelocal.it/grosseto/cronaca/2018/07/25/news/fanghi-stop-all-invio-in-lombardia-costi-di-smaltimento-verso-l-impennata-1.17093767

Per quanto riguarda la situazione che vivo personalmente posso tranquillamente dire che, oltre all’aspetto prettamente economico, anche dove lavoro siamo al momento in piena emergenza.

La priorità sarà quella di trovare nuovi poli di smaltimento con probabile aumento dei costi, e nello stesso tempo la necessità di garantire un funzionamento accettabile degli impianti da gestire, cercando di rispettare i valori di parametro richiesti. Non è una situazione nuova. Si è già presentata altre volte. Vedremo come affrontarla.

Probabilmente dato anche il periodo di prevedibile diminuzione di carico e di portata influente, riusciremo a non peggiorare la qualità delle acque in uscita. Non così potrebbe essere per impianti soggetti a fluttuazioni di portata e di carico, come quelli toscani, dove la popolazione aumenta durante il periodo estivo per l’arrivo dei turisti.

Nei prossimi giorni dovrò lavorare su impianti in cui giorno dopo giorno la concentrazione di fanghi probabilmente crescerà, fino a raggiungere valori non usuali. Dove lavorare sarà difficoltoso.

Si lavora agevolmente con concentrazioni di fango di due, tre, quattro grammi litro. Si può arrivare anche a quaranta (ed è capitato, lo posso garantire). Ma a quel punto sulle vasche devi usare non la mascherina, ma la maschera antigas, altrimenti (ed è capitato anche questo in passato ad un collega), su quelle vasche, con il caldo ci puoi svenire. E a quel punto tutti i parametri di controllo (ossigeno disciolto, carico del fango, età del fango) non hanno di fatto più nessun significato reale. E gli effetti di eventuali eventi di forte pioggia saranno decisamente peggiorativi della qualità delle acque. Solo impianti con la possibilità di utilizzo di vasche di accumulo risentiranno meno di questa situazione.

Probabilmente non si arriverà a questi estremi. E’ la mia speranza. I fanghi prodotti dai depuratori non sono un invenzione. Le stime IRSA CNR prevedono per il 2020 che la quantità prodotta si dovrebbe attestare su valori di un milione e cinquecentomila tonnellate/anno di sostanza secca. Questo è quanto si produce dal trattamento delle acque che usiamo. I poli di smaltimento dei fanghi al momento sono quelli usuali: discarica, incenerimento con recupero energetico, incenerimento in cementifici, recupero in agricoltura. A condizione però che su quest’ultima attività si lavori molto seriamente sia per l’emanazione di una nuova normativa, sia che siano studiati in maniera particolarmente approfondita gli effetti reali di questa pratica.

Allo stato attuale praticamente tutti depuratori hanno ancora una sezione di ossidazione biologica. L’eventuale revamping di tutti i depuratori tradizionali non è sensatamente praticabile, ed è un incognita per quanto riguarda i costi. Quindi per il momento i fanghi devono trovare una collocazione, pena il blocco del sistema depurativo.

L’acqua pubblica, l’acqua diritto universale ha bisogno di scelte reali. Condivise, controllate, trasparenti, ma reali. Non servono né tentennamenti, né demagogie. Serve condivisione, con gli utenti per primi. Servono sinergie tra enti di ricerca, università, aziende. Normative chiare e fruibili. Tutto quello che succede nei soliti paesi virtuosi (Olanda, Francia, Svezia). Quindi non è utopia.

Ma nel frattempo la realtà è questa.

http://www.greenreport.it/news/economia-ecologica/acqua-allitalia-185-milioni-euro-multe-un-anno-la-mancata-depurazione/

Non è cosi ovviamente in tutte le realtà. Ma la situazione di chiaroscuro esiste.

Così come non da anni, ma da decenni sentiamo dire che per l’acqua potabile continuano le dispersioni.

http://www.cnrweb.tv/dispersa-nel-suolo-il-40-dellacqua-della-rete/

Negli anni 80 la rivista “Airone” proponeva un new deal ambientale. Ne ho la memoria precisa.

Credo che sarebbe il caso di prenderla in considerazione.

Prima della chiusura devo riparare ad una omissione (ovviamente non voluta) che è relativa all’articolo precedente a questo. Nella parte iniziale parlavo della scomparsa del tema acqua dalle prime pagine dei giornali. Ma in effetti ho dimenticato di citare il continuo lavoro di divulgazione che da anni porta avanti Luca Mercalli. Del suo programma “Scala Mercalli” sciaguratamente chiuso dove un’intera puntata della seconda serie era dedicata all’acqua, alle pillole che vengono trasmesse su Rainews 24, ed agli articoli che scrive sul terzo quotidiano nazionale “La Stampa.” Piccolo ricordo personale, senza intenzione di ruffianeria o piaggeria. Un pranzo insieme a Cremona, dopo una sua conferenza, nel quale abbiamo parlato insieme della necessità futura di parlare dell’acqua, come in effetti poi è stato. Questo è il mio personale ringraziamento.

Prima di chiudere devo anche fare un’altra citazione. E la citazione riguarda il collega di redazione Giorgio Nebbia, che so essere decisamente persona riservata. Ma avevo già citato questa sua frase in uno dei miei primi articoli. Giorgio mi scuserà se la ripropongo.

mi rendo conto che può sembrare non gratificante dedicarsi all’analisi e allo studio dei liquami zootecnici o dei reflui degli impianti di depurazione urbana, anche se si tratta, solo in Italia, di alcuni miliardi di metri cubi all’anno, da cui potrebbero essere ricavate altre soluzioni forse non potabili, ma utilizzabili in agricoltura (e, con un po’ di furbizia, anche come fonti di metano). La chimica modesta è spesso molto utile per il, paese.

Da domani al lavoro inizieremo la ricerca di nuovi poli di smaltimento. Io ho già preso contatto con due amici di lunga data con cui collaboro, e che lavorano nel settore. Se otterrò la necessaria autorizzazione in tempi sufficientemente rapidi utilizzeremo un impianto pilota per prove di trattamento terziario sia su acqua che su fanghi di depurazione. Lo scopo è quello di verificare la possibilità concreta di abbattimento di POP (persistent organic pollutant),che era lo scopo primario, e di verificare a questo punto anche la possibilità della riduzione delle quantità di fango di supero da avviare in fase di digestione anaerobica. La tecnica utilizzata prevede l’ossigenazione spinta del refluo tramite effetto idraulico venturi, combinata con l’iniezione di un ossidante, che può essere aria, ossigeno puro, oppure ozono.

Da queste eventuali prime valutazioni si potrebbe (per meglio dire dovrebbe) verificare l’applicabilità diretta sull’impianto. Il futuro del trattamento delle acque è indubitabilmente legato all’estensione dei trattamenti terziari. I quali però devono avere due caratteristiche: la sostenibilità economico/energetica, e le dimensioni contenute per la riduzione dei costi di ampliamento dei depuratori esistenti.

Nel frattempo è auspicabile che la querelle legata allo smaltimento dei fanghi di depurazione, che attiene con tutta evidenza al settore rifiuti trovi adeguata attenzione. Sia dal punto di vista normativo che da quello di ricerca scientifica. Il tutto associato ad un’attività capillare di controllo sulle attività di recupero e smaltimento dei fanghi.

Altrimenti non esisteranno alternative praticabili. E i rifiuti resteranno tristemente uno dei business della criminalità organizzata, o di operatori senza scrupoli. E questa è una situazione che non dobbiamo più ritenere normale o accettabile.

Acqua su Marte.

In evidenza

Luigi Campanella, già Presidente SCI

L’acqua è di certo il composto più studiato.

Non c’è branca della Scienza che non abbia fatto i conti con questa piccola molecola,importante per la vita,essenziale per l’alimentazione,fortemente correlata con storia,archeologia,clima. Dal punto di vista strettamente chimico si caratterizza per la presenza contemporanea di diversi tipi di legame fra l’idrogeno e l’ossigeno, ma è soprattutto il suo ruolo nei processi alla base della vita che da un lato affascina e dall’altro ne esalta il valore economico a danno dei più deboli meno ricchi di risorse. La presenza dell’acqua per quanto detto è da sempre stata correlata alla possibilità di vita nei sistemi che la contengono. La recente conclusione di una ricerca in atto da tempo circa la presenza di questo composto su Marte ha rappresentato una definitiva conferma di quanto in altre occasioni e sedi è stato ripetutamente ipotizzato.

In questo ultimo caso la ricerca si deve a Giovanni Picardi scomparso 3 anni fa ed alla collaborazione fra CNR, INAF, ASI e Università. Rispetto a precedenti contributi questo contiene una importante novità: il bacino idrico (assimilabile ad un lago terrestre) su Marte si trova ad una profondità di 1500 metri (sotto i ghiacci di CO2 del polo Sud) quindi al riparo dalle radiazioni e, soprattutto, in ambiente compatibile con la vita dei batteri che potrebbero funzionare da preziosi testimoni di una vita che al suolo si è estinta.

La scoperta è stata resa possibile utilizzando l’eco delle onde lanciate dal radar MARSIS che equipaggia la sonda europea MARS Express decollata da Bajkonur ben 15 anni fa, in volo orbitale fino a 250 km di altezza dalla terra di Marte. Marsis è dotato di due antenne che grazie allo spettro di frequenze disponibili sono in grado di raccogliere segnali che provengono da una profondità massima di 5 km. Le temperature dovrebbero fare ipotizzare che l’acqua fosse allo stato solido,contrariamente ai dati della ricerca che invece la definiscono allo stato liquido, quindi caratterizzata da un abbassamento crioscopico dovuto alla presenza nell’acqua di sali (forse clorato di potassio).

Parlando di acqua su Marte non si può omettere un ricordo di Giovanni Schiaparelli che credette di individuare canali scavati un tempo dall’acqua su Marte e della missione Exomars che permise di trapanare il suolo di Marte fino alla profondità di 2 m anche in quell’occasione con lo scopo primario di evidenziare la presenza di acqua e,correlata ad essa,di vita sul pianeta Marte. Queste accresciute conoscenze sono la base per programmare ulteriori spedizioni spaziali,ma anche per collegare il presente di Marte con il futuro della nostra Terra,se non sapremo rispettare le sue risorse.

Polo Sud di Marte nel 2000; è costituito di strati di CO2

Amminoacidi ferroviari.

In evidenza

Ilaria D’Acquarica*

Qualche giorno fa mi trovavo sul treno “Italo” diretto a Verona Porta Nuova e, per la prima volta, ho cominciato a sfogliare, per la verità un po’ annoiata, la rivista distribuita gratuitamente ai viaggiatori, che la Società fa trovare già alla partenza del treno nella tasca della poltrona del passeggero davanti. Mi imbatto per caso nel messaggio promozionale di un integratore alimentare, dove campeggia la frase “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”.
L’espressione “sintesi aminoacidoica” mi comincia a girare per la testa e non riesco a smettere di pensarci. Leggo tutto l’articolo, dal quale apprendo che si tratta di compresse contenenti otto amminoacidi essenziali, indicate nei casi di ridotto apporto o di aumento del loro fabbisogno. Nulla da eccepire, ovviamente, sulla composizione chimica e sull’effetto che le compresse esplicano, specialmente se confrontati con altre formule amminoacidiche già in commercio. Quello che proprio non riesco a digerire è quell’aggettivo (aminoacidoica) che non ho davvero mai sentito o letto in nessun libro. E comunque, affermare che gli amminoacidi essenziali facilitano la sintesi amminoacidica mi lascia un po’ perplessa, semmai possono avere effetti sulla sintesi proteica.
Allora decido di contattare immediatamente la ditta produttrice dell’integratore, dal treno su cui mi trovo; se aspettassi di arrivare a destinazione, di sicuro mi dimenticherei di tutta questa storia. Con lo smartphone scrivo una e-mail a una casella di posta elettronica riportata sul sito web della ditta, segnalando che, molto probabilmente, quel termine “aminoacidoica” non è corretto e che, forse, intendevano “amminoacidica” (tra l’altro, con due emme, come dovrebbe essere sempre riportato in italiano, anche se in inglese il termine corrispondente è “amino”).
Appena premo “invia” sulla tastiera dello smartphone mi pento di quello che ho fatto. Forse sono stata troppo precipitosa, sarebbe stato meglio lasciare perdere, tanto ormai la rivista è stata stampata e distribuita su tutti i treni di Italo. E poi, mi potrei sbagliare.
Il tempo di arrivare da Roma a Verona e ricevo una e-mail di risposta dalla ditta produttrice dell’integratore con le testuali parole: “Buongiorno. Lei ha perfettamente ragione. La ringraziamo immensamente per la segnalazione e speriamo che non ci succeda più”.
Sono rimasta senza parole. Avrei preferito che mi rispondessero che il termine, seppure obsoleto, è comunque corretto o che c’è stato un refuso editoriale di cui si scusavano. La constatazione “ha perfettamente ragione” non me l’aspettavo. Perché, se è così, mi chiedo come sia possibile che nessun chimico, di tutto lo staff, non se ne sia accorto prima della pubblicazione. E, soprattutto, mi chiedo il motivo della leggerezza che sempre più spesso mi capita di constatare nella presentazione e promozione di integratori alimentari o similari.
Se adesso ci si collega al sito web della ditta produttrice si legge che le stesse compresse, che prima garantivano una “SINTESI NETTA AMINOACIDOICA AL 99% IN SOLI 23 MINUTI”, adesso esplicano il seguente effetto: “ASSORBIMENTO E SINTESI NETTA PROTEICA AL 99%”. Che sia partito tutto dal mio ignaro smartphone?

* Ilaria D’Acquarica, prof. Associato di Chimica organica Dipartimento di Chimica e Tecnologie del Farmaco , Università di Roma “La Sapienza” – Si occupa di fasi e sostanze chirali e riconoscimento enantioselettivo in fase gassosa.

Naso e lingua sono stereoselettivi.

In evidenza

Claudio Della Volpe.

Non è una novità dirlo o sentirlo, ma se si approfondisce la cosa allora questa abilità dei nostri sensi e di quelli degli animali, primi fra tutti gli insetti, ma anche tanti animali superiori, appare in tutta la sua meraviglia.

Due molecole enantiomere sono di fatto due diverse molecole, non sovrapponibili ma specularmente simmetriche e dunque il fatto che si possa in qualche modo distinguere fra di esse non è scioccante per un chimico; ma che lo possano fare in piena autonomia tessuti e recettori biologici ha profonde implicazioni non ancora completamente comprese.

Non è l’unico caso di molecole la cui distinzione è “sottile”; tempo fa parlammo degli effetti legati allo stato di spin del nucleo.

La scoperta della stereoselettività dei recettori biologici è tutta italiana e risale ad un momento in cui il concetto stesso di recettore biologico non esisteva; e la scoperta contribuì al suo sviluppo.

Nel 1886, Arnaldo Piutti (Cividale del Friuli, 23 gennaio 1857 – Conegliano, 19 ottobre 1928) un chimico italiano trovò che mentre la D-asparagina ha un sapore dolce la L-asparagina è insipida, senza sapore (Una nuova specie di asparagina, in Gazzetta chimica italiana, XVI (1886), a proposito ma quando avremo la Gazzetta online?). L’asparagina è un amminoacido polare e non essenziale.

D- asparagina

L-asparagina

Aveva ottenuto 100 g di D-asparagina da 6500 kg di vecce (Vicia sativa) attraverso un ingegnoso metodo estrattivo (per cristallizzazione frazionata dalle acque madri di estrazione della L-asparagina) e stabilì che la D- non discendeva dalla racemizzazione della L- durante l’estrazione. Fu la prima volta che si trovò un esempio così chiaro di stereoselettività biologica, circa 15 anni prima che il concetto stesso di recettore venisse pienamente compreso. Si trattò di una vera e propria pietra miliare che destò l’interesse dei più importanti chimici del mondo come Louis Pasteur e Arthur Cushny.

Piutti è stato sostanzialmente dimenticato, ma aveva avuto una carriera piena e di ottimo livello e la comunità degli sterochimici oggi dovrebbe rivalutarne maggiormente la figura.

Dopo essersi laureato in chimica presso l’Università di Torino nel 1879, fu per un anno assistente di fisiologia diretto da Angelo Mosso e successivamente in quello di chimica farmaceutica diretto da Icilio Guareschi. Aiuto di Ugo Schiff a Firenze fra il 1881 ed il 1886, vinse la cattedra di chimica farmaceutica all’Università di Sassari. Nel 1888 passò alla medesima cattedra della Università di Napoli dove fondò l’Istituto di chimica farmaceutica. Il 22 agosto 1890 venne affiliato in Massoneria col grado di Maestro nella Loggia La vittoria di Napoli. Socio nazionale dei Lincei dal 1922.

Durante le ricerche per stabilire la posizione del gruppo amminico nell’asparagina (1886) riuscì ad effettuare la composizione di un composto aromatico (trimesitato trietilico) partendo da sostanze alifatiche. Ci riuscì studiando la sintesi dell’acido aspartico per riduzione con amalgama di sodio dell’ossima dell’etere ossalacetico.

Ottenne, inoltre, per azione dell’ammoniaca su uno dei due aspartati monoetilici che aveva preparato, i due antipodi di un’asparagina identica a quella naturale (1887). Sintetizzò anche l’asparagina da anidride maleica ed ammonica e dall’anidride citraconica la glutammina.

Nel 1913 riuscì a dimostrare che il lupino produce sia la destro che la levo-asparagina e che la prima è più favorita con una germinazione al buio, per poi scomparire col progredire della germinazione. Dedicò studi anche ai gas nobili ed alla radioattività dei minerali del terreno vesuviano. (da Wikipedia)

Sebbene ci siano variazioni individuali oggi è accettato che ci siano differenze chiare di sapore fra gli enantiomeri di vari composti. Per esempio:

N-L-R-aspartil-L-fenilalanina (o aspartame) ha un sapore dolce molto spiccato; mentre l’enantiomero DD è amaro.

L-glutamato monosodico, MSG, ha un caratteristico sapore “umami” (saporito), mentre l’enantiomero D non lo ha.

Ancora più intrigante la situazione nell’ambito dell’olfatto.

Probabilmente molti lettori conoscono il caso del carvone.(R)-5-Isopropenil-2-metil-2-cicloesenone

Il carvone esiste come due enantiomeri: l’R-(–)-carvone, che profuma come foglie di menta, e la sua immagine speculare S-(+)-carvone, il quale odora di semi di cumino. Il fatto che i due enantiomeri vengano percepiti in modo diverso è prova che nel sistema olfattivo ci sono dei recettori “chirali”, ossia che permettono una risposta diversa a seconda dell’enantiomero che percepiscono, cosa che non accade comunque per tutte le coppie di enantiomeri presenti in natura.

A questo proposito un altro esempio veramente intrigante è quello dell’alfa pinene.

L’alfa-pinene è un terpene con un anello a quattro membri e dunque tensionato e molto reattivo; queste molecole si trovano in varie piante in diverse combinazioni e dominanze e sono uno dei tre casi in cui il nostro naso riesce a ben discriminare fra le due varianti secondo un classico lavoro di Laska e Teubner. In quel medesimo lavoro si trovarono altri due casi di molecole enantiomere fra le quali il nostro naso riesce a discriminare efficacemente che sono il limonene e il carvone di cui abbiamo già parlato.

Chi è interessato a maggiori dettagli può fare riferimento alla letteratura citata sotto; la domanda importante è: come fa il nostro organismo e in generale come fanno i recettori biologici a discriminare in modo così fine fra molecole enantiomere?

Non c’è una risposta semplice, a parte l’ovvia idea data dal concetto chiave-serratura, tipico delle interazioni enzimatiche.

La conclusione di Laska e Teubner è che la discriminazione non sia generale ma dipenda nei fatti dal caso specifico preso in considerazione e dunque da uno specifico recettore, probabilmente con finalità a loro volta specifiche.

L’effetto sul recettore nasale non è disgiunto da altri effetti fisiologici; per esempio l’ anfetamina (1-metil- 2-feniletilammina) o amfetamina, che coinvolge un atomo di azoto attaccato al centro chirale: l’ (R)-(-) enantiomero mostrato qui sotto ha un odore di ammuffito

mentre l’ (S)-(+) enantiomero mostra un odore fecale ed è molto più efficace sul sistema nervoso centrale L’anfetamina è dunque enantioselettiva sia rispetto alla fisiologia che all’odore. In questo caso questa differenza di odore era conosciuta ben prima della sua analisi scientifica ma fu ritenuta non significativa.

Nella review qui sotto citata di Bentley ci sono moltissimi esempi di differenze di percezione in altri animali diversi dall’uomo dedotte dagli effetti fisiologici dell’odore della sostanza, sia per gli insetti che per le specie superiori; in realtà il campo degli odori e dei sapori e del ruolo relativo della enantiomeria è ancora da approfondire.

Al momento la cosa generale sembra che diverse specie abbiano in genere capacità diverse e specifiche di discriminazione enantiomerica e che questa diversa percezione possa presentarsi come effetti diversi dei due enantiomeri ma anche semplicemente come effetti validi solo per uno degli enantiomeri; ancora più complesso il caso di molecole con più centri chirali e anche delle interazioni fra specie chirali diverse mescolate in rapporti diversi dal racemo, con effetti di inibizione a volte anche per piccole aggiunte il che spiega l’importanza della purezza. Ci sarebero molte altre cose da dire per esempio le tecniche di analisi cromatografica che consentono di distinguere fra gli enantiomeri, ma avremo tempo in futuro a meno che qualche volenteroso collega più esperto di me non voglia contribuire.

Concludo lamentandomi di non conoscere il polacco perchè a senso mi pare che l’articolo in polacco contenga molti esempi interessanti.

Riferimenti.

Chem. Rev. 2006, 106, 4099−4112 Ronald Bentley The Nose as a Stereochemist. Enantiomers and Odor

cHeMik 2014, 68, 2, 83–90 in polacco

CHIRALITY 24:959–976 (2012) JOSEPH GAL The Discovery of Stereoselectivity at Biological Receptors: Arnaldo Piutti and the Taste of the Asparagine Enantiomers—History and Analysis on the 125th Anniversary

Voce Chirality di Meyers – Encyclopedia of Molecular Cell Biology and Molecular Medicine 16 volumes(2006, Wiley) 2 vol pag. 579 e sgg

Chem. Senses 24: 161–170, 1999 Olfactory Discrimination Ability of Human Subjects for Ten Pairs of Enantiomers, Matthias Laska and Peter Teubner

Scienziate che avrebbero potuto aspirare al Premio Nobel: Julia Lermontova (1846-1919)

In evidenza

Rinaldo Cervellati.

Julia (Yulija) Vsevolodovna Lermontova, una fra le tante “migranti della conoscenza” di cui abbiamo parlato nel recente post, è stata la prima donna russa a ottenere il dottorato in chimica e la terza donna europea a raggiungere il traguardo del dottorato [1,2].

Julia nacque a San Pietroburgo il 21 dicembre 1846 da Elisawjeta Andrejevna Kossikovsky e Vsevolod Lermontov della famiglia aristocratica Lermontov. Passò l’infanzia e la prima giovinezza a Mosca dove il padre era generale del Primo Corpo dei Cadetti della capitale russa, una istituzione finanziata dal governo per la formazione di ufficiali e specialisti dell’esercito. I genitori facevano parte dell’intelligentsia russa e l’educazione dei figli era la loro priorità. Julia ricevette quindi una buona istruzione di base da tutori privati. Influenzata dalle correnti “nichiliste”, i suoi interessi si rivolsero alle scienze e, benché i genitori non capissero questi interessi, non la ostacolarono e Julia ebbe accesso alla letteratura specializzata e il permesso di compiere esperimenti in casa.

Julia Lermontova

Nonostante l’interessamento di scienziati come Dmitri Mendeleev[1], Lermontova non riuscì a farsi ammettere come uditore all’Istituto di Agricoltura e Silvicoltura di San Pietroburgo (il massimo cui avrebbe potuto aspirare come donna), noto per i suoi eccellenti programmi di chimica.

Insieme all’amica (e futuro matematico) Sofia Kovalevskaja si recò, nel 1869, all’Università di Heidelberg. Dopo molti tentativi, principalmente da parte della più tenace Kovalevskaja, le fu permesso di seguire le lezioni di Robert Bunsen[2], Gustav Kirchoff[3] e Hermann Kopp[4]. Ottenne anche un posto, come studente privato, nel laboratorio di Bunsen. Sollecitata da Mendeleev, con il quale manteneva un’intensa corrispondenza, apprese le tecniche analitiche e di separazione dei metalli dai loro minerali. Nel laboratorio di Bunsen riuscì a ottenere il platino dai minerali che lo contenevano.

Successivamente le fu offerto un posto, di nuovo come studente privato, nel laboratorio di August Hofmann[5] all’Università di Berlino. A Berlino seguì pure le lezioni di chimica organica di Hofmann. Sebbene la maggior parte dei suoi studi riguardasse il catrame di carbon fossile e derivati, lavorò anche su diverse serie alifatiche contribuendo agli sforzi in corso per stabilirne i principi strutturali [1]. Sotto la sua guida, Lermontova portò avanti la ricerca per la sua dissertazione, la preparazione di un numero di derivati alogenati di idrocarburi alifatici a catena corta e indagini sule loro proprietà. Il suo primo articolo, tuttavia, pubblicato nel Berichte nel 1872, riporta lo studio un composto aromatico, il 4,4′-diammino-azobenzene [3].

Robert Bunsen

August Hofmann

                                                  Poiché a quell’epoca né l’Università di Berlino né quella di Heidelberg avrebbero preso in considerazione la concessione di un dottorato a una donna, Hofmann si rivolse all’Università di Göttingen, un’istituzione più piccola con un atteggiamento generalmente più liberale, che accettò Lermontova come candidata previo però il superamento di una prova orale, cosa che avvenne. In occasione del suo dottorato, ottenuto magna cum laude, Friedrich Wöhler[6], uno dei due chimici della commissione d’esame (l’altro era Hans Hübner[7]), le regalò in ricordo una piccola pietra tagliata del minerale in cui egli aveva scoperto per primo il titanio. La tesi di Lermontova, “Zur Kenntnis der Methylenverbindungen” (Per la conoscenza dei composti del metilene), fu pubblicata a Göttingen nel 1874.

Dopo il dottorato Lermontova tornò in Russia e iniziò a lavorare nel laboratorio di Vladimir Markovnikov[8] all’Università di Mosca, dove continuò le ricerche sugli idrocarburi alifatici. La preparazione del 1,3-dibromopropano, riportata con il suo solo nome nel 1876 [4], ha portato alla sintesi, via il corrispondente diciano-composto, dell’acido glutarico. Nel laboratorio di Markovnikov mise a punto un’apparecchiatura per la distillazione continua del petrolio. Sebbene questo apparecchio non ebbe applicazione industriale, Lermontova è considerata la prima donna a occuparsi di petrolchimica, un settore di ricerca applicata che cominciava a destare molto interesse non solo in Russia.

Nel 1875, su proposta di Mendeleev, venne eletta membro della Russian Chemical Society.

Nel 1878 fu invitata da Alexandr Butlerov[9] a recarsi nel suo laboratorio di San Pietroburgo dove, insieme a Mikhail Lvov, stava conducendo una dettagliata ricerca sulla serie di idrocarburi saturi e insaturi. Qui Lermontova si impegnò nella ricerca in atto sulle olefine a catena ramificata. La maggior parte del suo lavoro è stata pubblicata da Butlerov con riconoscimenti, ma l’importante sintesi del 2,4,4-trimetil-2-pentene fu pubblicata con solo il suo nome [5].

Vladimir Markovnikov

August Butlerov

Nel gennaio 1878 in una conferenza della Russian Chemical Society, A. P. Eltekov dell’Università di Kharkov aveva riportato i risultati preliminari su un nuovo metodo di sintesi di idrocarburi di formula generale CnH2n [6]. Butlerov, che aveva partecipato a quel convegno, notò che un certo numero degli esperimenti riportati erano già stati effettuati da Julia Lermontova. Più tardi, Lermontova scriverà [7]:

Alla ricerca delle migliori condizioni di reazione, non avevo fretta di riportare i miei risultati preliminari… Poiché però il signor Eltekov ha pubblicato i suoi, ho smesso di continuare tutti gli esperimenti che avevo già iniziato, considerando che era necessario descrivere quelli di essi che mi hanno portato a conclusioni certe…[2]

Il valore di queste ricerche è diventato evidente più tardi quando sulla base della sintesi di idrocarburi altamente ramificati è stato possibile lo sviluppo e la produzione industriale di alcuni tipi di carburanti. Questo processo è stato chiamato reazione di Butlerov-Eltekov-Lermontova :

Schema della reazione di Butlerov-Etelkov-Lermontova che consente di aggiungere rami a una catena olefinica

Purtroppo, come fa notare A. Rulev [2], il nome della prima donna-chimico russa non è sempre menzionato anche in Russia.

Attorno al 1880 Lermontova tornò a Mosca per motivi familiari e per stare vicino all’amica Kovalevskaia, si riunì al gruppo di Markovnikov, assistendolo nelle sue indagini sulla composizione del petrolio caucasico. Su suggerimento di Markovnikov indagò sui processi di frazionamento a alte temperature e sul cracking catalizzato da metalli, presentando i suoi risultati alle riunioni della Sezione di Mosca della Società Tecnica Russa. Era entrata a farne parte nel 1881 e per un certo tempo fu un membro particolarmente attivo della divisione di tecnologia chimica di questa Società.

Verso il 1886 smise di fare ricerca in chimica e rivolse la sua attenzione a progetti agricoli nella sua tenuta fuori Mosca. Seguendo metodi e tecnologie moderni per migliorare la fertilità del suolo, aumentò considerevolmente i raccolti; iniziò a fare il formaggio, con un certo successo, producendo formaggi “francesi” messi in vendita a Mosca. Visse il primo conflitto mondiale e le prime fasi della rivoluzione russa che seguì, morendo all’età di settantatre anni nel dicembre 1919.

Bibliografia

[1] M. R. S. Creese, Early Women Chemists in Russia: Anna Volkova, Iuliia Lermontova, and Nadezhda Ziber-Shumova., Bull. Hist. Chem., 1998, 21, 19-24.

[2] A. Yu. Rulev, M. G. Voronkov, Women in chemistry: a life devoted to science, New J. Chem., 2013, DOI: 10.1039/c3nj00718a

[3] J. Lermontova, Ueber die Zusammensetzung des Diphenins, Ber. Dtsch. Chem. Ges., 1872, 5, 230-236.

[4] J. Lermontova, Ueber die Darstellung von Trimethylenbromid, Justus Liebigs Ann. Chem., 1876, 182, 358-362.)

[5] J. Lermontova, Sur l’action de l’iodure de butyle tertiare surl’isobutylène en présence d’oxydes métalliques, St. Pétersb. Ac. Sci. Bull., 1879, 25, col. 203-209, Justus Liebigs Ann. Chem., 1879, 196, 116-122.)

[6] A. Eltekov, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 86. citazione da [2]

[7] Yu. Lermontova, Zh. Russ. Phys-Khim. Obshch., 1878, 10, 238. Citazione da [2]

[1] Dmitri Mendeleev (1834-1907) chimico russo noto a tutti come “padre” della Tavola Periodica della quale ricorrerà l’anno prossimo il 150° anniversario.

[2] Robert Wilhelm Eberhard Bunsen (1811-1899), chimico tedesco. Ha studiato gli spettri di emissione di molti elementi, scoprendo cesio e rubidio insieme al fisico Gustav Kirchhoff. Bunsen sviluppò diversi metodi di analisi dei gas, fu un pioniere della fotochimica e fece molte ricerche in chimica organica. Con il suo assistente di laboratorio, Peter Desaga, sviluppò il becco Bunsen, il noto bruciatore da laboratorio.

[3] Gustav Robert Kirchhoff (1824 -1887), fisico tedesco. Contribuì alla comprensione dei circuiti elettrici, della spettroscopia e dell’emissione delle radiazioni da corpo nero.

[4] Hermann Frantz Moritz Kopp (1817 – 1892), chimico tedesco ha studiato in particolare la relazione fra punto di ebollizione e composizione dei composti organici. E’ stato uno dei primi storici della chimica.

[5] August Wilhelm von Hofmann (1818 –1892), famoso chimico tedesco. Allievo di Justus von Liebig divenne il primo direttore del Royal College of Chemistry a Londra. Fu poi professore e ricercatore all’Università di Berlino. Autore di fondamentali ricerche in chimica organica ha creato una scuola di chimica organica sperimentale e industriale. Cofondatore della Deutsche Chemische Gesellschaft, la Società Chimica Tedesca.

[6] Friedrich Wöhler (1800 – 1882), chimico tedesco noto in particolare per la prima sintesi di un composto organico, l’urea. Dei suoi lavori abbiamo ampiamente scritto in questo blog.

[7] Hans Hübner (1837 – 1884), chimico tedesco, successore di Wöhler all’Istituto di Chimica della Università di Gottingen. Editor dell’importante rivista Zeitschrift für Chemie.

[8] Vladimir Vasil’evič Markovnikov (1838-1904), chimico russo noto in particolare per la sua regola empirica che indica l’orientamento preferenziale nelle reazioni organiche di addizione.

[9] Alexander Mikhaylovich Butlerov (1828-1886), chimico russo, uno dei principali fondatori della teoria della struttura chimica, il primo a incorporare doppi legami in formule strutturali, scopritore dell’ esametilentetrammina e della formaldeide. Fu un forte sostenitore dell’apertura all’istruzione superiore alle donne.