Raccontino di Natale.

In evidenza

Mauro Icardi

Questo breve articolo, vuole rendere conto di un episodio di pochi giorni fa. Io e la mia collega Valentina lavoriamo insieme da ormai quasi vent’anni. E nelle ore di lavoro parliamo di molte cose. E tra queste l’educazione e la crescita dei figli, le loro fatiche e i loro progressi scolastici sono tra gli argomenti principali. Martina, la sua primogenita, era tra il pubblico durante la mia conferenza di Ottobre a Milano. Il suo secondo figlio, Emanuele, o il piccolo tecnico come a me piace chiamarlo, è un simpatico bambino di otto anni, ma con una dote che apprezzo ed ho sempre ritenuto fondamentale. E’ spinto da una genuina voglia di conoscere, di capire le cose che avvengono intorno a lui. E da sempre è incuriosito e affascinato dal trattamento delle acque, e in particolare dai fanghi. E pone tante domande. Oltre a questo, io e lui condividiamo la passione per la bicicletta. E quest’anno Babbo Natale lo ha reso davvero felice.

In attesa di fare una bella sgambata insieme, io e lui abbiamo approfondito la conoscenza reciproca. Emanuele frequenta la terza elementare, e quando ho saputo che doveva nel compito di scienze fare esperimenti di base di chimica, qualcosa immediatamente mi ha risvegliato ricordi, sensazioni, ed una passione mai sopita, e mi sono offerto di dargli una mano. Doveva spiegare cosa fosse un gas, e doveva eseguire due semplici esperimenti per comprendere che cosa fosse una soluzione. Mescolare acqua e aceto, capire se dopo il mescolamento l’aceto si distinguesse ancora dall’acqua o no. Poi ancora un altro passo: sciogliere una bustina di zucchero in acqua. Pesare l’acqua sottraendo il valore della tara di una piccola beuta che avevo portato con me, poi sciogliere una bustina di zucchero che avevamo pesato precedentemente, e dopo averla sciolta completamente, pesare la soluzione di acqua e zucchero.

Le basi della chimica e della stechiometria. Confesso che la cosa mi ha molto divertito. L’osservavo con attenzione, e in più di una occasione mi sono trattenuto dall’usare termini non adatti per un bambino di quella età (mi venivano in mente ricordi degli anni di studio, volevo spiegargli cosa fosse il “corpo di fondo), poi mi sono frenato. Ma mi è piaciuto vedere il suo sorriso, quando gli ho fatto vedere come doveva impugnare correttamente la beuta, per sciogliere i granelli di zucchero, e mi sono complimentato per la sua ottima manualità. Infatti non ha rovesciato una sola goccia di soluzione, ed impugnava la beuta con una naturale abilità. Abbiamo osservato insieme alla luce, se lo zucchero si stava sciogliendo, chiacchierato delle differenze tra il mescolamento di due liquidi, e quello di un solido in un liquido, sotto l’occhio vigile di mamma Valentina.

Sono tornato bambino insieme a lui, ma il giorno dopo riparlandone con Valentina, non ho potuto fare a meno di esprimere il mio apprezzamento alla maestra di Emanuele, per queste iniziative. Sono decisamente stimolanti e formative. E a mio parere qualunque sarà il percorso scolastico del piccolo tecnico, ma da oggi potrò chiamarlo il piccolo chimico, credo che non le dimenticherà. Un futuro collega, visto l’interesse che ha per il risparmio idrico, e per il depuratore.

Batteria a ioni fluoruro a temperatura ambiente

In evidenza

Rinaldo Cervellati

Agli elettrochimici era noto che batterie ricaricabili a ioni fluoruro (FIB), possono in teoria avere una densità di energia[1] circa otto volte maggiore di quelle attuali agli ioni litio, ma senza applicazioni pratiche. Infatti i dispositivi FIB finora realizzati generano elettricità per migrazione degli ioni fluoruro da un elettrodo all’altro attraverso un elettrolita solido che diviene conduttore efficace solo riscaldandolo sopra 150 ° C, il che ovviamente ne limita fortemente le applicazioni.

Nel numero del 20 dicembre scorso di Chemistry & Engineering newsletter on-line, Mitch Jacoby riporta che un gruppo di ricerca ha realizzato una batteria a ioni fluoruro con un elettrolita liquido

(V.K. Davies et al., Room-temperature cycling of metal fluoride electrodes: Liquid electrolytes for high-energy fluoride ion cells., Science, 2018, 362, 1144–1148.), funzionante a temperature ambiente.

Il gruppo costituito da ben 21 ricercatori facenti capo al Gruppo di Tecnologie Elettrochimiche, Jet Propulsion Lab, California Institute of Technology, coordinato dal Dr. Simon C. Jones, si è diviso in sottogruppi ciascuno occupandosi dei diversi aspetti sperimentali e teorici della complessa e lunga ricerca.Dr. Simon C. Jones

La stesura dell’articolo è stata fatta da Victoria K. Davis con i suggerimenti degli altri autori e la supervisione del Dr. Jones. Davis ha partecipato alla sintesi, analisi e caratterizzazione di una numerosa serie di sali e solventi organici fra i quali sono stati scelti i più opportuni.

Dr. Victoria Davis, fellow National Science Foundation

Per la soluzione elettrolitica, i ricercatori hanno cercato una combinazione di un sale e un solvente organico fluorurato che garantissero ampio intervallo di solubilità, alta conducibilità ionica e stabilità elettrochimica. La ricerca ha portato a un fluoruro di neopentil alchilammonio e al bis (2,2,2-trifluoroetil) etere o BTFE.

Simulazione delle interazioni molecolari tra uno ione fluoruro (verde) e il solvente elettrolitico fluoroetiletere.

I ricercatori hanno poi realizzato un nuovo catodo costituito da un nucleo di rame e un guscio di trifluoruro di lantanio, Cu@LaF3. Il guscio evita la dissoluzione del rame e la decomposizione del BTFE, consentendo una facile diffusione degli ioni fluoruro tra l’elettrolita liquido e il nucleo di rame. Elettrodi fabbricati con queste nanoparticelle a temperatura ambiente sono stati sottoposti reversibilmente in una opportuna cella a sette cicli. La conversione reversibile di Cu a CuF2 (Cu0 + 2F ⇌ CuF2 + 2e) è stata evidenziata tramite spettrometria a raggi X di polveri, il che suggerisce che il guscio di LaF3 consente il passaggio di ioni F permettendo la formazione di CuF2 come atteso. Gli autori della ricerca terminano così:

Utilizzando un elettrolita liquido semplice ma robusto con alta conducibilità di ioni fluoruro abbiamo dimostrato il ciclo elettrochimico reversibile di elettrodi di fluoruro di metallo a temperatura cui è lo ione Fil trasportatore attivo, non il catione metallico.

In particolare, l’ottimizzazione di un catodo Cu@LaF3 e il suo accoppiamento con un anodo metallico elettropositivo, ad esempio Ce, indicano un percorso per sviluppare un dispositivo ad alta energia a temperatura ambiente.

Jun Liu, specialista in materiali per lo stoccaggio di energia presso il Pacific Northwest National Laboratory ha affermato che lo studio dimostra buoni progressi, sottolinea però la necessità di un numero maggiore di ricerche per sviluppare una batteria a lunga vita che possa superare le prestazioni delle batterie agli ioni litio in termini di elevata densità di carica.

[1] La densità di energia di una batteria è data dal rapporto fra la forza elettromotrice moltiplicata per la carica spostata e il suo volume: zFE°/V, dove z è il numero di elettroni scambiati nella reazione redox che avviene nella pila e E° è la forza elettromotrice standard (fem) della batteria.

Piante, animali e altre storie di chimica.

In evidenza

Claudio Della Volpe

Quest’anno per superare la solita incertezza del regalo di fine anno mi sono rivolto all’oggetto più comune della mia vita: il libro. E ho trovato una serie di testi su un argomento di cui avevo sentito parlare ripetutamente, ma senza approfondirlo: l’intelligenza delle piante.

Si tratta di un tema affascinante e che viene da lontano, ma il più recente e famoso scienziato che se ne è occupato è un italiano, Stefano Mancuso, professore ordinario presso UniFi e ricercatore al LINV (Laboratorio di Neurobiologia vegetale).

Ha scritto vari testi su questo tema ed io ho scelto il più agile fra tutti, Verde brillante, sensibilità e intelligenza del mondo vegetale, Ed. Giunti 140 pagine 2014.

E’ un testo non recentissimo scritto insieme alla divulgatrice Alessandra Viola, ma molto ben scritto che ripercorre la trama della discussione sul modo in cui concepiamo le piante, i “vegetali”, termine tutto sommato dispregiativo, che vegetano; ma che, l’autore ci fa scoprire, hanno un comportamento molto articolato e costituiscono un caso di vita senziente, non diversamente da quella animale, solo con una organizzazione diversa da quella degli animali. Le piante hanno una intelligenza ed una struttura della sensibilità distribuita invece che concentrata in organi specifici (cervello, occhi, naso, lingua) le piante “vedono”, sentono, reagiscono con molte delle loro cellule, usando una strategia di sopravvivenza diversa; non possono scappare e dunque sono state obbligate a scegliere di poter perdere anche il 90% del loro corpo potendolo ricostruire completamente; inoltre hanno nella maggior parte dei casi una velocità dei comportamenti inferiore, ma non per questo meno complessa.

In uno degli episodi di Star Trek (del 1995) si affronta questo tema della diversa velocità di esistenza; noi potremmo essere come piante per esseri che vivessero molto più velocemente di noi.

In fotografia il tema del diverso apparire delle cose molto veloci o molto lente costituisce uno splendido argomento tramite le due tecniche complementari delle riprese ad alta velocità riproiettate a bassa (diventate oggi comuni grazie all’avanzare dei processori dei cellulari) e della slow motion o delle riprese tramite filtri ND che sottolineano il paesaggio, ma eliminano le figure che ci si trovano per tempi brevi (la prima foto di paesaggio nel 1839 era di fatto slow motion). Nel caso che ci interessa si applica una terza tecnica, il time lapse, (letteralmente lasso di tempo) le riprese video che si usano anche per nuvole o il paesaggio rese comuni anche queste tramite la possibilità di fare foto ad intervalli lunghi in gran numero per poi riproiettarle a velocità normale, dunque con una grandissima accelerazione; il time lapse fa comprendere come anche le piante abbiano una vita e siano capaci di movimenti ben precisi ed altamente intelligenti se visti in questo nuovo contesto.

https://www.youtube.com/watch?v=w77zPAtVTuI

https://www.youtube.com/watch?v=g9NpE2jntNs

https://www.youtube.com/watch?v=p6rCAuzSQ8U

https://www.youtube.com/watch?v=dTljaIVseTc

Gli ultimi due video mostrano rampicanti che si avvolgono attorno ad un supporto; nel primo caso il fagiolo si gira verso il supporto ancora prima di attaccarcisi; come fa a sapere che è lì? Non lo sappiamo; ma potrebbe essere che in qualche modo avesse ragione Gottlieb Haberlandt, famoso fisiologo vegetale, che ipotizzò la presenza di ocelli foliari (finora mai confermati).

Un esempio altamente poetico di questa tecnica video si trova nel film Il giardino segreto, tratto dall’omonimo romanzo di Frances Hodgson Burnett, in cui viene mostrato il risveglio primaverile della terra e delle piantine del giardino riscoperto dalla piccola Mary Lennox; il film nella versione che ho visto io è del 1993 ed era diretto da Agnieszka Holland che usa con abilità la tecnica time lapse per mostrare la vita delle piante. Lo consiglio a voi e ai vostri bambini.

Nel libro di Mancuso si fa anche notare la ritrosia che hanno avuto anche grandissimi scienziati da Linneo a Darwin nel riconoscere questi aspetti della vita delle piante, per esempio la capacità di molte di queste di cibarsi di insetti o piccoli animali (anche mammiferi) come fonte di azoto, di comunicare fra di loro ed avere un comportamento altamente complesso che se rivisto a diversa velocità e nel contesto degli “animali” non esiteremmo a definire “intelligente” e sensibile; libro consigliatissimo e fra l’altro ottimamente illustrato, ben equilibrato negli aspetti tecnici e storici e anche fra la filosofia della natura e la scienza (sarò fesso ma non credo che l’analisi scientifica risolva ogni aspetto delle cose, la filosofia serve ancora, mia idea per carità).

La cosa che mi ha colpito di più è stata una osservazione di tipo chimico; il fatto che le piante usano delle molecole, che liberano nell’ambiente interno ed esterno per comunicare alle proprie cellule (non hanno segnali nervosi) ed alle altre piante, diverse specie di eventi.

Ora la chimica delle piante come ricorderete è stato un cavallo di battaglia della Chimica in Italia, basti ricordare i lavori di Ciamician e Ravenna di cui abbiamo parlato su questo blog.

Sapevo già che le piante usano una comunicazione “chimica”, ma mi ha colpito molto una di queste molecole in particolare, il metil-jasmonato che non conoscevo e di cui sono andato subito a cercare la formula; le piante usano il metil-jasmonato per segnalare alle congeneri o ad altre piante situazioni di sofferenza e di pericolo (per esempio l’attacco di parassiti). Ho scoperto con grandissimo interesse che è un derivato lipidico ciclopentanoico; ma, ho subito pensato, questa molecola di allarme allora è simile, molto simile, alle molecole che usano anche gli animali in condizioni analoghe: le cosiddette prostanglandine, che sono la base della risposta infiammatoria (e la cui produzione cerchiamo di inibire con gli antiinfiammatori come l’aspirina (ne abbiamo parlato varie volte)). Ho voluto verificare se la similitudine fosse stata notata; beh la risposta è si, ma non ci sono poi così tanti lavori in merito.

In particolare ho trovato il lavoro di cui vi riporto l’immagine qui sopra che parla del tema e anche della scoperta di molecole analoghe che si trovano sia nelle piante che negli animali, gli isoprostani, antenati probabilmente sintetizzati originariamente in modo non enzimatico. E questa è una bella ipotesi; perchè significherebbe che sono veramente molecole antiche; l’ipotesi del lavoro di Mueller (Chemistry & Biology 1998, Vol5 No 12 ) è che siano venute fuori prima dalla reazione spontanea fra lipidi e ossigeno; e possano essere dunque segnali dell’evento forse più traumatico per la vita sulla Terra, ossia il passaggio da forme di vita anaerobie a quelle aerobie, avvenuto fra 2 miliardi e 650 milioni di anni fa. Il pericolo da inquinamento per eccellenza che la vita ha passato finora (l’altro siamo noi che crediamo di essere superiori, ma in effetti……siamo una piaga)

L’ossigeno rimane per la vita a base ossigeno una molecola a doppia faccia; da una parte non possiamo farne a meno, dall’altra essa può produrre spontaneamente radicali liberi molto pericolosi, data la natura altamente reattiva dell’ossigeno atmosferico, la sua forma di molecola con ben due elettroni in orbitali di antilegame altamente disponibili, ciascuno dei quali cerca di appaiarsi; questo ci ha costretti a convivere con esso e anzi imparare a gestirlo.

Un esempio fra tutti potrebbe essere la nostra capacità di gestire enzimaticamente lo ione superossido O2(numero di ossidazione -1/2), che si forma spontaneamente, ma la cui sintesi noi perfino catalizziamo tramite un enzima, la NADPH ossidasi in caso di pericolo; e che usiamo, senza colpo ferire, contro i batteri molti dei quali non sono capaci di resistere al suo attacco ossidante (a meno di non possedere la superossido dismutasi). Lo ione superossido (la cui struttura elettronica è qui sotto) è un’arma letale perchè distrugge gli enzimi basati sul ferro e sullo zolfo e riusciamo a tenerlo a bada solo tramite la superossido dismutasi.

https://chemistryonline.guru/molecular-orbital-theory/

Non è l’unico radicale che usiamo sapientemente, ricordiamoci anche NO, usato in laboratorio di cinetica come scavenger dei radicali, considerato molto tossico, ma che noi maschietti umani produciamo (in piccole quantità) ed usiamo per controllare la pressione arteriosa nel luogo deputato, tutte le volte che qualche femmina della nostra specie ci fa impazzire adeguatamente. Incredibile quante cose si scoprano leggendo! Robe da chimico, ma credo interessanti per tutti.

Piccola lezione sui fanghi di depurazione.5: i controlli (considerazioni finali)

In evidenza

Mauro Icardi

(I precedenti post di questa serie sono qui, qui , qui e qui)

Terminati i controlli per verificare il corretto funzionamento della fase di ossidazione biologica, e successivamente quelli relativi alla stabilizzazione del fango , la fase successiva si riferisce ai controlli da effettuare sul fango ormai disidratato, e destinato a smaltimento, incenerimento, o riutilizzo in agricoltura.

Sul fango si possono determinare diversi parametri. Vediamo nello specifico la determinazione dei metalli.

L’analisi si effettua su campione umido per la determinazione del mercurio, e su fango secco per tutti gli altri parametri. Per la determinazione dei metalli si effettua attacco acido con acido solforico e nitrico, ed eventualmente con acqua ossigenata. Questa tecnica viene sempre di più sostituita dalla mineralizzazione con forno a microonde. Utilizzando questa tecnica le microonde riscaldano contemporaneamente tutto il campione, senza riscaldare i contenitori utilizzati che sono di materiali trasparenti alle microonde. In questo modo le soluzioni raggiungono molto più rapidamente il proprio punto di ebollizione e il riscaldamento è molto più veloce ed efficace del sistema tradizionale. La concentrazione dei metalli portati in soluzione viene determinata attraverso analisi eseguite tramite spettroscopia di assorbimento atomico, normalmente utilizzando la tecnica in fiamma, oppure con spettroscopia di emissione al plasma (ICP Ottico). La concentrazione dei metalli nei fanghi viene espressa in mg/Kg di metallo estraibile, riferito alla sostanza secca.

I fanghi di depurazione delle acque reflue industriali contengono metalli pesanti di tipo e quantità variabili e derivano dal tipo di lavorazioni e dalla dimensione delle industrie. I metalli pesanti provenienti dalle attività civili si ritrovano, inoltre, nella fase gassosa dei combustibili utilizzati per il riscaldamento, nei fumi provenienti dagli inceneritori o dal traffico veicolare; tali metalli raggiungono il suolo attraverso le precipitazioni atmosferiche. Alcune attività tipicamente agricole, come l’uso di prodotti fitosanitari e di concimi minerali, possono costituire una fonte di inquinamento da metalli pesanti.

In genere, i metalli pesanti si concentrano nei sottoprodotti di alcuni settori industriali o, anche se in misura minore, nei rifiuti urbani e nei reflui civili; per questo, lo smaltimento di questi materiali, per i rischi di tossicità sopra riportati, è regolamentato da apposite normative.

Vediamo ora, per alcuni dei principali metalli, ricercati nella matrice fanghi, le provenienze.

Cadmio totale

La concentrazione di cadmio nel suolo, è funzione delle caratteristiche dei materiali originari e dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione (concimi fosfatici, fanghi di depurazione).

Cromo totale

La concentrazione di cromo è riconducibile in parte a naturali processi di degradazione dei substrati geologici, da cui i suoli stessi traggono origine; in parte è funzione dell’utilizzo sul suolo di sostanze contenenti metalli pesanti utilizzate per la difesa antiparassitaria o per la fertilizzazione. In particolare il contenuto di cromo può essere molto elevato in alcuni sottoprodotti dell’industria conciaria utilizzati per la produzione di concimi organici.

Piombo

La concentrazione di piombo riscontrabile nei fanghi di depurazione, relativamente alle attività produttive, riguarda principalmente gli scarichi delle fonderie. Un’altra fonte di contaminazione riguarda l’utilizzo di prodotti fitosanitari contenenti arseniti di piombo. Da rammentare che in passato si poteva avere contaminazione da piombo tetraetile, che veniva utilizzato come antidetonante nella benzina.

Rame

La concentrazione di rame dovuta ad attività antropica è anch’essa riferibile all’utilizzo del rame per la difesa antiparassitaria o per la fertilizzazione, soprattutto con reflui zootecnici. In particolare l’elevato contenuto di rame nelle deiezioni zootecniche è dovuto all’utilizzo di integratori e additivi alimentari che contengono questo elemento. I composti del rame sono anche utilizzati nel settore della coltivazione della vite, e molto spesso come componente alghicida per le vernici antivegetative, destinate normalmente a ricoprire il fondo delle imbarcazioni.

Per chiudere queste piccole lezioni sui fanghi, e sui controlli che si possono effettuare, parliamo di una analisi di tipo batteriologico, cioè la determinazione della Salmonella.

Considerando che i fanghi sono il prodotto finale del trattamento delle acque, essi posseggono un’ampia variabilità delle loro caratteristiche fisiche, chimiche, biologiche e tecnologiche che dipendono dalla loro origine, dal tipo di trattamento subito dai reflui, dal fango stesso, dalla durata dello stoccaggio. Se si tiene conto oltretutto che il numero dei microrganismi concentrati nei fanghi supera quello presente nelle acque grezze, bisogna considerare come diventi altrettanto rilevante lo studio delle loro caratteristiche microbiologiche. A qualunque recapito finale vengano destinati, è necessario renderli igienicamente innocui. Dal punto di vista microbiologico la normativa (dlgs 99/1992) fissa il limite di concentrazione nei fanghi per il solo parametro Salmonella. I processi di trattamento del fango sono comunque in grado di ridurre il numero di salmonelle, come di tutti i microrganismi in essi presenti.

L’analisi della Salmonella prevede l’omogeneizzazione, la filtrazione di un campione di fango precedentemente risospeso in una soluzione di acqua sterile tamponata. Il campione, diluito in funzione della concentrazione di Salmonella stimata, è omogeneizzato e filtrato; la membrana è recuperata asetticamente e incubata a 36°C,posizionata su un filtro sterile a fibre di vetro imbibito con un terreno favorevole alla crescita del microrganismo (Brodo al terationato). Dopo 24 ore la membrana è recuperata asetticamente e incubata a (36±2)°C su terreno cromogeno (Rambach® agar).

Le membrane sono esaminate dopo 24 e 48 ore. Trascorso questo tempo di incubazione si procede a quantificare il numero di colonie. Le salmonelle presuntive crescono su questo terreno come colonie di un colore rosso brillante, derivante dalla fermentazione del glicole propilenico.

Ho scritto queste brevi lezioni sui fanghi di depurazione, spinto sia dalla mia personale passione per il tema, che con la nemmeno troppo nascosta speranza che siano in qualche modo utili a chi voglia avvicinarsi ad un tema troppo spesso ancora ignoto ai non addetti. Credo sia utile ribadire un concetto: i fanghi, quali prodotti di risulta derivati dai processi di trattamento dei liquami, costituiscono il concentrato di tutti gli inquinanti presenti nei reflui: sostanze organiche, composti inorganici anche difficilmente biodegradabili, metalli pesanti e microrganismi. Bisogna lavorare a soluzioni economicamente sostenibili, ecologicamente praticabili, socialmente accettabili. E paradossalmente, più fanghi si producono, meglio le acque si depurano. In futuro probabilmente si privilegeranno trattamenti più spinti di riduzione della produzione. Ma non dimentichiamoci che “nulla si crea, nulla si distrugge, tutto si trasforma”.

E che come giustamente faceva osservare Primo Levi “La materia è materia né nobile né vile e non importa affatto quale sia la sua origine prossima”.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Hertha Sponer (1895-1968)

In evidenza

Rinaldo Cervellati

Hertha Sponer è stata un fisico e chimico fisico che ha dato notevoli contributi in meccanica quantistica, considerata pioniera nel campo della spettroscopia molecolare.

Hertha Sponer nacque l’1 settembre 1895 a Niesse (Slesia prussiana, oggi Nyese, Slesia polacca), prima di cinque figli da una famiglia della classe media. Il padre, negoziante, apprezzava la cultura e consentì a Hertha e ai suoi fratelli di acquisire un’educazione. Sebbene Hertha fosse ambiziosa e desiderasse frequentare l’università dovette prima diventare indipendente facendo la governante e l’insegnante elementare.Hertha Sponer giovanissima

Ottenne l’Abitur (diploma liceale) nel Realgymnasium di Niesse, nel marzo 1917, poi frequentò per un anno l’Università di Tübingen studiando matematica, fisica e chimica, per passare a quella di Giessen dove ottenne il dottorato in fisica nel 1920 discutendo la tesi “Über ultrarote Absorption zweiatomigen Gases” (On the infrared absorption of diatomic gases) [1], con la supervisione di Peter Debye[1]. A proposito di questo lavoro Debye commentò:

“ essa ha risolto il problema di chiarire la situazione [di descrivere gli spettri molecolari] in base agli attuali concetti quantomeccanici.”

La tesi fu approvata magna cum laude. In effetti fu uno dei primi studi in cui furono usati metodi di teoria quantistica per interpretare gli spettri vibro rotazionali delle molecole [2].

Hertha Sponer nel 1920

Dal 1920 al 1921 Sponer lavorò su esperimenti di impatto elettronico nel dipartimento di fisica del Kaiser Wilhelm Insitute di Chimica Fisica con James Franck[2]. Allo stesso tempo fu assistente al corso di fisica sperimentale per le matricole dell’Istituto di Fisica dell’Università di Berlino.

Quando James Franck diventò professore ordinario all’Università di Göttingen, Sponer lo seguì diventando una dei suoi assistenti, continuando le sue ricerche sull’impatto elettronico e la spettroscopia molecolare [2]. Nel 1925 ottenne l’abilitazione all’insegnamento della fisica presentando un lavoro sul potenziale di eccitazione degli spettri a bande dell’azoto [3]. Nello stesso anno vinse una borsa di ricerca della Fondazione Rockefeller e si recò negli USA, a Berkeley,  per un anno.

Durante la sua permanenza a Berkeley, collaborò con R.T. Birge[3], sviluppando quello che verrà chiamato il metodo Birge-Sponer per determinare le energie di dissociazione.

Il lavoro didattico e scientifico di Sponer fu molto apprezzato all’Università di Göttingen tanto che fu raccomandato il suo passaggio a professore ordinario, ma le leggi prussiane vietavano alle donne questa posizione. Divenne così professore associato (massimo grado cui potevano aspirare le donne) nel 1932.

Hertha Sponer nel suo laboratorio a Göttingen

Nel 1932 Sponer aveva già pubblicato una ventina di lavori, quasi tutti a suo nome, anche su riviste internazionali importanti come Nature e Physical Reviews [4], diventando un noto fisico.

Sebbene Sponer non dovesse temere le persecuzioni antiebraiche del partito nazista essa si dimise dalla sua posizione accademica, abbandonando la Germania nell’ottobre 1934. L’anno precedente erano stati licenziati tutti i professori e ricercatori ebrei, il direttore del suo dipartimento, James Franck di origine ebraica aveva abbandonato per protesta il suo incarico[4], recandosi in Danimarca chiamato da Niels Bohr a lavorare nel suo istituto. Sponer accettò un posto di professore ospite all’Università di Oslo, in Norvegia. Poiché continuare le sue ricerche fu difficile, Sponer utilizzò il tempo per terminare il suo libro in due volumi Molekülspektren und ihre Anwendnungen auf chemische Probleme (Molecular spectra and their applications to chemical problems), pubblicati a Berlino nel 1935 e 1936 [2]. Questo libro fu usato da molti fisici e chimici di tutto il mondo dopo il 1945. Nel 1936 Sponer aveva pubblicato circa 40 articoli.

Nel 1936 si recò negli USA, dove le era stata offerta una cattedra nel Dipartimento di Fisica della Duke University, a Durham nel North Carolina. Non si deve pensare che questa offerta fu senza intoppi. In effetti già nel 1933 un funzionario della Fondazione Rockefeller, che sponsorizzava un programma per assistere studiosi tedeschi rifugiati, informò il rettore della Duke University, William Few, della possibile disponibilità di Sponer con parziale sponsorizzazione a carico della Fondazione. Few chiese consiglio a Robert A. Millikan[5], un famoso fisico del California Technical Institute, che diede parere negativo mostrando un forte pregiudizio nei confronti delle donne scienziate in una facoltà universitaria. La lettera di Millikan arrivò non molto tempo dopo che il Consiglio del Dipartimento di Fisica della Duke si era espresso a favore di Sponer, e va riconosciuto a loro merito aver ignorato il parere di Millikan [5].

Sponer alla Duke

Alla Duke, Hertha Sponer allestì un laboratorio di spettroscopia nel Dipartimento di Fisica, che fu trasferito nel 1949 in un nuovo edificio. Il laboratorio era collocato nel sottosuolo, appositamente attrezzato con piedistalli su basi separate per montaggi senza vibrazioni del principale componente ottico del suo spettrometro e a temperatura costante. Pubblicò molti articoli, un certo numero in collaborazione con altri fisici e chimico fisici, alcuni dei quali rifugiati come lei dalla Germania. Ampliò le sue ricerche spettroscopiche agli spettri di assorbimento nel vicino ultravioletto, sotto la sua guida 12 studenti diplomati conseguirono il Master e il dottorato. Uno degli articoli è stato scritto insieme a Hedwig Kohn, un’altra rifugiata dalla Germania, che era professoressa al Wellesley College. Dopo il suo ritiro nel 1952, Hedwig Kohn, anch’essa spettroscopista sperimentale, si unì al Dipartimento di Fisica della Duke e lavorò nel laboratorio di Sponer, dove supervisionò il lavoro di tre studenti laureati e diversi post-dottorati.

Come è stato affermato nella biografia completa di M. A. Maushart:

“il grande merito di Hertha Sponer è stato la conferma sperimentale, mediante spettroscopia, di molte previsioni quantomeccaniche. Ha anche razionalizzato la ricerca spettroscopica pubblicata in tutto il mondo, e ha mostrato come i dati si inseriscono in un’immagine complessiva. È stata una delle pioniere della ricerca interdisciplinare del XX secolo e ha compreso molto presto il significato delle indagini spettroscopiche in relazione ai problemi in chimica: già all’inizio della sua carriera accademica interagiva fortemente con il Dipartimento di Chimica dell’Università di Göttingen” [5].

Successivamente pubblicò nel Journal of Chemical Physics, fondato nel 1932, e ne divenne Associate Editor dal 1940 al 1943 e di nuovo dal 1947 al 1950. Non stupisce quindi che le sue ricerche siano state inserite principalmente nel campo della Chimica Fisica, anche se la sua formazione sperimentale era quella di un fisico. Fece da collegamento tra queste discipline, perché era in grado di comprendere sia la lingua della Fisica sia quelle della Chimica e di comunicare in entrambe [5].

Nel 1946, Hertha Sponer e il suo ex mentore e amico James Franck si sposarono. Essendo entrambi professionalmente attivi, e Franck professore all’Università di Chicago, continuarono a vivere nelle rispettive città, quindi si vedevano solo per poche settimane l’anno, soprattutto durante visite o viaggi comuni.

Negli anni 1952-53, Sponer fu visiting professor all’Università di Uppsala, dove fece studi teorici su metodi quantomeccanici di calcolo di proprietà strutturali di molecole complesse.

Hertha Sponer nel 1958

È stata membro dell’Accademia delle Scienze di New York, dell’American Physical Society e di altre organizzazioni scientifiche.

Ha lavorato alla Duke complessivamente per trentatré anni, ottenne il titolo di professore emerito nel 1965, all’età di 70 anni.

Nel 1966, divenuta vedova, ritornò in Germania, stabilendosi a Celle (bassa Sassonia) con la famiglia di suo nipote. L’anno successivo iniziò ad ammalarsi. Morì il 17 febbraio 1968 all’ospedale di Ilten, vicino a Hannover.

Nel 2001 la German Physical Society ha istituito l’Hertha Sponer Prize, assegnato ogni anno a una scienziata preferibilmente in una fase iniziale della sua carriera. Nel 2007, la Duke University ha istituito la Presidential Sponer Lectures, dove si sono distinte molte scienziate.

Per chi volesse approfondire:

Marie-Ann Maushart, Hertha Sponer: Woman’s Life as a physicist in the 20th Century. “So you won’t forget me”, Copyright © 2011 by Department of Physics, Duke University, Durham, North Carolina

 

Bibliografia

[1] H. Sponer, Über ultrarote Absorption zweiatomigen Gases, Jahrbuch der Philosophie., Fakultät d. Univ. Göttingen 1921, 1921, 153-160.

[2]M. Ogilvie, J. Harvey (Eds.), The Biographical Dictionary of Women in Science, Vol. 2, Routledge, New York & London, 2000, p. 1220.

[3] H. Sponer, Anregungspotentiale der Bandenspektren des Stickstoffs., Z. Physik, 1925, 34, 622-633.

[4] L’elenco completo dei lavori di Hertha Sponer si trova in: https://web.archive.org/web/20110725160730/http://www.quantum-chemistry-history.com/Sponer1.htm

[5] https://phy.duke.edu/about/history/historical-faculty/HerthaSponer

[1] Peter Joseph William Debye (1884-1966), fisico e chimico fisico olandese naturalizzato USA, le sue ricerche hanno spaziato dall’elettrochimica alla meccanica quantistica. Professore in diverse università europee, si stabilì definitivamente alla Cornell University a Ithaca (New York). Premio Nobel per la Chimica 1936 “per il suo contributo alla conoscenza della struttura molecolare attraverso gli studi sui dipoli elettrici e la diffrazione dei raggi X degli elettroni nei gas”

[2] James Franck (1882-1964) fisico tedesco, vinse il Premio Nobel per la fisica 1925 con Gustav Hertz “per la scoperta delle leggi che governano l’impatto di un elettrone su un atomo”. Esule negli USA, si sposerà con Hertha Sponer nel 1946. Partecipò al progetto Manhattan. Nel suo Franck Report raccomandò che i giapponesi fossero avvertiti prima dello sgancio delle bombe atomiche sulle loro città ma non fu ascoltato.

[3] Raymond Thayer Birge (1887–1980), fisico statunitense, dopo il dottorato all’Università del Wisconsin, fu cooptato nel gruppo del College of Chemistry a Berkeley sotto la guida di G.N. Lewis. Sostenitore dell’atomo di Bohr ebbe controversie con Lewis, continuò comunque con le sue idee facendo ricerche in spettroscopia molecolare (metodo di Birge-Sponer) e in statistica.

[4] In effetti James Franck essendo un veterano della Prima Guerra era esonerato dalle leggi antiebraiche del 1933, ma volle ugualmente lasciare il posto per protestare contro il regime nazista, in sostegno ai colleghi ebrei costretti a dimettersi o licenziati, a molti dei quali trovò un posto all’estero prima di lasciare la Germania.

[5] Robert Andrews Millikan (1868- 1953), fisico statunitense, Premio Nobel per la Fisica 1923 per i suoi lavori sulla determinazione della carica elettrica dell’elettrone e sull’effetto fotoelettrico.

Piccola lezione sui fanghi di depurazione.4. I controlli (parte terza).

In evidenza

Mauro Icardi

(I precedenti post di questa serie sono qui, qui e qui)

Terminata l’esposizione di controlli sul comparto di ossidazione, passiamo ai controlli del fango estratto come fango di supero (o di spurgo) dalla vasca di ossidazione. Normalmente il fango estratto viene inviato ad una sezione di ispessimento Dal punto di vista analitico si effettuano i medesimi controlli già visti per il fango della vasca di ossidazione (determinazione dei solidi sospesi totali e della sostanza volatile).

Prima di passare alla fase di disidratazione il fango deve subire un trattamento di stabilizzazione, per ridurne il contenuto di sostanza organica putrescibile, ridurne la carica batterica potenzialmente patogena, ed essere più facilmente sottoposto ai trattamenti di disidratazione. Sui piccoli impianti, generalmente con potenzialità inferiori ai 5000 A.E (abitanti equivalenti) gli impianti sono progettati con una sezione di digestione aerobica. Si tratta sostanzialmente di una vasca di ossidazione, dove il fango viene fortemente areato per tempi prestabiliti, senza ricevere apporto di acqua reflua. In questo caso il parametro fondamentale da controllare è la riduzione percentuale della sostanza organica volatile, che analogamente a quanto ritenuto soddisfacente per la digestione anaerobica non deve essere inferiore al 40%.

Lo svantaggio di questo tipo di tecnica è che non consente alcun recupero energetico, ed ha costi abbastanza elevati. Dati del 2002 indicavano un costo per abitante equivalent pari a 11,2 euro.

Il trattamento normalmente più usato per la gestione del fango è quello della digestione anaerobica. Nei sistemi anaerobici si sfrutta l’azione di microrganismi in grado di sopravvivere in assenza di ossigeno disciolto. Il processo di digestione anaerobica procede attraverso queste fasi:

Suddivisione delle molecole più grandi, come ad esempio:

carboidrati →zuccheri semplici

proteine →amminoacidi

grassi →glicerolo

Fermentazione acida, condotta da acido produttori, in cui i prodotti formatisi nella fase precedente sono trasformati in acidi grassi volatili (butirrico, propionico, acetico) ed in NH3, H2S, CO2(nel corso di tale fase il pH si porta fino a 5).

Tali acidi sono soggetti a degradazione da parte di batteri metanigeni, che utilizzano quale accettore di idrogeno unicamente il carbonio delle molecole organiche con formazione prevalente di CH4 e CO2.

Nella gestione degli impianti reali è necessario controllare che si stabilisca un equilibrio tra la fase acida e quella metanigena. È necessario, cioè, che la quantità di acidi volatili che si produce non superi la capacità di degradazione della massa batterica metanigena, che, essendo caratterizzata da una più ridotta velocità di degradazione, regola la velocità dell’intero processo.

La temperatura del processo anerobico è un fattore fondamentale (come per tutti i processi biologici).

Le temperature di esercizio di un processo di digestione anaerobica possono essere principalmente:

processo psicrofilo(4-25 °C; valori ottimali 15-20 °C);

processo mesofilo(10-40 °C; valori ottimali 30-35 °C);

processo termofilo(45-70 °C; valori ottimali 55-60 °C).

La possibilità effettiva di poter regolare la temperatura di esercizio è legata, nel caso specifico, alla disponibilità del biogas prodotto.

I controlli che si devono dunque effettuare su questa fase del processo sono diversi, e devono essere confrontati. Sul fango in digestione si deve verificare il valore della temperatura di processo, determinare ad intervalli di tempo prestabiliti il valore degli acidi volatili e dell’alcalinità, verificare la riduzione di sostanza organica percentuale. Tutti questi dati permettono di identificare le disfunzioni del processo, pianificare la necessità di interventi di manutenzione per esempio allo scambiatore di calore, che col tempo può diminuire l’efficienza a causa dei fenomeni di biofouling.

Vengono utilizzati poi per il controllo direttamente sull’impianto dei misuratori portatili di gas, che consentono di verificare la quantità percentuale di CH4 e di CO2 che sono i parametri principali che definiscono la qualità del biogas prodotto. Il terzo parametro importante da determinare è quello del valore di H2S per due principali ragioni: la prima è la tossicità del composto, la seconda è che, se il valore di questo parametro è elevato, occorre prevedere un processo di desolforazione del biogas, per impedire fenomeni di malfunzionamento e di corrosione e quindi di usura prematura delle parti metalliche. Un tipico esempio può essere quello della corrosione della caldaia di combustione del biogas prodotto, soprattutto negli impianti di costruzione più remota.

Dopo questa fase di trattamento, il fango viene inviato al trattamento di disidratazione.

(continua)

Nota: Per abitante equivalente si intende la quantità di sostanze organiche biodegradabili, derivate da un’utenza civile o assimilabile a questa, convogliate in fognatura nell’arco temporale di un giorno (24 ore) cui corrisponde una richiesta biochimica di ossigeno a 5 giorni (120 ore) pari a 60 grammi di O2 al giorno (D.Lgs. 152/06 art. 74-Definizioni)

Spettroscopia casalinga. 1. Le basi.

In evidenza

Claudio Della Volpe

La chimica moderna non può essere identificata con la meccanica quantistica (MQ), anche se la MQ ne costituisce la trama essenziale, la legge costitutiva; la chimica è basata sulla conservazione della massa e sulle leggi delle combinazioni scoperte da Lavoisier, Proust e Dalton, le quali sono leggi empiriche (ed approssimate). Si può dunque parlare di chimica (e fare chimica, grande chimica) senza introdurre la MQ.

Questo è un fatto, anche se i colleghi teorici o i fisici potranno ripetere quanto vorranno che dopo tutto la chimica è una delle applicazioni della MQ; al momento dedurre tutto dalla MQ, con procedimenti ab initio è un tantino costoso in termini di tempo e soprattutto oscuro alla gran parte delle persone, inclusi molti chimici.

Ciò detto però occorre chiarire che la MQ è e rimane il fondamento concettuale, teorico di tutta la faccenda, una sorta di rete nascosta che correla tutto il contenuto della chimica; tuttavia la sua essenza matematica è talmente complessa che l’uomo comune e anche il chimico comune possono farne a meno in molti casi. In altri casi la correlazione esiste ma è talmente complessa da sfuggire, al momento non la conosciamo. La questione a questo punto diventa opposta; ma se è possibile fare della chimica anche facendo a meno della MQ come si fa a giustificare la MQ? Esistono fenomeni comuni che la testimonino a tutti, anche all’uomo comune o al chimico più limitato?

Altrimenti la MQ diventerebbe una sorta di deus ex machina, ma chiunque potrebbe dire, “roba da professori, non ci serve”.

La risposta è si, esistono fenomeni fondamentali, ed alcuni di essi sono sotto i nostri occhi, che non si possono interpretare senza MQ; il più basilare e comune di essi, facile da esplorare è la interazione fra luce e materia, in particolare c’è un fenomeno comunissimo dell’interazione luce-materia che ognuno può osservare e che è la quintessenza della MQ, ossia la quantizzazione delle interazioni luce-materia, il fatto che alcune frequenze sono molto più adatte di altre a fare certe cose, anzi sono uniche, ben determinate sempre uguali e facilmente misurabili.

I fenomeni a cui faccio riferimento sono gli spettri a righe sia in emissione che in assorbimento.

La luce emessa da alcune comuni sorgenti e quella assorbita, attorno a noi proveniente dalla più importante sorgente luminosa del nostro pianeta, il Sole, è quantizzata, è rappresentata solo da alcune righe ben precise, che sono luminosissime in emissione e scurissime in assorbimento (queste ultime sono le cosiddette righe di Fraunhofer).

Entrambe queste tipologie di righe, non spiegabili con la fisica classica, possono essere viste con strumenti semplici ed usate per dimostrare a tutti le peculiarità base della MQ.

La scienza che studia gli spettri si chiama spettroscopia ed è un argomento molto bello ed interessante, ma spesso considerato ingiustamente “avanzato”. Il suo strumento base è lo spettroscopio, un dispositivo separatore che serve a separare la luce nelle sue componenti di frequenza diversa. La base di questo effetto separatore è conosciuta a tutti, è la rifrazione della luce, l’angolo diverso di uscita della luce da certi mezzi trasparenti a seconda della sua frequenza (che dipende a sua volta dalla diversa velocità della luce NEL MEZZO trasparente); è un fenomeno che dà origine all’arcobaleno e che tutti voi avete potuto osservare dopo una forte pioggia, ma anche vicino ad una cascata o ad una fontana in un giorno soleggiato. Fu analizzato fin dal 900dC (da uno studioso arabo che scrisse per primo una legge di Snell-Cartesio) anche se comunemente si accetta che sia stato Newton a darne una interpretazione “moderna”; non mi addentro ma la disamina sarebbe interessante. Trovate una spiegazione molto dettagliata qui.

Nei prossimi post vi racconterò quindi come si fa a costruire un semplice ma potente spettroscopio usando strumenti e materiali molto semplici e comuni ed in genere non costosi e ad osservare tramite esso questi due tipi di spettri, facendo se possibile anche delle osservazioni quantitative.

Gli oggetti che vi servono assolutamente sono una macchina fotografica comune o almeno un cellulare, ma meglio sarebbe una macchina reflex, ossia una con obiettivo smontabile; un ago da cucito ben lucido e di generose dimensioni, che costituirà la nostra fenditura; una stoffa di velluto nero, il velluto ha la proprietà di assorbire la luce e costituisce un ottimo sfondo; un reticolo di diffrazione, costituito di solito da un foglio di polimero su cui sono state stampate delle righe parallele in gran numero, dell’ordine di centinaia o migliaia per mm; il costo di questo foglio è molto ridotto, tanto è vero che viene usato per costruire occhiali “da discoteca” usa e getta. Dove acquistarlo? Si tratta dell’unico oggetto diverso dal comune, che potrebbe è vero essere sostituito da un CD o un DVD, ma personalmente ho trovato semplice comprare un foglio stampato su internet; ve ne mostro un possibile link.

https://www.amazon.com/Diffraction-Gratings-Slide-Excellent-demonstrating/dp/B006ZBISI4

costa qualche euro e si trovano fogli interi non montati per poco di più. Fra i dieci e i venti euro:

https://www.amazon.it/Rotolo-Foglio-Reticolare-Diffrazione-Lineare/dp/B007G0MW2Q

A questo punto il vostro spettroscopio è solo da montare. Per tenere il foglio di plastica davanti all’obiettivo fotografico si può usare un supporto per filtri Cokin, che si avvita sull’obiettivo e costa meno di dieci euro.

L’ago potrebbe essere sostituito meglio da un cilindro metallico lavorato accuratamente con una rugosità bassa, diciamo fra i 50 e i 100 nanometri; un ago ha una superficie che presente dei difetti più grandi e questo contribuisce a spezzare l’immagine della luce riflessa fornendo una apparenza “spettrale”, delle righe scure perpendicolari a quelle effettive che disturbano l’immagine principale (il cosiddetto transversalio, un elemento immaginario). Per ridurre l’effetto del transversalio mi sono procurato cilindri di questo tipo facendoli fare da industrie meccaniche che fanno lavori del genere o producono pezzi di cuscinetti (in realtà un grosso cuscinetto o una palla dell’albero di Natale è una fenditura di riflessione a sua volta); il costo di un cilindro non supera i 30-40 euro, spedizione compresa. La macchina fotografica che ho usato è una Canon digitale che già possedevo, una reflex è comoda per poter scegliere l’obiettivo adatto; nel mio caso è una 550D usata, che sul mercato vale sui 200 euro senza obiettivo. Non l’ho acquistata per questo come non ho acquistato per questo gli obiettivi o il treppiede che consente di avere immagini stabili e ben controllate. Ma si tratta in ogni caso di oggetti sostituibili con altri simili. Ho scelto la Canon perchè il software di funzionamento della Canon è di fatto disponibile e un numeroso gruppo di appassionati internazionali lo ha riscritto sfruttando le routine di sistema e col nome di Magic Lantern si ha a disposizione un software alternativo potentissimo che consente di fare cose incredibili a costo zero. Ma questo è un altro tema.Lo spettro di emissione di una lampada fluorescente ad alta efficienza ottenuto con il metodo descritto. Le righe visibili sono da attribuire a vari elementi fra i quali predomina il mercurio. A sin. il riflesso zero e a destra le righe colorate che costituiscono il riflesso del primo ordine. La fenditura lavora in riflessione ed è costituita dall’ago, che funge anche da riflesso zero.

Ovviamente ci vuole anche un po’ di inventiva per adattare le soluzioni che vi propongo qui al vostro caso specifico; inoltre potrete usare dei riferimenti per così dire di letteratura, nel senso che libri, articoli sul tema della spettroscopia amatoriale e anche software dedicato una volta che avrete qualche immagine si sprecano.

Fra gli altri abbiamo in Italia un autore prolifico e molto bravo che si è occupato della spettroscopia amatoriale, Fulvio Mete che ha pubblicato nel 2016, mettendolo online, un testo in italiano di ben 377 pagine dedicato al tema, frutto di una attività multidecennale dedicata a questo tema appassionante:Cenni di Spettroscopia astronomica Amatoriale, che trovate qui e che vi consiglio assolutamente, oltre ai riferimenti che troverete in questi articoli.

Notiamo anche una cosa importante, non vi sto consigliando l’uso di un prisma come separatore delle frequenze; i prismi sono costosi e pesanti; vi sto consigliando un reticolo di diffrazione, fra l’altro trasparente. Ma come funziona?

Mentre il prisma usa la rifrazione per separare le frequenze, il reticolo sia di riflessione che di trasmissione sfrutta invece la diffrazione, ossia sfrutta la natura ondulatoria della luce. E questo comporta che l’effetto sulla separazione sia ben diverso come qui mostrato in figura: 1 il reticolo, 2 il prisma; vedete che la deviazione è opposta e il prisma in più mostra un solo ordine di raggi.Il prisma devia di più le radiazioni a lunghezza d’onda più corta; ma allora perchè l’arcobaleno mostra il violetto più vicino al centro? La domanda è utile a ricordare come funziona l’arcobaleno: noi vediamo l’immagine come mostrato nella figura qui sotto e la vediamo con il Sole alle spalle, tenetene conto e invertite il vostro modo di “vedere” le cose:Torniamo all’argomento principale.

Allora un reticolo di diffrazione è costituito semplicemente di fenditure affiancate in gran numero (i primi furono costruiti allineando su una coppia di viti dei capelli, Journal of the Franklin Institute Volume 214, Issue 1, July 1932, Pages 99-104 ) dall’astronomo americano David Rittenhouse nel 1785 (D. Rittenhouse, Trans. Amer. Phil. Soc. , 2:201 (1786) in risposta ad una domanda che gli era stata rivolta da F. Hopkinson

https://ia802605.us.archive.org/2/items/transactionsofame02amer/transactionsofame02amer.pdf

ed analogamente nel 1821 da J. v. Fraunhofer J. v. Fraunhofer, “Kurtzer Bericht von den Resultaten neuerer Versuche über die Gesetze des Lichtes, und die Theorie derselben,” Ann. d. Physik , 74:337-378 (1823) che li costruì tendendo dei fili finissimi molto vicini e incidendo il vetrino lungo le linee da essi individuate con un diamante e ci scoprì le insospettabili e misteriose righe nere che portano il suo nome nello spettro solare.

Come funziona il reticolo? Ogni incisione funge da sorgente del raggio in arrivo e questi raggi interferiscono tra di loro.

Esistono inoltre dei reticoli tridimensionali: i cristalli. Ogni nodo del reticolo (atomo o molecola) è un sito di diffusione. È la base della diffrazione dei raggi X, della figura di diffrazione in microscopia elettronica in trasmissione e della diffrazione neutronica.

Le scanalature di un compact disc agiscono come un reticolo di diffrazione producendo delle riflessioni iridescenti.

I comuni CD e DVD sono esempi quotidiani di reticoli di diffrazione: si può notare la loro capacità di scomporre la luce incidente osservandone la superficie. Questo è un effetto collaterale della produzione, infatti la superficie di un CD è ricoperta di molte piccole scanalature concentriche nella plastica ricoperte da un sottile strato di metallo che le rende più visibili. La struttura di un DVD è analoga.Uno dei primi spettri solari ottenuti dall’autore con il metodo descritto; l’immagine è volutamente naive per mostrare il contesto; notate la “fenditura di riflessione”, un semplice ago, il panno di velluto che costituisce lo sfondo, ma anche le piante del mio balcone e gli altri spettri dovuti a sorgenti indesiderate.Una immagine più recente ottenuta con un teleobiettivo, ma con il medesimo metodo, sfruttando un cilindro metallico. Notate il doppietto del sodio nella parte destra gialla dell’immagine. Circa 100mm di focale ed un reticolo da 500l/mm. Queste immagini si possono poi analizzare con vari programmi. Le bande luminose orizzontali dovute ai difetti superficiali della fenditura di riflessione, ossia dell’ago, sono definite transversalio, un elemento immaginario. Le macchie bianche sono un difetto del vellluto.

In definitiva i normali spettroscopi con cui lavora il chimico usano un prisma o un reticolo di diffrazione in riflessione e una fenditura di trasmissione; qua vi propongo di costruire in pochi passi una sistema costituito da una fenditura di riflessione (l’ago o il cilindro o la sfera di cuscinetto o la palla di Natale) e un reticolo di trasmissione.

Nella foto qui sopra il sistema al lavoro, a sin la macchina fotografica con un vecchio teleobiettivo Tamron 70-200 (25 euro) e davanti il filtro Cokin che monta il foglio di diffrazione e nel cui display vedete lo spettro della lampadina posta in alto, nel lampadario fuori vista; al centro dell’immagine, all’estremità del supporto di polistirolo ricoperto di stoffa nera e di una striscia di velluto la piccola “fenditura”, ossia il cilindro d’acciaio, opportunamente orientato e fissato alla stoffa con uno spillo e di cui le righe sono l’immagine riflessa e diffratta; sotto il risultato.(continua)

Le molecole più interessanti dell’anno 2018

In evidenza

Rinaldo Cervellati

Anche quest’anno Chemistry & Engineering news ha promosso una indagine fra i lettori su quali molecole sintetizzate e pubblicate nel 2018 sono risultate di maggior interesse. Nel fascicolo on-line del 4 dicembre scorso Stephen K. Ritter ha presentato i risultati di questa consultazione.

Qui riporto le prime classificate nella mia traduzione adattata dello scritto di Ritter.

Al primo posto, con la grande maggioranza (58%) degli intervistati si trova la sintesi di un grafene poroso:Moreno et al. (Bottom-up synthesis of multifunctional nanoporous graphene., Science, 2018, 6385, 199-203) hanno usato l’accoppiamento Ullmann per polimerizzare un difenilbiantracene dibromo-sostituito su una superficie d’oro. La ciclodeidrogenazione del polimero risultante ha prodotto nanonastri di grafene e l’accoppiamento incrociato di queste strutture ha formato un foglio di grafene nanoporoso con dimensioni dei pori di circa 1 nanometro. Il grafene nanoporoso presenta proprietà elettriche che lo rendono un materiale adatto per applicazioni elettroniche e per la separazione molecolare.

Al secondo posto (11%) si è classificata una nuova classe di steroisomeri:

Mentre sintetizzava macrocicli di porfirina contenenti un ponte boro-ossigeno-boro, un gruppo internazionale di ricercatori ha scoperto un nuovo tipo di isomeria, chiamata akamptoisomeria. Questi akamptoisomeri si originano dall’inversione dell’angolo di legame in cui l’atomo centrale in un terzetto piegato e legato singolarmente a atomi diversi si flette nella direzione opposta (P.J. Canfield et al., A new fundamental type of conformational isomerism., Nature Chemistry, 2018, 10, 615–624). Nel caso dei macrocicli dei ricercatori, l’atomo di ossigeno nel ponte fa la flessione, spostandosi avanti e indietro su entrambi i lati dell’anello della porfirina.

Terzo classificato (10%) il semplice ma elusivo dimetilcalcio

Sessanta anni orsono fu riportata la sintesi del composto organometallico dimetilcalcio, ma quell’impresa non è mai stata replicata. Quest’anno, un gruppo di chimici tedeschi ha infine riportato un’altra sintesi della molecola apparentemente semplice, che potrebbe portare a nuovi catalizzatori o reagenti. Il “trucco” è stato trovare materiali di partenza appropriati (il sale di calcio della bis(trimethylsilyl)amide [Ca{N(SiMe3)2}2]2) e escogitare un modo per purificare adeguatamente un reagente notoriamente contaminato da alogenuri, il metil litio. (B. M. Wolf et al., Dimethylcalcium., J. Am. Chem. Soc., 2018, 140, 2373–2383). I ricercatori hanno usato il dimetilcalcio amorfo così ottenuto per produrre un reagente di Grignard e un composto di metilcalcio terminale.

Va osservato il grande divario fra la preferenze espressa per la prima molecola e quelle per le successive che si attestano attorno al 10%. Non conoscendo l’entità del campione testato è difficile stabilire la significatività dell’ordine di questi posti.

Il quarto posto (8%) spetta al “nodo” molecolare più complicato

Questa molecola a 324 atomi si intreccia su se stessa in nove punti di incrocio ed è il nodo molecolare più complesso pubblicato fino ad oggi:

Il gruppo di chimici coordinato dal prof. David A. Leigh dell’Università di Manchester (L. Zhang et al., Stereoselective synthesis of a composite knot with nine crossings., Nat. Chem., 2018, 10, 1083–1088) ha realizzato la struttura unendo sei lunghi blocchi contenenti gruppi alcheni a ciascuna estremità e tre gruppi bipiridilici nel mezzo. Questi ligandi ruotavano intorno a sei ioni ferro, legandosi al ferro attraverso i loro atomi di azoto bipiridilico. Usando un comune catalizzatore al rutenio, il gruppo ha legato tutti i ligandi con una reazione di ring closing che ha rimosso il ferro e “annodato” il prodotto finale. Sebbene questi tipi di nodi molecolari siano considerati solo come dimostrazioni di abilità di sintesi, i ricercatori di Manchester pensano che un giorno possano essere usati come catalizzatori o per altre applicazioni.

Il quinto posto (5%) va alla sintesi di una tossina dell’Amanita phalloides.

I ricercatori dell’Università della British Columbia hanno individuato un percorso per la produzione di α-amanitina, una tossina prodotta dal fungo Amanita phalloides:

Per realizzare l’ottapeptide biciclico, i chimici hanno vinto le sfide chiave dell’inserimento di un ponte 6-idrossi-tryptathionina solfossido, della sintesi enantioselettiva della (2S,3R,4R) -4,5-diidrossi-isoleucina e solfossidazione diastereoselettiva in un opportuno solvente (K. Matinkhoo et al., Synthesis of the Death-Cap Mushroom Toxin α‑Amanitin., J. Am. Chem. Soc. 2018, 140 (21), 6513–6517).

Fino a oggi la tossina, di notevole interesse come possibile agente antitumorale, si otteneva soltanto per estrazione dal fungo.

Infine un 7% complessivo ha optato per il seguente polimero radicale a elevata conducibilità elettrica

Joo et al. A nonconjugated radical polymer glass with high electrical conductivity., Science,2018, 6382, 1391-1395; per il seguente “omaggio a Saturno”:Yamamoto et al., Nano‐Saturn: Experimental Evidence of Complex Formation of an Anthracene Cyclic Ring with C60., Ang. Chem. Int. Ed., 2018, DOI: 10.1002/anie/201804430; e per l’individuazione della neurotossina probabilmente usata nel presunto attentato all’ex agente segreto russo Sergej Skripal.

 

Il secondo traguardo: oltre le calorie.

In evidenza

Luigi Campanella, già Presidente SCI

Il secondo traguardo dello sviluppo sostenibile per le Nazioni Unite si focalizza sulla lotta entro il 2030 contro la cattiva nutrizione in tutte le sue forme. Una nuova ricerca sull’argomento dimostra che per raggiungere questo traguardo è necessario un approccio nuovo rispetto alla definizione dei limiti della sufficienza di nutrienti nell’alimentazione dei cittadini del Pianeta. Lo studio è stato pubblicato in ” Frontiers in sustainable food systems”.

https://www.frontiersin.org/articles/10.3389/fsufs.2018.00057/full?utm_source=FWEB&utm_medium=NBLOG&utm_campaign=ECO_FSUFS_calories-nutrients

E’ il primo studio che cerca di mappare quantitativamente a livello globale il flusso di energia, proteine, grassi, amminoacidi essenziali e micronutrienti dal campo di cultura al piatto e di identificare i punti caldi dove si perdono nutrienti. Lo studio mostra che mentre produciamo nutrienti in quantità molto maggiore di quanto richiesto dalla popolazione del Pianeta, le inefficienze nella catena di distribuzione comportano deficienze alimentari. La ricerca sottolinea le complessità che sorgono nel mettere a punto un sistema di alimentazione equilibrato, che solo può essere maneggiato con un approccio olistico. Le innovazioni di approccio che si richiedono derivano dal fatto che attualmente la sicurezza alimentare è valutata in termini di calorie, mentre la cosiddetta fame nascosta, cioè la malnutrizione di micronutrienti, affligge più di 2 miliardi di persone nel mondo

Attualmente i differenti aspetti del sistema alimentare globale sono trattati in termini di tonnellate o chili, e diventa difficile definirne sufficienza o meno e rispetto a quante persone tali quantità possano garantire alimentazione sufficiente.

Il capofila dell’equipe che ha svolto la ricerca ha dichiarato: ”vogliamo, per la prima volta, valutare l’intero sistema alimentare in unità di misura utili-nutrienti medi per persona- guardando a tutti i nutrienti essenziali per la buona salute”. Il gruppo di ricerca ha utilizzato i dati forniti dalla FAO circa i bilanci alimentari e le composizioni nutrizionali per quantificare proteine digeribili, grassi, calorie, aminoacidi e micronutrienti (calcio, zinco, ferro, folato, vitamine A, B6, B12, C) attraverso la catena di distribuzione, dalla produzione in campo all’alimento sulla tavola.

Le perdite di alimenti e nutrienti sono state calcolate dai dati regionali sui rifiuti delle Nazioni Unite e tutti i dati quantitativi sono stati normalizzati per mediare per persona e per giorno. I valori delle forniture di nutrienti sono stati confrontati alla richieste medie nutrizionali per stabilire circa la sufficienza o meno. I ricercatori sono stati colpiti dal risultato: tutti i nutrienti, non le calorie corrispondenti, sono distribuiti in quantità sufficienti. Studi precedenti avevano dimostrato che noi produciamo più dei nostri bisogni in termini di calorie (5500-6000 kcal per persona per giorno), ma mentre per alcuni nutrienti si arriva ad un eccesso di quasi 5 volte, i dati su proteine e micronutrienti essenziali sono di segno completamente opposto, in più con gravi diseguaglianze nella disponibilità di cibo e con differenti tempi e fasi nella perdita (raccolto, stoccaggio, utilizzo a fini energetici). Queste informazioni sono preziose per interventi preventivi a salvaguardia di un equilibrio alimentare globale.

Si fa presto a dire ricicliamo….3. Elemento per elemento.

In evidenza

Claudio Della Volpe

 (la prima e la seconda parte di questo post sono qui e qui)

In questa terza parte del post discuteremo la situazione del riciclo guardando alla materia come divisa fra gli elementi chimici; ovviamente questo non è vero di per se perché quasi tutti gli elementi, a parte i gas nobili, sono presenti come composti e dunque manipolarne uno ne fa manipolare parecchi.

Ma questo punto di vista consente di avere un quadro partendo da un punto di vista che è familiare per i chimici, ossia quello della tavola periodica, di cui, ricordiamo oggi, il 2019 è stato dichiarato anno internazionale.

Non solo; consente di ragionare del riciclo degli elementi incrociando il riciclo in campo umano con quello che già avviene in campo naturale, ossia i grandi cicli biogeochimici, che sono familiari a parecchi di noi e fanno parte anche della cultura naturalistica della gran parte delle persone. Ragionare per elemento consente di comprendere come l’umanità abbia modificato od alterato o sconvolto alcuni dei cicli basilari della biosfera.

I cicli biogeochimici sono legati alla nascita della chimica; il primo e più famoso di essi, quello del carbonio, legato alla respirazione, e dunque intimamente connesso alla nostra vita ed alle piante, fu scoperto da Joseph Priestley ed Antoine Lavoisier e successivamente popolarizzato dalle famose conferenze sulla candela di Faraday e da Humphry Davy, l’inventore della lampada di sicurezza dei minatori.

Ma questo punto di vista è divenuto quello largamente dominante per tutti gli elementi e soprattutto è divenuto la base della concezione della biosfera come sistema chiuso ma non isolato, alimentato dal Sole e strutturato dal flusso di energia libera e di entropia determinato dai vari gradienti presenti nel sistema e dal loro accoppiamento (si vedano i tre post qui, qui e qui).

I cicli biogeochimici sono in un certo senso le principali “strutture dissipative” (per usare il bel termine coniato da Prigogine) alimentate dal flusso di energia solare e costituiscono il vero anello di congiunzione fra l’animato e l’inanimato, fra la vita e la non-vita. I cicli biogeochimici sono fatti a loro volta di cicli più piccoli e sono intrecciati fra di loro, costituendo un “iperciclo”(termine coniato da Manfred Eigen che lo usava per le molecole autoreplicantesi) ossia un ciclo di cicli, una rete di interazioni che rappresenta l’anima della biosfera terrestre, Gaia, come l’ha chiamata Lovelock. Un iperciclo non è solo una miscela di flussi di materia (e di energia), ma è una serie di interazioni di retroazione in cui ogni parte del ciclo interagisce con le altre e alla fine questo schema può essere sia la base della stabilità, dell’omeostasi del sistema, della sua capacità di adattarsi, sia della sua delicatezza, della sua sensibilità ai più diversi effetti, e dunque della sua capacità di trasformarsi ed evolvere e ovviamente di essere avvelenato e di morire. Nulla è per sempre. Panta rei .“Tutto scorre”, come già Eraclito aveva capito, ma nell’ambito di un unico sistema che Parmenide aveva ricosciuto a sua volta come l’unità della Natura. E la sintesi, secondo me è proprio la concezione dialettica della natura, quello che noi chiamiamo con la parola retroazione, con il termine iperciclo e che quantifichiamo con sistemi di equazioni differenziali (non lineari), che (lasciatemi dire) se colgono i numeri perdono l’unità dell’idea.

Questo fa comprendere come l’invasione di campo che l’uomo ha compiuto nel ciclo del carbonio incrementando lo scambio con l’atmosfera di circa un sesto, con il ciclo dell’azoto di cui oggi rappresenta un co-partner equivalente al resto della biosfera e con il ciclo del fosforo nel quale è il player di gran lunga principale, non siano fatti banali ma alterazioni profonde e probabilmente irreversibili le cui conseguenze non sono ancora ben comprese.

Ma tutto ciò è una visione unitaria del tema; meno unitaria e più dedicata agli scopi pratici ed economici è il paradigma economico dominante che teorizza la crescita infinita, un’economia non biofisica e anzi direi talmente scandalosamente finanziarizzata e lontana dalla vita di noi tutti da dover essere cambiata al più presto possibile.

La questione è che anche gli articoli scientifici non colgono spesso questa unitarietà ma analizzano solo gli aspetti “concreti”.

C’è un bel filmato segnalatomi dall’amica Annarosa Luzzatto (che è una nostra redattrice) che fa vedere come in poco più di 300 anni si siano scoperti tutti gli elementi che conosciamo.

Ebbene in un tempo anche più breve l’uso di questi elementi è divenuto normale nella nostra industria; praticamente non c’è elemento che non sia usato nel nostro ciclo produttivo, anche di quelli che non hanno un ruolo significativo nella biosfera; e, dato il nostro modo lineare di produrre, questo ha corrisposto ad un significativo incremento della “redistribuzione” di questi elementi nell’ambiente.

I dati aggiornati per circa 60 elementi sono stati raccolti dall’ONU (1) e sono mostrati nella figura sotto (tratta dalla ref. 2).>50% corrisponde a poco più del 50%, nella maggior parte dei casi. Si tratta però dei valori di riciclaggio a fine vita non del “riciclaggio” e basta, che potrebbe facilmente confondersi con le procedure di recupero INTERNE al ciclo produttivo, che non cambiano le cose e nelle quali la tradizione industriale è maestra (quasi sempre).

Il report ONU conclude che:

Because of increases in metal use over time and long metal in-use lifetimes, many RC values are low and will remain so for the foreseeable future.

A causa dell’aumento dell’uso del metallo, molti valori RC (NdA grandezza che stima il riciclo) sono bassi e rimarranno tali per il prossimo futuro.

Anche l’articolo da cui è tratto la tabella soprariportata (2) conclude fra l’altro:

The more intricate the product and the more diverse the materials set it uses, the bet- ter it is likely to perform, but the more difficult it is to recycle so as to preserve the resources that were essential to making it work in the first place.

Più il prodotto è intricato e più è vario il gruppo di materiali utilizzato, più è probabile che funzioni, ma più è difficile riciclarlo, in modo da preservare le risorse indispensabili per farlo funzionare (in primo luogo) .

Fate caso che solo meno di un quarto del cadmio viene riciclato a fine vita; il cadmio è un elemento cancerogeno acclarato; che fine fa più del 75% del cadmio che usiamo? Il mercurio, altro metallo pesante tristemente famoso, su cui ho scritto parecchio in passato, viene riciclato a fine vita per meno del 10%; che fine fa più del 90% del mercurio?

Probabilmente il piombo rappresenta una eccezione in questo quadro apocalittico e possiamo dire che quasi la totalità del piombo usato nelle batterie viene riciclato grazie ad una legislazione molto severa.

Perfino i metalli preziosi come il platino o l’oro, che hanno un elevato valore intrinseco che ne favorisce il riciclo a fine vita, sono sfavoriti dal fatto che l’uso in elettronica ne rappresenta una frazione significativa e corrisponde ad una breve vita dei prodotti e ad un elevato grado di miscelazione che rendono poco appetibile il riciclaggio a fine vita (pensateci quando comprerete il prossimo cellulare, io ho sempre comprato prodotti usati, ma non riesco sempre a convincere il resto della famiglia ed il mio notebook, da cui sto scrivendo, quest’anno compie 10 anni ed è difficile mantenerlo aggiornato, ma tengo duro) ci vogliono regole che obblighino i produttori a continuare a produrre le batterie e i pezzi di ricambio e rendere i software compatibili, due scuse che spesso impediscono di continuare ad usare prodotti perfettamente funzionanti.La figura qui sopra riporta, sebbene i dati siano di una decina di anni fa, la situazione di due metalli che sono all’estremo della capacità di recupero; da una parte il nickel che arriva al 52% di recupero a fine vita e dall’altra il neodimio che non viene affatto recuperato.

Questa è la situazione forse non aggiornatissima, ma significativa del nostro punto di partenza. Quando va bene sprechiamo almeno la metà di ciò che estraiamo, altrimenti lo sprechiamo tutto, lo usiamo una volta e lo sottraiamo all’uso delle future generazioni (figli e nipoti); ma non solo, gli sporchiamo il mondo. E prima o poi pagheremo per questo; o pagheranno loro.

Nel prossimo ed ultimo post di questa serie parleremo a fondo di qualche caso esemplare di riciclo.

Ah dimenticavo; buone feste.

(continua)

Da consultare

(1) E. Graedel et al., “Recycling Rates of Metals—A Status Report, a Report of the Working Group on the Global Metal Flows to UNEP’s International Resource Panel” (2011); www. unep.org/resourcepanel/Portals/24102/PDFs/ Metals_Recycling_Rates_110412-1.pdf

(2) Challenges in Metal Recycling Barbara K. Reck and T. E. Graedel Science 337, 690 (2012); DOI: 10.1126/science.1217501

Piccola lezione sui fanghi di depurazione.3: i controlli (parte seconda)

In evidenza

Mauro Icardi

(I precedenti post di questa serie qui e qui.)

Per terminare la rassegna dei controlli che si effettuano sui fanghi della vasca di ossidazione, occorre parlare della verifica della concentrazione di ossigeno disciolto. Questo perché nei processi a fanghi attivi di tipo aerobico è estremamente importante il buon funzionamento del sistema di areazione. L’apporto di aria (o in casi particolari di ossigeno liquido, che viene vaporizzato tramite appositi impianti) serve a mantenere una concentrazione non limitante per i processi di depurazione biologica, ma anche una buona miscelazione della sospensione areata acqua/fango. Normalmente il valore di ossigeno disciolto ritenuto ottimale si aggira intorno a valori di 2 mg/lt. Valori inferiori rallentano il processo di nitrificazione dell’ammonio, e valori superiori potrebbero rallentare la velocità di assorbimento dell’ossigeno da parte della biomassa aerobica.

Normalmente sulle vasche di ossidazione sono installate delle sonde di misura dell’ossigeno funzionanti in continuo, che permettono la verifica e la registrazione dei valori. La variazione marcata e repentina di questo parametro, può essere correlata per esempio a variazioni di carico entrante nell’impianto. Le moderne sonde attualmente utilizzate utilizzano il principio ottico della fluorescenza, è un principio ottico di misura dell’ossigeno nei liquidi. La tecnologia del sensore ottico di ossigeno si basa su un metodo di determinazione di tipo ottico chiamato “quenching di fluorescenza”. A differenza di un’elettrodo amperometrico , che misura una reazione di redox dell’ossigeno all’elettrodo, il metodo ottico è basato su un trasferimento di energia tra un cromoforo fluorescente (fluoroforo) e l’ossigeno.

Un fluoroforo integrato nella punta del sensore viene illuminato con una luce verde-blu proveniente da una sorgente LED. Il fluoroforo assorbe energia e ne trasferisce una parte in forma di luce rossa fluorescente emessa. Un rilevatore posto nel sensore legge la luce fluorescente emessa e ne misura intensità e durata.

In presenza di ossigeno, il fluoroforo trasferisce parte dell’energia assorbita alle molecole di ossigeno. L’ossigeno assorbe l’energia e la trasferisce sotto forma di calore all’area circostante, causando una variazione di intensità della fluorescenza. Questa variazione è direttamente correlate alla pressione parziale di ossigeno nel mezzo e costituisce il principio di base della misura.

Secondo la legge di Henry, la quantità di un dato gas disciolto in un dato tipo e volume di liquido è direttamente proporzionale alla pressione parziale (p) di tale gas in equilibrio con tale liquido. Si tratta di un fattore molto importante per tutte le misure dell’ossigeno.

Le sonde normalmente rilevano anche il valore della temperatura, altro parametro di grande importanza. In sostanza una vasca di ossidazione è un reattore biologico. La temperatura di questo reattore non è però regolabile a piacere, ma subisce della variazioni stagionali, anche se non scende mai, di solito, a valori inferiori a 10-12°C, perlomeno in Italia.

(continua)

COP24: quali conclusioni?

In evidenza

Luigi Campanella, già Presidente SCI

Si è conclusa la COP24 che si è svolta a Katowice in Polonia. Si è discusso di impegni ed accordi globali per salvare il Pianeta. In molti workshop satelliti si sono poi affrontati argomenti più specifici. Il risultato più significativo credo sia rappresentato dalle attese regole sui meccanismi di trasparenza sull’implementazione degli impegni di riduzione delle emissioni e da indicazioni chiare per l’incremento a breve degli stessi. Questo risultato è la mediazione fra chi ha spinto per risultati più ambiziosi e chi ha frenato conducendo battaglie di retroguardia per cercare di indebolire i risultati finali. Il comunicato finale ha di conseguenza raccolto apprezzamenti ed insoddisfazioni. Fra i punti che mi sento di apprezzare sono la presenza fra i temi oggetto di monitoraggio di quello relativo all’uso e cambiamento d’uso di suoli e foreste e l’archiviazione della tradizionale differenziazione degli obblighi (la cosiddetta biforcazione) tra Paesi industrializzati e Paesi in via di sviluppo con l’adozione di regole comuni e la previsione di flessibilità per quei Paesi in via di sviluppo che ne necessitano in base alle loro capacità. E’ stato istituito il Forum sull’impatto delle misure di risposta al cambiamento climatico con il fine di permettere alle Parti di condividere in modo interattivo esperienze ed informazioni Per gli aspetti finanziari credo che il risultato più concreto sia quello di mobilitare 100 miliardi di dollari all’anno dal 2020 per sostenere i Paesi in via di sviluppo. La COP del 2019 si svolgerà in Cile e per quella del 2020 il nostro Ministro Costa ha presentato la candidatura dell’Italia.

Fra i workshop satelliti ho rilevato con una certa sorpresa che uno è stato dedicato all’energia nucleare all’interno del più ampio discorso della de-carbonizzazione del settore elettrico considerato passo essenziale per contrastare i cambiamenti climatici, se si pensa che la produzione di elettricità contribuisce per il 40% alle emissioni e che gas e carbone sono ancora le fonti principali che producono il 63% dell’elettricità. Un recente studio del MIT mostra come il costo della decarbonizzazione dell’elettricità sarebbe molto minore se nel cocktail di tecnologie alternative fosse presente anche il nucleare. Forse proprio questo studio ha spinto l’Associazione Mondiale per il Nucleare a rivendicare nella sede del Workshop i caratteri di questa tecnologia: basso contenuto di carbonio, basso livello di emissioni, elevata sicurezza. La stessa IPCC nel suo ultimo rapporto dettaglia ciò che è necessario fare per limitare il riscaldamento globale a 1,5°C sopra il livello preindustriale, osservando la elevata scalabilità del nucleare nei diversi Paesi ed evidenziando i successi della Francia che in meno di 20 anni ha massicciamente decarbonizzato la sua elettricità ricorrendo al nucleare. Nel 2018 il nucleare ha fornito nel mondo il 10,5% dell’energia totale con 6 nuovi reattori entrati in funzione* (fra Cina e Russia) e 14 da attivare nel 2019.

L’Italia dal referendum è fuori dal nucleare fra polemiche e dibattiti che di tanto in tanto si riaccendono; certo non si può dimenticare né l’aspetto dei costi né soprattutto quello della sicurezza: la densità di danno nel caso di un incidente è incommensurabilmente superiore a quella relativa a qualunque altro tipo di impianto. E aggiungiamo che nessun paese ha risolto il problema dell’immagazzinamento degli scarti della fissione nucleare da una parte e che i paesi da cui provengono i minerali usati soffrono seri problemi di inquinamento ambientale di lungo periodo. Questo complesso di problemi rende il nucleare poco appetibile specie nei paesi con una pubblica opinione libera; in Europa solo Francia e Finlandia hanno progetti nucleari in corso e di entrambi si sa che soffrono enormi problemi di attivazione sicura. L’esempio del reattore finlandese di Olkiluoto 3 (1600MW) i cui costi e tempi di costruzione sono triplicati (stimati a 9 miliardi di euro nel 2012, ma non più aggiornati) e non ancora conclusi dal 2005 è al momento un esempio vivente di questi problemi. Olkiluoto 4 non è più in programma. Flammanville 3 è nella medesima situazione di Olkiluoto 3, iniziato nel 2007 non si sa quando finirà e i costi sono arrivati a superare gli 11 miliardi di euro.

Piccola lezione sui fanghi di depurazione. 2. I controlli. Parte prima

In evidenza

Mauro Icardi

(la prima parte di questo post è qui)

Nella normativa relativa alla depurazione delle acque di scarico non è previsto l’obbligo di verificare le caratteristiche dei fanghi di depurazione, così come è invece previsto per la linea di trattamento delle acque reflue. Ma considerato che i fanghi sono prodotti proprio dal trattamento depurativo delle acque, terminati i processi di trattamento, quali ad esempio l’ispessimento, la digestione anaerobica, e la disidratazione, i fanghi che devono essere smaltiti diventano rifiuti speciali, identificati dai codici CER 190804 o 190805. In questo caso sono soggetti a controlli e adempimenti relativi alla gestione dei rifiuti, e quindi vengono verificate le concentrazioni limite degli inquinanti presenti che sono stati eliminati dall’acqua reflua depurata, prima di identificare la destinazione di smaltimento o di recupero. Le principali destinazioni dei fanghi possono essere per lo smaltimento la discarica o l’incenerimento, e nel caso del recupero principalmente il riutilizzo agricolo, che nell’ultimo periodo è stato molto criticato, sollevando dubbi nella pubblica opinione, ma anche problemi di gestione degli stessi fanghi. Vediamo quali sono i principali controlli che si possono effettuare sui fanghi, nelle varie fasi di trattamento.

Per effettuare una corretta gestione del processo depurativo si stabiliscono normalmente dei work planning aziendali, per determinare diversi parametri utili al controllo di processo in vasca di ossidazione. I principali controlli possono richiedere la verifica di parametri di tipo chimico, biologico, e tecnologico. Non è poi da trascurare l’osservazione diretta del comparto di ossidazione biologica. A volte, soprattutto dopo molti anni di lavoro, si riescono a identificare con il semplice colpo d’occhio eventuali disfunzioni del processo depurativo.

Una delle operazione più semplici da effettuarsi è quella della registrazione del valore della sedimentazione dei fanghi in cono Imhoff.

Il cono di Imhoff è un recipiente di vetro o materiale plastico a forma di cono, sorretto da un apposito sostegno. Il volume del cono di Imhoff è 1 litro, e la graduazione parte, e quindi ha lo zero, in corrispondenza del vertice del cono, e poi, procede verso l’alto. Con questa apparecchiatura molto semplice, si può verificare la tendenza alla sedimentazione di un fango prelevato nella fase di ossidazione, oppure di ricircolo di un impianto di depurazione biologica.

Nell’immagine si può vedere a sinistra un fango con buona tendenza alla sedimentazione, e con una divisione marcata dell’interfaccia fango/acqua chiarificata. Mentre a destra si vede un fango con caratteristiche piuttosto problematiche, e con una scarsa tendenza alla sedimentazione.

Praticamente il cono di Imhoff riproduce le condizioni di sedimentazione che si verificheranno poi nel sedimentatore dell’impianto di depurazione.

Associata a queste verifiche visuali, vi è la determinazione dell’indice di volume del fango sludge volume index, abbreviato in SVI. Per determinare questo parametro, si rileva semplicemente il volume di fango letto sulla scala graduata del cono Imhoff dopo 30 minuti di sedimentazione, e lo si divide per la concentrazione di fango espressa in g/lt ottenuta dopo filtrazione su carta da filtro e successiva evaporazione dell’acqua in stufa alla temperatura di 105° C. (SVI=volume del fango sedimentato [ml/l] / quantità di solidi sospesi [mg/l]).

Si ritiene che un fango abbia buone caratteristiche di sedimentabilità se ha uno SVI non superiore a 250 ml/lt.

Viene determinata poi anche la percentuale di sostanza organica volatile indicata come tenore delle materie secche volatili ; rappresenta la porzione di sostanza secca che viene eliminata per calcinazione alla temperatura di 550 °C e viene normalmente espressa come percentuale di materiale volatile sulla totalità del contenuto di sostanza secca.

La determinazione si effettua ponendo il filtro in un crogiolo di porcellana, e poi in forno elettrico a muffola.

Il valore del contenuto di sostanza secca del fango varia con il tipo di fango considerato: fango derivante dalla sedimentazione primaria, fango contenuto nella vasca di aerazione, fango del sedimentatore secondario, fango misto, fango parzialmente o totalmente mineralizzato, fango parzialmente ispessito ecc. In ogni caso tuttavia questo valore risulta molto basso, inferiore al 5% e in molti casi inferiore al 3%.

Altro controllo che si esegue è quello dell’analisi microscopica del fango attivo. Il processo a fanghi attivi ha lo scopo di raggiungere la massima riduzione di BOD e di nutrienti dai liquami trattati, con la minima produzione di fanghi biologici. I protisti sono importanti costituenti delle comunità implicate nella rimozione di sostanza organica biodegradabile e di batteri dispersi nella miscela aerata in questo tipo di processo di trattamento dei liquami. I trattamenti biologici, infatti, si basano sul processo di autodepurazione tipico dei corsi d’acqua quale risultato dell’attività delle comunità microbiche.

L’osservazione microscopica del fango di depurazione può dare importanti informazioni sull’equilibrio tra decompositori (batteri, funghi) che ricavano l’energia per il loro sviluppo dalla sostanza organica disciolta nel liquame, e consumatori (flagellati eterotrofici, ciliati, rizopodi, e piccoli metazoi) che predano i batteri dispersi e altri organismi.

I protozoi ciliati sono molto numerosi in tutti i tipi di processi di trattamento aerobico dei liquami, e la loro presenza diffusa è indice di un buon funzionamento della fase ossidazione biologica.

La pensione del platino-iridio.

In evidenza

Rinaldo Cervellati

Dal 2019 il campione in platino-iridio dell’unità di massa andrà definitivamente in pensione.

È quanto riporta Laura Howes nel numero del 16 novembre di Chemistry & Engineering newsletter. Con una votazione all’unanimità, la Commissione internazionale sui pesi e le misure riunitasi a Parigi il 15 novembre ha deciso che dal 20 maggio 2019 (giornata Mondiale della Metrologia), anche il kilogrammo, come ormai anche le altre sei unità di misura delle sei grandezze fondamentali del Sistema Internazionale (SI), lunghezza, tempo, temperatura termodinamica, corrente elettrica, intensità luminosa, quantità di sostanza, sarà ufficialmente definito in base a sette costanti fisiche (velocità della luce, costante di Planck, carica elettrica elementare, costante di Boltzmann, costante di Avogadro, frequenza della transizione iperfine nello stato fondamentale di Cs-133, efficienza della radiazione luminosa a 540´1012 Hz) piuttosto che in base a un artefatto. Vedremo che questo cambio di definizione comporta anche un cambio nella definizione di mole, l’unità di misura della settima grandezza fondamentale del SI, la quantità di sostanza.

Dal 1889, l’unità di massa SI, il kilogrammo, è ufficialmente definita uguale alla massa del prototipo internazionale di kilogrammo (International Prototype Kilogram, IPK). L’IPK è un cilindro di lega di platino/iridio conservato nel Bureau International des Poids et Mesures a Sèvres, vicino a Parigi.

L’IPK, cilindro in lega Pt/Ir che sarà presto ritirato, si trova a Parigi.

Quando l’IPK fu realizzato negli anni 80 del XIX secolo, furono replicati altri cilindri prototipo identici, che furono distribuiti in vari Paesi. Nel corso degli anni, l’IPK e gli altri prototipi hanno perso seppure impercettibilmente di massa.

Bill Phillips del NIST (Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti) ha descritto questa situazione come scandalosa. In effetti, le costanti fisiche sono oggi note con grande precisione il che consente di fare calcoli accuratissimi, come ad esempio quelli che sono stati necessari per far appoggiare le due sonde sulla superficie di Marte praticamente nel punto previsto. Sebbene la maggior parte delle persone non noterà il cambiamento, la maggiore precisione renderà il sistema SI più robusto, afferma Frank Härtig dell’Istituto Nazionale di Metrologia della Germania (PTB). “Abbiamo possibilità completamente nuove“, spiega, aggiungendo che, “poiché le tecniche analitiche diventano più avanzate e possono misurare quantità sempre minori di materiale, le nuove definizioni assicurano che tali misurazioni siano precise.

Il kilogrammo è ora definito come:

Il kilogrammo è definito assumendo la costante di Planck h esattamente uguale a 6.62607015×10-34 Js (J = kgm2s-2), date le definizioni di metro e di secondo. [1, p.14]

Queste ultime sono rispettivamente:

 Si definisce metro la distanza percorsa dalla luce nel vuoto in (1/299792458) secondo. [1, p.14]

Si definisce secondo la durata di 9192631770 periodi della radiazione corrispondente alla transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio-133. [1, p.13]

 Come già ricordato la nuova definizione dell’unità di massa implica un cambiamento nella definizione di mole che faceva riferimento all’IPK:

Si definisce mole la quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0.012 chilogrammi di carbonio-12.

A questa definizione seguiva l’aggiunta:

il Numero di Avogadro, rappresentato con il simbolo NA, è definito come il numero di atomi dell’isotopo C-12 contenuti in esattamente 0.012 kg di C-12.

Nella nuova definizione di mole il Numero di Avogadro entra direttamente nella definizione:

Si definisce mole la quantità di sostanza corrispondente a esattamente 6.02214076×1023 entità elementari. Questo numero è il valore numerico della costante di Avogadro, NA, quando espresso nell’unità mol-1 e viene chiamato numero di Avogadro. Un’entità elementare può essere un atomo, una molecola, uno ione, un elettrone, qualsiasi altra particella o gruppo specifico di particelle. [1, p.17]

Per completezza si riportano anche le nuove definizioni delle unità di misura delle altre tre unità fondamentali: carica elettrica, temperatura termodinamica e intensità luminosa.

L’ampère è definito in base al valore numerico della carica elementare, 1.602176634 × 10-19 C

(C = As), data la definizione di secondo.[1, p. 15]

Il kelvin è definito in base al valore numerico fisso della costante di Boltzmann k, 1.380649 × 10-23 JK-1, (J = kgm2s-2), date la definizione di kilogrammo, metro e secondo. [1, p.15]

L’intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza 5.4 × 1014 hertz e che ha un’intensità radiante in quella direzione di (1/683) watt per steradiante. [1, p. 18]

Per consentire le nuove definizioni, le costanti fisiche hanno dovuto essere misurate con grande precisione e con un alto grado di accuratezza. Questo lavoro ha richiesto oltre 10 anni e ha dato luogo a diverse scoperte tecnologiche. Frank Härtig afferma che si è trattato di una “competizione tra amici”: diversi istituti metrologici si sono contesi la misura più accurata e precisa per le costanti fisiche.

Per misurare il valore della costante di Planck sono entrati in competizione due metodi indipendenti. La bilancia Kibble, che ha vinto, compensa il peso di una massa di prova contro la forza prodotta quando una corrente elettrica attraversa una bobina di filo sospeso in un campo magnetico. Due diverse bilance Kibble, una al NIST e l’altra al National Research Council del Canada, hanno fornito lo stesso valore per h: 6.62607015×10-34 J s.

Bilancia Kibble

Il metodo che non ha vinto, chiamato il metodo di conteggio, in realtà ha reso possibile la determinazione del numero di Avogadro. Il gruppo di Härtig al PTB ha realizzato sferette incredibilmente precise arricchite nell’isotopo silicio-28 e misurato i loro volumi per via interferometrica.

Interferometro sferico in grado di misurare fino a pochi nanometri.

Robert Vocke e Savelas Raab del NIST hanno poi lavorato per determinare le proporzioni precise degli isotopi di silicio nel reticolo cristallino con la spettrometria di massa. Con il volume preciso della sfera e la composizione del reticolo cristallino nota, gli scienziati hanno potuto determinare il valore di NA come 6.02214076×1023 mol-1.

Va tuttavia ricordato che la prima idea di un metodo di conteggio venne all’italiano Claudio Egidi, un ricercatore del prestigioso istituto di metrologia Galileo Ferraris (oggi INRiM) che la pubblicò nel 1963 su Nature [2] ma non fu presa in considerazione.

Molti ricercatori che hanno collaborato a questa impresa, intervistati da C&EN, hanno descritto il compito di ridefinire le unità SI come punto culminante della loro carriera scientifica, un’opportunità unica di far parte di un evento destinato a cambiare un’epoca. Hanno sottolineato il cambiamento filosofico nel passaggio da definizioni basate su artefatti e quantità terrestri a costanti fisiche che manterranno il loro significato oltre la Terra. Härtig afferma che ciò permetterà a “altre culture intelligenti di capire ciò che intendiamo quando parliamo di ”kilogrammo”, “secondo”, ecc.

Bill Phillips, Nobel per la Fisica 1997   Frank Härtig

I libri di testo scientifici dovranno essere rimaneggiati in base alle nuove definizioni? Andando in classe, quei libri di testo riscritti potrebbero effettivamente rendere le cose più facili per gli studenti che affrontano il concetto di mole. Pedagogicamente, dice Marcy Towns della Purdue University, la nuova definizione non è un grande cambiamento. “Se si legge la letteratura didattica”, spiega, “gli studenti comprendono la definizione della mole in termini di 6.022´1023 particelle, e gli insegnanti usano molto questa definizione piuttosto che quella basata su 0.012 kg di C-12”.

Su questo sono abbastanza d’accordo, mi sembra più arduo spiegare a studenti della scuola dell’obbligo le definizioni di metro, secondo e kilogrammo…qualche suggerimento didattico?

Infine, un’osservazione: la settima grandezza fondamentale del SI fu introdotta nel 1960 per rimarcare la natura particellare della materia che non emergeva dalla definizione di massa, e fu chiamata amount of substance, unità di misura mole (mol). Sulla parola “substance” (it: sostanza, fr: substance, de: substanz, es: sustancia, el: ουσία per limitarci all’eurozona) si accese un vivace dibattito sulle principali riviste di didattica chimica, J. Chem. Educ., Educ. Chem., ecc., sia perché la parola “sostanza” ha significati diversi in discipline diverse, sia perché il concetto di sostanza (pura) è ritenuto un nodo concettuale all’apprendimento della chimica (Leonello Paoloni, Nuova Didattica della Chimica, Bracciodieta, Palermo, 1982, pp. 89-91). È comunque un fatto che la chimica cominciò ad affermarsi come scienza nella seconda metà del XVIII secolo quando furono stabiliti metodi per determinare il grado di purezza delle sostanze rendendo così operativo il concetto di sostanza (pura).

Fu proposto di sostituire sostanza con materia, qualcuno propose perfino il cambio di nome in chemical amount ma il nome è rimasto amount of substance. Voi che ne pensate?

Bibliografia

[1] Bureau International des Poids et Mesures, The International System of Units (SI) Bozza, 9th edition 2019. https://www.bipm.org/utils/en/pdf/si-revised-brochure/Draft-SI-Brochure-2018.pdf

[2] C. Egidi, Phantasies on a Natural Unity of Mass, Nature, 1963, 200, 61-62.

L’aria di Katowice e le biomasse.

In evidenza

Luigi Campanella, già Presidente SCI

Per capire l’aria che tira a Katowice nella COP24 è veramente istruttiva la discussione che si è svolta nella giornata di sabato e di cui sono stati dalla stampa riportati ampi resoconti. In occasione della plenaria di chiusura del 49° meeting del SBSTA (Subsidiary Body for Scientific and Technological Advice), dopo l’approvazione di numerosi documenti, anche importanti, a sostegno dell’accordo di Parigi del 2015 sul clima, la discussione si è impantanata sull’approvazione del documento su Research and Systematic observations preparato nella settimana.

Si tratta di un documento in cui il SBSTA saluta come “benvenuta” (in inglese welcomed) una serie di dichiarazioni, lavori e documenti scientifici, tra i quali la Dichiarazione sullo stato globale del clima, il Bollettino sui gas-serra, la dichiarazione sui progressi conseguiti nel Sistema globale di osservazione del clima, la dichiarazione del programma di ricerca sul clima mondiale, le osservazioni terrestri da satellite. Una frase ha innescato la polemica, la sostituzione richiesta da alcuni Paesi della parola “welcomed”, che per l’appunto saluta come benvenuta la serie con “noted” cioè ha preso atto. Su questa alternativa si è discusso per oltre 2 ore.

La differenza non è solo terminologica: se si dà il benvenuto ad un documento poi non si può procedere in direzione opposta a quella indicata in termini di emissione di gas serra, di uso del carbone quale combustibile di poIitica energetica. I Paesi che hanno chiesto di prendere atto e non di dare il benvenuto sono Arabia Saudita, Kuwait, Federazione Russa e Stati Uniti, tutti Paesi nei quali gli interessi economici legati alle fonti energetiche fossili sono rilevanti. Il risultato è stato che il documento non trovando un’unanimità non è stato approvato, suscitando per tale conclusione numerose proteste con dichiarazioni di adesione al testo di benvenuto. Il 7% della popolazione (quello corrispondente ai suddetti 4 Paesi), ha così bloccato un’approvazione importante perché capace di formalizzare l’adesione a documenti di provenienza strettamente scientifica e tecnologica.Mentre avviene tutto questo, a dimostrazione dello scontro sul clima in atto nel mondo, non solo orientale, ma anche occidentale, l’editrice Alkes ha distribuito un interessante documento sulle fake news in campo ambientale in particolare affrontando un tema di grande attualità, quello relativo alle biomasse (http://www.nuova-energia.com/index.php?option=com_content&task=view&id=5548&Itemid=113). Proposta come una possibile soluzione rispetto a produzioni energetiche capaci di riciclare gli scarti e rispettose dell’ambiente di recente è stata attaccata in quanto concorrenziale con un ben più “degno” uso delle aree ad essa dedicate, quello per le produzioni alimentari, in quanto economicamente non sostenibile per le PMI, in quanto collegata a deforestazioni selvagge, in quanto inquinante. In effetti sappiamo che si tratta di critiche effettive, ma parziali, il discorso è complesso.

Oggi in Italia le bioenergie impegnano circa 300 mila ettari pari a circa il 2,3% della superficie agricola, dunque in Italia non c’è concorrenza fra le due cose; la superficie forestale italiana in 50 anni si è raddoppiata (da 5,5 a 11 ) milioni di ettari, dunque anche senza colture dedicate le disponibilità di biomassa sono significative (30 milioni di tonnellate di biomasse ligno-cellulosiche); le centrali a biomasse non sono inceneritori e richiedono specifiche autorizzazioni per essere realizzate; in Italia sono stati realizzati oltre 1500 impianti a biogas per una potenza complessiva di circa 12GW bene integrati nel contesto agricolo nazionale (si tenga però presente che SE si fa uso di tecniche intensive di coltivazione ed allevamento il biogas contiene una porzione di energia primaria tratta dal petrolio).

E’ chiaro che le biomasse DA SOLE non sono una soluzione al problema energetico anche data la loro bassa densità energetica per unità di superficie, l’inquinamento ambientale evidenziabile in contesti cittadini e anche il ciclo di vita LCA che (considerando l’energia di trasporto o i contributi primari fossili) ne abbassa la sostenibilità; tuttavia il loro uso può essere un contributo, la cui utilità dipende dal contesto, al passaggio a forme rinnovabili e sostenibili di energia primaria in un quadro energetico nazionale da rinnovare significativamente.

In conclusione, per rendere realmente utile alla produzione di energia pulita una centrale a biomasse, il legislatore, dovrebbe anche chiarire cosa ci possa finire dentro, perché norme troppo vaghe sono altamente pericolose per la comunità, visto che, come detto, lì dentro ci potrebbero finirebbero pure materiali che di bio non hanno proprio niente.

https://www.tuttogreen.it/centrali-a-biomasse-sono-davvero-eco/

Lo strano caso della chiesa di S. Lamberto e della foresta di Hambach.

In evidenza

Claudio Della Volpe

Mentre prosegue l’incontro di Katowice, COP24, voglio raccontarvi una storia esemplare delle contraddizioni in cui si trova la transizione energetica in Europa e in particolare in quella Germania che rappresenta una sorta di “paese guida” europeo; vedremo fra un momento che questo ruolo di guida nasconde in realtà parecchia polvere sotto il tappeto. Tutti i commentatori si sono dilungati sulle contraddizioni polacche, Katowice è a pochi chilometri da grandi miniere di carbone e la Polonia non intende rinunciarvi. Katowice è la capitale del carbone. Ma la Germania è un esempio ancora migliore.

I due luoghi di cui parlo oggi sono nella Renania, la zona occidentale della Germania al confine con Olanda, Belgio, Lussemburgo e Francia; a nord abbiamo la Renania Settentrionale-Westfalia (Nordrhein-Westfalen), capoluogo Dusseldorf e a sud la Renania Palatinato (Rheinland-Pfalz), capoluogo Magonza, entrambe, insieme alla Saar (Saarland), costituiscono un bacino minerario storico della Germania.Questa regione occidentale è ricca di carbone sia di tipo antracitico che lignitico, che si è formato nel corso di decine di milioni di anni dalla degradazione più o meno completa di enormi foreste che ricoprivano la zona. Non è l’unica regione della Germania con questa risorsa, ma è quella con il più alto tasso di lignite. La lignite (alta umidità relativa superiore al 21%, incompleta carbonificazione) è di limitato pregio perché è meno energetica per unità di massa e dunque più marcata fonte di inquinamento ambientale ma anche climatico rispetto ad altri tipi di carbone.

Si presenta con colore da bruno a nero, tanto da essere chiamata carbone bruno; ha un potere calorifico superiore (PCS, senza escludere l’energia di evaporazione dell’acqua) inferiore a 24 MJ/kg (5.700 kcal/kg) , considerando la sostanza senza ceneri (contro una media di 35 dell’antracite e di 42 del petrolio).

La Germania è ad oggi la principale produttrice mondiale di lignite, uno dei principali esportatori ma soprattutto utilizzatori di questo combustibile fossile da cui ricava buona parte della propria elettricità; soprattutto da quando nel 2011, dopo l’incidente di Fukushima ha deciso di spegnere le centrali nucleari entro il 2030. Dunque la verde Germania, con la più alta quantità di rinnovabili al mondo conserva un segreto, tutto sommato ben custodito, nel fatto che mentre chiudeva le sue centrali nucleari le sostituiva con un buon numero di centrali a carbone, che costituiscono oggi la sua “base produttiva” elettrica con quasi 300TWh anno, una quantità pari al consumo totale italiano di energia elettrica.

Se si guardano i numeri sul sito della AGEB, si vede che effettivamente la Germania dal 1995 pur avendo diminuito l’uso del nucleare, dell’antracite… e del gas naturale, e pur avendo certamente incrementato l’efficienza complessiva delle sue centrali ed ovviamente pur avendo incrementato di parecchio l’uso delle rinnovabili, che coprono una parte significativa del consumo, ha incrementato l’uso della lignite. Anzi la lignite è stata uno dei mezzi per uscire dalla crisi del 2008. Nonostante l’impetuosa crescita delle rinnovabili, il paese non raggiungerà il taglio previsto delle emissioni al 2020 per parecchi punti di scarto.

Questa scelta è solo economica dato che si tratta di una risorsa interna e a basso costo per lo meno economico, ma come vedremo con alti costi ambientali; si sarebbe potuto fare diversamente, incrementando ulteriormente le rinnovabili, si sarebbero potute usare centrali a gas che invece sono state chiuse o anche basandosi, come fa l’Italia, sulla produzione in eccesso di altri paesi che volentieri vendono la loro energia elettrica in quanto i loro impianti nucleari (o idroelettrici ) DEVONO liberarsi dell’eccesso di produzione anche senza mercato interno. In quasi tutta Europa questi impianti sono in eccesso rispetto al fabbisogno, immani cattedrali di capitale fisso che se rimangono prive di remunerazione si mascherano dietro i pochi posti di lavoro supportati e urlano la loro fame di profitto ogni giorno. Non potete regolare la produzione di una centrale nucleare, dovete tirarla sempre al massimo, un sistema rigidissimo; ed è da dire che anche le centrali a carbone sono parecchio rigide da questo punto di vista, al contrario di quelle a gas, sono adatte solo a far da “base” e sono state usate così dai tedeschi.

I due casi a cui facevo riferimento all’inizio sono proprio questo, il costo ambientale e culturale della lignite; la foresta di Hambach che vedete qui sotto è meno di un decimo (200 ettari) della foresta originale ricca di alberi secolari e al cui confine si apre la più grande miniera a cielo aperto di lignite di tutta Europa, denominata anch’essa Hambach (a sinistra nella foto).Notate nella parte inferiore della foto lo scavo ripidissimo. La collina artificiale che vedete, che si viene a creare a causa dell’estesa coltivazione superficiale della miniera, Sophienhöhe, 6 km ad est della città Julich all’estremità NE della miniera è la più alta d’Europa, 293 metri sul livello del mare ma anche quasi 600m sopra il punto più basso degli scavi, che a loro volta costituiscono il punto più basso del territorio europeo, con quasi 300m di dislivello negativo.

Durante quest’anno è venuta a compimento una lotta fra gli ambientalisti radicali tedeschi e la RWE, la compagnia che estrae la lignite; grazie alla dura opposizione esercitata dagli ambientalisti anarchici che hanno dormito sugli alberi per settimane e grazie anche alle vittime che ci sono state durante questo periodo (il giornalista Steffen Meyns, che si era arrampicato per seguire l’operazione, era morto cadendo da una passerella tra due alberi), l’abbattimento della foresta che era stato programmato è stato interrotto dalla magistratura anche se la lotta in tribunale continuerà per altri anni.L’altro episodio analogo ha avuto conclusione opposta e costituisce l’altra faccia della medaglia. La chiesa di S. Lamberto, localmente nota come Immerather Dom, che vedete sotto, era un esempio di stile neoromanico situata a Immerath, una frazione di Erkelenz. Risalente al XII secolo nella sua forma originaria ed ampliata in anni successivi, è stata abbattuta a gennaio 2018, seguendo il destino del resto della cittadina, per far posto ad una miniera di lignite di proprietà della solita RWE.Ma pensate che l’intera cittadina di Immerath si trovava sul percorso previsto per l’estensione della miniera di Garzweiler, il sito di estrazione di lignite operato dalla società tedesca RWE; già nei primi anni 2010 la società aveva demolito e ricostruito gran parte degli edifici di Immerath su un nuovo sito, incluso il cimitero (esumando e trasferendo i corpi già sepolti).La chiesa stessa è stata ricostruita altrove in forma moderna. Stavolta non ci sono stati conflitti duri (oltre la resistenza pacifica dei verdi) ma pagamenti, scambi economici e poi silenzio contro devastazioni ambientali.Potreste dire che forse per una vecchia chiesa non vale la pena di far baccano; ma guardiamo le cose più da vicino.Panoramica della miniera di Garzweiler. Sullo sfondo le centrali termiche che utilizzano la lignite estratta. Da http://www.mining-technology.com/projects/rhineland/

Un buco gigantesco di dimensioni analoghe a quelle di Hambach con una serie non banale di effetti collaterali; infatti lo scavo altera in modo irrimediabile la falda acquifera.

100 milioni di tonnellate di lignite vengono estratte dalle varie miniere della zona e, per tale produzione, vengono rimossi e spostati annualmente circa 450 milioni di metri cubi di argille, sabbie e conglomerati sovrastanti lo strato di lignite (nell’area infatti si individuano facilmente significative colline artificiali).

Lo strato di lignite si trova a varie profondità e per estrarlo occorre quindi abbassare la falda acquifera (in termini tecnici tale operazione è chiamata dewatering). In tutta l’area, sono quindi in azione giganteschi e sofisticati sistemi di pompaggio in grado di estrarre annualmente enormi quantità di acqua di falda senza compromettere, stando ai dati ufficiali, il fabbisogno idrico delle comunità ubicate nelle vicinanze delle cave.

Così come descritti, ad un lettore possono sembrare dati un po’ freddi ma, se confrontiamo le superfici utilizzate,credo che risulti chiara la situazione esistente. A tale scopo sono state messe a confronto solo le  superfici di scavo delle tre miniere con quelle  di Roma e Milano.Immagini riprese da Google maps alla stessa scala. Le tre miniere sono al centro. Inden la più piccola, Hambach la più grande e Garzweiler quella più in alto. A destra in alto il comune di Milano ed  a sinistra l’estensione di Roma all’interno del Grande Raccordo Anulare (GRA).

La figura ci dice che l’area oggetto di scavo ( da assommare poi a quella utilizzata per lo stoccaggio dei sedimenti che ricoprono lo strato di lignite) è più grande di quella del comune di Milano e grande come l’area di  Roma all’interno del GRA. A questo si deve aggiungere che l’attività estrattiva ha comportato la distruzione di villaggi e la loro ricollocazione in altre aree; dal 1948 sono state spostate circa 30.000 persone.

da http://astrolabio.amicidellaterra.it/node/526

Ecco questi sono gli effetti nella verde Germania (che è certamente dotata del più ampio apparato fotovoltaico europeo) delle contraddizioni della transizione energetica. A voi ogni ulteriore commento.In questa vignetta i cicloamatori tedeschi fanno dire alla Merkel: Oh, dite che le bici sono fatte dal carbone? Grande opportunità per l’estrazione mineraria!

da https://www.roadbike.de/news/angela-merkel-und-das-fahrrad-was-die-kanzerlin-auf-der-eurobike-nicht-gesagt-hat.865692.9.htm#1

per approfondire

http://dataenergia.altervista.org/portale/?q=consumo_produzione_energia_elettrica_germania

https://gloria.tv/article/Ca4PVUKybkpK1tJoqVkNfZN6D

COP24, cosa ci aspettiamo.

In evidenza

Luigi Campanella, già Presidente SCI

E’ partito il 3 dicembre in Polonia, più precisamente in Slesia, Katowice, la COP 24 (Conferenza delle Parti all’interno della più generale Conferenza delle Nazioni Unite sul clima).

Sembra un’ironia, ma Katowice si trova a 150 Km dalla centrale elettrica a carbone, indicata nel 2014 dalla C.E. come la più dannosa nell’Unione Europea. Sono attese le linee guida, il cosiddetto Rule book, per rendere operativo l’accordo di Parigi del 2015.

Si tratta forse di uno degli ultimi appelli ancora validi per salvare il nostro pianeta. Gli scienziati parlano di solo 12 anni da ora rimasti per agire in modo decisivo per salvare in Pianeta.

Durerà 11 giorni e le attese per gli esiti dell’evento sono molto forti, anche se il carattere tecnico più che politico della manifestazione, raffredda molti entusiasmi. Il punto fondamentale riguarda il rispetto dell’intesa per limitare a due gradi centigradi il riscaldamento globale. Correlati ad esso sono i problemi relativi ai finanziamenti della decarbonizzazione, all’adattamento ed al trasferimento di tecnologie sostenibili innovative, ai meccanismi e agli attori delle fasi di controllo. Secondo gli esperti l’Europa si trova nelle condizioni, rispetto a questi problemi, di conseguire i risultati attesi ed, addirittura, di modificarli in meglio, andando ben oltre il 55% di riduzione delle emissioni entro il 2030.

All’evento partecipano 30000 fra delegati e visitatori provenienti da tutto il mondo. Il mancato carattere politico, a cui prima si accennava, ha fatto considerare da qualcuno COP24 come inutile. Credo sia errata tale valutazione. L’evento polacco fa parte di un percorso definito, ogni tappa del quale ha un suo significato: annullarla avrebbe effetti molto negativi rispetto alla fiducia dei cittadini nel buon esito del processo in atto. D’altra parte per esso si possono individuare elementi di fiducia quali il disaccoppiamento fra crescita del PIL e delle emissioni, l’aumento del ricorso alle energie rinnovabili, gli impegni di contenimento delle emissioni. Su quest’ultimo punto pesa il fatto che esso non riguarda tutti i Paesi firmatari dell’accordo di Parigi, dal quale in particolare gli USA si sono ritirati. Anche in questo caso però a parziale consolazione c’è da dire che ampie Regioni degli USA, come California, New York, Washington ed altre istituzioni americane hanno di fatto annunciato il loro continuato impegno. Quindi credo che sia necessario dare fiducia e credibilità all’incontro, alternativa al quale sarebbe solo sperare nelle singole iniziative con ben più scarse probabilità di successo.

Si veda anche

http://www.climalteranti.it/2018/12/09/un-momento-di-chiarezza-alla-cop24/

e

http://www.climalteranti.it/2018/12/02/raccontare-la-cop24-i-5-errori-da-non-commettere/

Scienza e politica, un aggiornamento.

In evidenza

Claudio Della Volpe

Personalmente sono stato sempre politicamente impegnato; ma negli ultimi anni è cambiato qualcosa. Prima sembrava che tutto sommato l’essere impegnati politicamente fosse un di più rispetto alla scienza o forse una sorta di noblesse oblige. Dopo tutto fra scienza e politica non c’erano, non sembravano esserci (ad una riflessione superficiale) legami immediati.

Non era così, ma sembrava.

Adesso non sembra nemmeno più così, adesso è palese che molti temi scientifici siano immediatamente politici: ambiente, clima, risorse, vaccini, inquinamento, etc. Non c’è più spazio per essere e rimanere in una torre d’avorio, come tradizione dell’intellettuale.

Che uno scienziato debba essere politicamente impegnato non tutti sono d’accordo; anzi. Qualcuno sostiene che proprio perchè si è scienziati occorra rimanere neutri nell’agone politico per non sembrare “di parte”. La questione è che non è detto che la scienza non sia o debba essere “di parte”.

Capisco di sembrare politicamente scorretto, ma forse è perchè non ci capiamo. Riprovo.

Non tutti sanno che molti dei nomi più famosi della chimica nazionale ed internazionale erano impegnati politicamente tanto da essere perseguiti dai politici dell’epoca. In un articolo che scrissi su C&I nel 2011 (C&I ottobre 2011 p.144-145) ricordavo alcuni di questi nomi: Avogadro e Cannizzaro per esempio ma anche Errera e Giua, Levi, alcuni definiti terroristi dalle leggi della loro epoca; oppure quelli meno conosciuti e rivendicati che abbiamo elencato in un articolo sul 25 aprile su questo stesso blog (Lepetit, Mattei, Kaminka, Ceva, Reinach).

Erano tanti, tantissimi.

Uno di costoro scriveva:A livello internazionale ricordo un nome fra tutti, Soddy, premio Nobel nel 1921 per la scoperta degli isotopi; come ricordava Giorgio Nebbia in un articolo su questo blog

Soddy ottenne la cattedra di chimica a Oxford nel 1919, ma nel mondo accademico fu sempre considerato “strano” per le sue incursioni in campi non strettamente chimici. Soddy si mise in pensione anticipatamente nel 1936, dopo la morte dell’amata moglie, e morì nel 1956 a 79 anni, amareggiato per la poca attenzione ricevuta dai suoi studi. Una attenta lettura dei suoi scritti (pochi tradotti in italiano) permette invece di riconoscerlo come un precursore dell’analisi dei problemi ambientali attuali, come ha messo in evidenza lo storico Martinez-Alier nel suo libro “Economia ecologica”. Per questo, oltre che per la sua scoperta degli isotopi, Soddy meriterebbe di essere meglio conosciuto e studiato se si vuole capire qualcosa di quanto ci sta aspettando.”

La situazione è cambiata in tempi recenti. Sappiamo che 18 premi Nobel (fra i quali 5 chimici) hanno pubblicamente affermato la necessità di cambiare direzione nel campo dell’uso di energia e materiali (https://en.wikipedia.org/wiki/Stockholm_Memorandum), argomento fortemente ribadito da molti colleghi italiani in tempi recenti: Tiezzi, Dondi, Guido Barone, e più di recente Balzani, Armaroli, Luca Pardi, Ugo Bardi, tutti chimici e tutti fortemente schierati per un profondo cambiamento nel nostro modo di vivere e gestire il rapporto fra noi e la Natura e fra noi stessi.

( si vedano anche miei articoli del 2011 su C&I: C&I luglio agosto 2011, p. 138 e C&I sett. 2011 p.150)

Ora la questione è che per fare tutto ciò ci vuole una decisa azione Politica (con P maiuscola) e dunque una intensa partecipazione alla vita politica dei paesi.

In effetti alcuni eventi recenti vanno in questa direzione.

In USA, come apprendiamo da Nature e Scientific American le ultime elezioni hanno visto una intensa partecipazione alle elezioni di scienziati apertamente schierati contro i passi indietro e gli attacchi alla scienza della amministrazione Trump (Nature nov. 2018: Science candidates prevail in US midterm elections ).

E in Italia quale è la situazione? Quanti chimici partecipano alla vita politica del paese?

Se andiamo a guardare l’ultima legislatura, la XVIII troviamo in parlamento 8 chimici (fra chimici, chimici CTF, ingegneri chimici) che sono i seguenti:

XVIII legislatura

221 laureati su 320 senatori

436 laureati su 630 deputati

totale 657 laureati su 950 eletti (oltre due terzi)

8 Parlamentari laureati in Chimica, CTF o ing. Chimica 1.2% dei laureati eletti (spero di non aver dimenticato nessuno se no segnalatemelo)

(noto di passaggio che nella popolazione generale 60.5 milioni di cui 6 milioni laureati ci sono circa 100.000 chimici (stima mia) dunque fra 1 e 2%)

Tutti eletti M5S eccetto Benamati e Patriarca, eletti col PD.

Marco Bella chimico, PhD, M5S (ha una rubrica su Il Fatto quotidiano)

Sara Cunial chimico industriale, M5S

Francesco D’Uva – chimico, M5S

Gianluca Benamati – chimico, PD

Alessandro Melicchio CTF, PhD, M5S

Caterina Licatini CTF e Laurea in tecniche della prevenzione nell’ambiente e nei luoghi di lavoro, M5S

Filippo Scerra, ing. Chimico, M5S

Edoardo Patriarca, PD, senato, chimico

Vedremo cosa faranno i chimici in questa legislatura, perchè di cose da fare ce ne sono tante a partire dall’impegno del nostro paese contro i cambiamenti climatici, che è in discussione in questi giorni in Polonia al COP24 di Katowice, dove occorrerà mettere nero su bianco quali impegni si prendono per mantenere l’aumento di temperatura media sotto il grado e mezzo.

La prima donna professore ordinario in una facoltà scientifica in Belgio: Lucia de Brouckère (1904-1982)

In evidenza

Rinaldo Cervellati

Lucia Florence Charlotte de Brouckère è stata la prima donna a diventare professore ordinario di chimica all’Université Libre de Bruxelles, didatta eccezionale. A lei è intitolata la Haute Ecole Lucia de Brouchère (HSLdB), fondata nel 1996 dalla fusione di cinque istituti di alta istruzione superiore.

Lucia nacque il 13 luglio 1904 a Saint – Gilles (Belgio), figlia di Gertrude Guïnsbourg e Louis de Brouckère, famoso politico socialista del XIX secolo e principale portavoce della sinistra del POB.[1]

Fin da bambina nutre un’ammirazione sconfinata per gli ideali di libertà e uguaglianza del padre e per il suo attivismo nel perseguirli. Di conseguenza, lei stessa si impegnerà attivamente per tutta la vita. Una parte dell’infanzia e della prima educazione di Lucia avvengono ovviamente in Belgio, ma nel 1914, allo scoppio della 1° Guerra Mondiale la famiglia si trasferisce in Inghilterra, dove Lucia riceve gran parte dell’educazione secondaria superiore. Tornata in Belgio alla fine del 1918, completati gli studi liceali, pur provando interesse per la storia, Lucia si iscrive nel 1923 all’Università Libera di Bruxelles scegliendo di studiare scienze, e in particolare chimica.

Secondo Brigitte Van Tiggelen, biografa di Lucia, questa scelta fu dovuta all’ammirazione che essa provava per Daisy Verhoogen[2], divenuta chef des travaux[3] (supervisore) nel laboratorio di chimica organica di Georges Chavannes, in seguito di Henry Wuyts e poi di Richard – Henri Martin all’ULB. Non è da escludere, anzi è probabile, che Lucia de Brouckère abbia seguito le lezioni di Verhoogen o sia stata da lei assistita nel laboratorio didattico di preparazioni organiche.

Nel 1927 Lucia discute la tesi: L’absorption des électrolytes par les surfaces cristallines, per la quale ottiene il dottorato in chimica e un premio dall’Académie Royal de Belgique. La sua completa ricerca riguardava l’assorbimento di ioni metallici da parte di superfici cristalline usando quattro diverse tecniche sperimentali per confrontare i risultati. Precisione e rigore sono le caratteristiche del suo lavoro sperimentale. Fra l’altro, essa dimostrò che lo ione triioduro si fissa perpendicolarmente alla superficie del solfato di bario. Questa conclusione portò a una controversia con l’americano I.M. Kolthoff[4]. La divergenza fu risolta quando i due chimici, scambiandosi i campioni, scopersero che erano stati preparati in due modi diversi.

Nello stesso anno è nominata assistente del prof. Jean Timmemans nella sezione di chimica fisica e del prof. Alexandre Pinkus nel laboratorio di chimica analitica.

Lucia de Brouckère

Dal 1930 al 1932 Lucia è stata docente incaricata a Gand, diventando la prima donna a insegnare in una Facoltà di Scienze in Belgio. Nel 1933 è nominata “aggregato all’insegnamento della chimica” e, da1937 al 1940, le fu affidato il corso di Elementi di Chimica Generale alla Libera Università di Bruxelles.

Allo scoppio della 2a Guerra Mondiale emigra con il padre in Inghilterra, dove studia la corrosione del piombo da parte dell’acqua di rubinetto e delle leghe alluminio-magnesio da parte dell’aria atmosferica e, più direttamente connesse alla guerra, la corrosione dei contatti di rame nei carri armati dovuta alla sabbia del deserto. Nel 1944, de Brouckère prese la direzione della sezione Industrie Chimiche al ministero degli affari economici del governo belga in esilio a Londres. Questa esperienza, collegata a un’importante funzione, le permetterà di sperare in una promozione al suo ritorno in Belgio.

Tornata in Belgio alla fine del 1944, si dedica immediatamente alla riorganizzazione dei curricola di chimica trovando finanziamenti per invitare professori stranieri. Fu nominata professore ordinario nel 1945. L’anno successivo divenne Direttore del Laboratorio di Chimica Generale e nel 1951 direttore del Laboratorio di Chimica Inorganica e Analitica.

In questo periodo si interessò ai colloidi e alle macromolecole dei quali studiò le proprietà chimico fisiche in soluzione. Per alcuni anni de Brouckère collaborò con Ilya Prigogine[5] allo studio sperimentale della termodinamica in fase liquida mentre la parte teorica fu affrontata da Prigogine. Nel 1953 le fu assegnato il premio Wetrems dall’Académie Royale de Belgique in onore del suo lavoro scientifico.

Come professore ordinario le fu affidato il corso di Chimica Generale per le matricole, Lucia ne rivoluzionerà l’impostazione didattica trasformandola da mnemonico descrittiva a basata sui principi e il ragionamento e su numerosi originali esperimenti di laboratorio.

De Brouckère in laboratorio didattico

Negli anni le furono affidati altri insegnamenti, fra cui quelli di chimica fisica e chimica analitica e il suo lavoro di ricerca rallentò di conseguenza a partire dagli anni ’60. Ebbe numerosi incarichi accademici. Preside della Facoltà di Scienze 1962-63, membro del Consiglio di Amministrazione delle Istituzioni Internazionali Solvay di Fisica e Chimica dal 1965. Al fine di incoraggiare la nascita di vocazioni nei giovani, partecipò alla fondazione dell’associazione Jeunesses Scientists e di un Centro universitario per i film scientifici.

Per la sua lunga carriera professionale fu nominata professore emerito nell’ottobre del 1974.

Interessata all’evoluzione dei concetti base della scienza, de Brouckère scrisse il libro: Évolution de la pensée scientifique: évolution des notions d’atome, et d’élément (Bruxelles, 1982).

Lucia de Brouckère non si dedicò solo all’insegnamento e all’attività scientifica, ma anche ad attività nel sociale. Per tutta la vita è stata in prima fila nella difesa delle libertà, del pensiero democratico e dei diritti delle donne. Nel 1934 è stata eletta Presidente del Comitato mondiale delle donne contro la guerra e il fascismo, un’associazione di donne con simpatie femministe. Nel 1936 intervenne in per la difesa della Spagna repubblicana. Ha fatto parte della “Fondazione per l’assistenza morale alle detenute”.

È anche stata coinvolta nella lotta per il riconoscimento della laicità. Lucia de Brouckère è stata in particolare un membro del Centro per l’Azione Secolare, il cui principale scopo era la depenalizzazione dell’aborto, poco dopo la seconda guerra mondiale. Nel 1962 divenne una delle fondatrici della pianificazione familiare “La famiglia felice”.

De Brouckère in conferenza

Poco dopo le dimostrazioni studentesche del maggio 1968, guidò l’Assemblea Costituente per le riforme dei nuovi statuti dell’Università.

Nel libro Le principe du libre examen et son prolongement: la laïcité (U.A.E., 1979) scrive:

“Ciò che mi ha colpito nel corso delle mie ricerche è stata la straordinaria coerenza interna delle teorie per cui gli esperimenti hanno inevitabilmente dimostrato essere inesatte. Questo dovrebbe renderci cauti e modesti. Le cosiddette scienze esatte e naturali non ci rivelano alcuna Verità assoluta, definitiva, immutabile, nessuna verità esistente al di fuori del tempo e dello spazio, che sarebbe sufficiente raccogliere come la famosa mela! Le scienze ci offrono verità parziali che dobbiamo costantemente correggere, ma correggere solo nelle loro stesse basi. Esigono la costante applicazione del principio dell’indagine libera, che è la base della nostra morale laica .

Lucia de Brouckère è morta all’età di 78 anni, il 3 novembre 1982 a Ixelles, uno dei Comuni di Bruxelles dove è in parte situata l’Université Libre.

Opere e siti consultati

  1. Despy-Meyer, Lucia de Brouckère (1904-1982)

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

  1. Van Tiggelen, Lucia de Brouckère (1904-1982). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 157-160.

https://66.35.87.110/~kvcv/images/documenten/historiek/galerij/De_Brouckere_Lucia_FR.pdf

[1] POB sigla per Partito Operario Belga (POB) è un ex partito politico belga, classificato socialdemocratico, che rivendicava il socialismo. Fu fondato il 5 aprile 1885 da un centinaio di delegati rappresentanti sindacati, sezioni di un partito socialista nato nel 1879, società di mutuo soccorso e cooperative.

[2] Marguerite (Daisy) Verhoogen (1900-1994), chimico belga, dopo il liceo seguì studi di chimica diventando prima assistente, poi attorno al 1931, chef du travaux. Questo era il grado accademico più alto cui una donna potesse a quel tempo aspirare. Notevoli sono le sue ricerche con Richard Martin sulla sintesi degli heliceni.

[3] Gli chef du travail (supervisori) appartenevano al personale scientifico fisso dell’università. Erano il braccio destro di un professore, che assistevano nelle sue ricerche e nel suo carico didattico, compresa l’assistenza al lavoro pratico dagli studenti. Questo posto è spesso considerato il confine verso il professorato che Verhoogen non raggiungerà mai, certamente non per demerito…E’ stata membro della Società Chimica Belga e della Società Francese di Chimica.

[4] Izaak Maurits (Piet) Kolthoff (1894 – 1993), influente chimico analitico americano, è considerato il padre della chimica analitica per le sue numerose pubblicazioni in tutti i diversi campi dell’analitica, importante il suo lavoro per modernizzare e promuovere il settore e per aver seguito molti studenti che sarebbero diventati in seguito chimici famosi.

[5] Ilya Romanovich Prigogine (1917-2003), chimico fisico di origine russo-ebraica e nazionalità belga, è stato fondatore della termodinamica dei processi irreversibili. Premio Nobel per la chimica 1977 per il suo contributo alla termodinamica di non equilibrio, in particolare per lo sviluppo della teoria sulle strutture dissipative.

Scoperto un nuovo enzima del papavero

In evidenza

Rinaldo Cervellati

Scoperto un nuovo enzima del papavero che potrebbe migliorare la sintesi degli oppiacei tramite lieviti

estrazione dell’oppio

Come noto al grande pubblico, il principale farmaco contenuto nel papavero da oppio (Papaver somniferum) è la morfina, che si ottiene per estrazione e purificazione dalla linfa essiccata fuoriuscita da profondi tagli effettuati sulle capsule immature prodotte dal papavero e che costituisce appunto l’oppio. L’oppio secco contiene circa dal 10 al 17% di morfina , la cui struttura è mostrata di seguito.

struttura della morfina

La morfina è utilizzata in medicina come analgesico per il trattamento del dolore acuto o cronico. Agisce rapidamente se somministrata per via endovenosa o sottocutanea, per via orale in forma di sciroppo o compresse invece si deve attendere un arco di 20-60 minuti prima che insorga l’effetto analgesico.

Per il suo elevato tenore in morfina, essa continua a essere estratta dalla sua fonte naturale vegetale ed è uno degli almeno 50 alcaloidi (fenantrenici e isochinolinici) contenuti nell’oppio. Pare tuttora “altamente improbabile” che una sintesi chimica sarà mai in grado di competere con il costo di produzione di morfina dal papavero da oppio.

La coltivazione a scopo commerciale per l’industria farmaceutica avviene soprattutto in Spagna, Francia, Turchia e Australia, mentre in Asia e America centrale la coltivazione ha principalmente scopi illegali, in particolare per la produzione di droghe oppioidi semisintetiche come ad esempio l’eroina (diacetil morfina).

L’oppio contiene anche altri alcaloidi ma in misura molto minore della morfina, importanti sono la codeina (metil morfina, ≈ 2%) e la tebaina (paramorfina, ≈ 0.3-1.5%). Entrambi sono, come la morfina, alcaloidi fenantrenici. La codeina è usata principalmente come blando analgesico e sedativo della tosse, la tebaina non ha impieghi farmaceutici ma gioca un ruolo importante nella fase finale della biosintesi della morfina nella pianta del papavero (figura 2).

Figura 2 struttura della tebaina

Entrambi i composti sono usati per la produzione di potenti oppioidi semisintetici, come l’ossicodone e l’idrocodone (il Vicodin, come nella fortunata serie TV “Dr. House”).

Tornando alla morfina, la prima sintesi chimica fu pubblicata nel 1956 da M. Gates e G. Tschudi con una lunga serie di reazioni organiche a partire da un composto fenantrenico [1]. Va detto che Gates iniziò a occuparsi di questa sintesi diversi anni prima, sintetizzando il composto fenantrenico partendo da 1,5-diidrossi naftalene[1]. Il lavoro di Gates è considerato quindi come la prima sintesi totale della morfina, di fondamentale importanza nella chimica organica di sintesi anche perché confermò la determinazione strutturale fatta da R. Robinson nel 1925[2] [2].

L’importanza chimica non corrispose però a un’applicazione industriale commercialmente vantaggiosa.

Negli anni successivi, fino al 2016, furono pubblicate altre vie sintetiche alcune delle quali stereospecifiche. Dettagli delle sintesi pubblicate fino al 2009 si possono trovare in [3]. Fra queste la più efficiente dal punto di vista del rendimento è considerata quella di K. C. Rice. Questa sintesi segue una via biomimetica infatti uno step chiave è la ciclizzazione di Grewe, analoga alla ciclizzazione della reticolina che avviene nella biosintesi della morfina. La reticolina è un precursore della tebaina che interviene negli ultimi stadi della formazione della morfina. Uno schema semplificato della biosintesi si trova in [4].

Tutti questi sforzi sono destinati allo scopo di realizzare una sintesi industrialmente e commercialmente utile, in modo da rendere indipendenti le case farmaceutiche dalla morfina estratta dalle piantagioni del Papaver somniferum.

Recentemente gli sviluppi della chimica organica hanno portato a utilizzare enzimi prodotti da lieviti che catalizzano la sintesi di sostanze ad attività farmacologica in modo relativamente semplice e pulito, cioè senza la necessità di lunghe procedure di purificazione del prodotto finale [5]. In breve si tratta di costringere i microorganismi (contenuti nel lievito) a produrre attraverso l’ingegneria genetica, enzimi specifici che normalmente non produrrebbero. Si tratta di una branca dell’ingegneria genetica nota come espressione eterologa.

La sintesi della morfina per via enzimatica è complicata dal fatto che gli enzimi che coordinano la sua formazione nella pianta sono tantissimi e alcuni ancora non noti.

Nel 2015 S. Galanie et. al [6] riportarono di aver finalmente delucidato l’intero percorso utilizzato dai papaveri per produrre tebaina. Hanno ritenuto che il passaggio finale in quel percorso – un riarrangiamento allilico di (7S)–salutaridinolo-7-O-acetato, per formare tebaina – si verificasse spontaneamente. Affinché tale riarrangiamento avvenga spontaneamente, tuttavia, il pH dell’ambiente deve essere 8-9. In condizioni più vicine a pH 7, il processo si verifica, ma è molto inefficiente. È stato trovato che in queste condizioni di pH naturale si forma un sottoprodotto idrossilato più favorito rispetto alla tebaina.

Partendo da questa osservazione, Peter Facchini, professore di biologia all’Università di Calgary e responsabile scientifico della start-up Epimeron, e collaboratori hanno sospettato che i papaveri dovessero contenere un enzima che favorisce la produzione di tebaina invece del sottoprodotto. Utilizzando raffinate tecniche di cromatografia proteica preparativa e analitica sono infine riusciti a isolare e identificare un enzima del papavero precedentemente sconosciuto che catalizza il passaggio a tebaina in modo efficiente [7]. L’enzima è stato chiamato tebaina sintasi (figura 3).

Figura 3. Le due strade che conducono alla tebaina, precursore della morfina

Vincent Martin

Vincent Martin della Concordia University a Montréal, esperto in biosintesi degli alcaloidi dell’oppio ha così commentato la scoperta: “La tebaina sintasi sarà un enzima importante per chi è interessato a produrre tebaina per via biomimetica, ma anche con questo enzima siamo ancora lontani dal raggiungere livelli commercialmente rilevanti di morfina”.

Peter Facchini

Tuttavia i ricercatori in ingegneria genetica delle società biotecnologiche Epimeron e Intrexon, in collaborazione fra loro e con il prof. Facchini, hanno ingegnerizzato lievito con il percorso biosintetico del papavero contenente il gene che codifica per la tebaina sintasi. Senza ulteriori ottimizzazioni, il lievito così modificato ha prodotto 24 volte più tebaina di quello che si basava sulla conversione spontanea durante l’ultimo passaggio sintetico [7].

Afferma quindi Facchini: “Quando con il gene addizionale in un esperimento preliminare la resa è migliorata di più di 20 volte, significa che si è sulla buona strada.”

Bibliografia

[1] M.Gates, G. Schudi, The Synthesis of Morphine., J. Am. Chem. Soc., 1956, 78, 1380-1393.

[2] J. M. Gulland, R. Robinson, Constitution of codeine and thebaine., Mem. Proc. Manchcester Lit. Phil. Soc, 1925, 69, 79-86

[3] SynArchive.com The Organic Synthesis Archive,

https://www.synarchive.com/molecule/morphine

[4] T. Wilson, Synthesis of Morphine Alkaloids (PDF). Professor Scott E. Denmark Research Group Presentations. University of Illinois at Urbana-Champaign.

https://web.archive.org/web/20130228131105/http://www.scs.illinois.edu/denmark/presentations/2006/gm-2006-01n31.pdf

[5] G. A. Strohmeier et al., Application of Designed Enzymes in Organic Synthesis., Chem. Rev., 2011, 111, 4141–4164.

[6] S. Galanie et al., Complete biosynthesis of opioids in yeast. Science., 2015, 349, 1095–1100.

[7] X. Chen et al. A pathogenesis-related 10 protein catalyzes the final step in thebaine biosynthesis., Nat. Chem. Biol., 2018, DOI: 10.1038 / s41589-018-0059-7.

[1] Marshall D. Gates (1915-2003) chimico americano, professore all’Università di Rochester. Noto per avere effettuato la prima sintesi totale della morfina. Il lavoro completo è del 1956, ma resoconti preliminari comparvero sul J. Am. Chem. Soc. nel 1950 e nel 1952 [1]. La sintesi di Gates richiede 29 passaggi.

[2] Sir Robert Robinson (1886-1975) chimico inglese. Professore di Chimica Organica all’Università di Oxford. Premio Nobel per la Chimica 1947 “per i suoi studi sulle produzioni di natura vegetale, in particolare per la sintesi degli alcaloidi”.

Piccola lezione sui fanghi di depurazione.1.

In evidenza

Mauro Icardi

La polemica sul decreto Genova, relativamente al fango di depurazione non si è ancora esaurita. In questo post vorrei fare una specie di breve lezione. Che serva per spiegare come si originano e perché.

I fanghi di depurazione si originano come principale residuo dei processi depurativi. Sono sostanzialmente una sospensione di solidi di varia natura, organici ed inorganici e con una percentuale di sostanze secche (che nel gergo degli addetti viene definita normalmente “secco”), variabile in funzione del tipo di processo di trattamento che il liquame ha subito. I fanghi di depurazione sono originati nei processi di sedimentazione, e si distinguono in fanghi originati dalla sedimentazione primaria, e da quella secondaria o finale. Il miscuglio di questi due tipi di fanghi origina il cosiddetto fango misto, che è quello che deve subire il trattamento di stabilizzazione e di disidratazione finale.

I fanghi estratti dalla sedimentazione secondaria possono essere stati prodotti da sistemi di trattamento a colture sospese (vasca di ossidazione biologica), da sistemi a biomassa adesa (letti percolatori o biodischi) e dai più recenti sistemi a membrana. Altri tipi di fanghi possono invece derivare da processi di chiariflocculazione per esempio la defosfatazione chimica, che si adotta per rispettare il limite di legge per il fosforo, che normalmente riesce ad essere abbattuto solo in percentuali pari al 50% se si effettua il solo trattamento di tipo biologico.Nel 2015 i fanghi dal trattamento delle acque reflue urbane prodotti sul territorio nazionale (codice 190805) sono pari a oltre 3 milioni di tonnellate. La Lombardia e l’Emilia Romagna con, rispettivamente, 448 mila tonnellate e 409 mila tonnellate sono le regioni con il maggiore quantitativo prodotto, seguite dal Veneto (361 mila tonnellate) e dal Lazio (312 mila tonnellate) (Figura 4.3). Il quantitativo di fanghi gestito, nel 2015, è pari a circa 2,9 milioni di tonnellate.

I fanghi rappresentano il cuore del trattamento depurativo, e sono la fase del trattamento su cui in futuro maggiormente si dovranno concentrare gli sforzi dei gestori, dei ricercatori, degli enti di controllo. Per minimizzarne la produzione, e per trovare il modo ecologicamente sicuro, economicamente sostenibile e socialmente accettato di essere smaltiti o recuperati.

I trattamenti dei fanghi devono essere differenziati in funzione della loro provenienza, ma due trattamenti sono solitamente comuni a tutti i tipi di fango: l’ispessimento e la disidratazione finale.

L’ispessimento serve a concentrare il fango e a ridurre al minimo il contenuto di acqua nello stesso.

Il tenore di acqua di un fango ( o umidità del fango) è il rapporto percentuale tra il peso dell’acqua contenuto nel fango, e il peso totale del fango, compresa tutta la fase acquosa. Si esprime con questa formula:  Uf (%) = 100*PH2O/Ptot.

(continua)

altri articoli dello stesso autore sui fanghi

https://ilblogdellasci.wordpress.com/2018/08/06/smaltimento-dei-fanghi-di-depurazione-qualche-considerazione-conclusiva/

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

https://ilblogdellasci.wordpress.com/2015/05/15/trattamento-e-recupero-dei-fanghi-di-depurazione/

Arte e scienza, questioni di reputazione.

In evidenza

Luigi Campanella, già Presidente SCI

Roberta Sinatra e Albert Laszlo Barabasi sono autori (fra altri) di un interessante articolo comparso su Science finalizzato allo studio delle dinamiche del successo nel mondo dell’arte.

Fraiberger et al., Science 362, 825–829 (2018) 16 November 2018

Il valore dell’opera conta, ma molti altri elementi concorrono a decretarne il successo. Il primo elemento è senz’altro rappresentato dalla sede di esposizione che non solo condiziona il successo iniziale, ma determina quello degli anni successivi di carriera, soprattutto se riferito,non solo alla prima opera, ma anche alle successive dello stesso autore con relative sedi espositive. La qualità non coincide da sola con il valore percepito che è fortemente influenzato dalla sede. Se questo per la scienza sembra logico : la dipendenza del successo di una ricerca dal livello di qualità del laboratorio o della istituzione in cui viene svolta, colpisce che questo sia ancor più vero nell’arte. Lo studio è riferito a 7500 musei,16000 gallerie,1200 case d’arte sparsi in Paesi diversi con dati raccolti negli ultimi 36 anni, confermando i dati stessi con un’ulteriore precisazione:è tanto più influente la qualità del sito di esposizione quanto più il curatore dell’evento stesso è internazionalmente riconosciuto. Sono molti gli esempi citati nello studio: dal caso di 2 autori della stessa opera prima, uno solo dei quali si è poi correlato con celebrità del settore: solo questo ha avuto successo,dell’altro si è persa traccia; come anche quello del quadro che ha in se stesso la capacità di distruggersi dopo un certo tempo di vita e che è divenuto famoso. A volte i fattori moltiplicativi del successo dipendono da eventi casuali, quali la morte prematura dell’autore, un evento atmosferico estremo, un conflitto internazionale. L’area geografica coinvolta nello studio è quella di Europa e Nord America. Non si può non pensare all’arte moderna spesso all’affannosa ed infruttuosa ricerca di sedi espositive importanti e di prestigio:forse può questo giustificare i pregiudizi verso di essa?

L’uomo con l’elmo d’oro (allievo di Rembrandt)

L’uomo con l’elmo d’oro, un quadro del XVIII secolo attribuito a Rembrandt è stato per decenni il più famoso quadro di Berlino. Una volta emersa l’evidenza, nel 1980, che il quadro non era di Rembrandt esso ha perso la maggior parte del suo valore artistico ed economico, anche se il quadro in se non è cambiato affatto.

Questo succede o potrebbe succedere per una ricerca scientifica?

Una scienziata mancata: Clara Immerwahr (1870-1915), moglie di Fritz Haber (1868-1934)

In evidenza

Rinaldo Cervellati

Il 16 dicembre dell’anno scorso si è tenuto a Como un evento teatrale dal titolo “Un cuore puro”, una rivisitazione delle lettere di Clara Immerwahr. L’evento, organizzato dal Dipartimento di Scienza e Alta Tecnologia dell’Università dell’Insubria su proposta didattica del prof. Maurizio Martellini ha inteso ricordare la figura di Clara Immerwahr prima donna a ottenere un dottorato in chimica nel 1900. Questo lungo post intende raccontare la vicenda scientifica e personale di Clara Immerwahr.

Clara Immerwahr è stata un chimico tedesco di origine ebraica. Prima donna a ottenere un dottorato in chimica in Germania, è accreditata pacifista e attivista per i diritti delle donne.

Il matrimonio con Fritz Haber, noto chimico tedesco, è enfatizzato nel titolo perché fu determinante nella successiva vita di Immerwahr e nella sua tragica scomparsa, come riportato anche in un recente dettagliato lavoro di B. Friedrich e D. Hoffmann [1].

Clara Immerwahr nacque il 15 giugno 1870 nella ricca fattoria paterna di Polkendorff vicino a Breslau (oggi Wroclaw, in Polonia). Era la figlia più giovane di genitori ebrei, il chimico Philipp Immerwahr e sua moglie Anna (nata Krohn). Crebbe nella fattoria con i suoi tre fratelli maggiori, Elli, Rose e Paul. Nel 1890, quando sua madre morì di cancro, Clara si trasferì a Breslau, dove il padre aveva avviato un negozio di tessuti e tappeti di lusso.

All’epoca, a Breslau vi era una vasta comunità di origine ebraica, che rappresentava in gran parte l’”aristocrazia intellettuale” della città, cui gli Immerwahr appartenevano. In queste famiglie “aristocratiche” non c’era spazio per religione, costumi e pratiche ebraiche, e raramente o mai si frequentava la sinagoga. Gli atteggiamenti politici della famiglia Immerwahr erano liberali, con qualche comportamento tipico del patriottismo nazionale prussiano-tedesco, tipo modestia e semplice stile di vita. Quindi, nonostante la ricchezza di famiglia, Clara e i suoi fratelli crebbero senza ostentazioni [1].

In Germania le scuole superiori (Gymnasium) erano precluse alle donne. Era possibile per loro assistere alle lezioni universitarie come uditrici ospiti solo se in possesso di speciali permessi.

Il percorso educativo di Clara e la sua successiva esistenza sono stati condizionati da questi vincoli. Iniziò i suoi studi in una Höhere Töchterschule (“Scuola per Donne”) a Breslau, studi integrati durante i mesi estivi trascorsi presso la tenuta di Polkendorf, da lezioni impartite da un tutor privato.

La scuola doveva fornire un’educazione di base per le giovani donne compatibile con il loro status sociale e prepararle per il loro “scopo naturale” cioè compagne dei loro mariti, casalinghe, e madri.

Clara si diplomò alla Töchterschule all’età di 22 anni. Si iscrisse al Teacher’s Seminary, l’unico tipo di istituzione che offriva un’istruzione professionale superiore alle donne. Tuttavia, i diplomati del Seminario erano qualificati solo per insegnare alle scuole femminili, rimanendo inammissibile l’ingresso all’università per studiare, ad esempio, le scienze, che era ciò che Clara voleva fare. Per realizzare questa aspirazione Clara dovette prendere lezioni private intensive e superare un esame equivalente all’Abitur (Esame di Maturità).

Questo esame si svolse davanti a una commissione speciale del Realgymnasium di Breslau e fu superato con successo da Clara Immerwahr nel 1896, all’età di 26 anni.

Successivamente, iniziò i suoi studi all’Università di Breslau, solo come uditore ospite e con una serie di permessi (professori, facoltà, ministero)[1].

Oggi è difficile immaginare cosa significasse per le donne entrare in un dominio maschile e che tipo di discriminazione e umiliazione erano costrette a subire.

Clara fece le necessarie domande per ottenere il permesso di frequentare le lezioni di fisica sperimentale come uditrice, e dovette procedere alla stessa snervante trafila per tutti gli altri corsi che intendeva seguire.

La attrassero in particolare le lezioni di Richard Abegg[2], professore di chimica impegnato in ricerche nell’allora nuovo campo della chimica fisica. Richard Abegg svolse un ruolo chiave nel favorire l’interesse di Clara per la chimica fisica, senza tanto badare al suo status di uditrice.

Richard Abegg

Fu proprio Abegg a supervisionare il lavoro per la tesi di dottorato di Clara. La tesi, intitolata Beiträge zur Löslichkeitsbestimmung schwerlöslicher Salze des Quecksilbers, Kupfers, Bleis, Cadmiums und Zinks (Contribution to the Solubility of Slightly Soluble Salts of Mercury, Copper, Lead, Cadmium, and Zinc) fu discussa presso l’auditorium dell’Università il 22 dicembre 1900, approvata magna cum laude. Clara Immerwahr ottenne così il dottorato in chimica, prima donna a ricevere questo titolo in Germania.

Clara Immerwahr nel 1900

Si può tranquillamente affermare che Abegg fu non solo mentore ma anche confidente di Immerwahr. In effetti Abegg e Immerwahr pubblicarono in collaborazione un articolo tratto dalla tesi di dottorato [2]. L’articolo, pubblicato nel 1900, oltre a fornire tabelle di quantità sperimentalmente determinate come le concentrazioni di equilibrio e i relativi potenziali elettrodici, affronta il problema delle elettroaffinità come quantità additive. Questa potrebbe essere la ragione per il numero relativamente elevato di citazioni ricevute da questo articolo. Esso fu percepito dal giovane pubblico femminile come prova di successo e riconoscimento per una donna scienziata.

L’intenzione di proseguire la carriera di ricercatrice è evidente dalla successiva ricerca di Immerwahr, approfondimento ed estensione del lavoro di tesi concretizzatasi in due articoli, pubblicati con il suo solo nome [3,4]. Il secondo lavoro di Clara aveva lo scopo di espandere il lavoro sulla solubilità includendo sali di rame e utilizzando idee e metodi sviluppati da Walther Nernst, Wilhelm Ostwald e Friedrich Wilhelm Küster[3]. La parte sperimentale di questa ricerca fu svolta nel laboratorio di Küster, nella Bergakademie di Clausthal in Bassa Sassonia, dove Immerwahl si era recata come visting researcher.

Il 3 agosto 1901 Clara Immerwahr si unì in matrimonio con Fritz Haber, al tempo ambizioso giovane chimico all’università di Karlsruhe. I due si erano conosciuti qualche anno prima, nel 1895, in una scuola o in un locale di ballo, ma poco si sa su questo primo incontro. Pare che Haber abbia ammesso “che si era innamorato [della sua futura sposa] come uno studente delle scuole superiori” e che “negli anni successivi avesse cercato di dimenticarla senza successo”. Quando nel marzo 1901 in occasione dell’annuale Conferenza della Società Tedesca di Elettrochimica, i due si incontrarono di nuovo, lui sempre più in carriera, lei fresca di dottorato e unica donna partecipante, la relazione si riaccese tanto che Clara si persuase a sposarlo[4].

Fritz Haber

Come sostiene Margit Szöllösi-Janze, biografa di entrambi, il matrimonio segnò la fine dell’attività scientifica di Clara Immerwahr, certamente non senza effetti sulla sua personalità. Probabilmente all’inizio Clara sperò di poter riprendere il suo lavoro di ricerca ma a lungo questa speranza dovette ridursi sempre di più [1].

In effetti, appena sposata, Clara scrive in una lettera ad Abegg:

“… una volta diventati milionari potremo permetterci servitori. Perché non posso nemmeno pensare di rinunciare al mio lavoro scientifico.”

Durante il primo anno di matrimonio Clara partecipò alle conferenze del marito e apparve spesso nei laboratori della Technische Hochschule a Karlsruhe, dove Haber sarebbe presto diventato il direttore dell’istituto di chimica fisica. Nella dedica alla moglie del libro Thermodynamics of technical gas-reactions, Haber scrive:

“Alla mia cara moglie Clara Haber, Ph.D., in segno di gratitudine per la sua cooperazione silenziosa”

Tuttavia, il coinvolgimento di Clara in questo libro di testo e di ricerca deve aver comportato qualcosa in più di una collaborazione silenziosa se Clara nella sua corrispondenza con Abegg, riferisce e discute i progressi di Haber nella stesura del libro e sollecita consigli.

Un importante punto di svolta nella vita di Immerwahr è certamente la nascita, nel 1902, del figlio Hermann, un bambino di scarsa salute, che reclamò gran parte dell’attenzione della sua madre.

Nel poco tempo rimasto dal lavoro di casalinga, Clara organizzò una serie di conferenze pubbliche su: “La chimica in cucina e nei lavori domestici”, destinate soprattutto a istruire le donne sull’uso dei prodotti chimici di uso comune nelle abitazioni.

Gli Haber divennero effettivamente ricchi, specialmente in seguito all’applicazione industriale della sintesi dell’ammoniaca da idrogeno e azoto atmosferico, effettuata da Haber e resa industriale da Carl Bosch. Il processo Haber-Bosch permise a sua volta la produzione quasi illimitata di fertilizzanti azotati, ciò che fece considerare Haber come uno dei grandi benefattori dell’umanità. Tuttavia Clara non ritornò mai più in laboratorio.

Nel 1911 Haber venne nominato direttore dell’Istituto di Chimica Fisica al Kaiser Wilhelm Institute di Berlino, città dove si trasferì con tutta la famiglia.

Con il passare degli anni dovette calarsi sempre più nel ruolo tradizionale di moglie di un grande scienziato, casalinga preoccupata del benessere della famiglia e madre premurosa. Anche a Berlino organizzò conferenze pubbliche di chimica a carattere divulgativo.

Con grande lucidità Clara Immerwahr descrive il suo stato d’animo e insoddisfazione nel 1909 in una lettera ad Abegg:

È sempre stato il mio modo di pensare che una vita valga la pena di essere vissuta solo se si è fatto pieno uso di tutte le proprie abilità e si è cercato di vivere ogni tipo di esperienza che la vita umana ha da offrire. È stato sotto questo impulso, tra le altre cose, che ho deciso di sposarmi in quel momento … la vita che ho avuto è stata molto breve … e le ragioni principali sono il modo oppressivo di Fritz di mettersi al primo posto in tutto…, così che una personalità meno spietatamente auto-assertiva è stata semplicemente distrutta.

Le tensioni e i conflitti tra Clara Immerwahr e Fritz Haber si aggravarono ulteriormente dopo lo scoppio della prima guerra mondiale. In accordo con la sua massima “in pace per l’umanità, in guerra per la patria”, Fritz Haber si applicò in modo maniacal patriottico allo sforzo bellico tedesco. In particolare sintetizzò diversi gas a base di cloro, il più tristemente famoso è il cosiddetto gas mostarda (il tioetere del cloroetano) usato nella seconda battaglia di Yprès dai tedeschi sotto la supervisione di Haber il 22 aprile 1915, causando 5000 morti nei primi dieci minuti.

Si può affermare che in questa battaglia fu usata per la prima volta un’arma di distruzione di massa e Haber divenne noto nei Paesi dell’Intesa come “padre della guerra chimica”.

Haber celebrò il “successo” della battaglia di Yprès e la sua promozione al grado di capitano durante un raduno nella sua villa di Berlino-Dahlem il 1 maggio 1915. Durante la notte dal 1 al 2 maggio, Clara Haber Immerwahr si suicidò sparandosi con la pistola di ordinanza del marito nel giardino della villa. A Fritz Haber fu negato dall’autorità militare un qualsiasi permesso per i funerali, fu fatto partire per il fronte orientale il giorno successivo [1].

All’epoca, il suicidio di Clara rimase in gran parte nell’ombra. Sei giorni dopo la sua morte, solo il giornale locale Grunewald-Zeitung riferì che “la moglie del Dr. H. dei Servizi Segreti, che è attualmente al fronte, ha messo fine alla sua vita sparandosi. Le ragioni del gesto infelice della donna sono sconosciute.”[5]. Non ci sono prove che vi sia stata un’autopsia.

Ma, dopo circa vent’anni, le circostanze scarsamente documentate della sua morte hanno provocato notevoli discussioni e controversie sulle sue ragioni.

Poiché a detta di molte persone Clara aveva criticato la ricerca del marito bollandola come una “perversione degli ideali della scienza” e “un segno di barbarie, corrompendo la disciplina stessa che dovrebbe portare nuovi benefici all’umanità”, il suicidio di Clara viene da alcuni biografi visto in quest’ottica [6]. Scrive ad esempio Gerit von Leitner: “Durante la guerra la sua presa di posizione chiara e univoca è malvista e ostacolata. Le rimane un’unica possibilità per non diventare complice. Quando la casa è vuota…Clara scrive per ore lettere di commiato in cui spiega- a chi leggerà- il significato del suo gesto…I domestici hanno visto le lettere. Chi le ha distrutte?” [7].

Tuttavia Friedrich e Hoffmann affermano che non ci sono conferme a quanto riportato da Goran e von Leitner. Ci sarebbero invece testimonianze che fanno pensare a motivazioni più complesse per il suicidio di Immerwahr.

Il ruolo della guerra chimica nel suicidio di Clara è stato riportato da suo cugino Paul Krassa nel 1957, secondo cui Clara fece visita a sua moglie poco prima del suicidio per confidarle i “macabri effetti” della guerra chimica e di aver assistito, in particolare al “test sugli animali”. Krassa, tuttavia, ha aggiunto che altri fattori potrebbero avere anche giocato.

Allo stesso modo, James Franck[5] ha dichiarato nella sua testimonianza del 1958:

“… che il coinvolgimento del marito nella guerra chimica aveva avuto sicuramente un effetto nel suo suicidio. ” Tuttavia, Franck ha aggiunto che Fritz Haber: “… fece un grande sforzo per riconciliare i suoi punti di vista con quelli politici e umani di Clara.

Secondo Friedrich e Hoffmann [1], la conclusione di Von Leitner si riferisce solo alle prime parti di queste due testimonianze e ignora altre fonti che suggeriscono che le ragioni del suicidio di Clara potrebbero aver avuto a che fare con la sua vita privata . Parte delle fonti disponibili suggerisce che Clara fosse davvero depressa e che questa depressione aveva a che fare con la sua vita matrimoniale infelice e insoddisfacente.

Anche il pacifismo e la contrarietà di Clara alla guerra sono state messe in dubbio, in particolare dalla risposta a una lettera del Dr. Setsuro Tamaru, collaboratore di Fritz Haber, costretto a lasciare la Germania in seguito all’entrata in guerra del Giappone a fianco della Triplice Intesa. La lettera di Tamaru, molto amara, è una critica feroce alla politica di guerra della Germania e dei suoi alleati.

Nella lettera di risposta, pubblicata nel lavoro di Friedrich e Hoffmann, Clara descrive il suo atteggiamento “utile e di aiuto alla patria”, afferma che il marito sta lavorando 18 ore al giorno e infine descrive se stessa come “… troppo ignorante in materia di affari esteri per essere in grado di rispondere correttamente … ” alle critiche di Tamaru.

Secondo Friedrich e Hoffman la lettera di Clara a Tamaru è difficile da conciliare con la sua immagine di pacifista i cui disaccordi col marito riguardo alla condotta della guerra l‘avrebbero portata al suicidio [1]. Personalmente ci vedo solo una sorta di obbligo verso il suo paese in risposta alle accuse dell’amareggiato Tamaru. Casomai dalla lettera ciò che traspare sono le sue preoccupazioni per come la guerra abbia influenzato in peggio i suoi problemi personali. Peccato che sia rimasta solo la risposta e non la lettera originale di Tamaru.

Quindi Friedrich e Hoffmann propendono per complesse ragioni personali.

Ma i motivi profondi di un gesto di rifiuto estremo, come il suicidio sono a mio avviso noti (forse) solo a chi lo commette (anche in presenza di lettere o biglietti), parenti, biografi, storici, ecc. possono solo fare congetture più o meno verosimili.

Infine, cosa successe a Fritz Haber?

Ottenne il Premio Nobel per la Chimica 1918 (ma lo ricevette effettivamente nel 1919) per la sintesi dell’ammoniaca. Continuò a lavorare all’Istituto di Chimica Fisica della Kaiser Wilhelm Gesellshaft fino al 1933 quando, essendo di origine ebraica fu destituito in seguito alle prime leggi razziali promulgate dal regime della Germania nazista. Emigrò in Gran Bretagna, dove trovò un posto all’Università di Cambridge. Nel 1934 decise di recarsi in Palestina, nella città di Reovhot, ma morì durante il viaggio di attacco cardiaco, in un albergo di Basilea in Svizzera. Nel testamento chiese che le sue ceneri fossero inumate insieme a quelle di Clara, cosa che effettivamente avvenne.

Opere consultate

Oltre al lavoro di Friedrich e Hoffmann, citato in [1]:

  1. Offereins, Clara Immerwahr (1870-1915). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 47-50.

Bibliografia

[1] B. Friedrich, D. Hoffmann, Clara Haber, nee Immerwahr (1870–1915): Life, Work and Legacy Z. Anorg. Allg. Chem. 2016, 642, 437–448.

[2] R. Abegg, C. Immerwahr, Notes on the electrochemical behavior of silver and zinc fluorides, Z. Phys. Chem., 1900, 32, 142-144. (in German)

[3] C. Immerwahr, Potentials of Cu electrodes in solutions of analytically important Cu precipitates. Z. Anorg. Chem. 1900, 24, 269–278. (in German)

[4] C. Immerwahr, On the solubility of heavy metal precipitates determined by electrochemical means. Z. Elektrochem. 1901, 7, 477–483. (in German)

[5] J. Dick, Clara Immerwahr 1870-1915., Jewish Women: A Comprehensive Historical Encyclopedia, (On-line Ed.), marzo 2009.

https://jwa.org/encyclopedia/article/immerwahr-clara

[6 ] M. Goran, The Story of Fritz Haber, University of Oklahoma Press, Norman, 1967

[7] Gerit von Leitner, Der Fall Clara Immerwahr: Leben für eine humane Wissenschaft, G.H. Beck, Munchen, 1993.

[1] In Prussia le donne diventarono legalmente ammissibili come studenti universitari solo dal 1908. Prima, a partire dal 1895, le donne erano autorizzate a frequentare le lezioni solo come uditori ospiti, e anche questo era subordinato al sostegno del professore e della facoltà e a un permesso del Ministero.

[2]Richard Wilhelm Heinrich Abegg (1869 – 1910), chimico fisico tedesco, pioniere della teoria della valenza. Notò che la differenza fra la valenza massima positiva e negativa di un elemento era otto (regola di Abegg), anticipando la regola dell’ottetto di Gilbert Lewis. Ha svolto ricerche su molti argomenti chimico fisici, compresi i punti di congelamento, la costante dielettrica del ghiaccio, la pressione osmotica, i potenziali di ossidazione e gli ioni complessi. Appassionato di volo morì in un incidente con la sua mongolfiera a soli 41 anni.

[3] Friedrich Wilhelm Albert Küster (1861-1917), chimico tedesco si è occupato di chimica fisica e analitica, noto per il famoso manuale di tabelle e calcoli chimici.

[4] Letteralmente: “Ci siamo visti, abbiamo parlato e alla fine Clara si lasciò persuadere a provarci con me. “, da una lettera di Fritz Haber citata dalla storica M. Szöllösi-Janze in:, Fritz Haber (1868–1934). Eine Biographie, 1998, C. H. Beck, München.

[5] James Franck (1882-1964) fisico tedesco, vinse il Premio Nobel per la fisica 1925 con Gustav Hertz “per la scoperta delle leggi che governano l’impatto di un elettrone su un atomo”. Esule negli USA partecipò al progetto Manhattan. Nel suo Franck report raccomandò che i giapponesi fossero avvertiti prima dello sgancio delle bombe atomiche sulle loro città ma non fu ascoltato.

Cos’è lo strano oggetto al centro del logo dell’American Chemical Society?

In evidenza

Roberto Poeti

Al centro del logo della Società Chimica Americana, sotto l’aquila, c’è uno strano oggetto fatto da cinque palline unite tra loro. Ma cosa rappresenta? E perché è così importante da essere inserito nel logo di una delle più prestigiose e antiche Società Chimiche ? ( La sua fondazione è del 1876 )

Ancora più sorprendente è la scoperta che nella parete dello Sterling Chemistry Laboratory ( 1923 ) dell’università di Yale (USA) è inserita l’immagine in pietra dello stesso oggetto .

Chi ha avuto l’idea di inserirlo nel logo della ACS? La Società Americana di Chimica venne fondata nel 1876 da trentacinque chimici riuniti a New York City. J. L. Smith, uno dei fondatori, suggerì di inserire nel logo della Società il nostro oggetto. Ma dove aveva visto e soprattutto usato questo oggetto? J. L. Smith era stato, come molti altri chimici europei e americani, nel laboratorio di Justus von Liebig a Giessen in Germania, come studente, nel 1842 per apprendere le tecniche di laboratorio, in particolare la tecnica per l’analisi elementare delle sostanze organiche .

Visitiamo il laboratorio nell’Istituto di Chimica di Liebig

E’ uno dei laboratori dell’800 che si sono meglio conservati fino ad oggi. Oggi è un museo di chimica tra i più interessanti al mondo. Vale proprio la pena di visitarlo .

La sede dell’Istituto di Chimica di Liebig a Giessen in Germania . Venne ricavato da una caserma militare nel 1819 . Nel 1825 Liebig sostituì il Prof. Zimmermann alla guida dell’Istituto . Lo diresse fino al 1852 , quando si trasferì all’Università di Monaco di Baviera .

Il museo è costituito da molti ambienti, tra cui lo studio di Liebig. Una sala più grande fu destinata ad essere, per quel tempo, un moderno laboratorio, progettato dallo stesso Liebig ( 1834 ), che venne frequentato dai chimici provenienti da tutta Europa e perfino dell’America. 

Il nuovo laboratorio era munito di cappe aspiranti, una novità in quel periodo, che eliminavano la gran parte dei problemi di salute. L’ambiente dei laboratori, prima dell’istallazione delle cappe, era così insalubre che sottoponeva a forte stress i chimici che vi lavoravano. L’“isteria del chimico”, una patologia a sé, era la diagnosi che veniva più di frequente diagnosticata .

In uno dei due banchi centrali del laboratorio si trovano due apparecchi utilizzati per l’analisi delle sostanze organiche. In entrambi vediamo il nostro oggetto in vetro (vedi immagine seguente ).

L’oggetto faceva parte dell’apparecchio per l’analisi elementare. Fu disegnato dallo stesso Liebig ( 1831). La sua posizione rispetto all’apparato è evidenziata nell’immagine seguente tratta dalla Enciclopedia di Chimica Vol. II del 1868 curata dal Prof. Francesco Selmi .L’apparecchio è simile al primo esemplare apparso nel laboratorio di Liebig verso la fine degli anni trenta dell’800.

Come funzionava l’apparato per l’analisi elementare

Osserviamo la figura precedente. Nel fornetto di metallo F veniva collocato, su uno strato di carbone, un tubo di vetro chiuso ad una estremità E, contenente la sostanza organica da analizzare e ossido rameoso. La temperatura raggiunta nel fornetto decomponeva l’ossido rameoso in rame e ossigeno. Era quest’ultimo che alimentava la combustione della sostanza organica. Non veniva usata aria, l’ossidazione risultava più completa, e la velocità della reazione controllata dal grado di riscaldamento del fornetto. L’apparecchio, così come è rappresentato, veniva utilizzato per l’analisi di composti quali aldeidi, alcoli, chetoni ecc. Erano esclusi i composti azotati .

I prodotti della combustione CO2 e H2O uscivano dall’estremità A , passavano nel tubo riempito di cloruro di calcio C che tratteneva l’acqua, mentre il biossido di carbonio gorgogliava nel nostro strumento di vetro a cinque bolle contenente una soluzione di idrossido di potassio, e per questo chiamato “ Kaliapparat”, dove veniva assorbito. Il disegno di quest’ultimo era pensato per favorire l’assorbimento del biossido di carbonio aumentando la superficie assorbente e il percorso del gas.

                             Il Kaliapparat   –   Nella grossa bolla gorgogliavano i gas provenienti dalla combustione della sostanza organica mentre la più piccola era collegata con la parte finale dell’ apparato .

Terminata la combustione veniva rotta la punta B del tubo F, l’aria entrava, dopo averla prima essiccata, fluiva attraverso l’apparato, aspirata attraverso il boccale E (operazione che non era priva di rischi ). L’operazione serviva a rimuovere dall’apparecchio le ultime tracce di acqua e biossido di carbonio. Da notare che una bolla di vetro H era inserita dopo lo strumento a cinque bolle. Era riempita di idrossido di potassio solido. La sua funzione era quella di trattenere le tracce di gas CO2 che potevano sfuggire al Kaliapparat e/o le gocce d’acqua che da quest’ultimo potevano essere trasportate dalla corrente d’aria finale. Terminata l’operazione l’aumento di peso del tubo C forniva la quantità di acqua prodotta con la combustione e quindi la quantità dell’elemento idrogeno del campione .

L’aumento di peso che si registrava nel Kaliapparat D più quello eventuale nella bolla H dava la quantità di CO2 prodotta con la combustione da cui si ricavava il peso dell’elemento carbonio del campione. La differenza tra il peso del campione e quello degli elementi carbonio e idrogeno trovati, forniva il peso dell’ossigeno contenuto nel campione .

Il contributo del Kaliapparat

Il procedimento per l’esecuzione di una analisi era in realtà molto minuzioso, fatto da tanti trucchi, per esempio le bolle del Kaliapparat erano inclinate durante l’analisi con la bolla più grossa in basso, e accorgimenti, tra cui la verifica della tenuta dell’apparecchio poiché lavorava in depressione. A Liebig occorsero sei anni per perfezionare il suo metodo di analisi. La difficoltà più grande fu quella di ottenere un assorbimento quantitativo della CO2. Un risultato che raggiunse con il suo ingegnoso strumento a cinque bolle, il   “ Kaliapparat “ che rimase in uso per tre quarti di secolo. Una analisi veniva compiuta in meno di un’ora. Quell’abile sperimentatore quale era Berzelius impiegava nell’analisi di una sostanza organica un tempo non inferiore ai due giorni .

(Nella bibliografia sono riportati i riferimenti in cui viene descritto il funzionamento dell’apparecchio e dell’assorbitore Kaliapparat )

Una bilancia su misura

Poiché gli elementi si ottenevano per via gravimetrica era necessario avere bilance sensibili e accurate. Nella stanza delle bilance, adiacente al laboratorio di Liebig, si conserva ancora la bilancia che Liebig si fece costruire su suo disegno da un locale ebanista. Aveva una portata di cento grammi e una accuratezza di 0.3 mg. Per esempio la combustione di un campione di 0.5 g produceva qualcosa come un grammo di CO2 con una accuratezza migliore dello 0.1 % . Una nota curiosa, ad ogni pesata, i lunghi bracci della bilancia oscillavano lentamente avanti e indietro molte volte prima di fermarsi . L’operazione risultava così noiosa che era chiamata “ il martirio della pesata “ . Liebig la rese più sopportabile per se stesso da fumatore , coniando il motto “ un sigaro per ogni pesata “ .

Una lunga storia

Per oltre 150 anni dall’epoca di Lavoisier fino alla seconda guerra mondiale, l’analisi per combustione fu lo strumento principale per il progredire della chimica organica. Molte delle nostre attuali conoscenze furono possibili utilizzando questo strumento. I principali miglioramenti nel corso di questo lungo periodo sono consistiti nel migliorare la convenienza del metodo e nel ridurre la dimensione del campione necessario per analisi su molecole di origine biologica. Le analisi di Lavoisier (anni 1780) potevano consumare più di 50 g di oli vegetali, richiedevano una squadra di operatori e un apparecchio molto costoso ( lo si può vedere al bellissimo Museo delle Arti e dei Mestieri di Parigi). Quaranta anni dopo Liebig, modificando l’approccio di Berzelius, ideava un apparato che richiedeva una quantità di campione che era soltanto 1% di quella usata da Lavoisier ( 0.5 g ). L’analisi poteva essere eseguita velocemente da un solo studente con una attrezzatura economica. Quasi cento anni dopo Liebig, Fritz Pregl ha ricevuto il Premio Nobel 1923 per avere miniaturizzato l’apparato che richiedeva un campione il cui peso era soltanto l’ 1% di quello impiegato da Liebig ( 5 mg o meno ).

Un ricordo

Ho visitato l’istituto di Chimica di Liebig a Giessen nel 2012, durante un soggiorno in Germania. Penso sia stata una delle visite più interessanti e coinvolgenti fatte nei luoghi della chimica. Il Prof. Manfred Kroeger dell’Università di Giessen, uno dei curatori del museo, ci ha accompagnato nella visita spiegandoci in dettaglio e con pazienza la storia e gli ambienti del museo. Erano in vendita presso il negozio del museo modelli in scala reale del Kaliapparat costruiti dagli studenti di chimica .

Il materiale filmico

Nella visita a Giessen scattai molte fotografie e girai dei filmini che ho trasferito su You Tube. Nel primo filmino è ripreso il laboratorio di Liebig a Giessen. Liebig si trasferì all’Università di Monaco di Baviera nel 1852. Al Deutsches Museum, il Museo della Scienza e della Tecnica di Monaco, si può vedere una parziale ricostruzione del laboratorio di Giessen. Il museo è un altro luogo di eccezionale valore per la storia della scienza e della tecnica ( in specie per la chimica ). Nel secondo filmino è ripreso il laboratorio al Museo di Monaco .

https://www.youtube.com/watch?v=MLFNKonPSzs&t=29s

https://www.youtube.com/watch?v=Hr2Qq3QzwVM

Nel mio blog

http://www.robertopoetichimica.it/la-composizione-delle-sostanze-la-combustione/

Bibliografia

Valore legale: si o no?

In evidenza

Luigi Campanella, già Presidente SCI

Si torna a parlare di valore legale del titolo di studio,in particolare della laurea.

Si tratta di un tema che ritorna periodicamente negli anni con schieramenti a favore e contro questo valore.

Cercherò di fare il punto sulle differenti posizioni.

Mantenere il valore legale della laurea significa riconoscere ad ogni laurea conferita da un’università italiana lo stesso valore e quindi la stessa importanza nel mercato degli impieghi pubblici. Le critiche contestano l’uguale peso che così viene dato ad atenei che pure hanno valore diverso rispetto alla formazione impartita. Cadrebbe anche l’incentivazione a migliorare il proprio livello didattico cercando di arruolare docenti sempre più qualificati,preparati ed accreditati. Tali critiche sono addirittura arrivate ad ipotizzare un ranking quantitativo delle università stabilito da un ente terzo e che dovrebbe potere incidere sulla valutazione del voto di laurea conseguito.

D’altra parte chi è a favore del valore legale invoca a giustificazioni che una perdita del valore legale del titolo affosserebbe le università più povere, così discriminando in base al censo gli studenti in grado di iscriversi a quelle più qualificate e care rispetto agli studenti non in grado di farlo per mancanza di risorse. Conseguentemente anche l’autofinanziamento con le tasse di iscrizione sarebbe a danno delle università più povere. Ciò risulta ancora più grave in un Paese come il nostro dove il finanziamento statale è pesantemente sottodimensionato. C’è poi l’aspetto del rapporto pubblico/privato: togliere valore al titolo può risultare in un ridimensionamento dell’università pubblica rispetto alla privata.

Volendo commentare la situazione non si può fare a meno di osservare che togliere il valore legale al titolo può in molti casi spostare il problema in avanti; in molti Paesi Europei,ed in parte anche in Italia, molte professioni (medico, dentista, ingegnere, architetto), pure in assenza del valore legale del titolo, possono essere esercitate solo in presenza di garanzie fornite da altre sedi di valutazione e di percorsi formativi accreditati. Il problema può forse trovare una mediazione con l’applicazione di criteri di valutazione del laureato, oltre che con la qualità della sua formazione, criteri che hanno a volte dimostrato di ribaltare credenze comuni: ad esempio la classifica delle scuole superiori formulata dalla Fondazione Agnelli per le grandi città favorisce le scuole di periferia rispetto a quelle dei quartieri più ricchi e blasonati.

Il POLIMI all’esame di elettrochimica.

In evidenza

Claudio Della Volpe

Della reazione di Volta e delle arance o dei limoni usati come batterie (in inglese orange e lemon batteries) abbiamo parlato più volte, si tratta di un argomento affascinante e che attira l’attenzione; l’ultima volta abbiamo segnalato anche una bufala riguardante la possibilità di accendere il fuoco con un’arancia.Stavolta siamo costretti a tornare sulla questione per un piccolo errore nientepocodimenochè del Politecnico di Milano, POLIMI, (nella persona del collega Francesco Grimaccia associato di elettrotecnica) che nel meritevole proposito di divulgare la scienza con una iniziativa definita #IlPOLIMIrisponde (su Youtube) riportata da ANSA, racconta (in data 7 novembre, anniversario dell presentazione di Volta a Napoleone) di come con un’arancia e una coppia di elettrodi metallici (e meglio con un paio almeno messi in serie) si possa accendere un LED.

La cosa come sappiamo è vera, a patto che il LED sia rosso, cioè a più basso voltaggio; un led bianco sarebbe difficile da accendere con sole due arance; ma vedremo dopo. Tuttavia il collega Grimaccia incorre in un banale errore di elettrochimica che vale la pena di correggere, visto che quel filmato l’avranno visto in alcune centinaia e grazie a questo commento lo vedranno in altre centinaia.

Dopo una introduzione storica l’autore scrive quale è il principio del processo ed indica la seguente reazione:Dunque secondo Grimaccia nella reazione di Volta lo zinco metallico  si ossida e lo ione rame si riduce. E’ da dire che nella successiva descrizione la cosa rimane non spiegata poichè si analizza solo il passaggio da un elettrodo all’altro fuori dall’arancia.

Ora questa interpretazione della reazione di Volta non è corretta per la semplice ragione che ioni rame nell’arancia e nella soluzione acidula di Volta non ce ne sono e non ce n’erano; si tratta invece di una reazione che potrebbe avere dal lato della riduzione ossia del rame (che funziona qui come semplice catalizzatore) o la riduzione degli ioni H+ oppure quella dell’ossigeno molecolare, che pure sarebbe più utile; per vari motivi, fra cui la concentrazione, la soluzione “acidula” di Volta e quella naturale dell’arancia o del limone (acidule per acido citrico) vedranno come interpretazione giusta la prima:(qua c’è un errore di stampa in quanto il potenziale di riduzione dello Zinco è -0.76) come scritto ed analizzato in questo articolo divulgativo:

https://pubs.acs.org/doi/abs/10.1021/ed078p516

Observations on Lemon Cells di Jerry Goodisman J. Chem. Educ., 2001, 78 (4), p 516 DOI: 10.1021/ed078p516

Come si vede è chiaro che ci vogliano almeno un paio di arance (e rispettivi elettrodi) collegate in serie ed usate come soluzione elettrolitica per il LED rosso che lavora a 1.5-2 V, ma per un LED bianco che lavora a circa 3V ci vorranno quattro o cinque frutti (motivo banale: il rosso è la radiazione a più elevata lunghezza d’onda e dunque più bassa energia delle altre e i LED, ma ne parleremo un’altra volta, sono nient’altro che delle giunzioni p-n usate alla rovescia rispetto alle celle fotovoltaiche: il LED trasforma energia elettrica in luce e la FV la luce in energia elettrica, ma potete usare un LED come FV e viceversa anche se con poca sostanza; ed infine una giunzione p-n è l’equivalente moderno sui semiconduttori dei metalli in contatto che furono alla base dell’esperimento di Volta).La reazione scritta dal collega Grimaccia, e che non vale in questo caso, invece diventerà la base di un’altra importantissima batteria, quella di Daniell, dove però lo ione rame viene aggiunto esplicitamente;Dunque l’errore consiste nell’aver usato le reazioni di Daniell al posto di quelle di Volta. Per fare una pila di Volta va bene al posto del rame anche un elettrodo di grafite o di qualunque altro metallo a potenziale di riduzione adeguato e come il rame dunque di fatto inerte nella situazione in questione.

Si può perfino NON usare una soluzione acidula e le cose funzionano lo stesso ragionevolmente per introduzione dell’effetto dell’ossigeno gassoso che è pur solubile per 9mg/litro in acqua; a quel punto si avrebbe una batteria Zinco-aria e manco lo ione idrogeno servirebbe più. A questo punto si introdurrebbe una tematica che è quella della sovratensione di reazione dei vari reagenti ione idrogeno o ossigeno su elettrodi metallici che in realtà non partecipano alla reazione; si arriva ad un altro celeberrimo tema che è quello dei meccanismi cinetici dell’elettrochimica, un argomento che la chimica generale sfiora solamente, ma molto importante in pratica.

Tutte queste cose Volta non poteva saperle, ma noi suoi eredi dopo 200 anni dovremmo scriverle chiaramente.

Ovviamente al collega Grimaccia va il beneficio di inventario; né si può pretendere da un ingegnere elettrotecnico (che si occupa di correnti alternate in genere) la stessa conoscenza di un elettrochimico su questi fenomeni. Sia all’ANSA che al Polimi il consiglio è lo stesso; per parlare di Chimica rivolgetevi ad un Chimico (in fondo a pochi chilometri da voi c’è la sede del Dipartimento dove lavorarono Bianchi, Mussini e Trasatti senior, che hanno fondato l’elettrochimica italiana).

E’ pur vero che la Chimica serve a tutti, ma non per questo tutti la conoscono in dettaglio.

Da consultare anche:

http://www.ansa.it/canale_scienza_tecnica/notizie/energia/2018/11/16/cosi-le-arance-accendono-la-luce-video_b46c8e68-3da1-4e17-b055-5b8772f333ff.html

https://www.youtube.com/watch?time_continue=146&v=x8PV-0vRMbE

https://www.scientificamerican.com/article/generate-electricity-with-a-lemon-battery/

La transizione energetica: come la vedono gli scienziati

In evidenza

Vincenzo Balzani, professore emerito UniBo

Il cambiamento

In due recenti articoli pubblicati su La Chimica e l’Industria on line [1,2] ho provato a spiegare perché per salvare il nostro pianeta, l’unico luogo dove possiamo vivere, dovremo portare a termine tre transizioni: dai combustibili fossili alle energie rinnovabili, dall’economia lineare all’economia circolare e dal consumismo alla sobrietà.

Transizione vuol dire cambiamento e l’esperienza dimostra che le persone non amano cambiare. Se ne era già accorto molto tempo fa Niccolò Macchiavelli che, secondo alcune fonti, pare abbia scritto: Non c’è niente di più difficile da prendere in mano, più pericoloso da condurre, o più incerto nel suo successo che prendere la guida di un cambiamento. Perché il riformatore ha nemici in tutti coloro che traggono profitto dal vecchio ordine e ha solo tiepidi difensori in tutti coloro che trarrebbero profitto dal nuovo ordine; questa tiepidezza deriva in parte dalla paura dei loro avversari e in parte dall’incredulità dell’uomo, che non crede veramente in qualcosa di nuovo fino a quando non ne ha avuto l’esperienza effettiva”.

Quindi, portare avanti tre transizioni, in parte interconnesse, per salvare il pianeta non sarà affatto facile. Sappiamo però che questa è l’unica via che possiamo percorrere per giungere alla sostenibilità ecologica, che a sua volta è la base per raggiungere la sostenibilità sociale. Ciascuno di noi, nella situazione in cui si trova e con l’attività che svolge deve assumersi la sua parte di responsabilità. Questa vale particolarmente per gli scienziati, dai quali la pubblica opinione si aspetta prese di posizione chiare e ben documentate, per gli educatori che operano nelle scuole di ogni ordine e grado e per i mezzi di comunicazione che hanno il compito di diffondere le conoscenze e mettere a confronto in modo costruttivo proposte e opinioni affinché quelle più giuste possano affermarsi.

Difficoltà intrinseche

Affinché una transizione avvenga nel modo corretto, deve essere guidata. Bisogna partire da un quadro chiaro e completo della situazione in cui ci si trova e fare previsioni, formulare scenari e preparate roadmap per raggiungere l’obiettivo in un tempo ragionevole. Guidare la transizione energetica è un’impresa molto difficile perché la realtà è in continua evoluzione: aumenta il numero di abitanti del pianeta; aumentano le esigenze energetiche di miliardi di persone; in molte nazioni la situazione politica è confusa e i suoi esiti sono difficilmente prevedibili; le decisioni politiche sono influenzate da fattori economici e pressioni sociali, spesso in contraddizione; il prezzo del petrolio, con cui le energie rinnovabili devono competere, ha variazioni spesso irrazionali; infine, è sempre più evidente che le risorse del pianeta sono limitate, per cui i progressi nella transizione energetica sono forzatamente collegati a quelli della transizione dall’economia lineare all’economia circolare.

Gli scenari, inevitabilmente basati su estrapolazioni, devono quindi essere frequentemente aggiornati e, in ogni caso, vanno sempre considerati con cautela. Ciò nonostante, è importante cercare di prevedere cosa ci può riservare il futuro e ancor più capire l’impatto che avranno nei prossimi decenni le scelte che siamo chiamati a fare oggi. La domanda urgente a cui è necessario rispondere, se vogliamo custodire il pianeta, è: possiamo limitare le emissioni di CO2 in modo da mantenere l’aumento di temperatura al 2050 sotto i 2°C o, meglio, sotto 1,5 °C? [3, 4]. Su tempi lunghi, poi, la domanda che aspetta risposta diventa: è fattibile e sostenibile un mondo che funzioni solo con le energie rinnovabili?

Quasi tutte le agenzie internazionali hanno centri di studio sulla transizione energetica [5]. A volte le previsioni di queste agenzie sono condizionate dalla potente lobby del petrolio, come nel caso della IEA. Gli scenari che alcune di queste agenzie presentano per il futuro hanno come compito principale quello di suggerire al mondo economico e finanziario come comportarsi per mantenere profitti nell’ottica di una lenta transizione dai fossili alle rinnovabili, senza preoccuparsi dei tempi indicati dagli scienziati. I centri di ricerca scientifici, invece, cercano di analizzare la situazione e di suggerire cosa bisogna fare in concreto, incominciando da oggi, per portare a termine la transizione entro il 2050.

Il piano WWS proposto da M.Z. Jacobson e collaboratori

Negli ultimi anni sono stati riportati studi dettagliati da parte di molti gruppi di ricerca secondo i quali si possono sostituire completamente, entro il 2050, i combustibili fossili con le energie rinnovabili. Alcuni di questi piani sono stati criticati (si veda, ad esempio, [6]), ma la fattibilità della transizione energetica che prevede solo l’uso di energia elettrica generata dalle rinnovabili nel 2050, senza energia nucleare, è stata recentemente ribadita da una rassegna esaustiva della ricca letteratura scientifica sull’argomento [7].

Lo studio più dettagliato [8] è quello di M.Z. Jacobson della Stanford University che, con 26 co-autori, presenta roadmap di transizione per 139 paesi del mondo molto più spinte di quelle previste dagli accordi di Parigi. Gli autori sottolineano che le roadmap da loro illustrate non sono previsioni di quello che potrebbe accadere da oggi al 2050, ma proposte che, se attuate, risolveranno concretamente i problemi del cambiamento climatico, dell’inquinamento e della sicurezza energetica.

Il piano di Jacobson e collaboratori è denominato WWS (wind, water, sunlight) in quanto è basato unicamente sull’utilizzo di vento, acqua e sole come sorgenti primarie nel 2050. Sono esclusi il gas e il nucleare (proposti da altri autori come «energie-ponte»), e anche i biocombustibili, le biomasse e le tecnologie per la catturare ed immagazzinare la CO2. Il piano WWS prevede che i consumi energetici di tutti i settori dell’attività umana siano soddisfatti esclusivamente con elettricità fornita dalle energie rinnovabili e distribuita tramite reti, con l’impiego di accumulatori e idrogeno elettrolitico (celle a combustibile) per i trasporti, anche aerei e marittimi.

Secondo il piano WWS, la potenza che sarebbe necessaria nel 2050 se usassimo l’attuale sistema energetico, basato prevalentemente sui combustibili fossili (20.604 TW), sarà ridotta del 42%, per tre motivi: 1) la conversione dell’energia elettrica in lavoro è più efficiente del 23% rispetto all’uso di combustibili fossili; 2) WWS non ha le perdite di efficienza (valutate al 12,6%) legate all’estrazione, al trasporto e alla raffinazione delle fonti fossili; 3) in un sistema tutto elettrico si può contare su un aumento dell’efficienza energetica (6,9%). Il piano, illustrato nella Figura 1, prevede l’80% della conversione entro il 2030 e il 100% nel 2050.

Figura 1. Schema della transizione energetica secondo Jacobson e altri [8]. Per una descrizione dettagliata, si veda il testo e il lavoro originale.

Gli 11.840 TW di potenza elettrica richiesta nel 2050 per le 139 nazioni prese in considerazione saranno forniti principalmente da impianti fotovoltaici di varie dimensioni (48%), eolico onshore e offshore (37%) e per il 9,7% da impianti solari a concentrazione (Concentrating Solar Power, CSP) [8]. Sarà necessario installare fra l’altro 1.840.000.000 impianti fotovoltaici da 5 kW che saranno collocati sui tetti delle abitazioni, sulle tettoie dei parcheggi e sulle autostrade e 1.580.000 impianti eolici onshore da 5 MW, distesi sullo 0,9% del territorio che rimarrà usabile per l’agricoltura. Le tecnologie necessarie per sostituire nell’uso finale i combustibili fossili con energia elettrica sono già in gran parte disponibili in commercio, mentre altre (ad esempio, navi e aerei elettrici) sono in via di sviluppo e si prevede che saranno di uso comune fra una ventina d’anni.

La realizzazione del piano WWS diminuirà le emissioni di CO2, evitando che si superino 1,5 °C di riscaldamento globale nel 2050. Darà a ogni nazione la possibilità di produrre l’energia che consuma e faciliterà l’accesso all’energia per tutti; eviterà anche la morte prematura di circa 3,5 milioni persone causata dall’inquinamento e permetterà un risparmio medio di 5.800 dollari per persona all’anno sulle spese dovute da inquinamento e cambiamento climatico. Creerà circa 25 milioni di posti di lavoro permanenti nelle costruzioni e 27 milioni di posti permanenti per la manutenzione del sistema, per un totale di circa 52 milioni, a fronte di circa 28 milioni di posti persi nelle attività dei combustibili fossili e dell’energia nucleare.

Il piano WWS è estremamente dettagliato [8]. Esamina, paese per paese, i dati disponibili sui consumi energetici attuali e stima la domanda di potenza che ci sarà nel 2050 in ciascun paese prima e dopo l’elettrificazione di tutti i settori energetici. Poi analizza per ciascun paese la disponibilità di risorse rinnovabili per generare elettricità e propone una roadmap basata sul mix energetico rinnovabile più adatto per ciascun paese, tenendo conto della disponibilità di suolo, tetti, vento, acqua e situazioni particolari. Un simile, dettagliatissimo piano è stato poi formulato anche per 53 città del Nord America [9].

Per l’Italia, l’analisi dettagliata dello studio si può riassumere con i seguenti dati riferiti al 2050 [8]:

– la potenza di 240,8 GW per uso finale prevista sulla base del sistema energetico attuale si ridurrà a 134,9 GW in seguito all’elettrificazione;

– la potenza sarà generata dalle varie fonti rinnovabili in base a queste percentuali:

fotovoltaico nelle sue varie applicazioni 56,7%; eolico onshore e offshore 26,3%; CSP 11,3%; idroelettrico 4,9%; geotermico 0.6%

– il fotovoltaico residenziale genererà il 16,4% della potenza totale, utilizzando il 67% dei 737 km2 di tetti disponibili;

– dal punto di vista economico, si avrà un risparmio di 382 $/persona/anno sul costo dell’elettricità e un risparmio sui costi dei danni causati da inquinamento e cambiamento climatico per una media di 7.700 $/persona/anno;

– si eviterà la morte prematura per inquinamento, in media, di circa 20.000 persone all’anno;

– verranno perduti circa 160.000 posti di lavoro nei settori dei combustibili fossili, ma si creeranno circa 300.000 nuovi posti di lavoro permanenti per attività di costruzione e 350.000 per attività di gestione delle energie rinnovabili con un saldo positivo di circa 500.000 posti.

Lo studio conclude notando che la transizione, pur essendo tecnicamente ed economicamente fattibile, incontrerà molti ostacoli di tipo sociale e politico: c’è quindi un grande bisogno di informare le persone su quello che è possibile fare e sollecitarle a portare avanti la transizione nelle loro case e nella loro vita di ogni giorno. In Italia, purtroppo, la Strategia Energetica Nazionale punta fortemente sul gas e sui biocombustibili e il tentativo di informare sulla necessità della transizione energetica solo eccezionalmente arriva al grande pubblico [10]

  1. 1. La Chimica e l’Industria – ISSN 2532-182X – 2018, 5(7), ottobre
  2. La Chimica e l’Industria – ISSN 2532-182X – 2018, 5(8), novembre
  3. http://unfccc.int/resource/docs/2015/Cop21/eng/l09r01.pdf
  4. http://report.ipcc.ch/sr15/pdf/sr15_spm_final.pdf
  5. http://www.iea.org/weo/

https://about.bnef.com/new-energy-outlook/

http://www.iiasa.ac.at/web/home/research/twi/TWI2050.html

http://exponentialroadmap.futureearth.org

http://www.irena.org/publications/2018/Apr/Global-Energy-Transition-A-Roadmap-to-2050.

  1. B. Heard et al., Renew Sustainable Energy Rev, 2017, 76, 1122 DOI:10.1016/j.rser.2017.03.114
  2. T. W. Brown et al., Renewable and Sustainable Energy Reviews, 2018, 92, 834; 
https://www.sciencedirect.com/science/article/pii/S1364032118303307
  3. M.Z. Jacobson et al., Joule, 2017, 1 ,108-21, con 186 pagine di informazioni supplementari

http://dx.doi.org/10.1016/j.joule.2017.07.005

  1. M.Z. Jacobson et al., Sustainable Cities and Society, 2018, 42, 22 https://doi.org/10.1016/j.scs.2018.06.031
  2. https://ilblogdellasci.wordpress.com/2018/08/15/ascoltare-la-scienza-lincidente-di-bologna-e-la- transizione-energetica/

6 anni di blog.

In evidenza

La redazione.

6 anni di blog.

Oggi 14 novembre 2018 questo blog compie 6 anni; abbiamo pubblicato poco meno di 1000 articoli (985), 3 alla settimana in media con poco meno di un milione di contatti totali (per la cronaca sono 970.000).

Il numero di contatti al giorno è cresciuto parecchio arrivando a superare negli ultimi tempi i 1000 al giorno. Ma siamo particolarmente fieri dei quasi 500 iscritti, che ricevono notizia dei post automaticamente; si tratta in buona parte di non iscritti alla SCI, dunque che hanno scelto di seguirci autonomamente.

Poco più di 2500 interventi, circa 3 per ogni articolo.

Qualche curiosità; l’articolo più gettonato in assoluto?

Quello sulla Chimica alle elementari, della sempreverde Silvana Saiello che ha raggiunto quasi 20.000 contatti da quando (2013) è stato pubblicato e continua a ricevere una crescente attenzione; nello scorso mese di ottobre ha avuto da solo oltre 1200 lettori. Pensate un po’. Un classico della divulgazione.

Il più letto in un giorno è stato invece un articolo di Gianfranco Scorrano, gennaio 2014 una critica feroce di alcuni metodi concorsuali all’Università, oltre 2500 contatti in 24 ore , La cattedra e…. la sedia.

Non dimentichiamo però anche le serie sulla merceologia, sulla depurazione, sulla storia della scienza al femminile, le riflessioni etiche, quelle sulla contemporaneità, sulle nuove scoperte, sull’energia rinnovabile e l’economia circolare, il cuore del blog. E non dimentichiamo che ci siamo schierati, sul clima, sull’energia, sui diritti delle donne, sull’uso della Chimica; abbiamo scelto, preso posizione; non possiamo più tacere.

Tanto lavoro per la nostra piccola redazione che, seppure ha cambiato un po’ composizione nel tempo, rimane una redazione di una decina di persone.

Certo abbiamo ricevuto nel tempo anche i contributi di tanti colleghi che più o meno regolarmente ci mandano qualche testo e che ringraziamo; all’inizio speravamo di riuscire a catalizzare maggiori contributi, ma siamo contenti comunque. Non pretendiamo un Primo Levi, ma continuiamo ad insistere su una partecipazione discreta ma continua; se dei 3500 soci della SCI, che sono, dopo tutto, meno del 5% dei chimici italiani, il 10% scrivesse un articolo all’anno avremmo un post al giorno.

C’è stata una crisi di crescita quando abbiamo cambiato nome nel gennaio 2017; il blog della SCI è diventato “La Chimica e la Società” (richiamando il titolo della rivista storica della SCI); questo cambio ha corrisposto ad un notevole incremento dei lettori, che sono quasi raddoppiati .Negli ultimi mesi un ulteriore crescita catalizzata sia dagli agguerriti testi di Vincenzo Balzani sull’impegno dello scienziato, che anche dal lancio su Facebook aperto a tutti i lettori.

Siamo ancora lontani dal fare un giornale online di chimica, una piazza aperta a tutti i chimici italiani, uno strumento per fare opinione, ma col nostro sottotitolo attuale siamo una testimonianza del fatto che la Chimica è la scienza fondamentale per la nostra società e cerchiamo di stare sul pezzo, seguire i fatti importanti in cui la Chimica conta e sui quali occorre schierarsi.

Homo sapiens è stato un chimico fin dall’epoca di Blombos 101.000 anni fa, quando faceva pigmenti per dipingersi il corpo; poi ha iniziato a dipingere gli animali attorno a lui e tante, tante mani sulle pareti delle caverne.

La più antica testimonianza di pitture rupestri, Lubang Jeirji-Saleh, Borneo 40.000 anni fa (Nature nov. 2018 Palaeolithic cave art in Borneo)

Oggi, nell’Antropocene dovrebbe calmarsi un po’ dato che ha “dipinto”, ha messo le sue mani su tutto il pianeta, con una impronta non particolarmente positiva per il resto della biosfera, e che si sta rivelando un boomerang, capace di danneggiare la stessa Umanità.

Siamo qua per dare un piccolo contributo in questo senso: prendere coscienza della potenza insita nelle nostre mani, nei nostri cervelli, nell’azione comune; e della necessità di sottomettere al controllo della ragione e dell’amore la nostra intelligenza. Dunque chimica del riciclo, chimica sostenibile e rinnovabile ma soprattutto chimica dell’amore, usata con amore della Natura e per amore dell’Umanità; dopo tutto siamo solo una minuscola specie di primati saccenti, che infilano mani dappertutto, in una piccola arancia blù, un minuscolo pianeta, alla periferia di una Galassia lontana lontana.

Buona lettura.

Più aromatico di così…..

In evidenza

Rinaldo Cervellati

Evidenza sperimentale di doppia aromaticità in una molecola stabile: il dicatione esa(fenilselenil)benzene presenta aromaticità σ e π concentriche.

La scoperta, dovuta a un team di ricercatori giapponesi guidati dal prof. Masaichi Saito (S. Furukawa et al., Double aromaticity arising from σ- and π-rings, Commun. Chem. 2018, DOI: 10.1038/s42004-018-0057-4) è stata riportata da Sam Lemonick su Chemistry & Engineering newsletter on-line l’11 ottobre scorso. Vediamo di capire di cosa si tratta.

Dalla scoperta del benzene, i composti aromatici, che hanno struttura e proprietà simili a quelle del benzene, hanno svolto un importante ruolo in molti campi della chimica. Qualsiasi studente che ha seguito un corso di chimica organica sa che il carattere aromatico deriva da orbitali-π delocalizzati, completamente “occupati” da sei elettroni, come si osserva appunto nel benzene (figura 1).

Fig. 1 Aromaticità “classica” π

Ma come capita per molti concetti insegnati in un primo corso di chimica organica, la realtà è più complessa. I chimici hanno attivamente discusso ed esteso il concetto di aromaticità.

Attualmente, l’aromaticità σ- e δ- derivante da (4n + 2) elettroni σ e δ rispettivamente, sono state previste da calcoli teorici e studi sperimentali (figura 2).

Fig. 2 Aromaticità- σ

La successiva logica domanda è se diversi tipi di aromaticità possano coesistere in una singola molecola. Poiché la previsione teorica su una misteriosa molecola ipotetica che possedeva aromaticità doppia σ- e π- fu riportata da Schleyer et al. nel 1979 (J. Chandrasekhar et al., Double aromaticity: aromaticity in orthogonal planes.The 3,5-dehydropenyl cation., Tetrahedron Lett., 1979, 20, 3707-3010), la ricerca sperimentale di composti aromatici stabili σ- e π- è proseguita negli anni con pazienza.

Ispirato da un precedente lavoro di Martin (D.J. Sagl, J.C. Martin, The Stable Singlet Ground State Dication of Hexaiodobenzene: Possibly a σ-Delocalized Dication, J. Am. Chem. Soc. 1988, 110, 5827-5833), Saito e collaboratori hanno autonomamente progettato un dicatione esaselenilbenzenico come potenziale composto a doppia aromaticità σ- e π-.

Prof. Masaichi Saito

Il razionale per tale scelta si è basato sulle seguenti considerazioni: 1) la sua π-aromaticità è giustificata dalla presenza di un anello benzenico, 2) gli orbitali σ delocalizzati ciclici sono possibili a causa delle interazioni tra coppie solitarie sugli atomi di selenio, e 3) i composti di selenio sono facilmente ossidati.

In effetti, i calcoli precedentemente effettuati dal gruppo sul composto modello, [C6(SeH)6]2+, predicono il suo carattere aromatico doppio σ- e π (M. Hatanaka et al., σ-Aromaticity in Hexa-Group 16 Atom-Substituted Benzene Dications: A Theoretical Study., J. Org. Chem., 2014, 79, 2640-6). Il gruppo di ricerca è quindi riuscito a sintetizzare e caratterizzare completamente il dicatione dell’esa(selenilfenil)benzene (figura 3) e a delucidare il suo carattere aromatico doppio σ- e π.

Fig. 3 Il catione esa(selenilfenil)benzene (Ph = fenil)

Il carattere aromatico doppio σ- e π del dicatione, ottenuto dall’ossidazione del precursore neutro (M. Saito, Y. Kanatomi, Reinvestigation on the synthesis of hexakis(phenylseleno)benzene., J. Sulphur Chem., 2009, 30, 469-476), è stato chiarito in base ai criteri di aromaticità.

La struttura molecolare determinata dall’analisi di diffrazione a raggi X ha rivelato un’alterazione trascurabile dei legami C-C nell’anello centrale a sei membri, indicando che esso mantiene la sua aromaticità originaria. I legami selenio-selenio e selenio-carbonio (sull’anello benzenico centrale) sono quasi identici, caratteristica dei composti aromatici. Anche le proprietà magnetiche del dicatione supportano il suo carattere doppio-aromatico (figura 4).

Fig.4 Doppia aromaticità nell’esa(selenilfenil)benzene (E = −SePh) dicatione

Il gruppo ha dimostrato che il dicatione possiede un carattere aromatico doppio σ- e π- derivante da orbitali delocalizzati ciclici σ- e π-simmetrici, formalmente occupati da dieci e sei elettroni, rispettivamente. L’aromaticità segue quindi la regola di Hückel 4n+2 (n = 1, 2, …), indipendentemente dalla simmetria orbitale σ- o π-.

Saito e collaboratori affermano che i loro risultati ampliano il concetto di aromaticità e possono rappresentare un passo avanti nella scienza dei materiali, considerando che dovrebbero favorire lo sviluppo della prossima generazione di sistemi π-aromatici.

Alexander I. Boldyrev, un chimico teorico della Utah State University, che ha predetto molecole aromatiche doppie contenenti boro, dice che Saito ha effettivamente scoperto un vero esempio di aromaticità π e σ e afferma che il fatto più importante è la stabilità del composto. Boldyrev ritiene che la molecola potrebbe aiutare i chimici a capire il legame, la struttura e la stabilità in altre molecole, specialmente inorganiche.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Marthe Louise Vogt (1903-2003)

In evidenza

Rinaldo Cervellati

Marthe Louise Vogt, neurofisiologo e chimico, è considerata una fra i principali scienziati nelle neuroscienze, particolarmente nel campo dei neurotrasmettitori.

Marthe Louise nacque l’8 settembre 1903 a Berlino, da Cecile Mugnier Vogt, francese e Oscar Vogt, di origine tedesco-danese, discendente da una famiglia di lunga tradizione comprendente religiosi luterani, capitani di marina e perfino un pirata. Marthe ebbe una sorella minore, Marguerite, che divenne genetista.

Cecile e Oskar Vogt erano i principali neuroanatomisti del loro tempo, dal 1898 al 1937 lavorarono insieme a Berlino sull’anatomia, la fisiologia e la patologia del cervello. Essi hanno descritto la sindrome di Vogt-Vogt[1] . A Oskar Vogt fu chiesto di eseguire un esame post-mortem sul cervello di Lenin. Egli trovò cellule piramidali corticali insolitamente grandi, suggerendo che potevano essere indicazione di una funzione mentale superiore.

Marthe crebbe quindi in una famiglia di talento dove la curiosità intellettuale era la grande forza trainante. Da bambina accompagnava il padre in spedizioni per raccogliere insetti, che erano usati come materiale per studi sulla variabilità genetica.

Anche se il padre è stato un attivo socialista, sembra che la giovane Marthe abbia avuto scarso interesse per la politica: nonostante la prima guerra mondiale, la sua prospettiva era internazionale, probabilmente un riflesso delle origini cosmopolite dei genitori. Marthe parlava correntemente francese, inglese e tedesco.

Dal 1909 al 1922 Marthe Vogt frequentò l’Auguste Viktoria-Schule di Berlino-Charlottenburg, finendo con l’Abitur, qualifica di ingresso per qualsiasi università tedesca.

Marthe Louise Vogt da giovane

Dal 1922 al 1927 intraprese contemporaneamente gli studi di chimica e medicina all’Università di Berlino. Agli studenti era infatti permesso di organizzare liberamente i loro studi e orari e Martha fu in grado di frequentare molti corsi e lezioni oltre a quelli stabiliti dai singoli curricula delle due facoltà. Furono in particolare le lezioni di W. Schlenk[2] e F. A. Paneth[3] che la stimolarono a ciò che avrebbe voluto fare in futuro: applicare le conoscenze chimiche ai problemi medico-neurologici.

Marthe Vogt ottenne il diploma universitario in medicina nel 1927 e passò l’anno successivo di pratica medica per metà lavorando in ospedale e per metà nel laboratorio del padre su un progetto neuro-anatomico che fu oggetto del suo dottorato medico ottenuto l’anno successivo, il 9 maggio 1928. I successivi due anni furono spesi da Marthe al Kaiser-Wilhelm-Institut für Biochemie sotto la guida di C. Neuberg[4], per completare la formazione in chimica organica e produrre una tesi sul metabolismo dei carboidrati. Discusse la tesi e ottenne il dottorato in chimica il 27 settembre 1929. Dalla tesi ricavò due articoli pubblicati in tedesco su Biochemische Zeitschrift nel 1929.

Nel 1929, Vogt iniziò a lavorare su farmacologia e endocrinologia presso l’Istituto di Farmacologia a Berlino, diretto da Paul Trendelenburg[5] dove strinse amicizia con diversi colleghi, in particolare con il figlio di Paul, Ullrich, che rimase suo amico per tutta la vita. Qui Vogt imparò a conoscere l’endocrinologia e utilizzò tecniche chimiche nell’analisi farmacologica. All’inizio degli anni ’30, si era affermata come una delle principali farmacologhe tedesche e nel 1931, a soli 28 anni, fu nominata responsabile della divisione chimica del Kaiser Wilhelm Institut für Hirnforschung (“Scienza del Cervello”). All’Istituto intraprese studi elettrofisiologici sul cervello e indagò gli effetti di vari farmaci sul sistema nervoso centrale. Annota che all’inizio l’atmosfera lavorativa all’istituto era eccellente, ma col passare del tempo divenne sempre più opprimente a causa del clima politico, tanto da indurla a cercare opportunità all’estero. Effettivamente Vogt non aveva creduto che Hitler e il partito nazista sarebbero saliti al potere, ma dovette rendersi conto di aver sbagliato valutazione, fu per questo che si mise a cercare lavoro fuori dalla Germania.

Fortunatamente, il futuro Premio Nobel Sir Henry Dale[6] le aveva offerto un posto nel suo laboratorio a Londra se avesse ottenuto un supporto finanziario. Vogt conseguì una borsa di studio Rockefeller Travelling per un anno e lasciò la Germania per Londra il 1 aprile 1935. Chissà se in quel momento Marthe Vogt realizzò che forse non avrebbe mai più lavorato in Germania.

Vogt trascorse la prima metà della borsa Rockefeller nel laboratorio di Sir Henry Dale a Hampstead in collaborazione con Wilhelm Feldberg (1900-1993) sul rilascio di acetilcolina dai nervi motòri. Deve essere stato un momento emozionante perché l’idea della trasmissione chimica degli impulsi nervosi era relativamente nuova e questa scoperta era un’ulteriore prova della supposizione. Il lavoro fu pubblicato nel Journal of Physiology (H.H.Dale, W. Feldberg, M. Vogt, Release of Acetylcholine at Voluntary Motor Nerve Endings., J. Physiol., 1936, 86, 353-380.), lo stesso anno in cui a Dale fu conferito il premio Nobel. Dale in particolare menzionò il lavoro con Feldberg e Vogt nella sua Nobel lecture e suggerì cautamente che la trasmissione chimica che si trova in periferia potrebbe essere alla base della connettività interneuronale nel cervello.

Non possiamo sapere se questo suggerimento abbia influenzato Vogt, certamente questa fu l’area in cui fece le sue scoperte più importanti, usando metodi chimici per misurare le sostanze neuro trasmittenti. Si pensi a quanto dovesse essere difficile misurare l’acetilcolina rilasciata dalla stimolazione dei nervi motòri. La produzione è molto piccola, in particolare in relazione alla massa muscolare e a quei tempi la sostanza trasmittente poteva essere rilevata solo da un noioso biosaggio.

Vogt trascorse la seconda metà della borsa Rockefeller a Cambridge con E. B. Verney (1894-1967), professore di Farmacologia, insieme hanno compiuto notevoli indagini sull’ipertensione.

Le condizioni della sua borsa erano tali che avrebbe dovuto rientrare in Germania dopo un anno, ma con l’aiuto di Verney ottenne un’altra borsa annuale continuando così a fare ricerca a Cambridge. Nel frattempo fece domanda per l’Alfred Yarrow Research Fellowship al Girton College di Cambridge, vincendola ebbe un ulteriore supporto finanziario di tre anni. In teoria, quindi, ebbe un sostegno sufficiente per rimanere in Gran Bretagna fino al 1940. Nel 1938 l’Università di Cambridge le conferì il dottorato ad honorem, dove divenne Dimostratrice in Farmacologia e Fisiologia.

Marthe Vogt nel 1939

Sfortunatamente, lo scoppio della seconda guerra mondiale minacciò la sua carriera. Nel 1939 i servizi britannici di intelligence scoprirono che Marthe Vogt era ancora un membro del partito nazista. Tecnicamente infatti Marthe faceva ancora parte del personale docente ricercatore di un’università tedesca e automaticamente era membro di quel partito. I suoi tentativi di dimettersi non erano stati accettati dai funzionari nazisti. Fu portata davanti a un tribunale che la classificò “straniera nemica di categoria A” e dispose per il suo immediato internamento. Tuttavia, tutti i colleghi e gli amici di Vogt si radunarono in suo aiuto e le fu concesso un processo d’appello. La categoria fu cambiata in “straniera amica”, liberandola per continuare il suo lavoro a Cambridge, nel febbraio 1940. Marthe Vogt fece quindi domanda per la naturalizzazione britannica che però le fu concessa solo nel 1947, due anni dopo la fine della guerra.

Finita la borsa di studio al Girton College a Vogt si presentò l’opportunità di condurre ricerche indipendenti: nel giugno del 1941 fu nominata membro del personale dei Laboratori Farmacologici della Pharmaceutical Society of Great Britain a Bloomsbury Square a Londra, comunemente noto come “The Square” (“La Piazza”). Fu in questo ambiente che Marthe Vogt espresse maggiormente la sua originalità. Lei focalizzò l’attenzione sulla ghiandola surrenale e alla sua relazione con lo stress. Fu il suo importante, ma non principale interesse di ricerca per il resto della sua carriera (peraltro iniziato nel periodo berlinese). Uno sguardo alla sua lista di pubblicazioni mostra che pubblicò oltre 30 articoli sull’argomento, per lo più solo a suo nome, il che rappresenta uno sforzo colossale di ricerca.

Gli studi sulle ghiandole surrenali rimasero un serio interesse di Vogt anche dopo il suo trasferimento come Lecturer al Dipartimento di Farmacologia di Edimburgo nel 1947. Non vi può essere alcun dubbio che i contributi più importanti di Marthe Vogt furono in neurofarmacologia. Ancor prima di lasciare “The Square”, aveva collaborato con il suo collega e amico Wilhelm Feldberg. Insieme decisero di studiare la sintesi dell’acetilcolina in diverse regioni del cervello. Misurando la colina acetilasi (oggi chiamata colina acetiltransferasi), l’enzima che sintetizza l’acetilcolina, che poteva essere rilevata in piccoli volumi di tessuto cerebrale, hanno fornito forti evidenze del ruolo dell’acetilcolina come neurotrasmettitore e hanno dimostrato la distribuzione dei sistemi colinergici nelle diverse regioni del cervello (W. Feldberg, M. Vogt, (Acetylcholine synthesis in different regions of the central nervous system., Journal of Physiology, 1948107, 372–381).

Marthe Vogt e Wilhelm Feldberg

Mentre era a Edimburgo, Vogt pubblicò un articolo sulla concentrazione di simpatina (noradrenalina e adrenalina) nel sistema nervoso centrale che molti considerano la sua migliore ricerca (M. Vogt, The concentration of sympathin in different parts of the central nervous system under normal conditions and after the administration of drugs. J. Physiol., 1954, 123, 451–481).

Marthe Vogt Royal Society Member

Avendo già a disposizione tecniche di separazione cromatografica, metodi fluorimetrici e attraverso una serie di analisi biologiche ha analizzato il contenuto di noradrenalina e adrenalina nel cervello. Va ricordato che la concentrazione di queste sostanze è solo di circa 1μg g−1 nelle zone più ricche e in molte parti è molto inferiore. Inoltre, lavorò con campioni di massa 10-250 mg.

Tuttavia riuscì a ottenere i valori per il contenuto di 41 diverse aree del cervello. La distribuzione era irregolare, alcune aree avevano 20 volte la concentrazione delle altre. La distribuzione poteva poi modificarsi sotto l’azione di diversi farmaci. Con la dovuta cautela, Vogt diede un’interpretazione di questi risultati.

Nel 1951 fu elevata a un grado superiore e nel 1952 divenne Reader (equivalente di professore), nello stesso anno fu eletta Fellow della Royal Society, un riconoscimento assegnato in precedenza a sole altre otto donne.

Nel 1960 si trasferì all’Agricultural Research Council’s Institute of Animal Physiology at Babraham, appena fuori Cambridge, dove è stata a capo dell’unità di farmacologia fino al 1968. Anche se si è ufficialmente ritirata a questa data ha continuato a pubblicare e a ricevere visiting professors fino agli ultimi anni ’80.

Marthe Vogt in età avanzata

Nel 1988, lasciò il suo paese d’adozione per vivere con sua sorella Marguerite, 10 anni più piccola, a La Jolla, in California. Marthe Vogt è morta il 9 settembre 2003, il giorno dopo il suo 100° compleanno.

Opere consultate

Alan W. Cuthbert, Marthe Louise Vogt. 8 September 1903 — 9 September2003: Elected FRS 1952, Biogr. Mems Fell. R. Soc. 2005, 51, 409-423.

A.B. Vogt, Marthe Louise Vogt (1903-2003). In: J. Apotheker and L.S. Sarkadi, European Women in Chemistry, Wiley-VCh verlag GmbH & Co. Weinheim, Germany, 2011, pp. 149-152.

[1] Questa sindrome è il risultato di una lesione del corpo striato, solitamente associata a danno alla nascita che causa una forma di paralisi cerebrale. La malattia insorge nella primissima infanzia quando dovrebbe cominciare a svilupparsi un’attività motoria complessa, come sedersi, stare in piedi e camminare.

[2] Wilhelm Johann Schlenk (1879 – 1943) chimico tedesco, noto soprattutto per aver sviluppato apparecchiature che permettono la manipolazione di composti sensibili all’aria, che gli permisero di preparare per la prima volta composti organometallici del litio.

[3] Friedrich Adolf Paneth (1887 – 1958) chimico austriaco naturalizzato britannico nel 1939 dopo essere fuggito dall’Austria nazista. Dopo la guerra, Paneth tornò in Germania per diventare direttore dell’Istituto Max Planck per la chimica nel 1953. Fu considerato la massima autorità del tempo sugli idruri volatili, diede anche importanti contributi allo studio della stratosfera.

[4] Carl Alexander Neuberg (1877-1956), ebreo tedesco è spesso definito il “padre della moderna biochimica”. Il suo notevole contributo alla scienza include la scoperta della carbossilasi e la delucidazione della fermentazione alcolica che dimostrò avvenire attraverso una serie di reazioni enzimatiche, comprensione cruciale per l’interpretazione dei percorsi metabolici.

[5] Paul Trendelenburg (1884 – 1931), farmacologo tedesco particolarmente noto per le sue ricerche sull’adrenalina, per lo sviluppo di procedure di misurazione biologica per la standardizzazione dei preparati ormonali.

[6] Sir Henry Hallett Dale (1875 – 1968), farmacologo e fisiologo inglese, condivise con Otto Loewi il Premio Nobel per la medicina o fisiologia 1936 per le loro scoperte sulla trasmissione chimica degli impulsi nervosi.

Il fango e quegli idrocarburi del cavolo.

In evidenza

Claudio Della Volpe

Continuiamo a parlare dell’art.41 del decreto “Genova” di cui abbiamo già parlato in un post precedente; si tratta di un testo che è stato integrato durante l’approvazione del decreto “Genova” e il cui testo riporto in calce (lo trovate qui).

Ricordo che sulla composizione dei fanghi esisteva una legge dedicata la legge 99/92, in cui si scrivono criteri generali e nelle appendici una almeno parziale lista di limiti di composizione dell’effluente nei suoi rapporti con la matrice (qua si potrebbe discutere sul problema costituito dai rapporti fra effluenti e matrice, problema che già ebbe potente ruolo nel caso delle acque e della legge Merli, entrambi devono essere considerati). Sul tema le regioni più interessate avevano legiferato arrivando a stabilire criteri su altri componenti, in particolare gli idrocarburi C10-C40; contro quel limite e su altri, alcuni comuni lombardi avevano fatto ricorso e il TAR e la Cassazione gli avevano dato ragione, sostenendo che

i fanghi da depurazione sono destinati ad essere mescolati ad ampie porzioni di terreno e a divenire, quindi, un tutt’uno con esso; appare pertanto logico che il fango rispetti i limiti previsti per la matrice ambientale a cui dovrà essere assimilato”

una logica fallace, che impedirebbe perfino di spargere dei comuni concimi biologici, in quanto nemmeno il letame rispetta i limiti previsti per la matrice ambientale e men che meno lo fanno i concimi di sintesi o altri ammendanti; eh si perchè miei cari Giudici delle Corti se si aggiungono essi vengono aggiunti proprio allo scopo di modificare le caratteristiche del terreno, reintegrando ciò che è stato consumato dalla produzione di cibo oppure introducendo componenti necessari ma non presenti! Questo criterio trascura anche il fatto che il terreno è una struttura di massa molto maggiore del fango (che vi può venire aggiunto secondo l’art. 3 della legge 99/92 in ragione di sole 15ton/ettaro, ossia una frazione dell’ordine dell’1/1000 o meno della massa di terreno per ettaro usata in agricoltura che arriva almeno a 40cm) che dunque lo diluisce; che è una struttura viva, che è in grado cioè “metabolizzare” il fango di trasformarlo almeno parzialmente.

Per questo mentre ha senso imporre limiti uguali a quelli del suolo per il cadmio, presente come ione e che non potrà essere “smontato” in alcun modo, così come per molecole organiche stabili, i POPs, persistent organic pollutants come il DDT o il PCB, non è la stessa cosa per le molecole come gli idrocarburi lineari che sono persino presenti anche nella struttura dei tessuti organici (come vedremo più avanti).

Ma tant’è! Questo ha bloccato il riciclo dei fanghi e dunque ha portato alla necessità di modificare le cose, regolamentando meglio della legge 99 la situazione, come sta facendo il Parlamento con l’art.41 che AGGIUNGE nuovi limiti per i fanghi che prima non esistevano.

Ovviamente le proteste dei Comuni e dei loro cittadini hanno motivi ragionevoli, per esempio nell’abuso legato all’uso di fanghi non civili o all’eccesso di uso, al modo scorretto di trasporto oppure infine all’odore pestifero e così via, tutti aspetti però che non toccano il problema di fondo e che devono essere risolti per altra via, per esempio migliorando la depurazione (come descritto da Mauro Icardi in post precedenti), imponendo metodi di trasporto diversi, con maggiori controlli sulle distanze dalle abitazioni e contrastando le ecomafie che sono diffuse anche nelle regioni del Nord non solo nella “terra dei fuochi”, dunque con una legge più completa e moderna della 99/92.

I fanghi di origine civile (cioè le nostre deiezioni così come il letame e le altre deiezioni degli animali a noi asserviti) sono utili all’agricoltura e servono a chiudere il ciclo agricolo, cosa del tutto necessaria e logica e che noi non facciamo ancora o forse non facciamo più, dato che la logica del riciclo è parte della cultura dell’agricoltura tradizionale da millenni.

Ovviamente le deiezioni di una volta, che i contadini riusavano nel terreno (si veda la citazione di Liebig nel post precedente) erano diverse da quelle attuali; vi pare strano? E invece no, non solo perchè mangiamo cose diverse, ma anche perchè nei depuratori arrivano oltre ai resti del cibo anche altri prodotti casalinghi; i detersivi, i cosmetici, le droghe, i farmaci e tanti altri prodotti di sintesi che certo il contadino di Liebig non usava.

Questo impone un riesame continuo dei metodi di depurazione che sono stati esaminati nei numerosi post di Mauro Icardi in questo blog e che devono essere adeguati, studiati migliorati; il depuratore deve diventare la fabbrica dell’acqua, ma anche il centro di un modo nuovo di sentirci parte dell’ecosfera.

Noi non siamo estranei all’ecosfera, ne siamo parte integrante; la vita è a sua volta parte della superficie terrestre, di quel supersistema di interazioni che Lovelock ha chiamato Gaia. Il depuratore non è un posto che puzza, è un momento cruciale di questa interazione, il simbolo della nostra capacità di integrarci in Gaia.

Voglio chiudere questo post raccontandovi una cosa che riguarda la presenza degli idrocarburi lineari nelle piante e dunque nei campi e nel suolo; degli idrocarburi in genere abbiamo già detto (sono infatti idrocarburi lineari ma insaturi il licopene del pomodoro, il betacarotene della carota); parliamo di quelli saturi.

Come ho raccontato altrove mi occupo di bagnabilità; per esempio di cose come l’angolo di contatto delle superfici e dunque anche di quelle naturali; molti lettori avranno sentito parlare del loto e delle superfici superidrofobiche, ossia che non si bagnano. Molte piante hanno sviluppato strutture superficiali che servono proprio a questo, che tengono cioè la superficie foliare pulita, priva di acqua, perchè l’acqua oltre ad essere un bene prezioso e necessario è anche il vettore di infezioni: muffe, batteri e funghi. Dunque controllare il suo flusso ed evitare il suo accumulo in certe zone è fondamentale; anche l’acqua è una molecola a due facce, come tutte le cose, buona e cattiva, la dualità della Natura, la dialettica della natura (avrebbe detto Guido Barone che ci ha lasciato da poco: “ogni molecola ha due corni”). L’acqua è fondamentale da bere, ma evitate di farla entrare nei vostri polmoni, diventa mortale.

Una foglia di loto coltivata in una vasca nel mio laboratorio, notate la forma delle gocce di acqua che non “si attaccano” ma scivolano sulla superficie.

Come fanno le piante a creare superfici superidrofobiche? Nessun materiale supera la idrofobicità dei legami fluorurati CF o anche CH; il comune materiale idrofobico naturale sono le cere, ossia catene idrocarburiche CH2, terminate con CH3. Alcune di queste cere cristallizzano spontaneamente in forme aghiformi, dando luogo dunque a strutture “pelose” di fili idrofobici.La superficie di una foglia di loto al SEM dell’Ospedale S. Chiara di Trento che ringrazio. Notate la pelosità superficiale dovuta alle cere epicuticolari.

E’ un trucco molto comune in natura; gli uccelli acquatici si lisciano continuamente le penne costituite di strutture filamentose per spargere il grasso prodotto dalle loro ghiandole superficiali e rendono le penne idrofobiche; infatti la scadente capillarità dei grassi (e delle cere) impedisce all’acqua di scacciare l’aria dai loro sottili contorni e dunque impedisce di raffreddare l’animale, che rimane nelle sue penne come in un …piumino.

Le piante, la cui dinamica è molto più lenta degli animali, usano strutture diverse, le cosiddette cere epicuticolari che stabiliscono il loro dominio all’estremo del loro corpo, all’esterno delle pectine e della cellulosa, impedendo la penetrazione dell’acqua e anzi facilitandone lo scorrimento. Il loto è il sacro simbolo della purezza, grazie a questo trucco; ma in realtà molte piante comuni ed umili sono altrettanto ricche di cere epicuticolari.

Il comune cavolo, Brassica Oleracea, diffuso alimento delle regioni del Nord contiene 50microgrammi di cera per ogni cm2 di superficie foliare ed è altrettando superidrofobico del loto. Un metro quadro di foglia contiene dunque 0.5grammi di cere e una pianta di cavolo può contenere grammi di cere epicuticolari (Acta agriculturae Slovenica, 91 – 2, september 2008 str. 361 – 370 DOI: 10.2478/v10014-008-0016-3).

Di cosa sono fatte le cere? Sono sostanzialmente idrocarburi lineari a catena maggiore di C16, perché l’esadecano è l’ultimo idrocarburo lineare saturo a fondere a t ambiente. La cera della candela è di origine minerale, petrolifera ma è fatta al medesimo modo. Le cere epicuticolari sono costituite di varie sostanze, contenenti nel caso del cavolo, tutte una catena C27-C31, principalmente C29 , compresi in quantità notevole degli idrocarburi lineari veri e proprii (attorno a un terzo del totale delle cere); un campo di cavolo contiene dunque idrocarburi lineari di quel tipo in dose misurabile e non lontana dai limiti fissati dall’art.41 (parte f della figura successiva). Ve lo aspettavate?SEM micrographs of cell surface structuring by epicuticular waxes. (a) Thin wax films, hardly visible in SEM, cover many plant surfaces as indicated here in H. bonariensis. (b) A wax crust with fissures on a leaf of Crassula ovate, (c) β-diketone wax tubules of E. gunnii and (d) nonacosan-ol tubules on Thalictrum flavum glaucum leaves are shown. (e) Wax platelets on Robinia pseudoacacia leaves are arranged in rosettes. The waxes shown are (f) simple rodlets on a leaf of Brassica oleracea, whereas the rodlets shown are (g) transversely ridged rodlets on a leaf of Sassafras albidum. (h) Mechanically isolated waxes from a leaf of Thalictrum flavum on a glass surface show wax tubules and the underlying wax film.

Phil. Trans. Roy. Soc. A Superhydrophobic and superhydrophilic plant surfaces: an inspiration for biomimetic materials Kerstin Koch, Wilhelm Barthlott

Laila R, Robin AHK, Yang K, Park J-I, Suh MC, Kim J and Nou I-S (2017) Developmental and Genotypic Variation in Leaf Wax Content and Composition, and in Expression of Wax Biosynthetic Genes in Brassica oleracea var. capitata. Front. Plant Sci. 7:1972. doi: 10.3389/fpls.2016.01972

Ma non è il solo alimento comune; in modo simile il pisello contiene elevate quantità di cere epicuticolari, così come altre comuni piante.

Attenti dunque, nella furia antifanghista, a non mettere fuori legge i campi di cavoli e piselli!

(ah dimenticavo un dettaglio; nella cera d’api un settimo circa (15%) è costituito da idrocarburi lineari della medesima dimensione di cui parliamo qui, il resto sono in gran parte acidi grassi, sempre solita catena molto lunga, attenti dunque al suolo sotto gli alveari, sarà mica fuori legge pure quello?)

L’art.41 non è una soluzione completa, è una misura di emergenza che dovrà essere sostituita da un aggiornamento della 99/92, si potrebbe scrivere meglio, ma non è un imbroglio, né una misura da inquinatori. Se ne convincessero gli ambientalisti.

*************************************************

Testo art. 41 dopo approvazione della Camera.

Il testo è diviso in due colonne; a sinistra com’era uscito dal Consiglio dei Ministri, a destra dopo le modifiche in Commissione

Il solfuro di idrogeno forma dimeri attraverso legami a idrogeno.

In evidenza

Rinaldo Cervellati

Nel numero del 17 ottobre di Chemistry & Engineering newsletter on-line, Sam Lemonick riporta un recente lavoro con evidenze sperimentali non ambigue di legami a idrogeno nel dimero del solfuro di idrogeno e di alcune somiglianze fra il comportamento di questo dimero e quello dell’acqua.

Come noto una delle cause per le proprietà uniche dell’acqua, come i punti di ebollizione e di congelamento, è proprio la presenza dei legami a idrogeno. Per decenni i chimici hanno discusso se i dimeri del solfuro di idrogeno, H2S, “cugino” maleodorante dell’acqua, fossero anch’essi trattenuti da legami a idrogeno.

Nella struttura tetraedrica del ghiaccio, misure spettroscopiche mostrano l’evidenza di quattro legami a idrogeno dell’acqua (attraverso due atomi di idrogeno e due coppie di elettroni solitari dell’ossigeno), ma nell’H2S solido, ogni molecola è circondata da un guscio di altre 12 molecole. Questa drammatica differenza tra le fasi condensate di acqua e idrogeno solforato portò a concludere che la struttura del ghiaccio è anisotropa dovuta ai legami a idrogeno, mentre la struttura di H2S solido è determinata da interazioni isotropiche, un contorno sferico in cui sono sistemate le 12 molecole (figura 1):

Figura 1 unità strutturali di H2O e di H2S solidi

Ciò faceva pensare a molti che nel dimero dell’idrogeno solforato (altro nome del solfuro di idrogeno) non si potessero formare legami a idrogeno.

Tuttavia nel 2013 i risultati di un lavoro di spettroscopia infrarossa sul dimero di H2S, (H2S)2 hanno condotto gli autori a proporre per esso il legame a idrogeno, senza però fornire una descrizione dettagliata della sua struttura. Anche calcoli teorici quantomeccanici indicano che le strutture di (H2S)2 e (H2O)2 dovrebbero essere simili, unite da un ponte a idrogeno.

Un gruppo internazionale di ricercatori, coordinati dal Prof. Elangannan Arunan, Department of Inorganic and Physical Chemistry dell’Indian Institute of Science, hanno recentemente riferito di aver trovato prove sperimentali non ambigue che i dimeri di H2S sono trattenuti da legami a idrogeno [1].

Prof. Elangannan Arunan

Dallo studio degli spettri del dimero “genitore” e di quelli isotopicamente sostituiti, utilizzando uno spettrometro a microonde in trasformata di Fourier, il team di ricercatori è stato in grado di stabilire distanze e angoli di legame in (H2S)2 gas a temperatura molto bassa, ottenendo la seguente struttura (figura 2):

Figura 2. Struttura sperimentale del dimero (H2S)2 (dal rif. [1])

simile a quella, ben nota, del dimero dell’acqua (figura 3):

Figura 3. Struttura del dimero (H2O)2 (dal rif[1], *=calcoli teorici)

I risultati sperimentali ottenuti dagli autori sono in ottimo accordo con i più recenti calcoli quantomeccanici, riportati per confronto nella tabella 4 del loro articolo [1].

Arunan e il suo gruppo concludono che sebbene l’idrogeno solforato rimanga in forma gassosa a temperatura ambiente con ogni molecola contornata da 12 vicine, quando raffreddato sotto −60°C, i dimeri di H2S sono uniti da un legame a idrogeno. A temperature più elevate tali legami si rompono e si riformano troppo rapidamente per essere rilevati mediante spettroscopia.

Bibliografia

[1] A. Das et al., Angew Chem Chem Int. Ed., 2018, DOI: 10.1002/anie.201808162

Si fa presto a dire ricicliamo…… 2: i numeri del riciclo mondiale

In evidenza

Claudio Della Volpe

(Prima parte del post, qui)

Facendo seguito alle considerazioni generali della prima parte, esamineremo qui alcuni dati riguardanti la situazione e l’evoluzione della circolarità per il mondo nel suo complesso e per l’Europa a 27. Sia per l’Europa che per il mondo nel suo complesso abbiamo a disposizione un articolo del 2015 pubblicato su Journal of Industrial Ecology che analizza la situazione al 2005 (fig. 1 e 2, legenda dei colori in Fig. 2).

Vediamo che la percentuale riciclata era in entrambi i casi molto ridotta 4Gt su un totale di 62 Gt e 1 su 6.7 nel secondo caso, con un vantaggio significativo dell’Europa che, secondo questa stima, riciclava circa il doppio dei materiali rispetto alla media del mondo intero, costituendone poco più di un decimo e questo vi da l’idea delle dimensioni reciproche fra Europa e Mondo (la popolazione europea di circa 550 milioni di persone era inferiore al decimo della popolazione mondiale che all’epoca era appena sotto i 7 miliardi mentre i suoi consumi sono al di sopra di questa soglia). Infine l’Europa a 27 importava circa il 18% del suo flusso materiale totale.

Questo confronto è relativamente facile in quanto l’articolo usa la medesima metodologia per i due casi.

Impressiona questa analisi delle nostre società come enormi reattori, ma descrive anche con chiarezza la sostanziale linearità del processo produttivo.

Ci sono due aspetti che aiutano a capire questi grafici e il loro senso.

Il primo è che buona parte della massa di materiale impiegata è combustibile. Serve a scopi energetici e dunque spiega anche perchè non viene riciclata e contribuisce a tener bassa la percentuale del riciclo attuale; l’altro aspetto è l’importanza dell’accumulo che viene ulteriormente analizzato nel lavoro successivo.

Fig. 1

Fig. 2

Nella fig.3, che è frutto di un diverso tipo di analisi, abbiamo una parte della rappresentazione usata nel testo The Circularity Gap Report; e vediamo come vanno le cose nel mondo al 2014, dunque dieci anni dopo i grafici precedenti; in entrambi i casi si tiene conto dell’accumulo complessivo, ma qui si valuta esplicitamente quanto vale questo stock di manufatti che ha ormai raggiunto gli 800 Gt. Il totale della stima raggiunge con questo secondo metodo, non immediatamente confrontabile con l’altro, oltre 90 Gt, mentre se consideriamo i dati “netti” (trascurando l’accumulo in stock) le cose non sono distanti, 68.5Gt; di queste 90Gt circa solo il 9% sono riciclate.

Molto difficile capire bene se c’è stata una evoluzione positiva o se le differenze nascono da metodi diversi di calcolo, incluso l’aumento dei dati complessivi che sarebbe impressionante.

Fig. 3

Fig. 4

Nella figura 4 qui sopra invece abbiamo una rappresentazione fatta dagli uffici statistici dell’Europa a 27 che da per il 2014 una stima di riciclo, udite bene, inferiore a quella del 2005 dell’altro lavoro, mentre i numeri globali sono simili; ossia solo 0.7 Gt di materiale sarebbero riciclate su un totale di flusso di 7.3; se fossero comparabili questi dati indicherebbero un peggioramento della situazione; e comunque fanno vedere che la situazione non è rosea perchè a questo punto sarebbe sostanzialmente omologa a quella del mondo nel suo complesso.

In media, dato che siamo oltre 7.5 miliardi, ciascuno di noi necessita di un flusso impressionante di materiali vari che a seconda delle stime si aggira un po’ sotto o un po’ sopra le dieci tonnellate annue e che ha lasciato dietro di se un accumulo calcolabile al 2014 in 100 tonnellate pro capite di manufatti che usiamo (case, auto, strade etc). Ma non basta!

Ciascuno di noi disperde anche il 90% del suo flusso annuo sul pianeta, ossia 9 tonnellate di materiale all’anno che infestano la biosfera a partire dall’oceano e dall’aria prima di tutto, mentre solo 1 tonnellata viene riciclata in qualche forma. Difficile stimare la quantità totale di rifiuti prodotti nel corso del tempo, ma i numeri sarebbero ancora più alti.

In sintesi per ogni uomo vivente sul pianeta ci sono alla grossa 100 ton di materiale accumulato sotto forma di manufatti, 10 ton di materiale processato all’anno e di queste solo 1 ton viene da riciclo.

I due aspetti che saltano all’occhio sono da una parte che il passaggio alle energie alternative potrebbe ridurre la quota di materiale disperso in ambiente da cui dipendono il GW e l’inquinamento; dall’altra l’accumulo di materiali come case ed oggetti durevoli è enorme, ma lo è ancor più se si pensa che l’accumulo riguarda solo una parte dell’umanità (consumo di suolo, costruzione di grandi e grandissime infrastrutture, saturazione del mercato delle costruzioni, etc) e dunque il pro capite è anche parecchio più alto di 100 ton con un gap fra paesi di antica e recente industrializzazione.

La sua crescita dunque è difficile da modificare nell’immediato, perchè una parte crescente di persone dei paesi emergenti sta uscendo finalmente dalla povertà ed entra nella classe media mondiale (e quel che ci fa arrabbiare è casomai che lo fa a spese della classe media dei paesi ricchi, e non piuttosto dei ricchi o dei super-ricchi di questi medesimi paesi). A questo proposito si deve guardare il famoso grafico dell’elefante.

Quello che stiamo vivendo in questi anni: i ricchi diventano sempre più ricchi, i nostri diritti sociali vanno a scomparire e nel contempo una parte enorme di umanità entra nel gioco (o nel giogo?) del mercato.

Quanto conta in tutto ciò la tendenza a considerare imprescindibile la continua “innovazione”, ossia cambiamenti casomai non epocali ma continui e spinti da un mercato che DEVE accumulare profitti o crollare? La creazione nei paesi cosiddetti “avanzati” di bisogni “innovativi” porta ad un accumulo incredibile sia di rifiuti che di stock. Pensate solo all’abitudine che abbiamo ormai di avere prodotti cosiddetti innovativi ogni anno (auto, cellulari, computers, etc, sono i famosi “eventi” mondiali delle grandi case, una chiamata a morto per l’ambiente): ma quanto sono effettivamente innovativi i prodotti innovativi? E di quanti di essi abbiamo effettivamente bisogno? Pensate solo ad un computer un po’ più veloce di prima e con una interfaccia un po’ più graziosa di prima che rende immediatamente “vecchi” anzi “obsoleti” (fa molto più figo!) tutti i precedenti, cambiate computer e dovrete cambiare tutte le periferiche: l’obsolescenza pianificata o forzata (come si legge dai giornali lo hanno fatto Apple e Samsung) è una base tradizionale di produzione industriale, che confligge terribilmente con le esigenze dell’economia circolare; la scomparsa del mercato dei ricambi e delle riparazioni è un altro aspetto.

Quante case sono veramente necessarie e quante invece sono sfitte, vuote per motivi di mercato e non di necessità?

Quante infrastrutture nuove sono veramente necessarie? Una corsia di autostrada in più serve veramente?

Le auto Euro n+1 ha senso sostituirle alle Euro n buttando al macero l’energia investita nel produrle? (circa 15-20ton di CO2 equivalente per ogni auto).

In tutti i casi c’è molto, moltissimo lavoro da fare, prima di tutto nell’analizzare con precisione la situazione ed i possibili rimedi.

Pensiamoci, ma in fretta per favore. Il clima e l’ambiente non aspettano più, sono stufi.

Nel prossimo post parleremo del riciclo dei singoli elementi della tavola periodica.

(continua)

Riferimenti:

1) The CIRCULARITY GAP report

https://docs.wixstatic.com/ugd/ad6e59_c497492e589c4307987017f04d7af864.pdf

2) Journal of Industrial Ecology October 2015 Pages 765-777

Volume19, Issue5 Special Issue on Frontiers in Socioeconomic Metabolism Research

https://onlinelibrary.wiley.com/doi/abs/10.1111/jiec.12244

3) statistiche europee

http://ec.europa.eu/eurostat/cache/infographs/circulareconomy/

http://dx.doi.org/10.1016/j.resconrec.2017.10.019

Resources, Conservation & Recycling 129 (2018) 81–92

Critical appraisal of the circular economy standard BS 8001:2017 and a dashboard of quantitative system indicators for its implementation in organizations

Stefan Pauliuk

https://wir2018.wid.world/files/download/wir2018-summary-english.pdf

Riflessioni e spunti da “accadueo”

In evidenza

Mauro Icardi

Lo scorso 18 Ottobre, dopo qualche anno di mancata frequentazione di fiere di settore, son voluto andare a Bologna per la manifestazione “accadueo”. Devo dire di avere fatto una scelta azzeccata. Ho potuto verificare di persona quelle che sono le nuove tendenze per la gestione in particolare delle reti idriche, e le nuove tecnologie disponibili a questo scopo. La parte più interessante è stata però il corso di formazione, seguito nel pomeriggio, e dedicato all’ottimizzazione funzionale ed energetica degli impianti di depurazione. Il depuratore del futuro è destinato a diventare qualcosa di profondamente diverso da come lo abbiamo conosciuto fino ad oggi.

Tendenzialmente deve diminuire il consumo unitario di energia per m3 di acqua trattata. Questo risultato però è ottenibile solo con un’operazione accurata e precisa di verifica delle funzionalità reali delle varie sezioni di impianto. Successivamente si possono programmare interventi mirati per il miglioramento del rendimento delle varie sezioni di trattamento. Occorre quindi conoscere con molta precisione il funzionamento reale dell’impianto. Tutto questo non può prescindere dal creare delle sinergie reali e positive, tra i gestori degli impianti di depurazione, che sono quelli che ne hanno la conoscenza gestionale e pratica, gli enti di ricerca, le università. Un modello di questo tipo è ormai usuale nei paesi del nord Europa, quali Danimarca e soprattutto Olanda. E non è casuale che proprio l’Olanda adottando una politica idrica di questo genere stia producendo ed esportando brevetti di nuove applicazioni dedicate alla gestione del ciclo idrico. Questa è un idea che sostengo da molto tempo, e di cui ho spesso scritto sulle pagine di questo blog. Per esperienza personale so purtroppo che in Italia la gestione e la realizzazione concreta di progetti innovativi, o di gestioni diverse del ciclo idrico incontrano molte resistenze, della natura più varia. I progetti di tesi di laurea sostenuti dagli studenti dell’Università di Varese che ho seguito come tutor, e che si occupavano della codigestione di matrici biodegradabili da trattare insieme al fango prodotto dagli impianti di depurazione municipali, hanno purtroppo subito uno stop, e non si è riusciti a trasformarli in progetti di ricerca. La sperimentazione sia pure molto positiva in scala di prova di laboratorio, si sarebbe dovuta proseguire a livello di prova su impianto pilota. Questo personalmente mi è dispiaciuto molto, visto che la codigestione sarebbe uno dei modi con i quali si può ridurre il consumo energetico dei depuratori, nonché migliorare la stabilizzazione della materia organica dei fanghi prodotti.

Purtroppo, come per esempio la vicenda della gestione dei fanghi di depurazione sta dimostrando, intorno a queste questioni si sta facendo troppa inutile confusione. Basta fare una normale ricerca in rete, per potersene rendere conto. Non esistono solo comitati che giustamente pretendono attenzione e chiarezza sulla gestione e disciplina dell’utilizzo dei fanghi di depurazione, ma anche decine di comitati contro la digestione anaerobica, cosa che invece lascia qualche perplessità in più. Inutile ribadire quanto è già stato detto qui su questo blog. La digestione anaerobica è una delle tecniche per il trattamento dei fanghi. E’ cosa diversa dalla digestione anaerobica degli effluenti zootecnici su cui molte persone storcono il naso. Per altro la codigestione di reflui e fanghi è normalmente praticata nei soliti paesi nord europei, ed era stata anche suggerita dall’Agenzia Europea di protezione ambientale nel 2011.

http://www.eea.europa.eu/highlights/big-potential-of-cutting-greenhouse?&utm_campaign=big-potential-of-cutting-greenhouse&utm_medium=email&utm_source=EEASubscriptions

Utilizzandola in combinazione con una gestione oculata della fase di ossidazione biologica può contribuire a diminuire il consumo energetico per m3 di acqua trattata da valori di 1kWh fino a circa 0,2.

La gestione corretta della fase di ossidazione biologica può consentire risparmi ulteriori. Una manutenzione efficiente e continuativa dei sistemi di diffusione di aria nelle vasche di ossidazione, consente risparmi che in un periodo di tre anni possono arrivare a 180.000 euro. Di energia non sprecata inutilmente nel comparto di ossidazione, che da solo è responsabile del 60% circa dei consumi energetici di un impianto di depurazione.

Se i piattelli si intasano e producono bolle d’aria troppo grandi l’efficacia di areazione diminuisce drasticamente. L’importanza di un sistema di aerazione che risparmi energia negli impianti di trattamento dei liquami si è rivelata molto presto. Le riduzioni di consumi energetici si devono trasformare in costi inferiori per il trattamento dell’acqua e la fornitura di acqua al cittadino.

La questione fanghi è aleggiata come un fantasma nella giornata trascorsa a Bologna. Qui ne abbiamo scritto, e abbiamo cercato di spiegarla. Da queste pagine mi sento di lanciare un invito ad un ulteriore sinergia. Quella con i medici ambientali, che si stanno occupando della questione dal punto di vista dei possibili impatti sulla salute.

http://www.gonews.it/2017/01/21/parere-medico-sullo-spandimento-dei-fanghi-depurazione-agricoltura/

Molte delle richieste che questi medici fanno sono condivisibili. Si rifanno ad un giusto principio di precauzione. Ma credo che anch’essi dovrebbero conoscere quello che sarebbe l’effetto di un eventuale blocco degli smaltimenti del fango, sulle condizioni di funzionamento (e di lavoro degli addetti). Se tutta la vicenda dei fanghi avrà come conclusione l’avvio di sinergie, il superamento delle decretazioni d’urgenza, e l’avvio di una sorta di “new deal” idrico, sarà certamente una cosa molto positiva.

Purtroppo però, devo constatare almeno alcune cose. Tanta demagogia, in un paese che è arrivato al 95% di partecipazione al referendum per l’acqua pubblica, ma continua a bere in maniera consistente quella in bottiglia (magari “griffata” da una bella fanciulla…) Poi un’altra situazione incresciosa. Quella in cui sono incappato infilandomi in una discussione che avrei dovuto evitare, visto che i social non sono il luogo migliore per approfondimenti tematici o tecnici. Molte persone hanno la radicata convinzione che gli addetti del ciclo idrico siano al servizio delle aziende e non dei cittadini. Con dubbi sulla corretta esecuzione delle analisi e dei risultati delle stesse. Bene, da queste pagine vorrei smentire questa vulgata. Io e molti altri colleghi siamo vincolati non solo dalla deontologia professionale, se iscritti ai rispettivi ordini professionali, ma anche dalla propria deontologia personale. Questa osservazione mi deve essere consentita. Sono piuttosto avvilito e stanco di vedere non solo pressapochismo e superficialità nel trattare questi temi, ma anche di vedere trasmissioni televisive dove spesso il tema è approfondito male, o trattato altrettanto superficialmente con l’arma di un’ironia che può fare più male che bene. L’acqua pubblica non significa acqua gratis. Significa averne la comprensione, l’educazione a gestirla, la doverosa rendicontazione di spese e investimenti. La corretta e puntuale pubblicazione di dati e analisi sui siti istituzionali e delle stesse aziende di gestione. A disposizione dei cittadini che sono i soggetti a cui questo servizio si rivolge. Che però dovrebbero fare almeno un minimo sforzo di comprensione e di approfondimento. Quella educazione idrica di cui ho parlato su queste pagine. Non è immediato per chi non è del settore capire per esempio che non ci sono solo inquinanti emergenti provenienti da lavorazioni industriali, ma anche residui di inquinanti legati ai nostri personali stili di vita (residui di farmaci, droghe d’abuso e cosmetici ne sono un chiaro esempio). La divulgazione è necessaria, ma deve anche essere accolta senza preclusioni o remore dalle persone a cui si rivolge. Perché se vince il pensiero magico o la preclusione ostinata non si ottiene nessun risultato.

La “catena di montaggio” aggiornata.

In evidenza

Luigi Campanella, già Presidente SCI

La catena di montaggio è nata nel 1913 inventata da Henry Ford che la introdusse nella sua fabbrica di automobili. Sostanzialmente parcellizzava il lavoro scomponendolo in piccole isole o singole mansioni, finalizzando il tutto ad un aumento della produttività. In effetti però il fordismo aveva avuto un precedente nel Taylorismo di Frederick Taylor un ingegnere che aveva individuato già alcuni anni prima il sistema di organizzazione scientifica del lavoro.

Nasce da queste due impostazioni l’era moderna perché dinnanzi alla protesta degli operai per questa innovazione organizzativa Ford rispose raddoppiando gli stipendi e quindi aumentando le capacità di spesa e consumo degli operai, di fatto dando l’avvio al capitalismo moderno. La stessa geografia industriale, europea e mondiale, si modifica profondamente: l’Inghilterra viene superata, alcuni paesi centro-orientali europei fanno la loro comparsa al livello delle economie significative.

La seconda rivoluzione industriale si concretizza: dopo la prima, quella del cotone, del ferro, del carbone, della macchina a vapore abbiamo quella del motore a combustione interna, dell’elettricità, dell’acciaio, della chimica, i cui progressi lanciano la chimica per il tessile, la produzione del sapone e della carta su grande scala, il settore della chimica organica, in particolare dei derivati della cellulosa. La Germania doppia l’Inghilterra per la produzione di acciaio, si costruiscono in Europa 70 mila chilometri di ferrovia, gli Stati Uniti pongono le premesse per quel cambio di leadership dell’economia mondiale che si concretizzerà dopo la seconda guerra mondiale.

A causa di questo eccezionale sviluppo industriale erano a disposizione di quasi tutte le nazione europee grandissime quantità di armi micidiali e di flotte militari sempre più agguerrite. Francia e Inghilterra volevano bloccare l’espansionismo tedesco e la sua crescente, inarrestabile egemonia industriale e scientifica: erano i prodromi della prima guerra mondiale. Processi così rapidi e sconvolgenti non possono passare tranquillamente: quattro anni dopo in Russia si compie la rivoluzione bolscevica e due anni più in avanti in Italia Mussolini crea i fasci di combattimento. La catena di montaggio è però andata avanti sia pure con soluzioni diverse come l’isola di montaggio, la cella di montaggio, la cella di assemblaggio introdotte allo scopo di conciliare i vantaggi della standardizzazione con stazioni di lavoro non più affidate ad una sola persona, con una visione del lavoro meno alienante e più sociale.

In più la robotizzazione industriale, a cui la chimica ha dato impulso e motivo, contribuisce significativamente a questa visione più morale e rispettosa del lavoratore ed è oggi uno dei punti di forza di Industria 4.0 e Chimica 3.0. Per il lavoratore nasce però un nuovo timore, quello di essere progressivamente sostituito dalla macchina, lo stesso timore che provarono i lavoratori tessili prima ricordati e che li spinse a sabotare le macchine che li avevano sostituiti. Chi contrasta questa tesi si appoggia, in fondo, al processo che abbiamo vissuto e che ricordavo all’inizio di questa nota: automazione vuol dire aumento della produttività, quindi dell’economia e del reddito che genererà domanda di nuovi prodotti e servizi e quindi di nuovi posti di lavoro. Si tratta di stabilire con che intensità questo processo si svilupperà rispetto all’altro, la caduta di posti di lavoro maturi e tradizionali a causa della competitività delle macchine. Nei prossimi decenni l’avanzamento tecnologico con la realizzazione di macchine applicate ad attività che richiedono capacità cognitive che non molto tempo fa erano viste come dominio degli essere umani comporteranno uno sconvolgimento guidato da nuove ondate di automazione centrata sulla cognizione artificiale, sulla sensoristica di routine, sulle nuove interfacce utente/macchina, sull’intelligenza distribuita.

Nasce una nuova “catena di montaggio” il cui filone è la comunicazione ed il cui traguardo è la conoscenza. C’è da chiedersi-e di conseguenza sperare- se la mutate condizioni generali ci preserveranno dagli inconvenienti e dalle sciagure che seguirono al primo lancio della catena di montaggio. Sta di fatto che ci sono anche altre condizioni che rendono difficoltosa una transizione di questo tipo: global warming, inquinamento diffuso, limiti delle risorse minerali e rinnovabili.

Scienziate che avrebbero potuto aspirare al Premio Nobel: Ida Smedley McLean (1877-1944)

In evidenza

Rinaldo Cervellati

Nel post su Martha Whiteley abbiamo accennato a Ida Smedley McLean, biochimico, prima donna a essere ammessa alla Royal Chemical Society, anche essa attivista per le pari opportunità delle donne nelle Facoltà di Chimica. Vale la pena fornirne dunque una sua appropriata nota biografica.

Nata a Birmingham il 14 giugno 1877, seconda figlia di William T. Smedley, uomo d’affari e di Annie Elizabeth Duckworth, figlia di un commerciante di caffè di Liverpool, una famiglia colta e progressista, ricevette l’istruzione primaria da sua madre fino all’età di nove anni.

Dal 1886 al 1896 frequentò la King Edward VI High School for Girls a Birmingham. Ottenne una borsa di studio con la quale entrò al Newnham College di Cambridge, iscrivendosi al Progetto Tripos di Scienze Naturali[1] nel 1896. Si piazzò al primo posto nella prima parte del progetto (1898) al secondo nella seconda parte (1899), studiando chimica e fisiologia. Dopo due anni di interruzione Ida ottenne nel 1901 una borsa di studio per fare ricerca post diploma al Central Technical College di Londra sotto la guida di H. E. Armstrong[2]. Ha insegnato come dimostratore di chimica nei laboratori didattici del Newnham College nel 1903 e nel 1904 ed è stata ricercatrice presso il laboratorio Davy-Faraday della Royal Institution dal 1904 al 1906. Conseguì il dottorato presso l’Università di Londra nel 1905.

Ida Smedley

Nel 1906 Smedley fu nominata assistente nel Dipartimento di Chimica dell’Università di Manchester, la prima donna a ricoprire un incarico in quel dipartimento. Rimase a Manchester per quattro anni, durante i quali condusse e pubblicò ricerche in chimica organica, in particolare sulle proprietà ottiche dei composti organici. Oltre a un primo lavoro del 1905, probabilmente riguardante la ricerca per il dottorato, altri sei articoli a suo solo nome furono pubblicati sul Journal of the Chemical Society Transactions fino al 1911.

Nel 1910 tornò a Londra e iniziò il suo lavoro in biochimica, che avrebbe continuato per il resto della vita. Ottenne una delle prime borse di ricerca Beit[3] (1910), lavorando presso il Lister Institute of Preventive Medicine diretto da Arthur Harden[4].

Menu di una cena dei vincitori di Borse Beit (la firma di Smedley è la quarta dal fondo)

Nel 1912 pubblicò una ricerca originale sugli acidi grassi contenuti nel burro [1] dimostrando, contrariamente a quanto si pensava, che sono costituiti da catene non ramificate, e la presenza di altri acidi insaturi accanto al già ben caratterizzato acido oleico. Il lavoro confermò anche la presenza soltanto di acidi grassi con un numero pari di atomi di carbonio. Successivamente pubblicò una prima analisi sui percorsi attraverso cui gli acidi grassi potevano essere biosintetizzati [2], facendo l’ipotesi che l’acido piruvico derivato dalla demolizione dei carboidrati fosse il precursore e che esso potesse perdere una molecola di anidride carbonica per generare un frammento con due atomi di carbonio (chiamato acetaldeide attiva) che avrebbe potuto essere usato per estendere una catena di acidi grassi in crescita attraverso una serie di reazioni di condensazione, disidratazione e riduzione[5].

Nel 1913, ricevette il premio Ellen Richards, un premio bandito dall’American Association of University Women per una ricerca originale di una scienziata donna. Nello stesso anno sposò Hugh Maclean (1879-1957), in seguito professore di medicina all’Università di Londra e all’ospedale di St Thomas, col quale ebbe un figlio e una figlia.

Durante la prima guerra mondiale, Smedley Maclean lavorò all’Ammiragliato su vari progetti di importanza nazionale, compresa la produzione su larga scala di acetone dall’amido per fermentazione.

Continuò le ricerche sugli acidi grassi che inclusero la loro sintesi dai carboidrati, la loro funzione e metabolismo negli animali. Fra il 1920 e il 1941 pubblicò più di 40 articoli su questi temi, parte in collaborazione, nel Biochemical Journal [3].

Divenne membro dello staff del Lister Institute nel 1932.

Lo staff del Lister Institute nel 1933. Nel riquadro Ida Smedley Mclean

La sua monografia The Metabolism of Fat, pubblicata nel 1943 come prima delle Monografie Methuen in Biochimica, riassumeva le sue opinioni sul campo, in cui era ormai un’autorità riconosciuta.

Ida Smedley Maclean è stata determinante nel promuovere lo status professionale delle donne nelle università. È stata una delle fondatrici della British Federation of University Women, da cui è nata la International Federation of University Women. Dall’inizio del movimento nel 1907, ricoprì incarichi di vertice e successivamente fu presidente della Federazione dal 1929 al 1935. Attualmente, la federazione amministra una borsa di ricerca post dottorato a suo nome, destinata a donne che intendono proseguire nel lavoro di ricerca.

E’ stata anche una leader nella lunga lotta per l’ammissione delle donne nella Chemical Society, che riuscì a vincere nel 1920. Fu quindi la prima donna ad essere formalmente accettata nella Chemical Society e fu membro del suo consiglio dal 1931-1934. Dal 1941 al 1944 è stata membro del comitato per le accettazioni delle donne all’Università di Cambridge.

Ida Smedley Maclean morì il 2 marzo 1944 presso l’University College Hospital di Londra e fu cremata a Golders Green.

Ida è stata una donna straordinaria riuscendo a gestire con successo e equilibrio i tre aspetti della sua vita: ricerca scientifica, impegno sociale e famiglia.

Bibliografia

[1] I. Smedley, The Fatty Acids of Butter, Biochemical Journal., 1912, 6, 451-461.

[2] I. Smedley, E. Lubrzynska, The Biochemical Synthesis of Fatty Acids, Biochemical Journal, 1913, 7, 364-74.

[3] http://www.biochemj.org/search/ida%252Bsmedley

Opere consultate

Mary M.S. Creese, Maclean Ida Smedley (1877-1944), Oxford Dictionary of National Biography, Oxford University Press, DOI: 10.1093/ref:odnb/37720.

Catherine M. C. Haines, (2001). International Women in Science: a Biographical Dictionary to 1950

  1. James, Ida Smedley was the first female member of the Chemical Society, and a vociferous campaigner for equality.

http://www.rsc.org/diversity/175-faces/all-faces/dr-ida-smedley/ https://warwick.ac.uk/fac/arts/history/chm/research/current/early_women_biochem/ida_smedley

[1] Il Progetto Tripos per le Scienze Naturali (NatSci) è tuttora vigente all’Università di Cambridge. NatSci è un corso ampio e flessibile; si inizia studiando quattro materie nel primo anno, almeno una delle quali deve essere matematica. È flessibile nel senso che uno studente può ad es. iniziare il percorso con l’intenzione di diventare un fisico e finirlo come biologo molecolare o vice versa. Ovviamente ai tempi di McLean la scansione temporale era diversa ma la “filosofia” del Tripos è rimasta inalterata. Per entrare, condizione necessaria è aver ottenuto il massimo dei voti in matematica, fisica, chimica e biologia agli esami finali della High School.

[2] Henry Edward Armstrong (1848-1937) chimico britannico. Sebbene Armstrong sia stato attivo in molte aree della ricerca scientifica, in particolare la chimica dei derivati del naftalene, è ricordato oggi soprattutto per le sue idee e il suo lavoro sull’insegnamento della scienza.

[3] Beit Memorial Research Fellowships, una delle borse di studio più prestigiose e competitive per la ricerca post-dottorato in medicina nel Regno Unito. Sono state istituite nel 1909 da Sir Otto Beit, un finanziere britannico di origine tedesca, filantropo e conoscitore d’arte, in memoria del fratello Alfred Beit.

[4]Sir Arthur Harden (1865–1940) biochimico britannico. Condivise il premio Nobel per la chimica nel 1929 con Hans Karl August Simon von Euler-Chelpin per le loro indagini sulla fermentazione degli enzimi zuccherini.

[5]Oggi sappiamo che questo schema è sostanzialmente valido e che l’acetaldeide attiva è l’acetil-coenzima A.

Recensione. Luca Mercalli “Non c’è più tempo. Come reagire agli allarmi ambientali”

In evidenza

Mauro Icardi

Luca Mercalli “Non c’è più tempo. Come reagire agli allarmi ambientali”. Ed Einaudi pag. 262. Euro 15.30

Recensione.

Il libro del noto climatologo è appena stato pubblicato per la collana “Passaggi” di Einaudi.

Libro che ho letto praticamente tutto d’un fiato. E lo rileggerò, come tutti i libri che trattano di temi che ritengo fondamentali da affrontare e da capire. Troverà il suo posto d’onore insieme a tanti altri che sono i più frequentemente consultati della mia libreria, partendo dall’edizione 1972 de “I limiti dello sviluppo”. Il libro è il compendio di vent’anni di riflessioni e articoli, che affrontano i temi più importanti, e allo stesso tempo ignorati in maniera superficiale o colpevole, del nostro tempo. La crisi ambientale, lo sfruttamento vorace ed insensato delle risorse naturali, il cambiamento climatico, la perdita di biodiversità, la modifica dei cicli biogeochimici. Prende spunto nella prima parte, dall’opera di Primo Levi e alle sue riflessioni di vita e di comprensione della realtà. Creando un collegamento tra il chimico militante che era Levi, con il climatologo militante che è Mercalli . Militante per la sua incessante attività di divulgatore, ma anche per gli esempi concreti di come si possa vivere diminuendo il proprio impatto sulle risorse del pianeta. Una parte del libro è dedicata proprio ai buoni consigli che altro non sono che accorgimenti quali, tra i tanti, l’uso consapevole e attento dell’acqua, la coltivazione dell’orto.

L’invito a non considerare tutto questo come una fatica impossibile o un sacrificio gravoso. Una doverosa consapevolezza ambientale, unita anche ad un impegno sostanziale. Non un’ecologia naif, ma anche un’ecologia della mente, che ci renda meno soggetti alle lusinghe di moda e frivolezze, più consapevoli di tutti i limiti che pensiamo di poter oltrepassare, con il ricorso a una sorta di post verità di comodo. Il pensiero magico diffuso. Tutte cose che l’autore non solo suggerisce, ma concretamente pratica. Oltre a questo anche la necessità di riportare il tema ambientale nelle agende dei governi del pianeta, cercando di rendere questo impegno condiviso a livello internazionale, come auspicava Aurelio Peccei. Perché la nostra casa, cioè il nostro pianeta è uno solo.

La recensione di un libro è un po’ come quella di un film, non è opportuno svelare troppe cose. Il libro va letto. E apprezzato. Ma ci sono certamente cose che da lettore mi hanno molto colpito, e di cui devo dar conto. Nella seconda parte del libro “Una lettera dal pianeta terra” è un piccolo gioiello.

L’ammonimento del pianeta agli esseri umani a non sfruttare le risorse che essa ha messo loro a disposizione, e di cui stanno facendo un uso sconsiderato. Perché gli esseri umani, quando vogliono sanno essere anime nobili, che producono bellezze come la musica e la pittura. Ma che se non rispetteranno le leggi naturali, saranno da esse stesse eliminati. La terra guarirà così dalle ferite che le sono state provocate, ma con dispiacere e nostalgia.

Nella prima parte il collegamento con l’opera di Primo Levi cerca di aiutarci a capire i meccanismi inconsci di rimozione delle scomode verità, che preferiamo non affrontare, sia a livello di governi, che di singoli cittadini. Delle azioni concrete che tendiamo a rimandare. Mercalli cerca una spiegazione, con un paragone che considera ardito, ma che invece a mio parere è molto adatto.

Così come si sono create realtà di comodo e consolatorie negli anni dell’ascesa delle dittature nazista e fascista, così oggi ci creiamo delle verità comode, delle zone di conforto, come le definisce la psicologia, per evitare di sottoporci all’unica cosa che dovremmo fare da subito. Rientrare nei limiti fisici del pianeta, prima che il pianeta tramite le immutabili ed inarrestabili leggi fisiche e naturali, provveda a ristabilire un equilibrio che farà a meno di noi.

Una delle citazioni dell’opera di Levi nel libro, e che da conto dell’inazione di allora, della cecità volontaria di ieri come di oggi, è questa tratta da “Potassio” del Sistema periodico:

ricacciavamo tutte le minacce nel limbo delle cose percepite o subito dimenticate , ne’ in noi, né più in generale nella nostra generazione, “ariani” o ebrei che fossimo, si era ancora fatta strada l’idea che resistere al fascismo si doveva e si poteva. La nostra resistenza di allora era passiva, e si limitava al rifiuto, all’isolamento, al non lasciarsi contaminare

Non è un libro scritto da un catastrofista, termine ormai abusato, e a cui l’autore credo si sia ormai abituato. E’ un libro che ci vuole aiutare a osservare lo stato del pianeta con un ottimismo consapevole. Che dispensa consigli di ecologia domestica, e ci ricorda anche alcuni nostri comportamenti da correggere.

Una piccola considerazione personale

Ho sorriso leggendo nella terza parte una considerazione sui ciclisti, competitivi o contemplativi. Io appartengo alla seconda categoria. Vado in bicicletta per godere del paesaggio e della natura. Tutte cose che se si tiene la testa piegata solo a guardare il manubrio non si notano. Mi sento soddisfatto quando annoto la CO2 che non emetto (94.4 g per ogni chilometro percorso in bici, invece che in auto). E ogni giorno i 23 km del tragitto casa lavoro diventano il mio piccolo contributo (2.17kg in meno), insieme ad altri accorgimenti, per diminuire impatto ed emissioni. Non ho smanie competitive, o feticismi tecnologici. E anche l’inconveniente del mio incidente, ormai risolto, è un ricordo. E ho ripreso a pedalare. Quindi il messaggio è che la resilienza, e la capacità di godere di bellezza e natura, sono doti che si possono coltivare. Con pazienza e perseveranza. Ed è anche questo messaggio che il libro trasmette e suggerisce.

Ma il tempo davvero sta scadendo, e quindi usiamolo al meglio. E’ la nostra sfida più grande. Soprattutto per chi verrà dopo di noi. Quindi facciamo nostro questo impegno etico e indifferibile.

Saperi Pubblici, Bologna, piazza Verdi, 2 ottobre 2018

In evidenza

Pubblichiamo, con il permesso dell’autore, un intervento tenuto da Vincenzo Balzani il 2 ottobre us a Bologna.

Vincenzo Balzani

Buona sera. Grazie Margherita, poi un grande grazie alle due studentesse che con i loro interventi pubblici hanno portato a questa iniziativa; grazie anche a Federico Condello e a tutti coloro che hanno contribuito ad organizzare questo incontro, e a voi che ci ascoltate.

Siamo qui questa sera per esprimere il nostro disaccordo nei confronti delle decisioni e anche degli atteggiamenti dei capi di questo governo. Siamo qui per criticare. Non è la prima volta che mi capita. Il gruppo di scienziati che ho l’onore di coordinare ha criticato, pubblicamente, il governo Berlusconi quando voleva farci tornare al nucleare, Il governo Renzi quando col decreto Sblocca Italia ha liberalizzato le trivellazioni, il Governo Gentiloni quando ha pubblicato la Strategia Energetica Nazionale imperniata sul metano, sostanzialmente dettata da ENI.

Siamo qui per criticare e qualcuno dirà che criticare è facile; ma noi cha lavoriamo nel settore scientifico sappiamo che criticare è utile e anche necessario. Noi ricercatori siamo abituati sia a criticare che ad essere criticati. Ogni nostro lavoro è sottoposto al vaglio critico di colleghi e spesso tocca anche a ciascuno noi di dover leggere e criticare i lavori di altri. E’ il metodo chiamato peer review. Le critiche che facciamo e che subiamo fanno progredire la scienza perché correggono sviste o anche errori gravi nostri o di nostri colleghi e in certi casi bloccano pubblicazioni che non rispondono a due dei criteri basilare della scienza, che sono oggettività e competenza. Altri pilastri della scienza, oltre a oggettività e competenza, sono la collaborazione, lo scambio di idee, il mantenere vivo il dubbio, il non ritenersi superiori agli altri. Se uno ci pensa bene, si accorge che i pilastri della scienza sono anche i pilastri della democrazia. Ecco perché difendere la scienza significa anche difendere la democrazia.

I filosofi, in particolare Edgar Morin, ci insegnano che i problemi importanti sono sempre complessi e spesso sono pieni di contraddizioni. Nella scienza sappiamo che non esistono scorciatoie per risolvere i problemi complessi, sappiamo che bisogna affrontarli con competenza, con saperi diversi che debbono interagire fra loro, che bisogna affrontarli senza presunzione e senza pregiudizi. Noi siamo qui questa sera per chiedere a chi ci governa di riconoscere la complessità dei problemi che abbiamo di fronte e di non pretendere di risolverli con scorciatoie basate su pregiudizi, ma di attingere a quel deposito di sapienza che è la nostra Costituzione.

Il primo e più grave pregiudizio di alcuni dei nostri attuali governanti è pretendere di avere in tasca la verità, di essere migliori degli altri e quindi di non avere bisogno di nulla e di nessuno. Quindi dicono che si può fare a meno dell’Europa, si può fare a meno della Costituzione, si può fare a meno del Presidente della Repubblica, si può fare a meno della magistratura, si può fare a meno del ragioniere generale dello Stato … Dicono che se ne può fare a meno, perché sono solo ostacoli al “cambiamento”: “sappiamo noi cosa si deve fare e come si deve fare”. In realtà non dicono “si può fare a meno”, ma spesso usano il “me ne frego ” di derivazione fascista. A noi invece don Milani ha insegnato I care, il prendersi cura delle persone e delle cose.

In questi giorni mentre cercavo del materiale per una ricerca sulla sostenibilità ecologica e sociale mi sono imbattuto in un articolo scritto nel 1870 da James Freeman Clarke, un teologo e scrittore americano. Mi ha colpito il titolo dell’articolo: Wanted a Statesman, cioè vogliamo, cerchiamo una statista. Nulla di più attuale, ho pensato. Quindi me lo sono letto tutto. Se a qualcuno interessa, posso fornire il link. Questo Wanted a statesman dice molte cose interessanti. La prima è che uomini politici si nasce, e ce ne sono molti, ma statisti si diventa, e ce ne sono pochi in giro. Clarke fa l’esempio di Abramo Lincoln, il 16mo presidente USA assassinato nel 1865, che aveva iniziato come politico mediocre e poi diventò un grande presidente.

Nel suo articolo Wanted a Statesman Clarke dice che diventano statisti gli uomini politici che, anche a costo di divenire impopolari e di rimetterci la carriera, cambiano, maturano il loro modo di pensare.

Clarke discute in dettaglio questi cambiamenti con vari esempi; io per ragioni di tempo posso solo riassumere cosa, secondo lui, distingue un politico da uno statista. Alcune di queste differenze sono ben note e spesso anche citate. Clarke fa un elenco di sei punti:

  • l’uomo politico si preoccupa delle prossime elezioni, lo statista delle prossime generazioni.
  • L’uomo politico agisce per il successo del suo partito, lo statista opera per il bene del suo paese.
  • L’uomo politico si lascia spingere dal mutevole vento delle opinioni di altri (oggi, potremmo dire, dei sondaggi), lo statista guida il paese lungo una rotta studiata con cura.
  • L’uomo politico mette in atto questa o quella misura specifica, lo statista agisce sulla base di principi incorporati nelle istituzioni.
  • L’uomo politico è prigioniero delle sue idee, lo statista guarda sempre al futuro.
  • L’uomo politico promette che sistemerà tutto in pochi mesi, lo statista sa e dice di avere un compito difficile.

In base a quanto è accaduto in passato e accade tuttora in Italia, potremmo aggiungere che il politico fa annunci mirabolanti (come, ad esempio: abbiamo abolito la povertà) e dopo l’annuncio va sul balcone per farsi acclamare dalla folla entusiasta. Questa “politica del balcone” non mi piace, anche perché suscita brutti ricordi. Lo statista invece parla poco finché non ha conseguito il risultato che si era prefisso.

L’articolo di Clarke, Wanted a statesman, conclude con un concetto molto importante.

Finché saremo soddisfatti di essere governati da politici, ce li terremo. Ma se cercheremo con forza di avere qualcosa di meglio, cioè di essere governati da statisti, la nostra stessa ricerca li farà nascere. Le cose bisogna volerle, conquistarle con impegno. Ecco perché è importante fare manifestazioni come questa, che ci richiama ad un impegno quotidiano. E per mantenere accesa la speranza di far nascere fra noi qualche statista, proporrei di ripeterle, queste giornate, di rivederci nei primi giorni di ottobre del prossimo anno; o anche prima, se ce ne sarà bisogno.

Per finire, vorrei dire che ho letto il contratto di governo Lega-5 Stelle e ho cercato di vedere se da qualche parte è menzionata una parola che mi preme molto: PACE. Mi aspettavo di trovarla nella parte dedicata alla politica estera, abbiamo tanto bisogno di pace mentre, come sapete, continuiamo a vendere armi. Ebbene, sì, ho trovato la parola pace, ma solo nella sezione in cui si parla di tasse: lì c’è la pace fiscale.

 

I 50 anni del Club di Roma

In evidenza

Giorgio Nebbia

Gli anni sessanta del Novecento sono stati un periodo tempestoso della storia: la tensione fra le due potenze nucleari, Stati Uniti e Unione Sovietica, si era aggravata anche per la guerra del Vietnam; si moltiplicavano gli incidenti industriali e gli inquinamenti dei mari e dell’aria; l’uso indiscriminato dei pesticidi persistenti avvelenava il cibo e le acque. Aurelio Peccei, un intellettuale attento alla “difficile situazione” dell’umanità, pensò che gli uomini importanti dei vari paesi avrebbero dovuto collaborare per cercare delle soluzioni; ne riunì alcuni a Roma nel 1968 e nacque così un gruppo, chiamato il Club di Roma.

Con la collaborazione di alcuni studiosi americani il Club di Roma curò la pubblicazione, nel 1972, di un “Rapporto” intitolato “The Limits to growth”, tradotto in tutto il mondo; in Italia col titolo “I limiti dello sviluppo”, fuorviante perché lo sviluppo umano è diverso dalla crescita economica.

Il libro sosteneva che soltanto fermando o almeno rallentando la crescita della popolazione mondiale e della produzione agricola e industriale sarebbe stato possibile far diminuire gli inquinamenti e rallentare il consumo e lo sfruttamento delle risorse naturali non rinnovabili: minerali, petrolio, fertilità dei suoli.

Il libro del Club di Roma suscitò una tempesta. Gli economisti si scatenarono sostenendo che soltanto con la crescita economica e con innovazioni tecniche il mondo avrebbe potuto superare le crisi ambientali.

I comunisti, che allora c’erano ancora, sostennero che i guasti erano dovuti alla maniera capitalistica di produrre e consumare e che in una società pianificata i principali problemi potevano essere risolti. I cattolici contestarono la proposta di rallentare la crescita della popolazione con metodi contraccettivi.

Un economista americano, Georgescu Roegen, scrisse che neanche una società stazionaria, con popolazione e consumi costanti, avrebbe potuto durare a lungo a causa dell’inevitabile impoverimento delle risorse naturali limitate in un pianeta, come la Terra, di dimensioni limitate.

Il dibattito fu vivacissimo anche in Italia, come ha scritto lo storico Luigi Piccioni in un saggio pubblicato nella rivista altronovecento (n. 20, 2012).

Col passare del tempo gli avvertimenti del Club di Roma furono accantonati. Il Club di Roma continuò il suo lavoro, anche dopo la morte di Peccei avvenuta nel 1984; il 17 e 18 ottobre si celebre a Roma il 50° anniversario della sua fondazione con la pubblicazione di un nuovo rapporto che suggerisce vari possibili rimedi come l’uso di energia solare, il riciclo dei prodotti usati, la progettazione di prodotti a vita lunga, in modo da far durare di più le risorse naturali scarse.

Le proposte di limiti alla crescita sono accantonate: la popolazione umana, rispetto a 50 anni fa è raddoppiata nei paesi in via di sviluppo i cui abitanti premono alle porte dei paesi industrializzati, porte che restano egoisticamente chiuse benché la loro popolazione stia diminuendo e aumentino gli anziani.

La differenza fra ricchi e poveri è aumentata; le montagne dei crescenti rifiuti della società dei consumi avvelenano i campi, esplodono le città sovraffollate, i rumori di guerra si moltiplicano e cresce il commercio delle armi, al punto da spingere il papa Francesco a scrivere una enciclica “ecologica” e ad avvertire continuamente che il mondo, specie quello dei ricchi, deve cambiare.

Gli eventi stanno dimostrando che i pur sgradevoli avvertimenti del libro sui “Limiti” alla crescita” erano fondati e ha fatto bene la casa editrice Lu::ce di Massa, a ristamparlo nella versione originale italiana del 1972.Si può comprarlo per 12 euro bene spesi perché vi si parla di fenomeni che sono sotto i nostri occhi. Con i suoi grafici il libro mostra che se cresce la popolazione mondiale (oggi cresce in ragione di 80 milioni di persone all’anno), cresce la richiesta e la produzione di beni agricoli e industriali. Di conseguenza diminuisce la fertilità dei suoli e cresce la produzione di rifiuti che non si sa più dove mettere e come smaltire e cresce un inquinamento che non si può fermare e che non si riesce neanche a rallentare; lo prova il crescente riscaldamento globale dovuto alla crescente immissione nell’atmosfera dei “gas serra”, come l’anidride carbonica e il metano, che trattengono all’interno dell’atmosfera ogni anno una crescente quantità di energia. Il conseguente riscaldamento del pianeta porta all’alterazione degli ecosistemi terrestri e marini, a sempre più frequenti e devastanti tempeste, all’avanzata, altrove, della siccità.

Le promesse di edificazione di una società ”sostenibile” e di innovazioni tecnologiche si sono rivelate finora vane; per far fronte ad una società mondiale insostenibile non sono gran che efficaci le proposte di resilienza, di adattamento agli eventi negativi, le proposte di alzare barriere per frenare l’aumento del livello dei mari o di macchine che spazzino via i residui plastici che galleggiano negli oceani o le promesse di colonizzare Marte.

La rilettura, a mezzo secolo di distanza, del libro ora ristampato dovrebbe indurre le autorità mondiali a ripensare al ritornello che si sente ripetere, che occorre incrementare “la crescita” per far aumentare l’occupazione e il benessere. Quando invece davvero il benessere dei paesi ricchi aumenterebbe impegnando l’occupazione in opere di difesa del suolo, di prevenzione degli inquinamenti, di bonifica delle terre contaminate dalle scorie di una crescita industriale sconsiderata; le condizioni di vita dei paesi poveri migliorerebbero se fossero valorizzate e destinate agli abitanti le ricchezze dei loro campi e del loro sottosuolo.

Un ripensamento, insomma, delle regole economiche e dei sistemi politici attuali. Come aveva scritto Peccei nel 1972, la “situazione dell’umanità è difficile” e può migliorare con coraggio e lungimiranza. Chi sa che qualche uomo politico, magari di sinistra, leggendo il libro sui “Limiti” non sia indotto a interrogarsi su un progetto di sviluppo umano piuttosto che di “crescita” di beni materiali e di soldi ?

L’art.41 del decreto “Genova” è un imbroglio o un ragionevole compromesso?

In evidenza

Claudio Della Volpe

Da pochi giorni su tutti i giornali è esploso il problema degli idrocarburi nei fanghi, a causa del fatto che nel cosiddetto decreto Genova uno degli articoli è dedicato a risolvere il problema dell’uso dei fanghi in agricoltura, una delle emergenze che si è sommata negli ultimi giorni a tutto il resto.

L’art. 41 recita:

Disposizioni urgenti sulla gestione dei fanghi di depurazione

  1. Al fine di superare situazioni di criticita’ nella gestione dei fanghi di depurazione, nelle more di una revisione organica della normativa di settore, continuano a valere, ai fini dell’utilizzo in agricoltura dei fanghi di cui all’articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99, i limiti dell’Allegato IB del predetto decreto, fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale). Ai fini della presente disposizione, per il parametro idrocarburi C10-C40, il limite di 1000 mg/kg tal quale si intende comunque rispettato se la ricerca dei marker di cancerogenicita’ fornisce valori inferiori a quelli definiti ai sensi della nota L, contenuta nell’allegato VI del regolamento (CE) n. 1272/2008 del Parlamento europeo e del Consiglio, del 16 dicembre 2008, richiamata nella decisione 955/2014/UE della Commissione del 16 dicembre 2008.

Non sto a pronunciarmi sul fatto che il decreto denominato “Genova” dai giornali contenga altre norme; questo è un fatto che è successo tante volte nella decretazione di urgenza del nostro paese e non ne farei un problema, ma c’entra poco col resto.

Come era la situazione del riuso dei fanghi in agricoltura? Complessa, con un recente intervento del TAR che ha di fatto bloccato il tutto in attesa di un pronunciamento del Governo e del Parlamento. La situazione precedente era ben riassunta da un documento di ISPRA il 228 del 2015 che riporta una dettagliata analisi in ben 115 pagine con i dati riguardanti le regioni che fanno più uso di questo procedimento: Lombardia, Veneto ed Emilia Romagna.

Anche da una rapida scorsa si può vedere che i limiti consentiti di idrocarburi nella sostanza secca del fango raggiungevano in alcune regioni come l’Emilia i 10g/kg sostanza secca, un valore cioè nettamente superiore a quanto stabilito dall’art.41 (1g/kg tal quale, la quota di acqua nel fango arriva all’80%, dunque moltiplicate questo numero per 5 sulla sostanza secca, 5g/kg di sostanza secca).

Quando leggete che la normativa attuale limita a 50mg/kg il valore degli idrocarburi nei fanghi sversabili sul terreno sappiate che si tratta non di una norma nazionale decisa con una legge ma di una una sentenza emanata dal TAR Lombardia il 20 luglio scorso sulla base di un ricorso di alcuni comuni lombardi. La sentenza ha annullato alcune parti della delibera regionale (n.7076/2017), che definivano i parametri di alcuni componenti contenuti nei fanghi per il loro utilizzo in agricoltura. Fino ad allora valevano le decisioni regionali riportate nel documento ISPRA.

Nella sentenza si spiega la ratio della decisione che vi sintetizzo con questa frase:

In proposito si deve anzitutto osservare che, come eccepito dai ricorrenti (che a suffragio delle loro conclusioni hanno prodotto una controperizia) – a differenza di quanto accade per altri materiali (le parti resistenti portano l’esempio di alcuni prodotti alimentari) – i fanghi da depurazione sono destinati ad essere mescolati ad ampie porzioni di terreno e a divenire, quindi, un tutt’uno con esso; appare pertanto logico che il fango rispetti i limiti previsti per la matrice ambientale a cui dovrà essere assimilato.

Se si volesse seguire questo criterio “logico” alla lettera non si potrebbe aggiungere al terreno nulla con una diversa composizione, né un concime, nemmeno naturale né qualunque altro ammendante; perfino il letame non rispetta i limiti della matrice ambientale.

Se voleste seguire questo criterio quando vi prendete un farmaco o un integratore o perfino quando mangiate, la concentrazione del quid nella pillola o nella fiala o nel piatto non dovrebbe superare quella nel vostro corpo!!! E’ un criterio del tutto cervellotico.

Comunque da questo nasce la regola invocata che il tasso di idrocarburi nei fanghi non debba essere superiore a quello dei terreni in cui riversarli; si consideri che nei terreni c’è un tasso naturale di idrocarburi “biogenici” che dipende dal tipo di terreno e di vegetazione e dal livello di inquinamento.

Aggiungo una ultima osservazione; nel suolo ci sono idrocarburi di varia origine, idrocarburi sono le cere vegetali che noi non digeriamo e ricoprono varie specie di foglie e di tessuti vegetali e che finiscono nei fanghi, ma ci sono anche idrocarburi (in questo caso insaturi) dagli splendidi colori, come il licopene del pomodoro o il beta carotene.

Se occorre costruire l’economia circolare e se occorre chiudere il ciclo della produzione il caso agricolo è fondamentale; il cibo produce rifiuti prima di tutto attraverso il nostro corpo e le nostre deiezioni (e quelle degli animali asserviti, ma ce ne sarebbero comunque, tenete presente) ed esse devono essere riciclate e reimmesse in circolo recuperandone l’apporto minerale ed organico.

Questo processo non può essere eliminato e non potrà mai essere eliminato; molti dei problemi che viviamo vengono dal fatto che lo facciamo troppo poco: nitrati e fosfati vengono immessi in circolo in quantità troppo maggiori della bisogna, a partire da aria e minerali, distruggendo i depositi minerali o estraendo azoto atmosferico e accumulando l’eccesso nelle zone morte che stanno crescendo negli oceani del pianeta, nei laghi e nei fiumi. Molto meno da origini naturali, come le deiezioni animali e ancor meno da deiezioni umane (dai depuratori si può recuperare il fosforo per via elettrochimica).

Dunque non ci sono alternative: dobbiamo riciclare i nostri rifiuti organici più e meglio di quanto facciamo ora.

Allora, se le cose stanno così, il riciclo dei fanghi civili, provenienti dalla depurazione dell’acqua delle nostre città costituisce il modo principale di realizzare questo fine.

Stiamo solamente facendo quello che già Liebig chiedeva quasi 200 anni fa:

“But how infinitely inferior is the agriculture of Europe to that of China! The Chinese are the most admirable gardeners and trainers of plants…the agriculture of their country is the most perfect in the world.” Perfect because the Chinese understood the importance of the “most important of all manures,” human excrement. …..“Indeed so much value is attached to the influence of human excrements by these people, that laws of the state forbid that any of them should be thrown away, and reservoirs are placed in every house, in which they are collected with the greatest care.” (Agricultural Chemistry, pp 65-66.)

Non solo azoto e fosforo ci sono nelle nostre feci e in quelle degli animali, ma anche carbonio, organico, organicato, preziosissimo, che occorre evitare si ritrasformi in CO2 e contribuisca all’effetto serra e rimanga invece nel suolo.

Torniamo all’art.41 che analizzo in dettaglio.

Anzitutto l’articolo stabilisce che la legge da seguire sul tema è l’

articolo 2, comma 1, lettera a), del decreto legislativo 27 gennaio 1992, n. 99,

che recita:

Art. 2.

                             Definizioni

  1. Ai sensi del presente decreto, si intendono per:
  2. a) Fanghi: i residui derivanti dai processi di depurazione:

   1) delle acque reflue provenienti esclusivamente da insediamenti

civili come definiti dalla lettera b), art. 1-quater, legge 8 ottobre

1976, n. 670;

   2) delle acque reflue provenienti da insediamenti civili e

produttivi:   tali   fanghi   devono   possedere   caratteristiche

sostanzialmente non diverse da quelle possedute dai fanghi di cui al

punto a.1.;

   3) delle acque reflue provenienti esclusivamente da insediamenti

produttivi, come definiti   dalla   legge   319/76   e   successive

modificazioni ed integrazioni; tali fanghi devono essere assimilabili

per qualita’ a quelli di cui al punto a.1. sulla base di quanto

disposto nel successivo articolo 3.1.

  1. b) Fanghi trattati: i fanghi sottoposti a trattamento biologico,

chimico o termico, a deposito a lungo termine ovvero ad altro

opportuno procedimento, in modo da ridurre in maniera rilevante il

loro potere fermentiscibile e gli inconvenienti sanitari della loro

utilizzazione.

  1. c) Agricoltura: qualsiasi tipo di coltivazione a scopo commerciale

e alimentare, nonche’ zootecnico;

  1. d) Utilizzazione: il recupero dei fanghi previsti al punto a)

mediante il loro spandimento sul suolo o qualsiasi altra applicazione

sul suolo e nel suolo.

Questo articolo è in vigore da quasi 20 anni. In sostanza si chiarisce che NON si possono usare fanghi da insediamenti produttivi diversi nella sostanza da quelli civili.

I limiti delle varie sostanze sono stabiliti nell’allegato IB

Anche la nota L rimane in vigore:

Nota L:

La classificazione come cancerogeno non è necessaria se si può dimostrare che la sostanza contiene meno del 3 % di estratto di Dmso secondo la misurazione IP 346 «Determinazione dei policiclici aromatici negli oli di base inutilizzati lubrificanti e nelle frazioni di petrolio senza asfaltene — estrazione di dimetile sulfosside», Institute of Petroleum, Londra. La presente nota si applica soltanto a talune sostanze composte derivate dal petrolio contenute nella parte 3.

Dunque cominciamo col dire che chi sta gridando e sostenendo che i fanghi si potranno usare senza verificare la loro origine o il loro contenuto in cancerogeni e metalli pesanti e altro dice una sciocchezza.

Nessun valore viene modificato eccetto quello relativo agli idrocarburi la cui catena sia compresa nell’intervallo 10-40, dunque si eccettuano i leggeri e i molto pesanti.

Per questi che costituiscono un elemento rivelatore di qualità, ma alcuni dei quali sono anche di origine naturale si dice:

fatta eccezione per gli idrocarburi (C10-C40), per i quali il limite e’: ≤ 1.000 (mg/kg tal quale).

Cominciamo col dire che non c’era un limite precedente NAZIONALE NEI FANGHI; c’era nei suoli, che era quello a cui si attaccano oggi i critici (50mg/kg peso secco), ma scusate cosa c’entra il limite nei fanghi e quello nei suoli? Anzi diciamo che questa è una regola nazionale che prima non c’era.

Il limite scelto è la metà di quelli usati dalle regioni secondo i dati del documento ISPRA; infatti dato che la tipica composizione del fango è acqua per circa l’80% quel 1000 viene moltiplicato per 5 circa, siamo dunque ad un valore limite dei C10-C40 nel fango di circa 5000mg/kg di peso secco. Questa è comunque una scelta che può creare ambiguità e raggiri, tornerei alla definizione in peso secco.

Il limite europeo nei suoli è di C10-C40 50mg/kg di suolo, misurato in un modo analitico. Quando mettete alcune tonnellate di fanghi per ettaro, tipicamente 5 per ettaro, con una densità del secco che è pari a quello del suolo attorno a 2ton/m3, state distribuendo un volume dell’ordine di 2.5m3 su 10.000m2. Questo corrisponde a 0.25mm di spessore su un suolo che poi le operazioni di aratura, erpicatura, vangatura smuoveranno e mescoleranno per almeno 30cm, ossia 300mm; potrei usare il valore di 40cm come in alcune proposte di legge, ma dato che sono conservativo uso 30. Dunque i vostri 5000mg/kg di fango diventeranno 5000mg/(300/0.25)=4.16mg/kg di suolo. Il suolo finale avrà un incremento di circa 4mg/kg di suolo negli idrocarburi C10-C40, questa sarebbe la variazione nella composizione della matrice.

Ho letto allarmi perchè in tre anni si sverserebbero 75kg/ettaro di idrocarburi; allora calcoliamo quanti ce ne possono stare; il limite è 50mg/kg di terra; i primi 30cm di un ettaro pesano in media 10.000*0.3*2=6000 ton ossia 6.000.000kg che corrispondono a un limite di 300kg di idrocarburi “preesistenti” per ettaro a cui se ne aggiungerebbero 25 all’anno, circa l’ 8%; questa è l’alterazione della matrice.

E’ vero che c’è un limite di 500mg/kg di peso secco per gli idrocarburi di questa fascia nei materiali da portare in discarica, ma con due note: a) si tratta di olio minerale, la tabella lo dice esplicitamente, valutato attraverso questo dato, in sostanza si tratta di fanghi che possono venire anche dall’industria mentre in questo caso la cosa è vietata dal richiamo contenuto nell’articolo e b) inoltre le discariche di cui si parla sono di INERTI; ma l’uso nel terreno non può essere assimilato a quello di una discarica di inerti, il terreno è vivo, in grado di metabolizzare le cose.

A riprova di ciò noto che nella legge che impone la composizione dei rifiuti da scaricare nelle discariche di inerti anche i metalli pesanti sono meno concentrati; le discariche di inerti non sono il suolo.

(in tutti questi calcoli grossolani non sto tenendo conto dell’acqua nel terreno; l’acqua nel terreno insaturo sta al massimo al 20-30% del totale a secondo se è argiloso o sabbioso, dunque i conti possono variare ma l’ordine di grandezza rimane questo che dico).

Ancora non ho capito di cosa si stanno lamentando i Verdi e mi spiace perché di solito condivido le loro critiche. Mi sembra una critica strumentale.

Certo non è una soluzione definitiva, né completa del problema; sarebbe meglio riferirsi ad una legge organica che integrasse e superasse la legge 99; ma è meglio che rimanere con impianti di riciclo e produzioni agricole bloccate.

Certo sarebbe meglio che si dicesse ancora una volta e CHIARAMENTE che i reflui industriali, i fanghi industriali NON possono essere usati nei campi (quasi mai, solo per certe industrie alimentari) specificando i vari casi, chiarendo in dettaglio quali IPA e quali concentrazioni oltre i valori GIA’ stabiliti.

Ma nelle more di una revisione organica della normativa di settore ci sta; l’art. 41 non è una soluzione finale, ma un compromesso ragionevole e TEMPORANEO, non un imbroglio, conserva le regole base contro l’inquinamento da metalli pesanti e cancerogeni e varia solo la componente C10-C40.

La condizione è che:

  • ci sia in futuro, prima possibile, una legge dedicata chiara e completa; questa legge dovrebbe porre limiti differenti per suoli differenti, i suoli argillosi o sabbiosi o con pH diversi non sono da trattare al medesimo modo;
  • che in questa legge si dica che i depuratori devono operare per ridurre i fanghi, cosa che si può fare se si usano accorgimenti opportuni, così si evita il problema alla radice; occorre anche investire nella ricerca di questo settore; per esempio nelle celle MFC (microbial fuel cell) non si generano fanghi;
  • ci siano controlli SEVERI e continui sull’uso dei fanghi, per evitare l’ingresso o contrastare od eliminare l’attività della malavita che cerca continuamente di entrare in ogni lucroso mercato e che sicuramente ha le mani in pasta in questo (come ce l’ha in quello dei rifiuti, fate caso al numero crescente di incendi nei depositi di plastica di cui abbiamo parlato).
  • Sarebbe utile modificare l’articolo 41 sostituendo al termine tal quale e al valore 1000 la dizione equivalente 5000mg/kg s.s.

Pregherei inoltre la TV la prossima volta che fa una trasmissione sui fanghi di chiedere la consulenza di qualche chimico e di non sparare a zero nel mucchio spaventando e senza informare adeguatamente.

Mi spiace per Bonelli e i Verdi e anche per Cianciullo; dovrebbero rifare l’esame di chimica.

Si veda anche:

https://ilblogdellasci.wordpress.com/2014/03/28/chimica-e-agricoltura-una-risposta-a-carlo-gessa/

https://www.lanuovaecologia.it/un-codicillo-infangato/?fbclid=IwAR111r1Rzi2UxaavFJO_L8X68wVgSrwgAODqIKrOl_-Rl8zeADJY5k8Dd1A

 

Una scienziata affermata scomparsa prematuramente: Phyllis Tookey Kerridge (1901-1940)

In evidenza

Rinaldo Cervellati

Come ricordato in un precedente post, Phyllis Margaret Tookey Kerridge, chimico e fisiologo inglese ideò il microelettrodo a vetro per la misura del pH del sangue e di altri fluidi corporei ed è considerata la fondatrice della moderna audiometria.

Phyllis nacque nel 1901, unica figlia di William Tookey, un noto ingegnere di Broomley, nel Kent. Completò gli studi preuniversitari nella City of London School for Girls, distinguendosi in particolare nelle materie scientifiche. La sua carriera universitaria è descritta come “brillante”[1], ma la sua ricostruzione è complicata in quanto elencata sia come membro dello staff dell’University College London (lettore dal 1923) che come studente (dal 1919 – fino al completamento degli studi in medicina 14 anni dopo). Conseguì il B.Sc. in Chimica e Fisica nel 1923, il M.Sc. in Chimica nel 1924 e completò il dottorato di ricerca nel 1927. Tuttavia, nel frattempo continuò gli studi di medicina diventando membro del Royal College of Surgeons e ammessa al Royal College of Physicians nel 1933 (membro RCP a tutti gli effetti nel 1937)1.

Phyllis M. Tookey Kerridge

Phyllis visse in famiglia fino al 1926, quando si sposò con William Kerridge, prendendo residenza a Londra in St Petersburgh Place . Del marito si sa poco, ma l’insistenza di Phyllis a mantenere il suo nome da nubile anche dopo il matrimonio (da allora in poi Phyllis Tookey Kerridge) è certamente un’indicazione delle sue idee sul ruolo delle donne nella società e il suo sostegno alle istanze femministe. Nel periodo studentesco fu registrata come membro del comitato della Women’s Union Society.

Il suo interesse per lo sviluppo di un elettrodo a vetro in miniatura nacque dalle ricerche per il suo dottorato in chimica. Phyllis Tookey conosceva bene la chimica fisica e questo le permise di progettare elettrodi a vetro in grado di fare misure su piccole quantità di campioni o che fossero inseribili nei tessuti dei viventi. A quest’ultimo scopo molte fonti[2] riportano che Tookey risolse il problema cercando di massimizzare l’area della superficie dell’elettrodo, senza aumentare le dimensioni del contenitore esterno. Trattò il filo di platino con cloruro di platino scaldando poi fino al calor rosso ottenendo un’area di superficie efficace per la misura del potenziale.

Tuttavia nei due articoli che Phyllis Tookey pubblicò prima della discussione della dissertazione scritta [1,2] non è menzionata questa procedura, è invece descritta la preparazione di un recipiente miniaturizzato di vetro sottile.

Nel suo importante articolo del 1925, Tookey, dopo aver discusso le difficoltà tecniche nella miniaturizzazione, nonchè lo schema dell’intero circuito utilizzato per le misure, riporta la seguente figura della parte elettrochimica dell’apparato:

Figura 1 Apparato di P. Tookey Kerridge: a sinistra l’elettrodo di misura (vetro + calomelano), a destra l’elettrodo di riferimento a calomelano (dall’originale [1])

A proposito dell’elettrodo a vetro, Tookey scrive [1]:

A form of electrode found very convenient for biological purposes is illustrated in Fig. 2. The membrane in this case is in the shape of a deep spoon sucked inside a bulb of thicker glas. This is very easily glass-blown after a little practice. The solution of known pH may be filled into the outer bulb by turning the electrode on its side and putting the tube A under the jet of a pipette or burette, the air in the bulb escaping through B. The other solution, that of unknown pH for example, is put into the spoon. The advantages of this form are self-evident. Filling, washing and emptying the inside solution are simple operations. The membrane blown in this way seems to be under less strain than when blown at the end of a tube, and does not break so easily, and the quantity of liquid required for the spoon is very small. The total capacity of the spoon is about 1 cc. and it need never be more than half-full. A smaller quantity than 0,5 cc. may be used if necessary. If the liquid under experiment is liable to air oxidation or to loss of CO2 it may be covered with liquid paraffin without affecting the E.M.F.

[traduzione]

Una forma di elettrodo trovata molto conveniente per scopi biologici è illustrata in Fig. 2. La membrana in questo caso ha la forma di un cucchiaio profondo aspirato all’interno di un bulbo di vetro più spesso. Ciò si ottiene facilmente dopo un poco di pratica. Il bulbo esterno viene riempito con la soluzione a pH noto ruotando l’elettrodo su un lato, attraverso il tubo A con l’aiuto di una pipetta o di una buretta, l’aria fuoriesce attraverso B. L’altra soluzione, quella a pH sconosciuto viene posta nel cucchiaio. I vantaggi di questa forma sono evidenti. Riempire, lavare e svuotare la soluzione interna sono operazioni semplici. La membrana soffiata in questo modo sembra essere meno sollecitata di quando viene soffiata all’estremità di un tubo, e non si rompe così facilmente, e la quantità di liquido richiesta per il cucchiaio è molto piccola. La capacità totale del cucchiaio è di circa 1 cc. e non deve mai essere più che mezzo pieno. Una quantità inferiore a 0,5 cc. può essere usato se necessario. Se il liquido in esame è suscettibile all’ossidazione dell’aria o alla perdita di CO2, può essere coperto con paraffina liquida senza influenzare la f.e.m.

 

Niente filo di platino, la sua funzione è assicurata dalla giunzione con l’elettrodo a calomelano. Lo stesso assemblaggio è descritto nel successivo lavoro del 1926 [2]. Potrebbe essere che il discorso sul platino sia contenuto nella tesi discussa nel 1927, che non sono riuscito a ritrovare (molti archivi di quegli anni sono andati distrutti durante la 2a guerra mondiale).

Di platino non ne parla nemmeno nell’articolo sugli effetti di vari additivi sul pH del sangue, scritto in collaborazione con Robert Havard [3]. Quest’ultimo sembra essere il termine delle ricerche di Tookey Kerridge a carattere principalmente chimico.

Dopo essersi diplomata in medicina all’inizio degli anni ’30, Kerridge fu raccomandata dal Dr. Edward Poulton al costruttore di strumenti scientifici Robert W. Paul, che stava cercando una persona per condurre rigorosi test fisiologici su un respiratore chiamato “pulsatore” creato da William Henry Bragg[3]. I test di Tookey Kerridge fornirono numerose misurazioni fisiologiche utili per migliorare l’efficienza del dispositivo. Suggerì anche miglioramenti al design per ridurne complessità e ingombro. Oltre a ciò Tookey Kerridge svolse anche un ruolo attivo nel pubblicizzare l’apparecchio. Scattò molte fotografie dei suoi assistenti di laboratorio con il dispositivo, consigliò a Bragg e Paul di pubblicare l’apparato nei Proceedings of the Royal Society of Medicine e lei stessa ne scrisse su Lancet [4].

Respiratore di Bragg-Paul-Tookey Kerridge

Nella seconda metà degli anni ’30, Tookey Kerridge lavorò al Royal Ear Hospital e sviluppò standard audiometrici per i test dell’udito. Svolse anche un ruolo significativo nella costruzione di apparecchi acustici per i non udenti. Il suo vivo interesse per la musica le ispirò simpatia per coloro che hanno perso l’udito. Il suo lavoro si incentrò quindi in particolare sull’incidenza della sordità nei bambini. Incoraggiò i suoi studenti ad accompagnarla durante le visite ai sobborghi di Londra per stabilire potenziali fattori socio-economico-ambientali nell’eziologia della sordità in bambini in età scolare. Per questa ricerca ottenne nel 1936 un finanziamento dal Medical Research Council di Londra. Gli esperimenti audiometrici furono effettuati nella ‘stanza del silenzio’, un’enorme stanza insonorizzata nel seminterrato dell’University College Hospital a Londra, la prima istituzione britannica a possedere un audiometro elettrico che utilizzava test a toni puri piuttosto che a registrazione vocale.

La ‘stanza del silenzio’

L’esperienza di Kerridge nella tecnologia degli apparecchi acustici fu utilizzata dalle Poste e Telefoni Britannici. Inizialmente erano interessati al miglioramento della qualità del suono nelle linee telefoniche. Tuttavia, Tookey Kerridge ha collaborato con l’ufficio postale in modo più approfondito quando iniziò a testare l’udito dei telefonisti con il suo audiometro. Nel 1937 fece installare negli uffici postali i telefoni amplificati progettati per le persone con problemi di udito.

Allo scoppio della seconda guerra mondiale, Tookey Kerridge stava lavorando all’University College Hospital. È stata distaccata al servizio medico di emergenza dell’ospedale di St Margaret, a Epping. Lì, Kerridge e i suoi colleghi attrezzarono un laboratorio improvvisato per trasfusioni di sangue e indagini patologiche.

Omaggio a Phyllis Tookey Kerridge

Colta da una improvvisa rara malattia, Phyllis Margaret Tookey Kerridge morì il 22 giugno 1940 all’età di 38 anni. Scienziata già affermata e nota, oltre alla rivista Nature, anche il quotidiano The Times ne pubblicò un necrologio il 26 giugno 1940.

Bibliografia

[1] P. Tookey Kerridge, The Use of the Glass Electrode in Biochemistry., Biochemical Journal, 1925, 19, 611-617.

[2] P. M. Tookey Kerridge, The Use of Glass Electrodes., Rev. Sci. Instr., 1926, 3, 404-409.

[3] R. E. Havard, P. Tookey Kerridge, An Immediate Acid Change in Shed Blood., Biochemical Journal, 1929, 23, 600-607.

[4] P.M. Tookey Kerridge, Artificial respiration for two years., The Lancet1934, 223, 786–788.

[1] University College London Annual Report for 1940, http://www.inventricity.com/phyllis-kerridge

[2] Oltre al sito della nota precedente v. http://www.inventricity.com/phyllis-kerridge-chemist-inventor

[3] Sir William Henry Bragg (1862-1942), britannico, fisico, chimico e matematico, condivise il premio Nobel per la Fisica 1915 con il figlio Lawrence Bragg, “per le loro ricerche sull’analisi della struttura cristallina mediante raggi X”.

Un chimico alla prova dell’emozione.

In evidenza

Mauro Icardi

Terminata la mia breve presentazione alla cerimonia di premiazione dei vincitori della selezione regionale lombarda dei giochi della chimica 2018, scrivo questo breve post, che è sostanzialmente un ringraziamento.

Certamente rivolto agli organizzatori, che hanno voluto la mia presenza, per una breve conferenza che ho intitolato “Spirito di osservazione e sensibilità chimica: due doti del chimico”. Ho cercato di trasmettere alcune sensazioni personali. Di identificare in qualche modo quel qualcosa che unisce chi si occupa di chimica. La sensibilità nella pratica di una scienza che, a fronte di tanti che ancora banalmente denigrano considerandola con leggerezza la dispensatrice di ogni male, invece suscita ancora fascino ed entusiasmo.

Ho aggiunto anche qualche argomento legato al mio ormai quasi trentennale lavoro di chimico del ciclo idrico. Ma devo dire, e lo dico con molta emozione, che ho certamente ricevuto più di quanto ho dato nella mia conferenza.

Ho visto negli occhi dei ragazzi che sono stati premiati molta comprensibile emozione, ma tanto entusiasmo per le meraviglie che la chimica può suscitare. E come sempre mi accade ho ricevuto davvero ottime sensazioni. Gli interventi di alcuni ragazzi premiati che hanno parlato della loro esperienza di studio e di conoscenza della chimica, sono stati un grande segno di positività. In primo luogo per il giusto ringraziamento ai loro insegnanti, capaci di instaurare con loro un corretto e proficuo rapporto docente-studente. Fondamentale per migliorare l’apprendimento ed il percorso scolastico, ma anche per la crescita personale dei ragazzi. Come sempre, gli alberi che cadono (mi riferisco a fatti di cronaca che riportano notizie di insegnanti insultati o addirittura percossi e minacciati) sovrastano nell’immaginario le foreste che crescono. E c’è un gran bisogno che queste diventino rigogliose.

I ragazzi spiegando cos’è per loro la chimica mi hanno fornito molti spunti. La chimica come linguaggio, in riferimento alla tavola periodica ( e quindi come non collegare immediatamente il pensiero a Levi che la definì “La più alta e più solenne di tutte le poesie”.) La chimica come chiave di lettura del mondo, di come esso funziona ed evolve. La chimica “Bella e potente”.

Mi ha contagiato il loro entusiasmo giovanile. Le discussioni di chimica che i ragazzi hanno citato, passando dalla cristallizzazione dell’acqua nei gelati, fino alle discussioni fino all’alba sul riconoscimento degli spettri IR. Ho provato le ben note sensazioni di arricchimento reciproco. Non sono un insegnante o un docente universitario. Quindi potrei difettare di conoscenze pedagogiche. Ma ho dedicato negli anni ad altri studenti un poco del mio tempo, e li ho ascoltati e incoraggiati quando sono venuti a svolgere i loro stages o a completare il loro percorso di tesi, in campo, nel luogo dove lavoro ormai da quasi trent’anni. Un depuratore di acque reflue. E questo ha aiutato anche me a crescere. Lasciando ricordi indelebili.

L’auspicio è che questi ragazzi possano trovare la loro realizzazione professionale. La chimica può e deve fare tanto, ad esempio per il disinquinamento. Ci sono dei problemi che aspettano una soluzione, penso agli inquinanti emergenti. Alla sintesi di nuove molecole e prodotti che possano essere rimessi in circolo senza perturbare l’ambiente. Il loro entusiasmo, la loro passione, la loro futura preparazione e professionalità meritano di essere riconosciute e premiate.

Ringrazio il comitato organizzatore nelle persone di Domenico Albanese (Presidente della sezione regionale Lombardia della Società Chimica Italiana),Mariano Calatozzolo, Carmen Capellini, Donatella Nepgen, Paolo Tenca.

Estendo il ringraziamento alla redazione del blog. L’invito che mi è giunto gradito ed inaspettato arriva dopo anni di lavoro con una redazione dove si lavora davvero bene. Quindi ringrazio Claudio Della Volpe, Margherita Venturi, Vincenzo Balzani, Rinaldo Cervellati, Giorgio Nebbia, Luigi Campanella, Silvana Saiello e Annarosa Luzzatto.

Un ringraziamento va anche a Valentina Furlan, la collega con la quale lavoro ormai da sedici anni. Per l’incoraggiamento a vincere l’emozione prima della conferenza, e per aver documentato con qualche foto il ricordo di questa giornata.

E ringrazio ancora i ragazzi. Quelli premiati, e quelli che si sono cimentati nei giochi.

E vorrei chiudere questo post con questo brano di Francesco Muzzarelli tratto dal libro “Studio dunque sono”

Il proprio sistema di apprendimento plasma la visione del mondo e determina le nostre opportunità.

Saper imparare, non smettere mai di imparare, significa dare un orientamento consapevole e responsabile alla propria evoluzione

Glifosato e api da miele

In evidenza

Rinaldo Cervellati

Il discusso erbicida glifosato (di cui abbiamo parlato diffusamente nel blog, cercate glifosato in alto a destra e anche nella rubrica La Chimica allo specchio di C&I) potrebbe incrementare la mortalità delle api da miele come ritiene uno studio riportato da M. Satyanarayana nell’ultimo numero di settembre di Chemistry & Engineering newsletter on-line.

Struttura molecolare del glifosato

Lo studio, effettuato da un gruppo di ricercatori in Texas, ha evidenziato che l’erbicida, commercializzato col nome RoundupÒ, potrebbe danneggiare le api indirettamente perturbando la flora batterica del loro intestino. (E.V.S. Motta et al. Glyphosate perturbs the gut microbiota of honey bees., Proc. Nat. Acad. Sci. USA., 2018, DOI: 10.1073/pnas.1803880115). Gli scienziati pensano che i risultati potrebbero aiutare a spiegare il declino delle api da miele osservato negli ultimi anni.

Il gruppo, coordinato da Nancy Moran, esperta in biologia delle api alla Texas University di Austin, ha esposto centinaia di api operaie al glifosato a concentrazioni uguali a quelle che avrebbero potuto incontrare nei pressi di campi agricoli trattati con l’erbicida.

Nancy Moran

Questo gruppo di api è stato poi reintrodotto nel proprio alveare. Dopo tre giorni la flora batterica dell’intestino di queste api è stata analizzata e confrontata con quella di un gruppo di api non trattato col glifosato. I ricercatori hanno scoperto che l’abbondanza di alcune delle otto specie predominanti di battèri intestinali era significativamente diminuita nelle api trattate rispetto a quelle non trattate, suggerendo che l’esposizione al glifosato aveva modificato la composizione della flora batterica intestinale nel gruppo di api trattato. I due gruppi sono stati poi esposti a un comune agente patogeno delle api. E’ risultato che le api operaie esposte al glifosato sono decedute a velocità più elevate rispetto alle api non esposte, portando alla conclusione che la diminuzione di alcuni battèri della flora intestinale aveva reso gli insetti trattati più vulnerabili degli altri.

Queste conclusioni corrispondono a quelle riportate in precedenza che hanno dimostrato che le api da miele con flora intestinale compromessa sono malnutrite e suscettibili alle infezioni. Moran sostiene che questi risultati, insieme ai dati che mostrano che il glifosato può influenzare i battèri del suolo e che si accumulano nelle api, suggeriscono ai ricercatori di valutare se i possibili effetti indesiderati del popolare erbicida abbiano avuto un ruolo nel declino delle api.

Continua Moran: “Circa 10 anni fa, ci fu un preoccupante declino nelle popolazioni di api da miele, in seguito chiamato colony collapse disorder. I tassi di mortalità hanno continuato ad essere alti, ma i decessi non sono stati così improvvisi.”

Fred Gould, entomologo, patologo ed ecologista, professore distinto della North Carolina State University, fa notare che ricercatori hanno esaminato il ruolo di diversi pesticidi e fungicidi nel declino e nell’infezione delle colonie di api, ma il glifosato non era mai stato preso in considerazione. La ricerca di possibili effetti trascurati, come quelli descritti nel nuovo studio è un sintomo che questo settore di indagine è in netto miglioramento rispetto al passato.

Fred Gould

Come quasi tutti gli erbicidi, il glifosato agisce bloccando un enzima chiamato EPSP sintasi nelle piante, necessario per la biosintesi di amminoacidi aromatici come la fenilalanina, la tirosina e il triptofano, impedendo così la crescita delle piante[1]. Il glifosato non uccide i battèri, ma impedisce loro di crescere, e la maggior parte dei batteri trovati nell’intestino delle api portano il gene che codifica l’enzima.

Ma mentre alcune specie di battèri che abitano nell’intestino delle api sono sensibili al glifosato, altre lo sono meno, perché portano un gene per una forma di EPSP resistente al glifosato, o per altri meccanismi sconosciuti, dice Moran. Il suo gruppo ha in programma di ripetere i loro esperimenti su alveari interi e di esplorare i meccanismi di nonresistenza degli EPSP.

Colonia di api da miele

L’impatto ambientale e gli effetti sulla salute del glifosato sono una questione ancora controversa dice Gould, quindi studi sull’ intero alveare potrebbero far luce sugli effetti dell’ erbicida su una specie critica per l’agricoltura.

Questi studi potrebbero anche aiutare a evitare possibili effetti negativi del glifosato sulle api. Il risultato probabile sarà una sorta di miglior pratica su quando e dove spruzzare il glifosato, dice Juliana Rangel, entomologa della Texas A & M University.

Juliana Rangel

L’impollinazione attraverso le api è un’industria di circa 15 miliardi di dollari l’anno, dice, e “molte volte, tragedie come il colony collapse disorder possono essere evitate con una migliore comprensione dell’ecosistema”.

[1] A differenza di molti altri erbicidi che risultano efficaci contro alcune specie, cioè selettivi, il glifosato è un erbicida totale il che ne spiega l’uso generalizzato.

Le molecole della pubblicità: ma dove sta la camomilla nella Saugella?

In evidenza

Claudio Della Volpe

(per gli altri articoli di questa serie si cerchi “molecole della pubblicità” nel riquadro in alto a destra)

Uno dei prodotti detergenti intimi più comuni è la Saugella, prodotto della italiana Meda (oggi Rottapharm); lo uso anche io, è un detergente a pH neutro indicato per la pelle delicata. Utile prodotto, almeno nella mia esperienza; non ve ne parlo per fare pubblicità, ma per capire una cosa: ma dove sta la camomilla, dato che il prodotto è declamato come “a base di camomilla”?

I detergenti a pH neutro o perfino acido sono giustificati dal fatto che il pH della pelle non è basico come i comuni saponi che contengono spesso residui di OH in quantità significativa; dopo tutto la saponificazione è il processo per la produzione del sapone a partire da grassi e idrossidi di metalli alcalini. In termini tecnici, la saponificazione è l’idrolisi basica (solitamente si impiega soda caustica, NaOH) di un trigliceride per produrre il corrispettivo sale sodico (carbossilato, più propriamente).

Ma la nostra pelle è prima di tutto coperta di sebo e dunque una pulizia totale è sconsigliata, eliminerebbe il grasso naturale con funzione protettiva, e d’altronde l’igiene, ossia la riduzione del carico batterico indesiderato, è utile; inoltre il pH è dell’ordine di 5.5, ossia vicino a quello dell’acqua naturalmente carbonatata dall’atmosfera.

5.5 non 7.

E’ un trucco di tutti i tecnici di laboratorio di chimica: ohi ragazzo dimmi quale è il pH dell’acqua distillata; e noi tutti a pecorella: 7! Ah, ah; ma quando mai! Dice il tecnico è 5-5.5; e perchè? Ma perchè il diossido di carbonio ci si scioglie dentro alla grande, forma acido carbonico, è il motivo per cui se lasci aperta una soluzione di idrossido di sodio calibrata te la ritrovi fuori range in poche ore; una volta ci si metteva una valvola di ingresso piena di idrossido di potassio o di sodio che si carbonata; anche nel famoso romanzo di Verne, Intorno alla Luna (seguito di Dalla terra alla Luna) si usa questa capacità degli idrossidi per purificare l’aria del proiettile lanciato verso la Luna, assorbendo l’anidride carbonica prodotta dalla respirazione degli astronauti.

Allora tornando a noi: guardiamo l’INCI della Saugella e cerchiamo la camomilla della pubblicità:Apparentemente la camomilla non c’è; ricordiamo che l’elenco INCI riporta i prodotti in ordine quantitativo (solo dopo l’1% in ordine sparso); il primo prodotto “naturale” è un estratto di timo (non camomilla), ma di essenziale c’è un sapone magnesio laurilsolfato, e varie altre molecole detergenti, molecole tutte sintetiche che fanno da regolatori dell’acidità, profumi; dato che non contiene parabeni contiene altre sostanze antibatteriche e conservanti (i parabeni servivano a questo e devono essere sostituiti in qualche modo, se no la scadenza dei prodotti si riduce notevolmente).

Ma la camomilla? Dov’è?

Beh dopo lunga osservazione e riflessione, in 11esima posizione e dunque in quantità mooolto , ma moolto piccola trovo il bisabololo.

Ecco qua, dove si nasconde la camomilla!

Eh si perchè l’α-bisabololo, anzi

l’α-(−)-bisabololo è un alcool naturale sesquiterpenico monociclico che si forma per neutralizzazione con acqua del catione bisabolile.

Costituisce il componente principale (10-25%) dell’olio essenziale di camomilla derivato dai capolini freschi o essiccati.

Possiede proprietà calmanti ben conosciute da secoli e perciò viene utilizzato in numerosi prodotti cosmetici. Ha proprietà lenitive e disarrossanti.

(da Wikipedia)

il bisabololo naturale è lo stereoisomero indicato con 118

da Handbook of Cosmetic Science and Technology A.O. Barel ed. pag 277 e seguenti; la prima molecola è α(-)-bisabololo, la seconda  α(+)-bisabololo, l’una enantiomera dell’altra.

Si tratta di una molecola con due stereocentri , e quello naturale è uno solo dei quattro possibili*. I primi due sono enantiomeri, in quanto le loro configurazioni assolute si invertono. 1S,2S nel α-(-) bisabololo e 1R,2R nel α-(+)bisabololo. Il bisabololo della Saugella non è esplicitamente dichiarato come estratto dalla camomilla, anche se sulla bottiglia è scritto  a base di camomilla e a base di estratto di camomilla, ma negli ingredienti c’è solo il bisabololo che potrebbe venire dalla camomilla.

In genere viene estratto anche dalla camomilla, Matricaria Camomilla var. recutita (e anche da un’altra pianta del tutto diversa), ma può essere anche sintetizzato.

Ora la questione che si pone è la seguente: la pubblicità dice che la Saugella è “a base di camomilla”, mentre è solo l’11esimo prodotto dell’INCI, pochino proprio; ma soprattutto, questo bisabololo da dove viene? è un estratto dall’olio di camomilla oppure è sintetico o ha ancora altre origini? Come facciamo a capire?

Vabbè direte voi, ma tanto sono identici: il bisabololo è bisabololo!

Certo, è vero (quasi al 100%) ma con qualche piccola differenza che esaminiamo qua .

Cominciamo a dire che ci sono tre possibili sorgenti di α-bisabololo;

  1. A) c’è quello della camomilla, 10-15% dell’olio di camomilla che contiene solo lo stereisomero indicato comunemente come α(-)-bisabololo , relativamente raro al giorno d’oggi sul mercato.

Occorre quasi una tonnellata di fiori di camomilla (cosiddetta tedesca, ma ne esistono altre varietà) per ricavare due chilogrammi di olio essenziale di camomilla il cui colore blu intenso è dovuto all’alta percentuale di azulene, un idrocarburo, che non è contenuto nell’olio di Candeia (altra sorgente di α-bisabololo), ma è contenuto in altre piante e funghi. L’azulene ha proprietà lenitive analoghe al bisabololo e molto potenti.

Anti-inflammatory drugs- Vane e Ferreira Springer 1979

Si veda anche: https://www.tandfonline.com/doi/abs/10.1080/0972060X.2016.1224689?journalCode=teop20

Nel libro di Heinrich e altri, Fondamenti di farmacognosia e fisioterapia si chiarisce che l’olio essenziale di camomilla si può avere in una seconda versione in cui però dominano gli ossidi di bisabololo.

  1. B) c’è una seconda sorgente naturale, una pianta brasiliana dal cui olio essenziale si estrae tramite un processo di distillazione diretta; la pianta è l’albero brasiliano Candeia (Vanillosmopsis erytropappa), per distillazione in corrente di vapore del legno delle piante si estrae l’olio dal quale si può distillare un equivalente (che però ha certamente impurità diverse rispetto a quello della camomilla) e comunque non viene dalla camomilla, ma certo è ancora propriamente α(-)-bisabololo, lo stesso stereoisomero; da una rapida indagine sul mercato questo olio costerebbe meno di quello di camomilla. La pianta appartiene alle composite o asteracee come la camomilla, ma è un albero sia pur non altissimo. Le asteracee sono originarie del sud America e si sono differenziate dopo la separazione del supercontinente Gondwana. In pratica la camomilla è una discendente della Candeia. (https://it.wikipedia.org/wiki/Asteraceae)
  1. C) ed infine c’è un bisabololo sintetico che però è una miscela dei 4 stereoisomeri la cui composizione esatta dipende dal tipo di sintesi scelta*   e dunque, supponendo che la sintesi produca solo i due indicati nella figura e che non ci siano problemi con la molecola 127 in figura , è efficace la metà e non ha a che fare con la camomilla se non in linea indiretta. Altre sintesi darebbero risultati ancora diversi*.

Nel bisabololo sintetico sul mercato, che come detto è un una miscela di enantiomeri , c’è ancora un altro problema, che circa il 10% del prodotto è farnesolo;In anni recenti sono stati lanciati prodotti sintetici a base di bisabololo di maggiore purezza (nome commerciale Dragosantolo) che contengono solo lo 0.01 o perfino lo 0.001 di farnesolo.

https://www.cosmeticsdesign.com/Article/2005/03/09/Symrise-gets-EC-compliance-for-purer-Bisabolol

Quale di questi tre è contenuto nella Saugella?

L’INCI parla di bisabololo, non di estratto di camomilla come la pubblicità. Però possiamo rifarci alla definizione che dà, se non l’INCI stessa la legislazione europea che si rifa all’INCI

http://ec.europa.eu/growth/tools-databases/cosing/index.cfm?fuseaction=search.details_v2&id=74499

dove troviamo che il termine usato sul contenitore della Saugella escluderebbe uno dei tre casi; infatto il temine “bisabololo”(Nota: non fatevi ingannare dai simboli R*,R*, ricordando che secondo il goldbook (https://goldbook.iupac.org/html/R/R05260.html) questo indica solo che i due centri hanno la stessa configurazione; infatti sono entrambi S, come descritto nella immagine del Barel)

******************************

corrisponde al CAS 515-69-5/23089-26-1 che corrisponde al solo (α-(−)-bisabololo ), mentre l’altro stereoisomero (α-(+)-bisabololo ) corrisponde ad un diverso CAS. Dunque saremmo portati ad escludere nella Saugella la presenza del bisabololo di sintesi che sarebbe efficace la metà o meno, in quanto nella lista dei componenti NON è indicato l’altro stereoisomero.

Dunque anche se il bisabololo della Saugella è indicato solo come bisabololo il rispetto della legislazione europea ci porta a concludere che è presente solo α-(−)-bisabololo che è di origine naturale.

Diciamo che qua un piccolo dubbio mi rimane; se il bisabololo fosse di sintesi sarebbe d’obbligo indicare la presenza dell’altro o degli altri stereisomeri visto che esso NON è indicato nella lista INCI? Di fatto sarebbe solo una questione di titolo: se uno usasse il sintetico, quello giusto ci sarebbe, mentre l’altro (o gli altri) che non è presente in INCI sarebbe un di più, senza nome. Non so se è possibile.

Supponiamo col beneficio di inventario che non ci sia. Rimane comunque un problema; la denominazione INCI non decide della provenienza.

Il bisabololo della Saugella potrebbe anche venire dalla Candeia, il distillato dell’olio di Candeia sarebbe solo α-(−)-bisabololo, e la composizione sarebbe allora giusta.

Diciamo però che la pubblicità non sarebbe del tutto corretta. Intendiamoci nulla di male, il prodotto sarebbe sempre quello, ma non sarebbe “a base di camomilla”, ma di Candeia. Come stanno le cose? Non lo so. Da chimico capisco che di fatto la differenza, se fosse così, sarebbe minima, ma questa incertezza mi dà un certo fastidio.

Non sarebbe nemmeno un caso unico.

Si sa che l’acido carminico estratto dalla cocciniglia, che è un insetto, colora le fragole degli Yogurt; al massimo in quelli per bambini si usa la carota nera che vira al rosso cambiando il pH; grande chimica, ma tutto ciò ripeto mi da un certo fastidio.

Bah; sulla Saugella spero in un chiarimento del produttore al quale ho anche mandato una richiesta, poi vi dico.

Sul resto voi che ne dite?

NdB: Rottapharm-Madaus è proprietà di un gruppo italiano, Meda (oggi Meda AB) che si occupa di prodotti per la cura della persona, ha acquisito la Rottapharm-Madaus nel 2014; è a capitale italiano, ha 1800 dipendenti ed è presente in 90 paesi.

*

a proposito della sintesi del bisabololo si veda THE TOTAL SYNTHESIS OF NATURAL PRODUCTS vol. 5 di J. ApSimons, J. Wiley & Sons 1983 pag 59 dove si analizzano in dettaglio le varie strade di sintesi e le diverse quote di prodotto ottenute fra i 4 stereisomeri.

Chimica, società, vaccini.

In evidenza

Luigi Campanella, già Presidente SCI

Alla recente riunione del Consiglio Centrale della SCI ho avuto l’opportunità di partecipare ad una discussione, purtroppo per esigenze organizzative limitata nel tempo, relativa al dibattito in atto nel Paese circa l’obbligatorietà o meno di vaccinazioni.

Il tema è caldo: la politica ha tentato di scavalcare la scienza, in parte-per fortuna solo in parte- riuscendovi. Giustamente sono apparsi sulla stampa interventi di prestigiose ed eminenti istituzioni scientifiche e loro ricercatori, soprattutto medici, a difesa dei vaccini obbligatori. La domanda che è emersa in sede di Consiglio Centrale SCI è stata: è opportuno che una Società Scientifica non medica si pronunci su un tema così dibattuto e non strettamente di sua competenza? Mi permetto in questo post di focalizzare i motivi per cui la mia risposta a quella domanda non può che essere: sì è opportuno, utile e necessario. Innanzitutto la scienza non ha comparti stagni: i punti di contatto e le correlazioni sono presenti sempre avvicinando discipline a volte un tempo considerate lontane (si pensi ad archeologia e chimica,ad economia e matematica, a diritto e statistica).

La chimica tradizionalmente oltre a sviluppare una propria ricerca di scienza molecolare è stata considerata una disciplina di supporto (di servizio si diceva con irrispettosa espressione ) per molte altre: dalla medicina alla biologia, dalla geologia alla merceologia, dalla fisica all’antropologia. In passato talvolta questo ruolo non è stato riconosciuto così da perdere occasioni di progresso e di avanzamento. Noi stessi chimici mentre da un lato ci siamo lamentati per questi mancati riconoscimenti e delle resistenze e mancate permeabilità di alcune componenti scientifiche , dall’altro ci siamo impegnati a trovare sbocchi culturali alla nostra disciplina, che camminassero parallelamente alla riconosciuta importanza della chimica nella vita di tutti i giorni ed aprissero settori di studio poco esplorati. Così abbiamo fatto crescere il nostro patrimonio metodologico e tecnico offrendo modelli di approccio, metodi e strumenti avanzati di indagine per i ricercatori delle altre discipline. Nel caso della medicina è mia ferma convinzione che un contatto più stretto ed assiduo con la chimica avrebbe certamente giovato al progresso già esaltante di questa scenza. Per tutto ciò io credo che laddove questa correlazioni scientifiche e culturali ci siano si debba cogliere l’occasione di esprimere la nostra posizione. Che poi queste correlazioni ci siano nel caso dei vaccini mi pare quasi ovvio per numerose ragioni. Esistono settori della Chimica dedicati al tema: si pensi alla Chimica Biologica, in particolare all’Immunochimica,alla Chimica Farmaceutica; i vaccini sono sistemi complessi la cui composizione prevede la coesistenza con l’antigene di numerosi composti generalmente tutti a concentrazioni di sicurezza, ma da valutare integralmente; si tratta di associazioni di elementi che non esistono nei manuali dei materiali conosciuti; questi materiali sono in massima parte non biodegradabili, per cui una volta iniettati rimangono nel corpo laddove il sangue li ha trasportati; le particelle di dimensione ridotta possono venire incamerate da cellule ed interagire direttamente con il DNA danneggiandolo. Apprezzo quindi molto la proposta-che spero si concretizzi- del Presidente della SCI al Consiglio per creare un GdL che sintetizzi questi punti evidenziando gli aspetti chimici di un problema che è soprattutto medico, sociale, culturale.

Perché oggi la scienza non può tacere.

In evidenza

Vincenzo Balzani

In occasione dell’iniziativa Saperi Pubblici, piazza Verdi, 1 e 2 ottobre 2018, Bologna, Vincenzo Balzani ha scritto e pubblicato questo intervento che è anche apparso sul quotidiano la Repubblica.

Perché oggi la scienza non può tacere? Perché la scienza per sua natura è rivoluzionaria e, come dice una celebre frase di George Orwell, “In un’epoca dove si diffondono bugie, dire la verità è rivoluzionario”.

Potremmo anche partire da una frase celebre di Aldous Huxley, filosofo, scrittore e pacifista: “Molte persone credono di stare pensando quando, in realtà, stanno solo riorganizzando i loro pregiudizi”. E’ proprio questo che sta accadendo: fra la gente e, cosa ancor più pericolosa, fra molti di coloro che ci governano emergono pregiudizi che si concretizzano in discriminazioni, attacco ai diritti civili, spregio della diversità, disprezzo della scienza e più in generale delle competenze, fino alla formulazione di proposte di legge disgiunte dai principi costituzionali: la flat tax che è in contrasto con l’art. 53 della Costituzione, la discriminazione sul reddito di cittadinanza e la legittima difesa che sconfina nella giustizia fai da te.

Il primo e più grave pregiudizio che certe persone hanno, anzi coltivano, è quello di avere in tasca la verità, di essere migliori degli altri e quindi di non avere bisogno di nulla e di nessuno. La loro unica preoccupazione è difendere, con muri materiali, mentali e culturali, la loro identità. Quindi: si può fare a meno dell’Europa, si può fare a meno della Costituzione, si può fare a meno della magistratura, si può fare a meno del ragioniere generale dello Stato … Se ne può fare a meno perché sono solo ostacoli al “cambiamento”, perché “sappiamo noi cosa si deve fare”.

Per raccogliere consensi questi governanti non usano argomenti razionali, ma lo fanno suscitando paure, facendo credere ai cittadini che sono minacciati nei loro averi, nel loro lavoro, persino nella loro religione. Diffondono la xenofobia e isolano così la gente sotto una cappa di spavento e di ignoranza dalla quale è poi difficile uscire.

Le caratteristiche della scienza sono oggettività, rigore, collaborazione, confronto, libertà di pensiero e anche accettazione del dissenso, ma non del pregiudizio. La scienza è libera, non può sottostare ad imposizioni, sia che vengano dal basso, dalla gente, e tantomeno dall’alto, da chi governa. La scienza è per abbattere muri e costruire ponti. La scienza è per l’uomo, per tutti gli uomini. La Scienza educa alla democrazia perché i pilastri su cui si regge sono anche i pilastri della democrazia.

Ecco, quindi, perché oggi la scienza non può tacere: perché nella scienza non c’è posto per bugie e pregiudizi, non c’è posto per chi vuole rimanere isolato, non c’è posto per chi non ha dubbi e per chi agisce senza competenza. Noi scienziati pretendiamo che questo accada anche nella politica “quella tecnica regia (basiliké téchne) che deve far trionfare ciò che è giusto attraverso il coordinamento e il governo di tutte le conoscenze, le tecniche e le attività che si svolgono nella città” (Platone).

Detto questo, noi docenti e ricercatori dobbiamo, però, fare autocritica: dobbiamo chiederci perché ci troviamo in questa situazione. Forse siamo arrivati a questo punto, dove non possiamo più tacere, perché non abbiamo parlato prima, nel modo giusto, alla gente e anche alla politica. Molti di noi docenti, persone che hanno avuto il beneficio di poter studiare e il privilegio di potersi dedicare alla ricerca scientifica, forse non hanno ancora capito di essere in debito verso la società.

L’iniziativa dell’1 e 2 ottobre ha per titolo Saperi Pubblici. Ecco, forse abbiamo accumulato saperi, ma non siamo stati capaci di farne saperi pubblici. Molti di noi non si sono dedicati con sufficiente impegno, non hanno “sprecato” tempo a divulgare in modo corretto la scienza e se ne sono stati chiusi nei loro laboratori, affascinati dalle loro ricerche, senza curarsi dei problemi del mondo che ci circonda. Quanti di noi nelle lezioni si sono preoccupati di collegare la scienza alla pace, alla politica, all’etica, alle disuguaglianze, alla necessità di custodire il pianeta?

Il mondo ha molti problemi e noi docenti e scienziati abbiamo il dovere di contribuire a risolverli. Lo dobbiamo fare con le nostre ricerche, ma anche rendendo partecipi le persone dei nostri saperi e prendendo posizioni chiare. Se l’avessimo fatto, ci sarebbero in giro meno bugie e meno pregiudizi. Non siamo innocenti come scienziati e forse neppure come docenti e come cittadini; dobbiamo infatti svolgere il nostro ruolo con un maggior impegno civile.

Preistoria e storia dell’elettrodo a vetro

In evidenza

Rinaldo Cervellati

 L’elettrodo a vetro è noto a tutti i chimici ma anche a tutti coloro che se ne servono per misurare il pH di soluzioni acquose. La sua invenzione è generalmente attribuita al fisiologo Max Cremer nel 1906 [1] e a Fritz Haber e Zygmunt Klemensiewicz nel 1909 [2]. In effetti l’origine delle scoperte di questi tre scienziati è da far risalire a osservazioni e esperimenti effettuati almeno una trentina di anni prima. Cerchiamo di andare con ordine.

Fu Wilhelm Giese[1], uno studente di dottorato del noto scienziato Hermann von Helmholtz (1821-1894), che nel 1878 fece una serie di importanti misurazioni mentre conduceva ricerche per la sua tesi di dottorato. Giese era interessato a cercare di capire la natura delle cariche residue in una bottiglia di Leida[2] scaricata e sospettava che il fenomeno fosse collegato a cariche superficiali rimaste sul vetro. Preparò un pallone di vetro a pareti sottili dotato di un filo di platino e vi mise del mercurio. All’interno di questo pallone pose un secondo pallone a pareti sottili, anch’esso dotato di un filo di platino, ma riempito con una soluzione acquosa di un sale. In questa apparecchiatura venne fatto il vuoto. Giese scoprì che fra i due elettrodi di platino si stabiliva una tensione elettrica. Stabilì poi che questa differenza di potenziale dipendeva dalla natura della soluzione acquosa, mentre la velocità con cui la tensione si stabiliva dipendeva dallo spessore del vetro – tanto più sottile il vetro tanto più veloce la risposta. Il lavoro influenzò indubbiamente Helmholtz, che ne parlò a Londra, nella Faraday Discussion del 4 aprile1881 [3]. In quella occasione, mostrò una cella simile a quella di Giese, ma con il mercurio sostituito da solfato di rame e solfato di zinco nell’altra soluzione. L’apparecchiatura (Figura 1) si comportava esattamente come una pila Daniell[3], il vetro agendo come un setto altamente resistivo.

Figura 1 Cella di Hemholtz-Giese, adattata da Fig. 20 [1]

Hemholtz fece l’ipotesi che l’elettrochimica potesse essere interpretata solo in termini di particelle cariche, ma non andò oltre.

Un decisivo passo in avanti fu fatto dal fisiologo Max Cremer 25 anni dopo.

Max Cremer nacque a Ürdingen, sulle rive del Reno nella Ruhr, il cuore industriale della Germania. Studiò medicina a Bonn, a Würzburg e a Berlino, ma, piuttosto che alla pratica medica era interessato alla ricerca fisiologica e studiò fisica e matematica, combinazione improbabile a quei tempi per uno interessato alla biologia [e oggi in Italia? NdR]. Ottenne l’abilitazione presso l’Istituto di Fisiologia a Monaco di Baviera, dopo aver studiato con il noto fisiologo Carl von Voit[4] e il chimico Franz von Soxhlet[5]. A Monaco Cremer studiò il metabolismo dei carboidrati, stabilendo la relazione tra glucosio e glicogeno e studiando i percorsi biochimici nel fegato in modelli animali.

L’interesse di Cremer si rivolse poi alla biofisica. Voleva capire il ruolo delle membrane cellulari. Consapevole del lavoro di Helmholtz e Giese, suppose che il vetro sottile poteva essere una buona analogia di una sottilissima membrana. Prendendo un tubo di vetro, soffiò una piccola e sottile bolla ad una estremità del tubo. Con un filo di platino immerso in una soluzione standard all’interno, mise il suo tubo a bolla in una seconda soluzione in cui immerse pure un filo di platino. Una differenza di potenziale si stabilì fra i due elettrodi e Cremer notò che essa variava cambiando il grado di alcalinità e acidità delle soluzioni. Era la nascita di quello che ora chiamiamo l’elettrodo a vetro.

Max Cremer

A proposito degli esperimenti di Helmholtz e Giese, Cremer scrisse:

The idea that the glass as a diaphragm between the two liquids may possibly lead to a rather considerable electromotive force, obviously did not occur at that occasion to Helmholtz, and in any case no experiments have been arranged to test such possibility.[1]

Ovviamente deve essere sembrato importante a Cremer enfatizzare la rivendicazione della priorità di questa scoperta. Cremer aggiunse:

I recalled the bulbs which the glassblowers used to fabricate when they join glass tubes;
therefore I decided to perform experiments with such glass bulbs. Only later I carefully searched the literature in how far glass membranes have been used earlier for similar purposes.
[1]

In effetti gli esperimenti di Cremer differiscono da quelli della classica pila di Giese-Helmholtz nel contenuto dei recipienti di vetro. Cremer potè documentare che la differenza di potenziale dipendeva dai cambiamenti nell’acidità e alcalinità delle soluzioni. Sebbene Cremer sia da molti accreditato della scoperta dell’elettrodo a vetro, sembra non aver mai immaginato che il suo apparato potesse diventare uno strumento di misura.

Il passo successivo nello sviluppo dell’elettrodo a vetro fu fatto dal famoso chimico Fritz Haber e soprattutto dal suo studente di dottorato Zygmunt Klemensievics nel 1909. Il loro contributo è celebrato in un articolo del 2010 di B. Marczewska e K. Marczewski [4], per commemorare il centenario dell’elettrodo a vetro che essi attribuiscono appunto essenzialmente a Haber e Klemensievics.

Fritz Haber (1868-1934) è stato un famoso chimico tedesco, Premio Nobel 1918 per la sintesi dell’ammoniaca.

Zygmunt Aleksander Klemensiewicz nacque a Cracovia il 24 aprile 1886. Suo padre Robert era un insegnante, sua madre Maria Jozefa era una scrittrice e una traduttrice di lingue scandinave.

Nel 1904 si diplomò con il massimo dei voti nella scuola secondaria di Leopoli (allora Lemberg, parte dell’impero austro-ungarico). Quindi iniziò gli studi universitari presso il Philosophical Department della Jan Kazimierz University di Leopoli dove studiò chimica, fisica e matematica. Nel luglio del 1908 Zygmunt Klemensiewicz ottenne (summa cum laude) il suo dottorato di ricerca discutendo la dissertazione scritta intitolata: Il cloruro di antimonio come diluente ionizzante, sotto la guida del prof. Stanislaw Tołłoczko (1868-1935).

Dopo il dottorato ottenne un finanziamento dal Dipartimento Nazionale, una istituzione governativa eletta dal parlamento della Galizia, per partecipare a uno stage scientifico, parte di un programma di ricerca in cooperazione. Nel novembre 1908 si recò quindi alla Friedrich Technische Hochschule di Karlsruhe per lavorare con il professor Fritz Haber.

Non si sa con esattezza perché Klemensiewicz abbia scelto di andare da Haber per il suo stage scientifico post-dottorale, una delle ragioni potrebbe essere la notorietà o anche l’amicizia del prof.

Haber con il professor Tołłoczko o anche l’argomento della sua tesi di dottorato che convinse Haber che il nuovo stagista sarebbe stato utile nelle ricerche di elettrochimica. Fatto è che immediatamente dopo il suo arrivo nel laboratorio di Haber, il 22 novembre 1908, Klemensiewicz fu incaricato di indagare il comportamento elettrochimico del vetro in soluzioni acide e basiche. Fortunatamente abbiamo la descrizione del lavoro direttamente da una lettera che Klemensiewicz scrisse a Malcom Dole (che migliorò notevolmente la tecnica di costruzione degli elettrodi a vetro) molti anni dopo, [5]:

…queste indagini erano ispirate dai lavori di Cremer ripetuti nel laboratorio di Haber senza risultati degni di nota. Per le mie indagini ricevetti un primo apparecchio consistente in un pezzo di un cilindro di vetro rotto, con pareti di spessore 3 mm ricoperte di un foglio sottile di stagno. Mi resi subito conto che un dispositivo di questo tipo era inadeguato a causa della possibilità di un cortocircuito che avrebbe potuto facilmente verificarsi attraverso la superficie bagnata del vetro e quindi era necessario proteggere il sistema contro la dispersione di corrente lungo la superficie del vetro. Non conoscendo gli articoli di Cremer e Giese, realizzai un elettrodo costituito da un tubo di vetro di 7 – 8 mm di diametro e lungo 8 cm, terminante con un bulbo di vetro di 2,5 cm di diametro e 0,06 – 0,1 mm di spessore. Il vetro che usai era un vetro facilmente fusibile, specifico di Thüringen. Subito dopo averlo soffiato fuori, trattai il bulbo di vetro con vapore surriscaldato per sterilizzarlo e successivamente lo immersi in acqua distillata per idratarlo prima dell’uso o fra una misurazione e la successiva … Scoprii l’importanza di queste due procedure accidentalmente. Ho usato la sterilizzazione come metodo di purificazione, perché pensavo che residui di altri metodi, come l’acido cromico o solventi organici avrebbero potuto interagire chimicamente col vetro o essere adsorbiti da esso. Giunsi inoltre alla conclusione che il funzionamento dell’elettrodo sarebbe stato meglio presentato dalla registrazione di una titolazione poiché una serie di valori è più attendibile di una sola misura di forza elettromotrice. Il suo apparato per la titolazione potenziometrica fu schematizzato in [2]. Continua Klemensiewicz:

Gli elettrodi utilizzati erano l’elettrodo a vetro e un normale elettrodo a calomelano [Figura 3]. La differenza di potenziale fu misurata con un elettrometro a quadrante il cui uso mi era famigliare. Quando Haber venne a trovarmi in laboratorio dopo pochi giorni, sono stato in grado di mostrargli una curva molto buona per la reazione HCl-KOH, con una differenza di potenziale di circa 0,5 V fra inizio e fine titolazione… all’inizio Haber non voleva credere che fosse possibile ottenere questi risultati in così poco tempo, ho dovuto insistere a fargli ripetere l’esperimento tracciando da solo il diagramma delle letture sperimentali. L’esperimento procedette alla perfezione e Haber ebbe uno scoppio di entusiasmo.

Figura 3. L’apparato di Klemensiewicz e Haber, figura originale [2]

Figura 4. Una delle prime curve di titolazione tracciata per punti[6]

Klemensiewicz terminò di scrivere l’articolo sull’elettrodo prima del Natale 1909. Il lavoro [2] consiste di due parti: una parte teorica con cui Klemensiewicz non era completamente d’accordo e quindi è firmata solo da Haber, e da una seconda parte, sperimentale, a firma di entrambi (Fig. 5).

Figura 5. Titolo, autori e affiliazione dell’articolo citato, in originale [2]

Secondo il parere di Klemensiewicz, il professor Haber aveva troppa fretta di arrivare a una conclusione sulla natura e ruolo del vetro in base a dati di letteratura inadeguati.

Sempre secondo Klemensiewicz, il resto della sua permanenza a Karlsruhe non fu molto fruttuoso. Haber gli propose di portare a termine, come egli ha scritto, alcuni esperimenti “stravaganti”. Tuttavia, questo parere non può essere del tutto vero, perché a Karlsruhe intraprese ricerche sulla formazione di ioni positivi per riscaldamento di metalli, che in seguito divenne oggetto della sua abilitazione alla docenza. L’articolo sull’elettrodo a vetro resta comunque l’unico che Haber e Klemensiewicz hanno scritto in collaborazione. Per Klemensiewicz è stata una delle pubblicazioni più importanti della sua vita. Più tardi Klemensiewicz lavorò con Marie Curie e divenne infine professore di fisica al Politecnico di Leopoli.

Deportato dai russi in Polonia nel 1940, passò un anno e mezzo fra prigione e campi di concentramento finchè, con l’aiuto di amici, ottenne un posto al Technical College di Londra nel 1947.

Tornò in Polonia nel 1956 e nel 1959 partecipò ai festeggiamenti per il 50° anniversario del suo dottorato organizzati dalla Slesian University of Technology, importante Politecnico della Slesia fondato nel 1945 dai professori e tecnici polacchi che dovettero abbandonare Leopoli causa l’annessione all’Ucraina. Klemensiewicz morì il 25 marzo 1963.

Il termine glass electrode fu coniato per primo da Haber già nel 1907 come antonimo di “porcelain electrode”[6], tuttavia il termine in inglese si deve a Brown [7].

Diversi studi ebbero per oggetto l’elettrodo a vetro, fra i quali quello di Huges [8] che ne confrontò le prestazioni e i vantaggi rispetto all’elettrodo a idrogeno. In particolare va menzionato il lavoro di Phyllis Tokey Kerridge [9], che nel 1925 utilizzò l’elettrodo a vetro in biochimica facendo ben 450 misure di pH su soluzioni e fluidi biologici fra cui quella sul sangue (7.42) con un elettrodo miniaturizzato da lei costruito. Provò anche diversi tipi di vetro accorgendosi che un vetro di puro quarzo non funzionava qualsiasi ne fosse lo spessore.

Mac Innes e Dole nel 1930 [10] trovarono che la composizione ottimale per un elettrodo a vetro era 72% biossido di silicio, 22% ossido di sodio e 6% ossido di calcio. In ogni caso, sebbene la tecnologia abbia compiuto continui perfezionamenti dell’elettrodo durante più di ottanta anni, i principi di base rimangono gli stessi. Si è a lungo ritenuto che l’elettrodo funziona perché gli idrogenioni migrano attraverso il vetro come se fosse una membrana semipermeabile H+selettiva. Oggi sappiamo che la realtà è molto più complessa. Gli interessati possono trovare una interpretazione formalmente rigorosa in [11, 12]. Nel seguito se ne espone una, diciamo più ‘casalinga’, senza formalismi.

Non c’è da meravigliarsi se Kerridge non riscontrò alcuna attività in un elettrodo formato da silice pura. Oggi è infatti noto che le impurità ioniche (e in particolare il contenuto di sodio) nel vetro svolgono un ruolo importante nella sua funzione di “elettrolita atipico”, e non è quindi un caso che MacInnes e Dole abbiano scoperto che la composizione del vetro “ideale” per la membrana dell’elettrodo dovesse contenere circa un quarto di ossido di sodio.

La stessa membrana di vetro non lascia migrare ioni idrogeno di per sé. All’interfaccia fra la soluzione acquosa si forma invece un “gel idratato”, come mostrato in figura 6.

Figura 6. Schema del funzionamento elettrodo a vetro

Questo strato è incredibilmente sottile (~ 10 nm) ed è composto da vetro saturo d’acqua . Può essere strano pensare al vetro come materiale assorbente, ma in realtà questa proprietà di assorbimento è fondamentale: se un elettrodo di vetro si disidratasse completamente, cesserebbe di funzionare come dispositivo di misurazione del pH.

Quindi, si può pensare al vetro come a una “spugna di silicato amorfo”, composta da siti anionici e vacanze cationiche. E così, quando una soluzione a maggiore attività di H+ incontra questa spugna idratata, si verifica uno scambio di cationi. Questo scambio cationico può essere rappresentato dall’ equilibrio:

(H+(soluzione) + Na+(vetro)) ⇌ (Na+(soluzione) + H+(vetro))

Ovviamente, ogni lato del gel ha un’equazione separata per descrivere il suo equilibrio. Nel caso in cui il pH è diverso per le due soluzioni, l’equilibrio favorirebbe un diverso rapporto H +/Na+; quindi ci sarebbe una differenza di carica positiva tra i due strati di gel idratati. Ciò si traduce in un flusso di carica positiva attraverso il vetro secco, come conseguenza del piccolo movimento degli ioni (litio e sodio nella maggior parte degli elettrodi moderni). Anche se le frecce in grassetto nella figura potrebbero far pensare che un piccolo ione sodio (1.02´10-7 mm) attraversi il massiccio strato di gel idratato (0.1 mm), in effetti ogni singolo ione probabilmente muove solo pochi diametri atomici, scambiando posto con lo ione vicino in una sorta di staffetta.

Opere consultate (oltre a quelle citate in bibliografia)

https://www.chemistryworld.com/opinion/cremers-electrode/3008550.article

https://derangedphysiology.com/main/core-topics-intensive-care/arterial-blood-gas-interpretation/Chapter%201.1.2/history-glass-electrode

Bibliografia

[1] Cremer, Max. Über die Ursache der elektromotorischen Eigenschaften der Gewebe, zugleich ein Beitrag zur Lehre von den polyphasischen Elektrolytketten., Zeit. Biologie, 1906, 4, 562 – 608.

[2] Haber, F., Klemensiewicz, Z. Über elektrische Phasen grenzkräfte., Zeit. Physik. Chem.

1909, 67, 385-431.

[3] H. von Helmholtz, The Modern Development of Faraday’s Conceptions of Electricity, originariamente pubblicata in J. Chem. Soc., 1881, 39, 277, scaricabile da:

https://www.chemteam.info/Chem-History/Helmholtz-1881.html

[4] B. Marczewska, K. Marczewski, First Glass Electrode and its Creators F. Haber and Z. Klemenskievics – On 100th Anniversary., Bunsen-Magazin, 2010, 12 (5), 220-222, reprinted by permission from Zeitschrift fur Physikalische Chemie., 2010, 224 795–799.

[5] M. Dole, The Early History of the Development of the Glass Electrode for pH Measurements., J. Chem. Educ., 1980, 57, 134.

[6] F. Haber, F. Fleischmann, Uber die Knallgaskette. I. Mitteilung, Z. Anorg. Chem., 1907, Bd. 51 S. 245-288 (scritto nel 1906).

[7] W.E.L. Brown, The measurement of hydrogen ion concentrations with glass electrodes., J. Sci. Inst., 1924, 2, 12.

[8] W.S. Hughes, The Potential Difference Between Glass and Elrctrolytes in Contact with the Glass., J. Am. Chem. Soc.192244, 2860–2867.

[9] P.T. Kerridge, The use of the Glass Electrode in Biochemistry., Biochemical Journal., 192519 611-617.

[10] D.A. MacInnes, M. Dole, The Behavior of Glass Electrodes of Different Compositions., J. Am. Chem. Soc., 1930, 52, 29-36.

[11] P. Kurzweil, Metal Oxides and Ion-Exchanging Surfaces as pH Sensors in Liquids: State-of-the-Art and Outlook., Sensors 2009, 9, 4955-4985.

[12] D. J. Graham et al., Development of the Glass Electrode and the pH Response., J. Chem. Educ. 2013, 90, 345−351.

[1] Su Wilhelm Giese non si sa molto. Un articolo di Giese (Giese, W. Ann. Phys. (Wieri. Ann.) 1880, 9, 161-208) è citato da C.E. Moore et al., Development of the Glass Electrode, Electrochemistry, Past and Present. Chapt. 9, pp. 272-285. Giese partecipò come fisico alla Spedizione Scientifica Polare Tedesca all’isola di Baffin negli anni 1883-1884 (F. Boas, Among the Inuit of Baffin’s Island 1883-1884. Journals & Letters, Univ. Toronto Press, 1998).

[2] La bottiglia di Leyda è la forma del primo condensatore elettrico, invenzione attribuita al fisico olandese Pieter van Musschenbroek di Leyda (Paesi Bassi), nella seconda metà del XVIII secolo.

[3] La pila Daniell, croce e delizia degli studenti di chimica, è stata inventata nel 1836 da John Frederic Daniell (1790-1845) chimico e meteorologo inglese. Daniell ha fatto molte ricerche in chimica, meteorologia e agricoltura, il suo nome è inevitabilmente legato a quello della pila, usata nello sviluppo del telegrafo e degli apparecchi Morse.

[4] Carl von Voit (1831-1908) fisiologo e chimico tedesco, è considerato il fondatore della moderna dietetica. Come chimico scoperse che il contenuto in azoto dell’urea è una misura del turnover delle proteine.

[5] Franz Ritter von Soxhlet (1848-1926) chimico tedesco. Inventore dell’estrattore che porta il suo nome (1879) tuttora utilizzato, propose che la pastorizzazione venisse applicata anche al latte per prevenire infezioni batteriche.

[6] Vale la pena ricordare che il concetto di pH fu proposto da SØrensen nello stesso 1909. v. https://ilblogdellasci.wordpress.com/2016/06/29/il-concetto-di-ph/

Domani, 29 settembre, mi son svegliato e…

In evidenza

Luigi Campanella già Presidente SCI

Il 29 settembre è diventata una data nota a molti in quanto ad essa è stata dedicata una popolare canzone degli anni 60.

A me piacciono le canzoni,  ma da buon ricercatore, quale spero di essere, non posso non ricordare che quella data è importante per tutto il mondo per ben altro motivo, è la data di nascita di Enrico Fermi, il ragazzo di via Panisperna e Nobel per la Fisica, nato a Roma nel1901, come si diceva, il 29 settembre. A lui di deve l’idea di utilizzare neutroni lenti per bombardare gli atomi dei diversi elementi. Giunto all’elemento più pesante, l’uranio, pensò di aver ottenuto elementi transuranici. In effetti successivamente ammise che gli esperimenti eseguiti da Hahn e Strassmann facevano pensare piuttosto alla disintegrazione dell’uranio. Non sono un fisico, ma mi sento di affermare che Fermi rappresenti l’icona dello scienziato, con mille interessi, curioso e razionale al tempo stesso, intuitivo e deduttivo. Si affermò rapidamente tanto da divenire cattedratico all’età di soli 25 anni, radunando attorno a sè nell’edificio di via Panisperna studiosi come Amaldi, Setti,Segre.

Nel 1938 gli fu assegnato il Nobel e da Stoccolma dove lo ricevette si trasferì negli USA, senza tornare in Italia, per evitare che le famigerate mai sufficientemente vitupefate leggi razziali fossero scontate da sua moglie ebrea. In effetti già prima di ricevere il NOBEL e di trasferirsi negli USA era stato affascinato dalle esperienze condotte sull’atomo da Hahn e Strassman per scinderlo, tanto che nella sua Nobel Lecture aggiunse, rispetto all’originaria versione, la seguente nota: la scoperta di Hahn e Strassmann (di cui abbiamo parlato in un recente post) rende necessario riesaminare tutta la questione degli elementi transuranici poiché molti di essi potrebbero essere dovuti alla disintegrazione dell’atomo. In ogni caso a riconoscimento e dimostrazione del successivo importante lavoro di Fermi e collaboratori negli USA tre anni dopo era pronta la prima pila atomica, che frantumando un atomo di uranio produceva energia, in effetti neutroni, che colpivano altri atomi in un processo controllato  a cascata. Questo successo nasceva però dal riconoscimento da parte di Fermi della misinterpretazione dei suoi esperimenti e dall’accettazione di quella data con l’apparecchiatura di Hahn e Strassmann. Oggi la Storia della Fisica riconosce questi diversi ruoli, anche sulla base delle attente  analisi condotte sui quaderni  di laboratorio del team di via Panisperna. Dopo questo successo, affascinato da Einstein e adulato da Roosevelt, prese la direzione scientifica dei laboratori di Los Alamos dove fu preparata la bomba che esplose nel vicino deserto-era il 16 luglio del 1945- paragonata dallo stesso Fermi per i suoi effetti a diecimila tonnellate di tritolo. Quello che avvenne dopo – un nuovo test sganciandola su  “una base militare” circondata da abitazioni (NdB cioè Hiroshima, il presidente Truman la definì così nel discorso del 9 agosto 1945)- non vide d’accordo nè Fermi nè Oppenheimer, il direttore tecnico di Los Alamos. La domanda che ancora oggi si sente formulare in relazione alle responsabilità ed alle terribili devastanti  conseguenze di quel lancio è: Fermi può essere considerato il padre della bomba atomica? La storia della scienza ci insegna che le scoperte non sono mai  merito di un solo ricercatore; ciascuno è sempre l’erede di precedenti studi  e  significative  collaborazioni. Credo sia  anche il caso di Fermi i cui studi partirono e comunque si appoggiarono a quelli di Born, Einstein, Heisenberg, Rutheford.

Quello che ancora oggi gli viene imputato è di avere diretto l’esperimento su Hiroshima e soprattutto di non avere mai sconfessato la sua creatura giustificandola come necessaria per la rapida fine della guerra ed il conseguente risparmio di altre vite umane. Sappiamo che neanche questo accadde perchè ci volle un’altra bomba su Nagasaki affinchè ciò avvenisse. Fermi credette  anche nell’energia nucleare come strumento in medicina contro i tumori in particolare. Le valutazioni di un ricercatore dinnanzi alle ricerche  che svolge possono scaricarne le responsabilità? E’ questa una domanda continuamente riproposta-al centro dell’Etica della Scienza-ma  ancora con risposte ambigue e discordanti.

altri post sul tema:

https://ilblogdellasci.wordpress.com/2018/06/07/la-storia-della-scoperta-della-fissione-nucleare-i-chimici-risolvono-un-problema-fisico-prima-parte/

https://ilblogdellasci.wordpress.com/2017/11/20/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-lise-meitner-1878-1968/

https://ilblogdellasci.wordpress.com/2017/11/06/scienziate-che-avrebbero-dovuto-vincere-il-premio-nobel-ida-noddack-1896-1978/

https://ilblogdellasci.wordpress.com/2015/08/04/era-bario-davvero/

https://ilblogdellasci.wordpress.com/2015/10/29/quanta-chimica-ce-nelle-bombe-atomiche-3/

 

Si fa presto a dire ricicliamo…… 1. Premessa.

In evidenza

Claudio Della Volpe.

Riciclare è l’imperativo categorico diventato addirittura una direttiva europea (DIRETTIVA (UE) 2018/851 DEL PARLAMENTO EUROPEO E DEL CONSIGLIO del 30 maggio 2018 che modifica la direttiva 2008/98/CE relativa ai rifiuti). Ma riciclare è di fatto una attività che l’industria porta avanti da più di cento anni in qualche settore, si pensi all’industria siderurgica che ricicla il ferro: una parte significativa della produzione siderurgica si fa nei forni elettrici e il tondino del calcestruzzo è ferro riciclato, usato per fare le nostre case e i nostri manufatti stradali.

Dunque ricicliamo già, e anche parecchio, ma non basta. Abbiamo già fatto notare questa contraddizione in una serie di articoli pubblicati 6 anni fa da Giorgio Nebbia (https://ilblogdellasci.wordpress.com/2016/01/11/noterelle-di-economia-circolare/ e nei successivi di analogo titolo).

Riciclare è una necessità sempre maggiore; lo facciamo già e non in piccola quota ma dovremo farne di più e soprattutto diversamente; ma cosa distingue allora il riciclo che dovremo sviluppare da quello che già facciamo? quanto ne facciamo e quanto dovremo farne? Cosa distingue il semplice riciclo che già si fa dall’economia circolare?

Non sono domande facili. In questo post e nei successivi analizzeremo la situazione in qualche dettaglio e soprattutto cercheremo di mettere dei numeri in questo discorso.

Due o tre osservazioni basilari da fare.

La prima è che il riciclo o ricircolo è una caratteristica base dei reattori chimici che si insegna in tutti i corsi di principi di ingegneria chimica: in un impianto chimico tradizionale un riciclo è rappresentato da un “ciclo chiuso” di correnti materiali, che può passare attraverso una o più apparecchiature chimiche.

Il rapporto di riciclo è dato dal rapporto tra la portata della corrente riciclata e la portata della corrente principale prima del punto di reimmissione del riciclo. Lo scopo del riciclo è quello di aumentare la resa complessiva del processo e riciclare in un reattore è una necessità produttiva indiscutibile. Se la trasformazione è parziale il riciclo fa aumentare la resa. Dunque la chimica ha il riciclo nel proprio DNA.

Non solo, ma in qualunque azienda moderna si riciclano, almeno pro quota, gli sfridi di lavorazione; pensate all’alluminio; gli sfridi dei lingotti ottenuti vengono rimessi nei forni subito; insomma molte aziende di fatto costituiscono già dei sistemi di riciclo molto efficienti al proprio interno. In questo caso il riciclo corrisponde al risparmio. La questione nasce quando esternalizzando i problemi, diventa più economico per l’azienda lasciare all’”esterno” di occuparsi del riciclo: al mare, all’aria o alla terra. E questo non è un problema tecnico, ma di forma della proprietà; se il bene inquinato è “comune”, non privato perché l’azienda privata dovrebbe riciclare? Non altera i suoi conti, altera solo quelli “comuni”. E dunque non è interessata a meno che una legge e una serie di severi controlli non la obblighino. E’ la cosiddetta “tragedy of commons” analizzata dal famoso articolo di Garret Hardin.La seconda osservazione è che riciclare di solito si fa parzialmente, mentre l’economia circolare è un cosa diversa, è chiusa corrisponde ad un riciclo del 100%; di solito si prendono come esempio dell’economia circolare i cicli naturali degli elementi, C, N, P, S etc; e si dice in natura non ci sono discariche.

Già, ma i cicli naturali sono molto lunghi, in genere durano milioni di anni e da qualche parte occorre stoccare le cose; anche la Natura deve farlo; pensiamo al petrolio e in genere ai combustibili fossili, frutto della degradazione degli organismi a partire dal Carbonifero; noi stiamo estraendo questi intermedi di riciclo del carbonio in gran parte nascosti sotto il suolo e li stiamo rimettendo in circolo anzitempo accelerandone la trasformazione in CO2. In un certo senso stiamo solo accelerandone il riciclo. Già, ma il risultato è stato il riscaldamento globale.

E’ un tema del famoso libro: Tempi storici e tempi biologici del compianto Enzo Tiezzi. (Enzo come ci manchi.)

Aggiungiamo che anche i perfetti cicli naturali possono essere alterati; ricordiamo che l’ossigeno che respiriamo e che oggi costituisce la base della vita come la intendiamo, solo un paio di miliardi di anni fa era il prodotto di discarica della reazione di fotosintesi che, accumulandosi in atmosfera come oggi i gas serra, ne cambiò irreversibilmente la composizione. Questo costrinse gli allora dominatori del pianeta, i batteri anaerobi, a rifugiarsi nel sottosuolo, nel fondo del mare, negli intestini degli animali.

Volete un altro esempio? Beh parliamo ancora di ciclo dell’azoto e del fosforo, ma in realtà questi due cicli sono stati completamente alterati dalla nostra azione in quanto oggi produciamo noi uomini la gran parte del fosfato che va in mare e dell’azoto assorbito dall’atmosfera, ma non abbiamo inserito alcun controllo dalla parte del recupero, mandando in tilt il ciclo naturale originario. Dunque cicli naturali sono perfetti ma lunghi e delicati.

Facciamo qualche conto per far capire un’altra differenza fra riciclo naturale e artificiale. Poniamo di avere un materiale che abbia un ciclo di vita di 10 anni, chessò l’oro dei contatti elettronici e supponiamo di riciclarlo al 95%.

Cosa succede dopo 100 anni? Avremo fatto 10 ricicli e quanto dell’oro originale ci sarà rimasto? 0.9510=0.60; avremo comunque perso negli sfridi il 40% e avremo dovuto estrarre altro materiale vergine, in grande quantità. Detto fra di noi nessun materiale è riciclato dalla nostra tecnologia attuale a questo livello, ossia con meno del 5% di spreco. Tutti gli altri stanno peggio.

Ecco, fatte queste riflessioni siamo pronti a partire per una analisi più dettagliata della situazione.

(continua)

Fatberg: oli e grassi nei depuratori.

In evidenza

Mauro Icardi

Oli e grassi si riscontrano negli scarichi civili e in quelli provenienti dalle industrie alimentari. Questo nonostante molte realtà industriali del settore alimentare abbiano propri impianti di trattamento con sezioni di rimozione dei grassi residui. Le concentrazioni e le proporzioni di questo tipo di inquinanti sono variabili ma la loro rimozione è una fase fondamentale. Gli impianti di depurazione normalmente hanno una sezione di disoleatura di per sé sufficiente ad evitare questo tipo di inconvenienti. Ma si possono verificare accumuli nella stessa sezione, e in qualche caso anche nelle condutture di adduzione, provocandone in qualche caso il restringimento e la parziale occlusione.

Un anno fa la notizia del rinvenimento di una palla di grasso nelle fognature di Londra ebbe un forte risalto, sui giornali e nel web.

https://www.corriere.it/esteri/13_agosto_06/grasso-fogne-londra_ae729aea-fe80-11e2-9e44-1a79176af940.shtml

Questo è stato un caso eclatante, ma l’accumulo di grassi nelle condotte fognarie provoca ovviamente lo sviluppo di cattivi odori dovuti ad irrancidimento e parziale idrolisi. Con tutte le spiacevoli conseguenze del caso. Per i cittadini e per gli operatori.

Per altro questa reazione può trovare condizioni adatte al suo svilupparsi principalmente per la temperatura, considerando che essa si mantiene sempre intorno a valori superiori a 10°C (normalmente 12° C nella stagione invernale, e circa 20°C in quella estiva) nei reflui di fognatura e da tracce di metalli che sono anch’essi presenti nelle medesime acque.

In caso di trascinamento nella sezione di ossidazione le sostanze grasse ed oleose formano una pellicola che rende impermeabile ed ostacola l’assorbimento di sostanze nutritive ed ossigeno da parte della biomassa, ed allo stesso modo danneggiano i corpi idrici ricettori.

Nel comparto di sedimentazione finale tendono a far flottare il fango biologico, peggiorando sensibilmente la qualità delle acque scaricate. Nei casi più gravi non permettono di raggiungere i limiti previsti per legge per diversi parametri, quali BOD5,COD, odore, solidi e naturalmente quello degli oli e grassi.

In passato si sono utilizzate soluzioni diverse, dalla cattura meccanica superficiale, sfruttando la naturale tendenza al galleggiamento ed alla flottazione, o effettuando lavaggi con soda e tensioattivi. Tutte queste soluzioni sono spesso risultate parziali e costose, e con un impegno importante di manodopera, che in qualche caso si è anche dovuta addestrare all’utilizzo corretto ed in sicurezza di questi prodotti chimici.

Una soluzione praticabile più facilmente è quella dell’utilizzo di prodotti batterico enzimatici che possono iniziare il loro ciclo riproduttivo, sia in campo aerobico che anaerobico, appena le condizioni di umidità , temperatura, pH. ecc. siano idonee. La componente biologica di questi prodotti comprende microrganismi selezionati non patogeni. L’ immissione di prodotti di questo tipo in un sistema inquinato, sia solido che liquido, avvia immediatamente il ciclo metabolico e riproduttivo dei microrganismi in essi contenuti innescando una serie di reazioni. In generale si ha un aumento della riproduzione biologica e della secrezione enzimatica, sia in aerobiosi che in anaerobiosi, a spese della componente organica inquinante. L’ingegnerizzazione industriale di questi microorganismi li rende efficienti anche nei confronti di composti difficilmente biodegradabili come oli e grassi, tensioattivi, fenoli, che la normale biomassa che si sviluppa nei fanghi di ossidazione biologica degrada molto più lentamente, e dopo periodi di acclimatamento generalmente molto più lunghi.

L’aggiunta di questo tipo di prodotti generalmente riduce i tempi di mineralizzazione della componente organica inquinante riducendo i quantitativi di ossigeno ed energia da fornire.

I prodotti usati per ridurre gli inconvenienti provocati dall’accumulo di oli e grassi sono in grado, a differenza dei microrganismi spontanei, di secernere l’enzima lipasi che è responsabile della scissione dei lipidi in glicerina ed acidi grassi, composti facilmente biodegradabili. Dal punto di vista dell’applicazione pratica, prodotti di questo genere quando siano forniti allo stato liquido si possono dosare piuttosto facilmente con una pompa dosatrice, nelle condotte a monte. Le acque reflue normalmente non necessitano di correzione del pH, in quanto questi prodotti hanno attività massima in un intervallo di pH tra 5 e 9. In questo modo si crea una sorta di pellicola protettiva sulla condotta, o nei punti come la sezione di disoleatura dove il materiale viene rimosso e destinato allo smaltimento. Ovviamente il costo di questi prodotti si può ammortizzare considerando che si riducono gli interventi di pulizia e spurgo, e di manutenzione straordinaria. In chiusura però la raccomandazione solita. Anche se è meno immediato rispetto ad esempio alla raccolta differenziata, cerchiamo di porre attenzione a ciò che scarichiamo dalle nostre abitazioni e dagli insediamenti industriali. Raccomandazione niente affatto banale. Per quanto riguarda la mia esperienza diretta posso dire che attualmente situazioni di questo tipo si sono notevolmente ridotte. Ma non è detto che una palla di grasso (che i londinesi hanno   battezzata “fatberg” cioè iceberg di grasso) possa comparire anche alle nostre latitudini.