I quattro elementi fondamentali dell’Universo.

In evidenza

Claudio Della Volpe

Afferma Empedocle:

«Conosci innanzitutto la quadruplice radice
di tutte le cose: Zeus è il fuoco luminoso,
Era madre della vita, e poi Idoneo,
Nesti infine, alle cui sorgenti i mortali bevono»

Secondo una interpretazione Empedocle indicherebbe Zeus, il dio della luce celeste come il Fuoco, Era, la sposa di Zeus è l’Aria, Edoneo (Ade), il dio degli inferi, la Terra e infine Nesti (Persefone), l’Acqua.

Secondo altri interpreti i quattro elementi designerebbero divinità diverse: il fuoco (Ade), l’aria (Zeus), la terra (Era) e l’acqua (Nesti-Persefone).Tiziano, Concerto campestre, 1509, Parigi, Museo del Louvre. La donna alla fonte è una personificazione dell’Acqua. Il suonatore di liuto rappresenta il Fuoco. L’uomo con i capelli scompigliati dal vento simboleggia l’Aria. La donna di spalle raffigura la Terra.

 Col tempo a questi quattro elementi se ne aggiunse un quinto, la “quintessenza” o etere.
L’idea che la Natura potesse esser costituita con pochissimi elementi mescolati fra di loro è stata una delle idee più antiche ma anche di maggior successo nella storia umana.

Di fatti potremmo dire che tutto sommato la chimica moderna dice lo stesso.

Voi mi direte: ma non è vero la tavola periodica di cui celebriamo quest’anno il valore riporta ben 118 elementi possibili e sappiamo ce ne sono anche altri non ancora scoperti o sintetizzati.

Già ma di cosa sono fatti questi 118 atomi? Di cosa è fatto tutto ciò che ci circonda sulla Terra almeno? Cosa c’è dietro e per così dire “sotto” la Tavola Periodica?

Bastano solo quattro particelle: fotoni, protoni, neutroni ed elettroni; con queste quattro entità le leggi della chimica e della meccanica quantistica ricostruiscono tutto ciò che ci circonda; beh quasi, nel senso che ogni tanto arrivano raggi cosmici dal fondo cielo che si trasformano in mesoni e quelli non sono parte dei quattro oggetti nominati.

L’idea che a partire da pochi elementi si possa ricostruire tutto è stata accettata da grandi menti antiche e moderne; ovviamente per spiegare questo si sono ipotizzate e poi misurate esattamente le forze fra le particelle.

Newton che fu prima di tutto un grande alchimista (e solo dopo un fisico, era un chimico-fisico ante litteram, ma ce lo siamo fatto scippare dai fisici puri) ma è anche uno dei fondatori della fisica moderna scriveva:

There are therefore agents in nature able to make the particles of bodies stick together by very strong attractions. And it is the business of experimental philosophy to find them out. Now the smallest particles of matter may cohere by the strongest attractions and compose bigger particles of weaker virtue; and many of these may cohere and compose bigger particles whose virtue is still weaker, and so on for diverse successions, until the progression ends in the biggest particles on which the operations in chemistry, and the colors of natural bodies depend.” (I. Newton, Opticks).

(notate come parla di chimica e fisica INSIEME!!!)

Dunque per spiegare queste associazioni ci vogliono le forze che le manovrano.

Ma voglio essere più preciso; ne ho già parlato tempo fa su questo blog, discutendo la chimica ipotetica della materia oscura; i fisici hanno la loro “tavola” che si chiama “modello standard”; purtroppo i chimici non studiano queste cose, ma secondo me dovrebbero.

oppure questa è un’altra rappresentazione:

Ci sono nella materia ordinaria 18 componenti essenziali divisi fra 6 leptoni, 6 quark e 6 vettori delle forze.

Di questi 18 componenti per fare tutto ciò che si vede sulla Terra occorrono solo:

3 mediatori delle forze: fotoni, gluoni e bosone di Higgs, 2 quark, up (u) e down (d) che nelle combinazioni uud e udd producono protone e neutrone ed 1 solo leptone, ossia l’elettrone; sei entità (appartenenti rispettivamente tre ad una classe di componenti, due ad un’altra e il terzo ad un’altra ancora). E tutto viene fuori da questi 6.

Alla fine non siamo cascati così lontani. Credo che Empedocle si meraviglierebbe se tornasse a vivere di come la sua idea fosse dopo tutto vicina alla verità considerata tale anche dopo vari millenni.

Certo noi abbiamo una solida serie di esperimenti e di relazioni matematiche che supportano il nostro punto di vista, anche se non è ben chiaro perchè poi la matematica abbia così tanto successo (E. Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences); c’è stato un ampio dibattito su questo tema, che inizia da Galileo (il mondo è scritto in linguaggio matematico; e passando per Wigner approda a conclusioni anche opposte: siamo noi che vediamo tutto attraverso la lente della matematica (Richard Hamming); dove è la verità? Non lo so. Esiste una terza via?

Pitagora aveva notato questo strano matematizzarsi dell’Universo già oltre 2000 anni fa.

Per Pitagora (575 a.C. circa – 495 a.C. circa) la successione aritmetica dei primi quattro numeri naturali, geometricamente disposti secondo un triangolo equilatero di lato quattro, ossia in modo da formare una piramide, aveva anche un significato simbolico: a ogni livello della tetraktys corrisponde uno dei quattro elementi.

1º livello. Il punto superiore: l’Unità fondamentale, la compiutezza, la totalità, il Fuoco

2º livello. I due punti: la dualità, gli opposti complementari, il femminile e il maschile, l’Aria

3º livello. I tre punti: la misura dello spazio e del tempo, la dinamica della vita, la creazione, l’Acqua

4º livello. I quattro punti: la materialità, gli elementi strutturali, la Terra

Non vi ricorda qualcosa? 1 punto di un tipo, due del secondo, tre del terzo!! Divisi per classi ed in quantità crescente, 1, 2, 3, come i 6 componenti del modello standard che abbiamo citato prima (1 leptone, 2 quark e 3 mediatori delle forze). Stupefacente combinazione?!

OK, può essere, comunque, siamo arrivati a 6 per descrivere quello che c’è sulla Terra dopo oltre 2000 anni di travaglio e lavoro, ma in fondo ci erano arrivati anche Pitagora ed Empedocle e Democrito e con caratteristiche per certi aspetti simili.

Ne è valsa la pena? E’ una teoria che torna periodicamente, un’applicazione dei cicli storici di Giambattista Vico? Eterni ritorni nella spirale dialettica hegeliana? Non so, credo che la scienza moderna post-galileiana sia un grande metodo di scoperta, ma anche l’intuizione e la osservazione degli uomini che ci hanno preceduto non era poi così male, e come insegna Lucio Russo gli scienziati alessandrini ci hanno preceduto nell’uso del metodo moderno. Abbiamo ancora da rifletterci a lungo su questa relazione fra scienza, matematica e osservazione, capacità di meravigliarsi.

Qualche collega potrebbe lamentarsi dell’eccessivo spazio che do alla fisica ed alla matematica in questo post; ma non è così. A mio parere la visione del mondo naturale dovrebbe essere unitaria per quanto possibile, la materia è una; e la Chimica costituisce evvero un linguaggio euristico ed indipendente rispetto alla Meccanica Quantistica, è esistita senza di essa, ma ha contribuito a svilupparla. Ci sono alternative alla meccanica quantistica? Non so ma ne riparleremo in un prossimo post.

Sarà vero casomai che dopo tutto la fisica teorica attuale e Pitagora sono simili perché guardano al mondo prima di tutto tramite la sua simmetria e bellezza:

La bellezza è verità, la verità è bellezza: questo è tutto ciò che voi sapete in terra e tutto ciò che vi occorre sapere.

(John Keats, poeta)

Ma non lo fa anche il chimico quando sintetizza le sue molecole, strutture la cui simmmetria e bellezza, che ci ricorda Vincenzo Balzani, viene prima del loro uso?

Non so, riflessioni catalizzate dall’anno della tavola.

Cosa ne dite chimici?

Bianka Tchoubar (1910-1990)

In evidenza

Rinaldo Cervellati 

Bianka Tchoubar ha introdotto e sviluppato in Francia i meccanismi delle reazioni organiche vincendo le forti opposizioni della scuola tradizionalista di Prévost e Kirrmann[1].

Bianka nacque nel 1910 a Kharkov in Ucraina da una famiglia russo-ebraica appartenente alla minoranza caraita, fortemente perseguitata dai rabbini ortodossi. Nel 1920, dopo la rivoluzione d’ottobre, la famiglia si trasferì a Costantinopoli (oggi Istanbul) poi a Budapest, stabilendosi infine a Parigi dove Bianka trascorrerà tutta la vita.

All’età di 14 anni iniziò i suoi studi francesi presso il liceo russo di Parigi, dove incontrò la chimica nella persona della prof.ssa Chamier, ex collaboratrice di origine russa di Marie Curie. Si convertì alla religione ortodossa, ma molto presto diventò agnostica. Nel 1929 si iscrisse alla Sorbona diplomandosi in scienze due anni dopo. Con la vocazione di chimico ben salda, decise di proseguire gli studi per il diploma di studi superiori facendo ricerche originali su molecole e particelle cariche nel laboratorio del professor Paul Freundler[2]. Nonostante la disapprovazione del suo supervisore, Bianka Tchoubar ottenne il diploma nel 1932. Questo episodio mostra subito il carattere ribelle ma fermo nelle sue convinzioni di Tchoubar.

Fra la comunità degli emigrati russi, M. Magat, di qualche anno più anziano di lei, lavorava al Collége de France con Edmond Bauer[3], chimico fisico noto a livello internazionale. Magat raccomandò Tchoubar al prof. Marc Tiffeneau[4], chimico e farmacologo, anch’egli internazionalmente noto, direttore del laboratorio di farmacologia della Facoltà di Medicina. Tiffeneau la accolse inizialmente come assistente personale, resosi poi conto delle potenzialità della ragazza, integratasi perfettamente nel gruppo di ricerca, alla creazione del CNRS (Centre National de la Recherche Scientifique) nel 1937 la nominò assistente ricercatrice.

In questo periodo prima della guerra, viene fondato il gruppo chiamato “I giovani chimici” con lo scopo di discutere liberamente di chimica al di fuori della pesante e conformista Società Chimica di Francia. Subito Bianka Tchoubar ne entra a far parte facendo la conoscenza di F. Janot, futuro condirettore dell’Istituto di Sostanze Naturali del CNRS, di F. Gallais, che sarà vice direttore e responsabile del Dipartimento di Chimica e Medicina e soprattutto di R. Rumpf, pioniere della chimica fisica organica, disciplina innovatrice che ricevette a quel tempo in Francia la peggior considerazione (v. nota 1).

Nel 1939 scoppiò la guerra e dopo la conseguente occupazione nazista l’attività dell’Istituto rallentò, anche se ne entrarono a far parte alcuni giovani che saranno i primi allievi di Bianka Tchoubar. Con essi iniziò le ricerche sui meccanismi di reazione.

Bianka Tchoubar

Nel 1945 fu promossa Research Associate. Già in possesso di un notevole curriculum comprendente circa quindici pubblicazioni e la supervisione di diversi studenti, sotto la spinta di Marc Tiffeneau aveva preparato la tesi di dottorato: “Contribution à l’étude des extensions de cycles. Désamination nitreuse des aminométhyl-1 cyclanols-1“, che però fu discussa solo nel 1946.

La guerra e la resistenza furono certamente responsabili del rinvio della discussione. La sua famiglia e quella di Marc Tiffeneau erano molto attive, proteggendo partigiani e prigionieri evasi. Ma questo non fu l’unico motivo del ritardo. La sola descrizione dei risultati sperimentali non era abbastanza da soddisfare la sua avidità di sapere e capire. Molto presto annunciò, contro il suo stesso tornaconto immediato, di essere interessata alle specie cariche. Quando cercò di convincere Tiffeneau che “affinità” e “migrazione” non spiegavano molto, mentre le teorie moderne sulla natura del legame chimico consentivano di interpretare scientificamente la deaminazione nitrosa con estensione del ciclo, non ottenne un rifiuto, ma un silenzio molto più eloquente. Non ebbe molta più fortuna con Pauline Ramart-Lucas[5] che doveva difendere la tesi ma che era altrettanto insensibile alle teorie di Bianka Tchoubar. Fortunatamente nel 1946 fu accettato l’arbitrato del prof. Edmond Bauer (v. nota 3), che avrebbe assicurato la qualità della parte teorica della tesi. Bauer ne fu così entusiasta da presiedere persino la difesa, durante la quale Bianca sostenne i concetti di risonanza e mesomeria oltre che l’esistenza di carbocationi intermedi già postulati venti anni prima da Hans Meerwein[6], ignorato dai chimici francesi.

Divenuta incaricata di ricerca presso il CNRS, dovette aspettare il 1955 per ottenere il grado di ricercatore senior, che le sarebbe spettato per le funzioni che svolgeva, perché i “mandarini” del Centro non erano ancora molto ricettivi alle “teorie inglesi” che Tchoubar utilizzava per interpretare i meccanismi delle sue reazioni.

Riconosciuta finalmente specialista in un campo in piena effervescenza, tenne, negli anni 1957-58 diverse conferenze prima di pubblicare nel 1960 il libro intitolato Les mécanismes réactionnels en chimie organique, che ebbe un notevole successo e fu tradotto in sei lingue.

In realtà il suo talento pedagogico e la sua influenza si erano già espressi in un lavoro di riflessione svolto con alcuni colleghi sulle teorie strutturistiche in chimica organica, basate sui principi enunciati dal britannico Cristopher Ingold e dallo statunitense Linus Pauling, e altri.

Sull’importanza del libro di Tchoubar per la disseminazione delle metodologie di chimica fisica organica in Francia vale la pena citare il saggio di P. Laszlo [1], che riporta anche alcuni aspetti della personalità e del carattere di questa notevole scienziata. Scrive Laszlo:

…è stata un personaggio memorabile… non solo sembrava indomabile, dava l’impressione di essere sempre in conflitto con tutto e con tutti. Non curava l’abbigliamento e non le importava l’aspetto fisico…fumatrice accanita andava dappertutto con una sigaretta accesa fra le dita macchiate di nicotina. Allo stesso modo era totalmente inconsapevole nei confronti del rischio di guidare a tutta velocità la sua macchina, una piccola Citroën Due Cavalli… Solitamente a pranzo mangiava alla sua scrivania, un sandwich e un bicchiere di vino rosso…. Sulla scrivania una copia del quotidiano l’Humanité, l’organo del Partito Comunista Francese, di cui lei era militante.

… Potrebbe quindi sembrare ironico che Tchoubar, membro militante del PCF dalle salde opinioni, sia diventata la principale propagandista della scuola anglo-americana sui meccanismi di reazione. Il fatto è che per lei l’evidenza scientifica annullava qualsiasi ideologia politica.

Bianka Tchoubar

Nel 1956, in seguito alla discussione in URSS su: “La mesomeria e la risonanza sono delle teorie borghesi?”, Bianka rispose con il saggio rigorosamente scientifico “Etat actuel de la théorie de la structure en chimie organique” (Nuovo Cimento Supplemento n. 1, vol. 4, Serie X, p. 101), ulteriore dimostrazione della sua indipendenza scientifica nei confronti anche delle sue concezioni politiche.

Nel 1961, Bianka Tchoubar fu nominata direttore di ricerca e si stabilì con tutto il suo gruppo nel nuovo edificio dell’Istituto di Chimica delle Sostanze Naturali a Gif-sur-Yvette. La tenacia di Bianka Tchoubar aveva vinto.

Nel febbraio 1968, fu costituito il gruppo di ricerca n. 12 (GR-12) al CNRS di Thiais di cui divenne il leader scientifico. Al nucleo iniziale dei suoi collaboratori si aggiunsero sei nuovi gruppi per un totale di quasi 70 persone impegnate in vari argomenti di ricerca.

Il gruppo di ricerca. Tchoubar è alla sinistra di Hugh Felkin, britannico che lavorò in Francia per molti anni.

A Thiais Tchoubar terminò ufficialmente la carriera nel 1978. Di fatto però continuò a lavorare in laboratorio lanciandosi in nuove aree di ricerca: gli effetti dei solventi sulle competizioni E2/SN2, e sulle reazioni organiche senza solvente. Con André Loupy[7] pubblicò il libro Les Effets de sels en chimie organique et organométallique (editore Dunod), tradotto in inglese (Wiley-VCH) e in russo (MIR).

Durante la sua carriera professionale Bianka Tchoubar riuscì a realizzare un progetto che le stava a cuore da tempo: una collaborazione franco-sovietica. Per quanto fosse consentito dalle circostanze della “guerra fredda”, stabilì legami scientifici e di amicizia con il prof. A. E. Shilov[8] dell’Istituto di Chimica Fisica di Mosca, diretto dal Premio Nobel Nikolai N. Semionov[9].

La collaborazione si trasformò in un rapporto formale nel quadro degli accordi fra CNRS e Accademia delle Scienze dell’URSS. Vi fu uno scambio di ricercatori che portò alla realizzazione di una tecnica particolare di chimica organometallica.

A parte il suo anticonformismo, Bianka amava l’ambiente sociale, culturale e artistico di Parigi insieme a molte persone amiche.

Bianka Tchoubar morì il 24 agosto 1990 nella sua abitazione a causa di una emorragia interna.

Bibliografia

[1] P. Laszlo, How an Anglo-American Methodology Took Root in France, Bulletin for the History of Chemistry2011, 36, 75-81.

Opere consultate

  1. Charpentier-Morize, Bianca Tchoubar (1910-1990), L’Actualité chimique1991,166,‎ 444-446.

(contiene numerose citazioni dei più importanti articoli di Bianka Tchoubar)

  1. Jacquesy, A. Loupy, M. Gruselle, Bianca Tchoubar, la révolution des mécanismes », L’Actualité chimique, 2015, 397-398, p. 8-10.
  2. Astruc, Bianka Tchoubar (1910-1990), in: J. Apotheker, L.S. Sarkadi Eds., European Women in Chemistry, Wiley-VCH, Weinheim, Germany, 2011, p. 191-194.

[1] Charles Prévost (1899-1983) e Albert Kirrmann (1900-1974) rispettivamente: professore di Chimica Organica a Nancy, Lille poi alla Sorbonne dal 1953 al 1969, e preside della Facoltà di Scienze a Strasburgo poi direttore dei laboratori chimici dell’Ecole normale supérieure di Parigi dal 1955 al 1970. Nei primi anni ’30 pubblicarono una teoria delle reazioni organiche senza successo. Prévost e Kirrmann furono molto delusi dalla totale mancanza di impatto delle loro idee teoriche sulla letteratura internazionale. Di conseguenza fecero in modo che l’intero corpus di lavoro meccanicistico avviato da Ingold e Hughes nel Regno Unito negli anni ’30 fosse ignorato nei programmi di chimica organica delle università francesi. Poiché questi due professori erano a quei tempi i “mandarini” della chimica organica in Francia, l’embargo sulle nuove teorie anglosassoni fu quasi totale fino ai primi anni ’60.

[2] Paul Freundler (1874-1942) chimico francese, allievo di Charles Adolphe Wurtz e amico di Joseph-Achille Le Bel si è occupato di composti organici contenenti azoto asimmetrico in particolare ammine terziarie.

[3] Edmond Bauer (1880 -1963), chimico fisico e professore francese presso la Facoltà di Scienze di Parigi, si è occupato di meccanica statistica e di chimica quantistica.

[4] Marc Tiffeneau (1873-1945) chimico, farmacologo e medico francese, è noto per il suo lavoro sulle trasposizioni molecolari. Ha dato il suo nome alla reazione di Tiffeneau-Demjanov.

[5] Pauline Ramart-Lucas (1880 – 1953) è stata un chimico, accademico e politico francese. È stata la seconda donna, dopo Marie Curie, a occupare la cattedra di chimica organica, dal 1935 al 1941 e dal 1944 al 1953. Le succedette Charles Prévost (nota 1). Dal 1941 al 1944 fu perseguitata dal regime di Vichy. Nel 1944 designata dall’Unione delle Donne Francesi a far parte dell’Assemblée Consultative Provisoire, promossa dal CLNF.

[6] Hans Meerwein (1879 – 1965) chimico tedesco. Ha svolto ricerche di chimica organica, dando particolare importanza agli aspetti teorici e meccanicistici. Il suo nome è ricordato nella riduzione di Meerwein-Ponndorf-Verley, nel riarrangiamento di Wagner-Meerwein e nel reattivo di Meerwein.

[7] André Loupy vivente, chimico francese è stato direttore di ricerca in pensione del Laboratorio di ricerca sulle reazioni organiche media-selettive del CNRS, Université Paris-Sud, Orsay.

[8] Alexander E. Shilov (1930-2014) chimico russo, ha scoperto i primi esempi di reazioni degli alcani Pt- catalizzate in fase omogenea con attivazione dei legami CH, oggi note come sistemi di Shilov. Le sue ricerche spaziano dalla cinetica e catalisi chimica ai meccanismi di reazione e modellizzazione chimica dei sistemi enzimatici.

[9] Nikolaj Nikolaevič Semënov (1896 – 1986) è stato un chimico fisico sovietico, premio Nobel per la chimica nel 1956, insieme a C.N. Hinshelwood “per le loro ricerche sui meccanismi delle reazioni chimiche”.

L’etica del lavoro nell’opera di Primo Levi e la sua attualità.

In evidenza

Mauro Icardi

Il grande riconoscimento, o per meglio dire la collocazione di Primo Levi tra gli scrittori, e non solamente tra i memorialisti è certamente meritata. Levi si considerò scrittore a tutti gli effetti solo dopo il pensionamento dalla fabbrica di vernici Siva di Settimo Torinese, dove lavorò per la maggior parte della sua attività. Prima come chimico, e poi Direttore Tecnico, fino al suo ritiro dall’attività lavorativa.

E proprio il lavoro è uno dei temi che Levi sviluppa lungo tutto il dipanarsi della sua opera. Lavoro che avrebbe dovuto renderlo libero, secondo la crudele e beffarda scritta posta all’ingresso del campo di Buna Monowitz, parte dell’immenso sistema concentrazionario di Auschwitz. Lavoro che poi lo scrittore cerca con costanza subito dopo la liberazione dalla prigionia. Le pagine che narrano delle sue esperienze di lavoro sono la struttura del “Sistema periodico”, ma soprattutto de “La chiave a stella”. Ma per i lettori più attenti, si possono trovare molti racconti nei quali il tema e sviluppato. Anche in “Vizio di forma” dove nel racconto “Le nostre belle specificazioni” il lavoro è inserito in una trama narrativa di tipo fantascientifico. Dove lo scrittore torinese immagina una scheda di collaudo di una materia prima molto particolare, cioè dell’essere umano.

Non possiamo dimenticare, che il lavoro è uno dei fattori che contribuisce alla sopravvivenza di Levi durante la prigionia. Dal lavoro di schiavo, al lavoro sempre come essere inferiore, ma nel laboratorio della fabbrica di Buna. Al riparo dalle condizioni più disagevoli, al riparo dal freddo. Condizione questa che anche Liliana Segre ha evidenziato, nel raccontare la propria vicenda di deportata.

Levi si occupa di approfondire il tema del lavoro nel suo primo romanzo d’invenzione cioè “La chiave a stella”. In realtà, ad un’osservazione più approfondita, questo romanzo rappresenta un ibrido, una dualità (altro tema ricorrente nell’opera di Levi, chimico-scrittore, centauro quindi, cioè ibrido tra uomo e cavallo, come amava definirsi, e come si rappresenta in una delle sue sculture di fili di rame).

Infatti il protagonista Tino Faussone, il montatore di tralicci e derrick per l’industria petrolifera, altro non è che una delle due anime di Levi. L’alter ego con cui lo scrittore dialoga nello scorrere dei capitoli del romanzo. Faussone metalmeccanico, e Levi narratore che spiega in cosa consista il lavoro del chimico nei due bellissimi capitoli “Acciughe” uno e due. Dal chimico che assembla le molecole, al chimico che le deve determinare, utilizzando gli strumenti della tecnologia. In entrambi i casi sapendo della loro esistenza, ma senza vederle ad occhio nudo. Credo che queste siano tra le pagine più efficaci per spiegare i fondamenti della sintesi chimica, e della chimica analitica. E anche del percorso che da Democrito, passando per Avogadro e Lavoisier pone le basi della chimica.

Levi non solo ci tiene a raccontare la vita e le esperienze del chimico ma osserva con attenzione l’universo già allora, ma oggi più che mai variegato del mondo del lavoro. Lo descrive in molti racconti “Da zolfo” nel “Sistema periodico” fino a “La sfida della molecola” pubblicato nel volume “Lilit ed altri racconti”.

E questo suo scrivere di lavoro lo aiuta non solo a cancellare il ricordo del lavoro come strumento di annientamento dei deportati in Lager, ma anche darne una visione del tutto diversa rispetto a come viene descritto nella letteratura industriale degli anni 60. Penso a romanzi come “Memoriale” di Paolo Volponi, o l’ormai quasi dimenticato “Tre operai” di Carlo Bernari che ne è forse in qualche modo capostipite e che viene pubblicato nel 1934. Romanzi dove il lavoro non è realizzazione, ma spesso alienazione. Il secondo libro, proprio perché descriveva una classe operaia impossibilitata ad avere una vita dignitosa, venne censurato dal regime fascista.

Levi invece fa pronunciare a Faussone questa frase: “«Io l’anima ce la metto in tutti i lavori. Per me, ogni lavoro che incammino è come un primo amore»

E va oltre, arrivando anche a sconfessare la maledizione lanciata da Dio ad Adamo, che disubbidendo è condannato a perdere l’eden e lavorare con sforzo e sudore. Con questo paragone, credo abbastanza conosciuto tratto sempre da “La chiave a stella”: «Se si escludono istanti prodigiosi e singoli che il destino ci può donare, l’amore per il proprio lavoro (che purtroppo è privilegio di pochi) costituisce la miglior approssimazione concreta alla felicità sulla terra: ma questa è una verità che non molti conoscono».

E traccia anche un parallelo con l’idea di libertà: «Il termine libertà ha notoriamente molti sensi, ma forse il tipo di libertà più accessibile, più goduto soggettivamente, e più utile al consorzio umano, coincide con l’essere competenti nel proprio lavoro e quindi nel provare piacere a svolgerlo»

“La chiave a stella esce nel 1978, e Levi è conscio che potrebbe (come in effetti sarà) provocare discussioni e polemiche. E quindi precisa: «So che il mio libro è destinato a provocare qualche polemica anche se non è nato con intento polemico. Certo, al giorno d’oggi il rifiuto del lavoro è addirittura teorizzato da componenti giovanili ma anche senza giungere a queste posizioni estreme esiste in stati piuttosto diffusi una tendenza a sottovalutare la competenza professionale intesa come valore positivo in sé».

Ci si può chiedere se, al giorno d’oggi dove una delle parole più pronunciate e lette è crisi, e la seconda è crescita che viene invocata come fosse una litania, oggi che la sensazione più diffusa sembra essere l’insicurezza. Oggi che il lavoro è profondamente cambiato, si è parcellizzato arrivando a creare la singolare sigla NIL (cioè nuove identità di lavoro). Un termine che vorrebbe ricomprendere i lavori precari, sottopagati, i lavori che sottraggono tempo all’esperienza di vita. Oggi che molte persone con un percorso di istruzione si devono adattare a friggere patatine nei fast food, oppure a fare i fattorini. Oggi che addirittura la ricerca scientifica, ovvero una delle forme più necessarie di lavoro ormai viene snobbata. Oggi che parallelamente al lavoro si tende a denigrare e svilire la preparazione professionale, e lo studio che ne è la base. Oggi che anche il lavoro di insegnanti e docenti è difficile, è legittimo chiedersi se le parole di Levi hanno ancora un senso, riescono ancora a rappresentare la realtà.

Io credo di si. Le pagine di Levi dedicate al lavoro possono essere uno stimolo per la difesa della dignità. Di chi lavora, e di chi un lavoro lo sta cercando. Può sembrare utopico. agli studenti che ho seguito negli stages, che spesso mi confidavano le loro aspettative e le loro incertezze sul futuro, parlavo spesso di come Primo Levi concepiva il lavoro. E qualche volta stampavo per loro questo brano tratto dall’intervista del 1986 con Philiph Roth.

Ad Auschwitz ho notato spesso un fenomeno curioso: il bisogno del lavoro ben fatto è talmente radicato da spingere a far bene anche il lavoro imposto, schiavistico. Il muratore italiano che mi ha salvato la vita, portandomi cibo di nascosto per sei mesi, detestava i tedeschi, il loro cibo, la loro lingua, la loro guerra; ma quando lo mettevano a tirar su muri, li faceva dritti e solidi, non per obbedienza ma per dignità professionale”.

Per Primo Levi il “privilegio di pochi” è riferito a provare la gioia del lavoro ben fatto. E’ auspicabile e doveroso che invece questo privilegio possa essere offerto a più persone. E che le persone vedano tutelata la loro dignità umana, e non solo la loro professionalità. Con gli auspici e i suggerimenti che lo scrittore torinese ci ha indicato.

Uno sguardo all’effetto Volta e alla giunzione P-N.

In evidenza

Claudio Della Volpe

Da quasi 20 anni faccio un corso di elettrochimica, anche se con titoli diversi; il corso di quest’anno si chiama Electrochemical energy storage and conversion (originariamente il titolo conteneva production, ma il primo principio ci ha obbligato a cambiare nome) . Uno dei concetti che cito di più è l’effetto Volta o prima legge di Volta: il contatto tra due metalli diversi alla stessa temperatura fa sì che si stabilisca una differenza di potenziale caratteristica della natura dei metalli che non dipende dall’estensione del contatto.

Volta è stato un genio, un grande scienziato che con a disposizione strumenti limitati è stato in grado di costruire una coerente visione della realtà naturale.

Pochi sanno che Volta ha usato come strumento prima di tutto il proprio corpo; i suoi sensi e gli effetti biologici della corrente elettrica sono stati il suo primo strumento di lavoro (testava la corrente con la lingua, gli occhi, il naso).

Volta era anche un piacevole raccontatore; le sue opere, piacevolissime da leggere sono state raccolte da UTET (A. Volta Opere scelte, a cura di Mario Gliozzi, 1967), un testo che si trova anche in rete e che vi consiglio caldamente anche per la vasta e completa introduzione.La interpretazione moderna dell’effetto Volta è per me la chiave di volta, (scusate il gioco di parole) anche per introdurre i potenziali termodinamici misti: elettrochimico, gravitochimico o ancora termogravitochimico.

Concetti usati moltissimo in settori i più disparati, dall’elettrochimica alla meteorologia, ma che trovano la loro base nella formalizzazione robusta della termodinamica e nella trattazione della termodinamica del vicino equilibrio.

Nell’elettrochimica moderna l’elettrone è considerato una specie reattiva come un’altra; possiede dunque un suo potenziale chimico oltre che un potenziale elettrico. Per chi avesse difficoltà a considerare il potenziale chimico dell’elettrone gli consiglio di immaginarlo come la concentrazione di elettroni “liberi” in un certo ambiente.

I fenomeni legati al funzionamento delle valvole termoioniche per esempio rendono evidente che gli elettroni nel vuoto relativo della valvola si comportano come un gas di particelle libere in equilibrio con le superfici metalliche a diverse temperature; semplici esperimenti fattibili anche con lampadine da auto rotte vi consentono di mostrare che se aumentate la temperatura del metallo gli elettroni fluiscono verso un secondo elettrodo presente nella valvola.Insomma si comportano come particelle di un gas, ma in più trasportano una carica e dunque sono una corrente: chimica ed elettricità si fondono nell’analisi di una valvola termoionica, che purtroppo è uscita dall’orizzonte tecnologico, ma rimane un potente strumento didattico (si chiama anche effetto Edison).

(si veda per esempio : https://aapt.scitation.org/doi/abs/10.1119/1.5051166?journalCode=pte)

Allora tornando all’effetto Volta:

avete due metalli diversi a contatto, zinco e rame; il primo presenta un potenziale chimico dell’elettrone superiore, ossia i suoi elettroni hanno una maggiore tendenza a diffondere o se volete una maggiore “concentrazione”(i puristi si tappino il naso).

Ebbene essi si sposteranno dal lato del rame generando una differenza di potenziale che ad un certo punto si opporrà al moto ulteriore, ma la barriera di potenziale si sarà creata, sarà gratuita, stabile ed utile; questo concetto si può applicare a TUTTE le sostanze.

All’equilibrio avrete che le due differenze di potenziale si equivarranno:

Δμ+nFΔV=0 il potenziale misto, elettrochimico è nullo e il sistema è all’equilibrio

(per trasformare in energia la parte elettrica ho moltiplicato la differenza di potenziale elettrico per la carica, a sua volta espressa come prodotto del numero di moli di carica per il Faraday).

Il famoso esperimento che tutti i ragazzini fanno con penna a maglietta per caricare la penna, in realtà funziona anche senza grattare la penna sulla maglia ma molto meno; anche penna e maglietta sono (poco) conduttori; per esaltare le superfici di contatto e ampliare il fenomeno si grattano reciprocamente e l’attrito fa la sua parte; ma il fenomeno sarebbe evidente con un microelettroscopio.Qua si potrebbe estendere il discorso alla serie triboelettrica con innumerevoli applicazioni industriali: i polimeri idrofobici come il teflon ad una estremità, si caricano negativamente, l’aria positivamente. I chimici si sono inventati il concetto di “trasferimento di carica” per studiare queste cose o la teoria acido-base delle superfici (Good, van Oss e Chaudury), cui ho dato qualche contributo, ma i concetti sono sempre quelli.

Le motivazioni chimiche sono facilmente deducibili e il potenziale misto rappresenta un potente strumento concettuale unificante.

Lo strumento base dell’elettronica moderna è basato esattamente sull’esperimento di Volta: la giunzione P-N.

Due semiconduttori, in genere silicio ultrapuro da un lato arricchito di fosforo e dall’altro di boro; in questo modo si altera in modo opposto il potenziale chimico dell’elettrone; dal lato del fosforo si avranno elettroni in eccesso non legati, rispetto ai legami possibili (silicio-n)e dall’altra se ne avranno in difetto (silicio-p).

Per effetto Volta gli elettroni si spostano dall’-n al –p e a questo punto se per qualche motivo liberate elettroni a destra (tramite poniamo un fascio di luce solare) questi poverini spinti a diffondere verso potenziali superiori non potranno traversare la barriera e dovranno giocoforza fluire nel circuito elettrico (esterno all’immagine) che gli metteremo a disposizione!

Le celle FV sono esattamente questo; ma anche i LED sono questo, sono delle giunzioni PN in cui però la logica costruttiva e diversa perché finalizzata a fare la cosa opposta: trasformare in luce un flusso di corrente.

Un LED non è fatto come una cella FV ma è basato sui medesimi principi: primo effetto Volta.

se voi esponete un LED alla luce il LED fa il suo lavoro alla rovescia; produce una differenza di potenziale ed una minuscola corrente; si può costruire una cella FV fatta di LED; ovviamente sarebbe poco efficiente perché la sua geometria interna non è ottimale.

(si veda https://www.youtube.com/watch?v=L3-0aCJOedo)

Una cosa da precisare; queste giunzioni sono macchine termodinamiche che rispettano ovviamente il secondo principio: quando fate una trasformazione da una forma di energia all’altra avrete sempre una dissipazione termica; tutte le macchine termodinamiche (intese come i dispositivi di conversione dell’energia da una forma all’altra) seguono questa legge ma con un ma.

Ci sono due classi di macchine quelle che lavorano attraverso un salto termico come le macchine termiche tradizionali le turbine, le macchine a vapore o le giunzioni PN che sfruttano la luce oppure le macchine elettrochimiche o le giunzioni PN che NON sfruttano la luce.

Le prime seguono la seconda legge nella forma tradizionale di Carnot la loro efficienza massima è dettata da η=1-Tbassa/Talta

La altre no! Sono isoterme e dunque la temperatura non influenza la loro efficienza, ma invece lo fa il potenziale elettrico: η=Veff /Vequ per una cella elettrochimica. Le celle elettrochimiche e le batterie si fanno un baffo di Carnot.

Le giunzioni PN che sfruttano la luce si comportano come macchine termiche fra la T della sorgente e la T ambiente); le celle FV avrebbero una mostruosa efficienza (superiore al 90%) se potessero sfruttare TUTTA la radiazione in arrivo, ma di solito sono limitate ad un intervallo discreto e dunque la loro efficienza con la luce solare ed una giunzione PN singola non supera un modesto ma interessante 33.7% (il limite di Shockley–Queisser); se si mettono insieme più giunzioni diverse o si scelgono sorgenti diverse dal Sole le cose cambiano. Le celle multigiunzione arrivano ormai a superare il 45%! I LED possono addirittura arrivare ad efficienze teoriche si apure come ogni macchina che s rispetti a bassa intensità (https://phys.org/news/2012-03-efficiency.html).

Quando racconto queste cose ai miei studenti cerco di metterli in difficoltà il che non è difficile perché gli studenti raramente fondono insieme la visione termodinamica , chimica e quella della Fisica dello stato solido e dunque se chiedo:

ragazzi la Terra emette nell’IR tutta l’energia che riceve dal Sole, sia di giorno che di notte; allora come mai non posso mettere in cantina delle celle FV che siano centrate non sul visibile ma sull’IR e rivolte verso terra e ottenere energia elettrica in questo modo

rispondono:

si, buona idea, ma non ci sono i materiali adatti

Beh non è vero, ci sono le celle FV nell’IR e la loro efficienza sta rapidamente crescendo; ma il motivo è diverso; anche con i materiali migliori non potremo mai usare la Terra come sorgente IR nella nostra cantina, per un semplice motivo termodinamico; la T della sorgente terra sarebbe uguale a quella del ricevitore e allora l’efficienza termodinamica sarebbe nulla!

L’unica cosa che potremo fare è portare una aereo in stratosfera a -50°C ed applicare sotto le sue ali delle celle FV infrarosse; allora la loro efficienza teorica sarebbe η=1-Tbassa/Talta ossia circa il 22% non male!

Ma non è finita qui; cosa succederebbe se esponessimo una giunzione PN ad una sorgente più fredda di quella ambiente?

L’idea (del tutto geniale!) venne qualche anno fa

e dunque c’è un’altra via per convertire energia con una giunzione PN; invece di ottenere energia elettrica esponendo la giunzione ad una sorgente più calda si può ottenere energia esponendola ad una più fredda!

E questa “sorgente negativa” c’è sempre, è lo spazio, il nero del fondo cielo la cui temperatura è molto bassa, almeno 50 o più sottozero se si considera la quota stratosferica; in questo caso la corrente andrebbe non dalla porzione n alla porzione p, ma viceversa dalla p alla n; la cosa è stata fatta notare qualche tempo fa, accludo il lavoro e recentemente hanno fatto una celletta del genere (efficienza ridicola al momento); se usata verso lo spazio esterno da t ambiente farebbe anche oltre 50W/mq, ma di fatto il limte è “vedere” la sorgente fredda attraverso la copertura atmosferica il che si può fare solo in ristrette zone di frequenza; nel pratico al massimo farebbe il 4%, ma l’idea è comunque eccezionale, harvesting che sfrutta il calore ambiente e il suo spontaneo raffreddamento; idea del tutto eccezionale secondo me.

Recentemente han provato a costruirne una e, al di là delle sciocchezze che possiate aver letto sui giornali, la cosa è fattibile, ma al momento non utile praticamente. Guardate solo la immagine qua sotto e capirete subito il concetto;

(ricordiamo sempre che la corrente convenzionale è di cariche positive, dunque quella elettronica va in direzione opposta).

Qualunque sorgente sia esposta al diodo PN si realizza comunque un flusso di corrente!

Siamo arrivati alla fine di una rapida galoppata nel reame delle idee base dell’elettrochimica, ma forse da un punto di vista che non avevate esplorato mai così. Spero.

La nostra guida è stato un principio scoperto oltre 200 anni fa. Alessandro Volta, da qualche parte ci guarda sornione.

Castrazione “chimica”.

In evidenza

Claudio Della Volpe

Negli ultimi giorni i giornali hanno ripetutamente parlato di questo argomento; uno dei due vice presidenti del consiglio, durante la attuale campagna elettorale, ne ha parlato ripetutamente proponendo una legge a riguardo e pare da un sondaggio SWG che il 58% degli italiani sia favorevole, anche se non è chiaro bene a cosa siano favorevoli. Dato che il tema ha a che fare con la chimica mi sembra opportuno informare a riguardo per evitare confusione.

Cosa si intende per castrazione chimica?

Cominciamo dal dire che la castrazione in genere è l’atto di eliminare chirugicamente le gonadi maschili, l’atto corrispondente nel genere femminile (eliminazione delle ovaie) viene più pudicamente definito sterilizzazione e chirurgicamente è molto più invasivo. Entrambi vengono usati per motivi vari in specie animali e nella specie umana; di solito per impedire la riproduzione di animali ma anche solo per cambiarne il comportamento (il bue invece del toro, il cappone invece del gallo sono animali castrati e castrati in età precoce; cappone viene dal latino capo,-onis a sua volta dal verbo greco “κόπτω”, che significa “tagliare”).

L’esistenza di maschi castrati definiti eunuchi o castrati è stata diffusa nella storia della specie umana con varie motivazioni e si sa che induce modifiche notevoli nel corpo: voce, accumulo di grasso, comportamento si modificano; la castrazione è stata anche usata in particolare per indurre lo sviluppo di una voce canora di elevata qualità ed è presente nella nostra storia nazionale con riferimento alla storia della musica.

http://quinteparallele.net/2016/11/24/le-voci-senza-sesso-i-castrati/

Nel corso del XVIII secolo, circa centomila giovani ragazzi furono evirati per preservare le loro voci acute. Tra di loro, pochissimi riuscirono a salire all’Olimpo del bel canto, diventando i cantanti più famosi di quell’era, le prime vere e proprie superstar internazionali. Erano forse i performer più virtuosi mai sentiti sulla faccia della Terra: i castrati.

Chi era il castrato? Il termine castrato indica un tipo di cantante, molto in voga nel panorama operistico del XVII e XVIII secolo, che, non avendo sviluppato alcun carattere sessuale a seguito di un’evirazione precoce, aveva i riflessi e la potenza di una voce adulta e il timbro di una laringe da bambino. Eseguita prima della pubertà, la soppressione (o piuttosto l’annullazione delle funzioni) dei testicoli comprometteva l’apparizione dei caratteri sessuali principali e, in particolare, arrestava lo sviluppo della laringe. Mentre il corpo del giovane castrato cresceva, la mancanza di testosterone non permetteva alle articolazioni di irrigidirsi, perciò gli arti degli eunuchi spesso erano anormalmente lunghi, come anche le costole della loro cassa toracica. Queste particolarità anatomiche, a cui si aggiunge un intenso allenamento musicale, permettevano loro di avere un’impareggiabile potenza di voce e capacità di respiro.

Ritratto di Carlo Maria Broschi, detto Farinelli, che fu tra i più celebri cantanti castrati; il dipinto fu eseguito dall’amico Jacopo Amigoni nel 1750 e si trova a Madrid nella Real Academia de Bellas Artes de San Fernando

I castrati erano raramente chiamati con questo nome: nel XVIII secolo, veniva utilizzato più generalmente l’eufemismo musico, sebbene il termine contenesse delle implicazioni denigratorie; un altro sinonimo usato era evirato. La denominazione eunuco, invece, aveva un’accezione più generale, visto che storicamente parlando gli eunuchi venivano castrati dopo la pubertà e perciò il processo di evirazione non aveva alcun effetto sulla loro voce, già cambiata nella muta adolescenziale.

Castrati a scopi musicali esistettero e furono presenti in cori vaticani fino al 1902. Dunque questo atto così invasivo dal nostro punto di vista è in realtà un atto usato ampiamente in passato e anche nel nostro paese. Noto di passaggio che l’articolo che ho citato sostiene che la castrazione fisica non obbligava la persona né ad una vita omosessuale come qualcuno pensa e nemmeno a non poter avere una normale vita sessuale, con persone dell’altro sesso; dunque perfino la castrazione fisica non impedisce, né vieta di provare desiderio sessuale per l’altro sesso e di realizzare tale desiderio.

Ma pochi sanno che la castrazione fisica è usata ancora oggi in Europa e in Occidente seppure con scopi affatto diversi.

Man mano che la cultura si sviluppava si è compreso che una azione del genere era inaccettabile eticamente; ma sono rimasti dei casi in cui essa è considerata possibile ed è di fatto attuata; nel lavoro citato nei riferimenti si dice:

Though its use has declined, surgical castration of sex offenders still occurs, including in the West. At present, voluntary surgical castration of sex offenders is legal in California, Florida, Iowa, Louisiana, and Texas (del Busto and Harlow 2011). In Europe, it has remained in limited use in Germany and more widespread use in the Czech Republic, where, between 2001 and 2006, more than 50 sex offenders underwent surgical castration (European Committee for the Prevention of Torture 2009).

Dunque la castrazione fisica è ancora usata ma come mezzo di difesa sociale contro coloro che mostrino comportamenti sessualmente aggressivi nei confronti di minori o in genere (questo il senso di sex offender).

Con lo sviluppo delle conoscenze mediche e biologiche si è capito che si potevano trovare alternative a questo tipo di strategia; e lo si è fatto in passato anche recente per motivi che oggi considereremmo assolutamente abietti.

Basti ricordare il caso di Alain Turing.

Turing è stato uno dei maggiori scienziati nel campo dell’informatica, e probabilmente il più grande informatico moderno ed uno dei maggiori matematici del 900; potete leggere un mio breve articolo di qualche anno comparso su XlaTangente, in cui insieme al collega Stefano Siboni avevo cercato di raccontare i rapporti fra Turing, la matematica e la chimica: http://www.xlatangente.it/upload/files/margheritesito.pdf

Turing era omosessuale; era anche un genio matematico che contribuì in modo determinante alla vittoria alleata nella 2 guerra mondiale scoprendo il meccanismo di funzionamento di Enigma, la macchina tedesca che cifrava i messaggi usati per dare ordini all’armata tedesca. Dopo aver contribuito in segreto alla vittoria, qualche anno dopo, fu accusato di omosessualità, considerata un reato nell’Inghilterra postbellica. Fu costretto a scegliere tra una pena a due anni di carcere o la castrazione chimica mediante assunzione di estrogeni. Per non finire in prigione, lo scienziato optò per la seconda alternativa. Per oltre un anno si sottopose a trattamenti che provocarono in lui un calo della libido e lo sviluppo del seno (ginecomastia). La depressione legata al trattamento e all’umiliazione subita fu, a parere di molti storici, il motivo che lo condusse, il 7 giugno 1954, al suicidio.

E veniamo alla castrazione chimica, considerata oggi.

E’ un argomento ampio e complesso anche perchè sconfina con il controllo riproduttivo più in generale.

Anzitutto diciamo che interventi che impediscano la procreazione degli animali compresa la specie umana attraverso l’uso di sostanze apposite ce ne sono; da questo punto di vista anche l’uso della pillola anticoncezionale femminile entra in questa definizione. Ci sono sostanze che inibiscono parti del processo di riproduzione sia nel maschio che nella femmina; nella femmina inibiscono per esempio l’attaccamento dell’ovulo fecondato ai tessuti appositi, nel maschio invece abbassano il tasso di uno degli ormoni chiave che controlla la risposta sessuale, il testosterone e dunque inibiscono all’origine il desiderio sessuale; si tratta sempre di trattamenti reversibili; nel maschio di cane per esempio l’iniezione dura sei mesi, poi bisogna ripeterla e costa quanto una “castrazione fisica”.

Ma cosa avviene nella specie umana?

Qui il discorso cambia perchè la castrazione chimica a differenza del semplice controllo riproduttivo è inteso come un trattamento con sostanze di sintesi che inibisca NON la capacità riproduttiva, che anzi rimane, ma che controlli il desiderio sessuale e la sua messa in atto nei confronti specialmente di persone che per la loro condizione (minori o donne o perfino maschi in alcune circostanze) non riescano a difendersi da atti sessuali indesiderati.

Abbiamo già notato che perfino la castrazione fisica non impedisce necessariamente il desiderio e la sua attuazione, ma in effetti impedisce la sola riproduzione; e questo limite si accompagna anche alle procedure che usano inibitori di sintesi del comportamento sessuale.

Nella situazione più comune si desidera controllare la riproduzione umana senza conseguenze sul desiderio sia nell’uomo che nella donna; sappiamo che nella donna la sintesi chimica ha ottenuto il risultato perfetto con la cosiddetta “pillola”; la pillola nell’uomo, il “pillolo” viceversa che disgiunga la capacità riproduttiva dal desiderio non è ancora in commercio, ma si prova a sintetizzarlo; al contrario esistono prodotti che inducono e mantengono l’erezione, dunque una sorta di sottoprodotto del desiderio a qualunque età.

Qua invece stiamo parlando di una cosa ancora diversa: eliminare il solo desiderio ed in modo certo essenzialmente nell’uomo.

Il risultato, benchè largamente imperfetto può essere raggiunto usando vari tipi di molecole come

– dal 1960 medrossiprogesterone acetato (MPA) o ciproterone acetato (CPA), con MPA usato negli USA e il CPA in Europa, Medio oriente e Canadà; entrambi hanno potenti effetti collaterali ed uno è sospettato di essere cancerogeno.

Ciproterone acetato

Medrossiprogesterone acetato

Dal 1980 si è aggiunta la classe degli SSRI (selective serotonin reuptake inhibitors). Usati inizialmente nel trattare la depressione possono essere usati anche nei casi più lievi di sex offenders.

Paroxetina

Ed infine ci sono nuovi agenti ormonali—gonadotrophin-releasing hormone (GnRH) agonists—usati essenzialmente nel cancro della prostata ma che riducono fortemente il livello di testosterone e possono essere usati nella diminuzione reversibile dell’aggressività sessuale nei soggetti responsabili di questi comportamenti.

Nafarelina

Ci sono però almeno due considerazioni:

  • queste sostanze come tutte le medicine non sono onnipotenti, ossia sono efficaci solo in un certo numero di casi, devono essere somministrate in continuazione e secondo la maggioranza dei medici usate INSIEME ad un trattamento psicologico, ad un controllo continuo del comportamento effettivo della persona poichè potrebbero anche fallire sia pure in una percentuale ridotta di casi;
  • inoltre come tutte le medicine hanno effetti collaterali anche gravi e significativi di vario genere; per esempio riguardo la struttura ossea ma anche la circolazione sanguigna, dati gli effetti molteplici del testosterone

In conclusione il trattamento denominato “castrazione chimica” non è una soluzione perfetta, ha un costo di gestione e non può essere usato da solo oltre a poter indurre effetti collaterali indesiderati che pongono vari problemi etici.

Io non esprimo un giudizio sul tema, ma penso che sarebbe utile che quando si chiede il giudizio alle persone (come ha fatto SGW) sarebbe il caso che le persone siano informate con precisione dei problemi; e lasciatemi dubitare che questo sia vero per la maggioranza della popolazione italiana per la quale la chimica oscilla fra la nemica perenne e la pillola magica, immagini entrambe completamente sbagliate. E’ forse il caso che noi si contribuisca almeno ad informare la popolazione.

Riferimenti

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3824348/

 

http://www.psicologiagiuridica.com/pub/docs/numero_14/articoli/la%20castrazione%20chimica%20-%20Annamaria%20Faraudo.pdf

 

Le prime molecole dell’universo finalmente trovate nello spazio

In evidenza

Rinaldo Cervellati.

Il titolo che abbiamo usato è il titolo sensazionale con cui Sam Lemonik annuncia, nel numero del 17 aprile di Chemistry & Engineering newsletter, la scoperta della molecola-ione HeH+ nel mezzo interstellare della nebulosa planetaria[1] NGC 7027, situata a circa 3000 anni luce dalla Terra. La luce di questa “piccola” nebulosa (dimensioni 0.1x 0.2 anni luce)[2] è visibile puntando un telescopio (di almeno 120-150 mm di apertura) verso la costellazione del Cigno, 5° a sud-ovest di Deneb, la stella più brillante del Cigno.

A sinistra: NGC 7027 a forte ingrandimento; a destra: la stessa al telescopio120-150 mm

L’osservazione della molecola-ione HeH+, a lungo cercata, può migliorare i modelli astrochimici dell’universo.

Si ritiene che circa 380.000 anni dopo il Big Bang, il plasma che formava l’universo primordiale si raffreddò abbastanza da permettere ai nuclei e agli elettroni di iniziare a combinarsi. L’elio fu il primo atomo a formarsi e i suoi atomi si unirono abbastanza presto con i protoni (nuclei di idrogeno) per formare la prima molecola-ione dell’universo, l’idruro di elio (HeH+).

L’idruro di elio HeH+ fu sintetizzato dai chimici in laboratorio già nel 1925, ma fu solo negli anni ’70 del secolo scorso che gli scienziati suggerirono che potesse trovarsi nel mezzo interstellare dello spazio. Quattro decenni dopo, un gruppo internazionale di astrofisici, coordinato dal Dr. Rolf Güsten riporta di averlo finalmente osservato nella nebula NGC 7027 (R. Güsten et al., Astrophysical detection of the helium hydride ion HeH+, Nature, 2019, DOI: 10.1038/s41586-019-1090-x).

Rolf Güsten

L’incapacità di individuare HeH+ era stata un vero grattacapo per il fisico dell’Università della Georgia Phillip Stancil, uno degli autori di un articolo del 2002 in cui, sulla base di calcoli basati su dati combinati di fisica atomica e molecolare e di astrofisica, veniva prevista HeH+ come prima molecola-ione formatasi nell’universo[3] [1].

Phillip Stancil

Stancil affermò che non si potevano sostenere modelli astrochimici senza riscontri sperimentali su HeH+. Ora, dice, finalmente si può.

Rolf Güsten e collaboratori hanno identificato una linea spettrale caratteristica di HeH+ nelle osservazioni della nebulosa planetaria NGC 7027, uno dei luoghi in cui era probabilmente ritenuta possibile l’esistenza di HeH+. Per l’esattezza è stata identificata la transizione rotazionale J = 1−0 dello stato fondamentale della molecola-ione a 149,137 μm. (2.01018 THz).

Alcuni fattori hanno ostacolato i precedenti tentativi di osservare HeH+, il primo dei quali è la sua relativa scarsità. Una transizione del legame carbonio-idrogeno a 149,09 μm maschera spesso questo segnale, oscurato anche dall’acqua e da altre molecole nell’atmosfera terrestre, rendendo improbabili le osservazioni dalla Terra.

Nell’ambito del progetto SOFIA (Stratospheric Observatory for Infrared Astronomy) dell’ente spaziale americano NASA, i ricercatori coordinati da Rolf Güsten hanno montato su un Boeing 747SP opportunamente modificato, il recente spettrometro eterodina GREAT (German Receiver for Astronomy at Terahertz Frequencies). L’aereo vola nella stratosfera, che blocca il 99% delle radiazioni infrarosse dalla Terra all’atmosfera, a un’altitudine fra 11000 e 14000 metri.

Il Boeing 747SP di SOFIA mentre vola sopra le montagne della Sierra Nevada. Notare la porta del vano per il GREAT

Lo spettrometro GREAT confronta la luce in ingresso con una luce di riferimento, una tecnica che ne aumenta la sensibilità. I ricercatori sono stati così in grado di distinguere la frequenza della transizione di HeH+ da quella del legame C-H.

“È stata una lunga ricerca”, afferma Jérôme Loreau, un fisico che ha sviluppato modelli di come HeH+ e altre molecole si siano sviluppate nell’universo primordiale. Una delle ragioni per cui questa osservazione è interessante, dice, “è che c’è una discrepanza tra l’abbondanza prevista di HeH+ e l’abbondanza osservata”. Sulla base delle loro osservazioni, il gruppo di Güsten ha infatti calcolato un’abbondanza di HeH+ di un fattore 3 più elevata di quanto previsto dai modelli disponibili per le reazioni chimiche nello spazio.

Questa discrepanza indica margini di miglioramento nei modelli astrofisici, afferma Loreau: “Mi aspetto che i modelli dell’universo primitivo cambieranno”. Güsten è d’accordo.

Stancil è meno sicuro. Informa di aver già pianificato con un collega il ricalcolo della velocità di reazione per HeH+ alla luce di questo risultato. Ma sostiene che i calcoli di molti ricercatori richiedono molte assunzioni che potrebbero nascondere qualcosa che non è stata ancora pienamente compresa. Ciononostante, afferma che questa scoperta potrebbe stimolare nuovi modelli e lavori di laboratorio per migliorare la comprensione della chimica nello spazio e nell’universo primordiale.

Articolo tradotto e ampliato da c&en del 17 aprile 2018.

Bibliografia

[1] S. Lepp, P.C. Stancil, A. Dalgarno, Atomic and molecular processes in the early Universe, J. Phys. B: At. Mol. Opt. Phys., 2002, 35, R57–R80.

[1]Una nebulosa planetaria è un tipo di nebulosa a emissione costituita da un guscio di gas ionizzato in espansione, incandescente, espulso dalle stelle giganti rosse al termine delle loro vite. Il termine “planetarie” fu coniato dal loro scopritore, l’astronomo William Herschel (1738-1922), ma in realtà esse spesso contengono stelle ma non pianeti visibili. Successivamente fu dimostrato che queste nebulose erano “piccole” galassie.

[2] La dimensione tipica per una nebulosa planetaria è di 1 anno luce.

[3]La prima molecola neutra formatasi nell’universo è stata l’idrogeno molecolare H2 e rimane il più abbondante [1].

La tavola periodica sottosopra.

In evidenza

Claudio Della Volpe

Un recente articolo comparso su Nature Chemistry pone il problema di una ulteriore rivisitazione della Tavola periodica.

(Nature Chemistry | VOL 11 | MAY 2019 | 391–393 | http://www.nature.com/naturechemistry )

L’idea di base è che quando una persona guarda la Tavola non ne coglie subito la struttura e non ne riesce a coprire con un solo sguardo molti degli elementi; inoltre dato che l’idea che sta alla base alla tavola è quella del riempimento degli orbitali, l’aufbau, detto in tedesco, il riempimento di una cosa avviene dal basso verso l’alto; mentre l’attuale tavola è più una lista che si forma appunto scrivendo da sinistra a destra ma in direzione verticale opposta, cioè dall’alto verso il basso.

Dunque una tavola considerata come un contenitore da riempire di elettroni dal basso verso l’alto contro una tavola considerata come una lista e scritta invece dall’alto verso il basso. La tavola attuale è una lista; viene proposto un contenitore.

Contemporaneamente si pone anche il problema della posizione degli elementi di tipo f che vengono rappresentati separatamente; nella classica rappresentazione essi quasi scompaiono essendo elencati nella parte più bassa della Tavola, anzi al di sotto della Tavola, mentre in questo modo essi acquisterebbero una posizione centrale, il che non guasta pensando al ruolo che hanno in termini di tecnologia.

In alternativa, come mostrato qui sotto si può pensare ad una tavola extra-large che li mette nel posto a loro naturale, ma ovviamente a costo di avere bisogno di un foglio molto più largo che lungo.

L’articolo è supportato da una analisi basata su gruppi di persone a cui la proposta è stata fatta, sia fra gli specialisti che fra i non specialisti e sulle loro reazioni.

E’ una delle tante proposte che sarà dimenticata o invece che cambierà il nostro modo di vedere la tavola periodica?

A voi i commenti.

Cocaina e biodiversità

In evidenza

Mauro Icardi

In questi giorni, partendo dai quotidiani, del Regno Unito, ma ovviamente a seguire anche su quelli Italiani, si può leggere questa notizia.

https://www.repubblica.it/ambiente/2019/05/02/news/regno_unito_cocaina_e_ketamina_nei_gamberi-225322595/

Se si continuano le ricerche, si trovano rimandi a notizie dello stesso tenore che ogni tanto ritornano sulle pagine dei giornali. Nel corso degli ultimi anni con una allarmante frequenza. E si parla sempre di cocaina nei fiumi, ma anche dei residui di metaboliti di farmaci. Questi fenomeni entrano a far parte del vasto problema della diffusione nell’ambiente di prodotti di difficile, se non impossibile biodegradabilità con i processi biochimici di autodepurazione svolti da batteri o protozoi.

I ricercatori di varie istituzioni scientifiche europee hanno condotto negli anni diverse campagne di monitoraggio, in collaborazione con i gestori degli impianti di depurazione. Su questo blog ne abbiamo parlato, cercando di indicare le soluzioni tecniche praticabili, da adottarsi in tempi rapidi.

Una volta che la cocaina è stata assunta e assorbita dall’organismo, avviene una prima idrolisi del gruppo metilico con produzione di benzoilecgonina (principale metabolita) e metanolo. Una seconda idrolisi trasforma la benzoilecgonina in ecgonina ed acido benzoico. Quest’ultimo viene poi trasformato in acido ippurico. Parte della sostanza stupefacente viene invece escreta tal quale nelle urine. Il metabolismo porta sostanzialmente a rendere il farmaco idrofilo ai fini dell’escrezione ed avviene principalmente nel fegato, che sviluppa enzimi per questo scopo.

Uno studio condotto dai ricercatori dell’Università Federico II di Napoli, e pubblicato sulla rivista Science of the total environment ha voluto verificare gli effetti della cocaina sulle anguille.

150 anguille europee sono state poste in vasche che contenevano una concentrazione di 20ng/lt di cocaina per un tempo di 5 giorni. Sono state scelte le anguille perché essendo pesci con una forte componente di grassi sono, più soggette ai meccanismi di bioaccumulo di sostanze nocive.

I ricercatori hanno scoperto che la cocaina si era accumulata nel cervello, nelle branchie, nella pelle e soprattutto nei muscoli di questi pesci. Problemi che si sono verificati anche dopo un periodo di riabilitazione di 10 giorni, in cui i ricercatori hanno rimosso le anguille dall’acqua contaminata dalla cocaina.Lo studio ha anche evidenziato che la cocaina ha aumentato i livelli di cortisolo, un ormone dello stress che induce il consumo di grassi. Dato particolarmente preoccupante visto che le anguille hanno bisogno di accumulare grasso prima del loro lungo viaggio verso il Mar dei Sargassi. Inoltre, i ricercatori hanno notato gravi lesioni e rotture del tessuto muscolare, suggerendo quindi che la cocaina, a concentrazioni ambientali, potrebbe compromettere seriamente il nuoto di questi pesci.

Secondo lo studio, la cocaina sarebbe solo una parte del problema. Le acque dei fiumi, infatti, contengono anche residui di altre droghe, metalli pesanti, antibiotici e pesticidi.  Anna Capaldo, coordinatrice del progetto conclude con queste parole “Non sappiamo le possibili conseguenze di tali combinazioni di sostanze, ma è chiaro che potrebbero influenzare la sopravvivenza e lo stato di salute delle anguille” E conclude dicendo che, poiché è altamente improbabile che l’abuso di droghe diminuisca in tempi rapidi, il problema potrebbe essere risolto con trattamenti delle acque reflue molto più efficienti che impediscano a queste sostanze di raggiungere gli ecosistemi marini.

Dagli anni Ottanta ad oggi la popolazione di anguilla europea si sarebbe ridotta  del 99 per cento. Le cause principali sono ormai le solite, tristemente note e sottovalutate: cambiamenti climatici, inquinamento diffuso. Ora lo studio partenopeo (e anche quello britannico relativo ai fiumi inglesi), fa squillare un nuovo campanello d’allarme.

Mentre si deplora l’assassinio di massa perpetrato sugli animali marini grazie ai sacchetti di plastica, ecco la scomparsa programmata delle anguille e la contaminazione dei gamberi di fiume, dovuta alla moda dello “sniffo” diffusa ed ubiquitaria.

La biodiversità, la qualità delle acque sempre più minacciata dal più sciocco dei comportamenti umani. Cioè quello della superficialità, del consumismo, della moda e dell’accettazione sociale. Non ho mai voluto assumere atteggiamenti moralisti, e ancora oggi cerco di esserne scevro. Ma l’atteggiamento modaiolo relativo al consumo degli stupefacenti mi ha sempre fatto provare un certo fastidio.

Nell’Ottobre del 2017 seguii la conferenza di Marco Vincenti chimico dell’Università di Torino e del centro antidoping regionale della regione Piemonte. Il titolo era illuminante. “ Nuove droghe, istruzioni per il non uso”.

Una conoscenza dei meccanismi che concorrono all’intossicazione, all’instaurarsi dei fenomeni di dipendenza, e quindi di declino intellettuale e fisico dei consumatori di sostanze stupefacenti sarebbe utile.

Doveroso direi. Sono le conoscenze che servono. Non serve una mitizzazione dell’uso di droghe, cosa che constato quando sento parlare delle mirabolanti virtù di potenza sessuale che darebbe la cocaina. Non è certamente pensabile un calo del consumo di sostanze stupefacenti in tempi rapidi. Anna Capaldo dice una triste verità. Chi si occupa di gestione del ciclo idrico sta già affrontando il problema da anni, almeno a livello di presa di coscienza. Delle ricerche fatte in collaborazione con l’Istituto Mario Negri, ed eseguite sul depuratore di Varese ho già scritto. Delle conseguenze forse sarebbe il caso ci occupassimo tutti. Noi addetti, ma soprattutto noi persone. Cittadini, genitori. Se solo per una volta si desse retta alla chimica, alla tossicologia. Non al “pensiero magico” che pretenderebbe che il consumo di stupefacenti non dia conseguenze. Primo fra tutti il mito molto diffuso che la cocaina non dia assuefazione. E le stesse considerazioni valgono per l’uso smodato ed indiscriminato di farmaci. La qualità delle acque è sotto forte stress. Qualche volta il problema non è solo di altri. Spesso è anche nostro, di noi singoli. Delle resistenze ad assumere comportamenti semplicemente di buon senso. In ossequio ad una specie di epidemia di rifiuto collettivo della realtà. Di cui lo smodato uso di droghe, ma anche di alcol è il segnale più evidente.

Riferimenti.

https://www.sciencedirect.com/science/article/pii/S0048969718320084

Yvette Cauchois (1908 – 1999)

In evidenza

Rinaldo Cervellati

Yvette Cauchois è stata un chimico fisico francese, nota per i suoi fondamentali contributi in spettrografia a raggi X e pioniera europea nella ricerca con il sincrotrone.

Yvette nacque il 19 dicembre 1908 a Parigi, dove frequentò scuola primaria e liceo, dimostrando fin da bambina uno spiccato interesse per le scienze, in particolare fisica e chimica. Fu quindi ammessa all’Università della Sorbona, dove ottenne il baccalauréat (analogo all’inglese bachelor) in scienze fisiche nel 1928. Per proseguire gli studi vinse una borsa di ricerca che utilizzò nel Laboratorio di Chimica Fisica a quel tempo diretto da Jean Perrin[1].

Yvette Cauchois da giovane

Nel luglio del 1933, all’età di 24 anni, Yvette Cauchois discusse la tesi di dottorato dal titolo “Extension de la spectroscopie des rayons X. Spectrographe à focalisation par cristal courbé; spectre d’émission X des gaz”. Nel nuovo spettrografo a raggi X descritto nella tesi di Cauchois, i raggi X sono riflessi dalle facce di una lamina cristallina (mica o gesso) sagomata cilindricamente, per ottenere una forte luminosità: in queste condizioni la radiazione emessa da un’ampia sorgente si concentra in punti diversi del cilindro detto di focalizzazione quindi inviata al rilevatore.

Lo spettrometro di Cauchois ha il triplice vantaggio di essere estremamente luminoso, di avere una risoluzione elevata e di essere facile da maneggiare. Esso permette di ottenere fasci di raggi X intensi, monocromatici e convergenti da fasci incidenti a bassa risoluzione. Con questo spettrometro, Yvette Cauchois è la prima a osservare gli spettri di emissione di alcuni gas.

Presto i laboratori specializzati in Europa, Stati Uniti, Giappone e Australia cominciarono a usare questo spettrometro per studiare la struttura di solidi e gas ai raggi X, portando a un rapido sviluppo della fisica di questa radiazione. Ottenuto il dottorato, Cauchois divenne assistente ricercatore al CNRS (Centre National de la Recherche Scientifique), estendendo l’applicazione della spettroscopia a raggi X allo studio degli atomi, degli elementi radioattivi e della struttura elettronica dei solidi. Nel 1937 diventò responsabile di ricerca, l’anno successivo coordinatore dei lavori al Laboratorio di Chimica della Sorbona. Durante la seconda guerra mondiale fu incaricata dell’insegnamento di Chimica Fisica e responsabile della gestione dello stesso Laboratorio.

Yvette Cauchois

In tutto questo periodo pubblicò molti lavori di ricerca, i principali riportati in bibliografia [1- 4].

Ha determinato i livelli energetici di atomi e ioni provenienti dall’espulsione di elettroni di un guscio interno per provare l’esistenza di elementi rari come il polonio e l’astato e sviluppare la spettroscopia degli attinidi. Dopo essere diventata il capo del laboratorio di chimica fisica si concentrò sull’argomento dell’assorbimento ed emissione di raggi X nei solidi e degli effetti chimici sugli spettri di raggi X [5-9].

Nel 1945 divenne docente, poi professore nel 1951 e infine nel 1953 titolare della cattedra di Chimica fisica che fu di Jean Perrin.

Yvette Cauchois in laboratorio

In Europa, Cauchois fu la prima a utilizzare e sviluppare e sorgenti di luce di sincrotrone, prima ai Laboratori Nazionali di Frascati (Roma) dal 1963 al 1964, e nei primi anni ’70 alla LURE (Laboratorio per l’Uso della Radiazione Elettromagnetica) a Orsay, Francia [10].

Cauchois si interessò anche di raggi X extraterrestri. Il suo laboratorio di chimica fisica in collaborazione con astrofisici portò, nel 1970, all’ottenimento di immagini a raggi X del sole.

Cauchois ha dato importanti contributi alla produzione di fasci elettronici per studiarne l’interazione con la materia e alla ricerca sulla risonanza fluorescente nucleare. Sotto la sua guida, il Laboratorio di chimica fisica è stato, per molto tempo, l’unico centro francese impegnato nella ricerca di base in spettroscopia a raggi X.

Yvette Cauchois in età matura

Ha ideato un eccellente programma di insegnamento della chimica fisica moderna circondandosi di colleghi competenti in ogni disciplina che erano dispersi tra molti laboratori in Francia e all’estero. Quando negli anni ‘60 il laboratorio in Rue Pierre et Marie Curie a Parigi diventò troppo piccolo, fondò un Centro per la Chimica Fisica a Orsay, molto prima della fusione fra l’Université Pierre et Marie Curie (UPMC) e la Paris Sorbonne nella nuova Sorbonne Université di Parigi.

Dal 1978 fino al suo pensionamento nel 1983, Yvette Cauchois è stata professore emerito presso l’UPMC, continuando a fare ricerca fino al 1992, all’età di 83 anni. Nel corso della sua vita ha prodotto più di 200 pubblicazioni, alcune delle quali continuano a essere citate ancora oggi.

È stata la seconda donna, dopo Marie Curie, a diventare Presidente della Società Francese di Chimica Fisica.

Ha vinto numerosi premi nazionali e internazionali È stata insignita dell’Ordine della Legion d’Onore e Ufficiale dell’Ordine Nazionale del Merito. Medaglia d’oro dell’Università di Parigi nel 1987.

Yvette Cauchois non è stata solo una scienziata in un periodo in cui le donne trovavano molte difficoltà a impegnarsi in questo settore, essa mostrò grande interesse per giovani svantaggiati cui ha fornito aiuto emotivo e supporto materiale. Oltre alla scienza amava la musica (suonava il pianoforte a coda) e le arti.

Yvette Cauchois è morta a Parigi nel 1999 per bronchite contratta durante un viaggio al monastero di Bârsana (Romania), dove è stata sepolta.

Opere consultate

  1. Bonnelle, Yvette Cauchois, Physics Today, 2001,54(4) 88–89.

Quelques portraits Cauchois Yvette,

http://ww2.ac-poitiers.fr/sc_phys/spip.php?article42&debut_page=4

Yvette Cauchois 1908-1999

http://cwp.library.ucla.edu/Phase2/Cauchois,_Yvette@871234567.html

 

Bibliografia

[1] Y. Cauchois, Spectrographie des rayons X par transmission d’un faisceau non canalisé à travers un cristal courbé, Journal de Physique, 1932VII (3), 320; also ibid., 1933, 4, 61.

[2] Y. Cauchois, I. Manescu, Spectres d’absorption et niveaux caractéristiques de l’uranium, du platine, et du tungstene, Comptes Rendus, 1940210 (part 1), 172.

[3] Y. Cauchois, Les niveaux extérieurs des atomes lourds révélés par leurs spectres de rayons X de grande fréquence, Journal de Physique, 1942XIII (3), 5S.

[4] Y. Cauchois, Observations nouvelles sur les émissions X hor-diagramme, de la série L – Application à une première détermination expérimentale, par spectrographie cristalline, des états d’ionisation profonde multiple des atomes lourds Journal de Physique, 1944VIII (5), 1.

[5] Y. Cauchois, N.F. Mott The Interpretation of X-Ray Absorption Spectra of Solids, Philosophical Magazine, 1949, 40, 1260.

[6] Y. Cauchois, Sur la formation d’images avec les rayons X, Revue d’optique, 1950,  29, 151.

[7] Y. Cauchois, The L Spectra of Nickel and Copper, Philosphical Magazine, 195344, 173.

[8] Y. Cauchois, Les niveaux d’énergie des atomes lourds, Journal de Physique, 1953, 13, 113 .

[9] Y. Cauchois, Les niveaux d’énergie des atomes de numéro atomique inférieure à 70, Journal de Physique, 1955, 16, 233.

[10] Y. Cauchois, C. Bonnelle, G. Missoni, Premiers spectres X du synchrotron de Frascati, Comptes Rendus de l’Académie de Sciences, 1963, 257, 409.

[1] Jean Baptiste Perrin (1870-1942) è stato un fisico francese. Iniziò la carriera scientifica studiando i raggi catodici e i raggi X. Nel 1897 gli fu affidato l’incarico di lettore di chimica fisica alla Sorbona. Divenne professore di quell’università nel 1910 mantenendo questo ruolo fino a dopo l’occupazione tedesca. Nel 1942 si trasferì negli USA. Determinò la costante di Avogadro. Il suo libro più noto, Les atomes (1912), è stato tradotto anche in italiano: Gli atomi, Editori Riuniti, Roma, 1981. Premio Nobel per la fisica 1926 “per il suo lavoro sulla struttura discontinua della materia, e specialmente per la sua scoperta dell’equilibrio di sedimentazione”.

Elementi della Tavola Periodica: Radon, Rn

In evidenza

 

Alessandro Del Zotto*.

Caratteristiche fisiche e chimiche del radon

 Il radon è un gas radioattivo, incolore e inodore, prodotto dal decadimento a del radio, presente in quantità più o meno elevata, ma comunque ubiquitario, nella crosta terrestre. Il radio, a sua volta, proviene dall’uranio o dal torio, due dei più importanti radionuclidi primordiali.

Del radon si conoscono 26 isotopi che vanno dal 199Rn al 226Rn, solo tre dei quali sono però presenti in natura:

  • il 219Rn (o actinon) appartiene alla famiglia radioattiva che ha come progenitore l’235U (0.72% di abbondanza relativa, t1/2 = 04.108 anni). La scarsa abbondanza relativa del 219Rn, assieme al brevissimo tempo di dimezzamento (ca. 4 s) ne determina il basso o quasi nullo impatto a livello ambientale
  • il 220Rn (o thoron) appartiene alla famiglia radioattiva del torio. L’abbondanza relativa del 232Th nella crosta terrestre è alta ma il breve tempo di dimezzamento del 220Rn (61 secondi) ne limita fortemente la diffusione in ambiente. La sua concentrazione può raggiungere livelli apprezzabili solo in prossimità dei materiali da cui viene prodotto
  • il 222Rn (o radon propriamente detto) appartiene alla famiglia radioattiva dell’238 L’elevata abbondanza relativa di tale capostipite (99.28%), associata al relativamente lungo tempo di dimezzamento del 222Rn (3.82 giorni), rende tale radionuclide abbondante in natura e facilmente misurabile.

Tutti e tre gli isotopi naturali del radon decadono, emettendo particelle a, e producono “discendenti” radioattivi a vita breve. Questi ultimi, a loro volta, decadono emettendo radiazioni a o β⁻ accompagnate da emissione di fotoni γ. Tutte e tre le catene di decadimento terminano con un isotopo stabile del piombo: rispettivamente il 207Pb per la serie radioattiva dell’235U, il 208Pb per la serie radioattiva del torio e il 206Pb per la serie radioattiva dell’238U. Va precisato che gli isotopi del radon sono gli unici elementi delle tre serie radioattive a essere gassosi, tutti gli altri elementi sono solidi metallici.

Per le caratteristiche sopra menzionate, la famiglia radioattiva di maggior interesse radioprotezionistico è quella dell’238U. Nel seguito, pertanto, con il termine radon si intenderà unicamente l’isotopo 222Rn.

Chimicamente il radon è uno dei gas nobili, gruppo a cui appartengono elio (He), neon (Ne), argon (Ar), kripton (Kr) e xeno (Xe), e come essi presenta gli orbitali atomici esterni completamente riempiti. Date queste caratteristiche, il radon risulta essere relativamente inerte, ossia è coinvolto soltanto in deboli interazioni dovute alle forze di van der Waals. Tale proprietà gli conferisce la capacità di migrare liberamente nel suolo una volta raggiunti gli spazi interstiziali. A questo punto è facilmente trasportabile nell’aria e nell’acqua e quindi può raggiungere velocemente (relativamente al suo tempo di dimezzamento) gli edifici prima di decadere. Rispetto agli altri gas nobili, esso risulta essere il più pesante (ca. 8 volte più denso dell’aria) e inoltre possiede il punto di ebollizione, il punto di fusione, la temperatura critica e la pressione critica più elevati. È solo moderatamente solubile in acqua. A una temperatura di 20 °C il coefficiente di solubilità è 0.250: ciò significa che il radon si distribuisce preferibilmente in aria piuttosto che in acqua. Il radon, infatti, fuoriesce facilmente dall’acqua facendovi gorgogliare dell’aria, oppure semplicemente agitandola vigorosamente o riscaldandola. Anche nel caso di una sorgente dove l’acqua scaturisce dalla roccia, la maggior parte del radon si volatilizza velocemente. Il coefficiente di solubilità, inoltre, aumenta all’abbassarsi della temperatura, il che gli consente, se le condizioni sono favorevoli, di allontanarsi anche di molto dal luogo in cui è stato generato.

Principali caratteristiche chimico-fisiche del 222Rn: numero atomico, 86; massa atomica, 222.02 u.m.a.; nucleo genitore, 226Ra; nucleo figlio, 218Po; densità a 0 °C e 1 atm, 9.72 g/l; coefficiente di solubilità in acqua, 0.570 (0 °C), 0.250 (20 °C), 0.106 (100 °C); temperatura di fusione, -71.0 °C; temperatura di ebollizione, -61.8 °C; energia del decadimento a, 5.5 MeV.

L’unità di misura della concentrazione di radon in aria, secondo il Sistema Internazionale delle Unità di Misura è il Bq/m3 (Becquerel per metro cubo) che rappresenta il numero di disintegrazioni nucleari che avvengono in un secondo in un metro cubo d’aria. Quindi, a esempio, una concentrazione di 100 Bq/m3 indica che, in un metro cubo di aria, ogni secondo, 100 atomi di radon decadono emettendo radiazioni. È stata utilizzata in passato l’unità di misura picoCurie per litro (pCi/L), equivalente a 37 Bq/m3, che ancora oggi trova impiego nei paesi anglosassoni.

Cenni storici

Nel sedicesimo secolo Paracelso aveva notato l’alta mortalità dovuta a malattie polmonari tra i lavoratori delle miniere sotterranee di Schneeberg, in Sassonia (Germania). Tali malattie, da lui etichettate come “mala metallorum”, sono oggi conosciute con il termine di Schneeberg lungenkrankheit, cioè malattia al polmone di Schneeberg. La presenza di questa malattia, nei due secoli successivi, andò intensificandosi con l’intensificarsi dello sfruttamento delle miniere di argento, rame e cobalto ma solo nel 1879 fu riconosciuta da Haerting e Hesse come cancro ai polmoni. I due studiosi riferiscono che in quel periodo il 75% dei minatori della regione di Schneeberg moriva di cancro polmonare.

Si riteneva che tale patologia fosse causata dall’inalazione di polveri minerarie contenenti metalli tossici e che, tra le cause che contribuivano alla cancerogenesi, si dovessero includere anche malattie tubercolari e la presenza di arsenico nelle polveri.

Nel 1901, a seguito di una serie di misurazioni, venne rilevata una significativa concentrazione di gas radon nelle miniere di Schneeberg e di altre regioni, pertanto si cominciò a ipotizzare una correlazione tra questo gas e il cancro polmonare. Questa ipotesi fu rafforzata da più accurate misure compiute nel 1920 nelle miniere di Schneeberg e in altre, in particolare quelle di Jachymov in Boemia. Comunque, il ruolo del radon come fattore causale non venne generalmente riconosciuto.

In Germania fu avviato un programma di ricerca nel 1936 da Rajewsky che comprese sia misurazioni nelle miniere di Schneeberg che misure di attività a in campioni di tessuto e analisi istologiche sui tessuti polmonari di minatori deceduti per cancro polmonare. Sulla base dei risultati di queste indagini e di studi biologici di supporto, si concluse che nelle miniere di Schneeberg l’inalazione di radon era il fattore causale dell’elevata frequenza di tumore polmonare tra i minatori.

Nonostante questi importanti risultati, quando cominciò nel 1940 l’estrazione intensiva e il trattamento dell’uranio a scopi militari, si prestò scarsa attenzione alla protezione della salute dei lavoratori. Si pensava, infatti, che rispetto alle vecchie miniere la concentrazione di radon fosse sensibilmente più bassa, e, pertanto, i livelli di radon iniziarono a essere misurati regolarmente solo dal 1950.

Nel contempo procedevano gli studi dosimetrici e le ricerche biologiche sui possibili effetti dell’esposizione al radon. Fu Bale, nel 1951, a individuare nei prodotti di decadimento del radon i principali responsabili dell’induzione del tumore al polmone, dato che la dose di radiazioni dovuta a questi prodotti, presenti nell’aria assieme al genitore, superava di gran lunga la dose dovuta al radon e ai discendenti che si formano mentre il radon si trova nei bronchi.

In seguito a questa scoperta, le prime valutazioni di esposizione dei minatori al radon e ai suoi “figli”, condotte in USA e Canada, indicavano come il rischio di un’aumentata incidenza del tumore polmonare nei soggetti esposti fosse concreta.

In ogni caso, si riteneva ancora un problema specifico ristretto a determinati luoghi di lavoro, come le miniere, e quindi in funzione della tipologia di attività estrattiva e delle caratteristiche condizioni ambientali in cui i minatori lavoravano con ritmi fisiologici e respiratori particolari. La possibile influenza del radon sul rischio di tumore polmonare per la popolazione, infatti, fu scoperta molto più recentemente.

Solo negli anni 50 in Svezia fu pubblicato un primo studio di misure indoor, relativo a 225 abitazioni di tale nazione che riportò alti livelli di radon nelle case costruite con un calcestruzzo ad alto contenuto di radio. A questa scoperta, tuttavia, venne data scarsa risonanza internazionale, in quanto si ritenne un problema limitato unicamente al contesto svedese. Solo diversi anni più tardi, in molti paesi si svolsero indagini più ampie (risultati riportati nei rapporti UNSCEAR 1977, 1982, 1988 e 1993) che mostrarono, oltre a un’elevata variabilità nei valori di radon all’interno delle abitazioni, che il principale contributo degli alti livelli del gas era fornito dal sottosuolo e non dai materiali di costruzione.

Nel 1988 l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) dell’Organizzazione Mondiale della Sanità (World Health Organization, WHO) ha riconosciuto l’attività cancerogena del radon, inserendolo tra i cancerogeni di gruppo 1, cioè tra quelle sostanze che, sulla base di studi condotti sugli esseri umani, evidenziano un effetto cancerogeno certo (a oggi tale lista elenca ca. 120 sostanze). Anche la Commissione Internazionale per la Protezione Radiologica (ICRP) sottolineò la vastità del problema per la salute pubblica indicando specifiche raccomandazioni nella pubblicazione numero 65 del 1993.

Più recentemente, nel 2009, l’Organizzazione Mondiale della Sanità nell’ambito del progetto “International Radon Project” ha identificato il radon come seconda causa di cancro al polmone dopo il fumo.

Dosimetri per radon a elettrete (in alto) e CR-39 (in basso)

Effetti sanitari del radon

All’interno degli edifici il radon, grazie all’elevata mobilità, si distribuisce rapidamente in tutto l’ambiente in modo piuttosto uniforme. Essendo un gas inerte non reagisce chimicamente, per cui, una volta inalato, è facilmente esalato dall’organismo stesso e quindi, da un punto di vista sanitario, non dovrebbe risultare pericoloso.

In aria, però, decade in altri nuclei radioattivi, i suoi figli, che sono invece chimicamente reattivi e hanno dei tempi di dimezzamento brevi, minori di 30 minuti. Una volta formatisi, questi rimangono in parte liberi o associati in cluster, cioè agglomerati di particelle con diametro inferiore a 1 nm, e in parte si associano al particolato atmosferico, depositandosi sulle superfici (effetto plate-out) o rimanendo sospesi in aria. La parte che non si fissa sul particolato è definita frazione non attaccata o libera mentre quella che si fissa viene definita frazione attaccata. I prodotti di decadimento che rimangono sospesi in aria (frazione non attaccata e frazione attaccata non depositata) possono essere inalati. Peraltro, i sistemi di filtraggio interni dell’apparato respiratorio non sono in grado di bloccare le particelle più piccole che quindi aderiscono alle superfici dei tessuti dell’apparato respiratorio. I prodotti di decadimento, a loro volta, continuano a decadere emettendo radiazioni di tipo a che possono danneggiare le cellule dell’apparato polmonare in modo irreversibile.

Il passaggio di una particella a attraverso il nucleo della cellula può causare un serio danneggiamento del DNA della cellula stessa. Nella maggior parte dei casi tali danni sono riparati da appositi meccanismi cellulari, ma si possono anche sviluppare mutazioni in grado di dare origine a un processo di formazione di cellule cancerogene. Il principale effetto sanitario dei prodotti di decadimento del radon è, quindi, un aumento di rischio di tumore polmonare. La probabilità di contrarre il tumore polmonare è proporzionale alla concentrazione di radon, al tempo trascorso nei vari ambienti di vita, nonché al consumo di tabacco. Per persone esposte al radon per circa 30 anni, l’analisi degli studi epidemiologici effettuati in 11 Paesi europei, tra cui l’Italia, ha evidenziato un aumento di rischio del 16% ogni 100 Bq/m3 di concentrazione di radon. Quindi il rischio raddoppia per un’esposizione di circa 30 anni a una concentrazione di circa 600 Bq/m3.

L’associazione tra esposizione al radon e fumo di tabacco crea un effetto sinergico in base al quale, a parità di esposizione al radon, il conseguente rischio assoluto per un fumatore di contrarre un tumore polmonare risulta molto superiore di quello di un non fumatore. Il rischio cumulativo assoluto, stimato all’età di 75 anni per una esposizione al radon per tutta la vita è riportato nella Figura seguente.

Percentuale di rischio cumulativo assoluto di tumore al polmone per non fumatori (verde) e fumatori (blu), stimato all’età di 75 anni, per una esposizione al radon per tutta la vita in funzione della concentrazione di radon (Bq/m3).

Si tratta pertanto, nei fumatori, di un valore circa 25 volte più elevato. Ciò conferma l’importanza di ridurre quanto più possibile l’abitudine al fumo, obiettivo supportato anche dall’EPA (Environmental Protection Agency) attraverso il Citizen’s guide to radon. Negli ultimi anni l’utilizzo della sigaretta elettronica, quale alternativa più salutare rispetto a quella tradizionale, sta diventando sempre più diffuso. Tuttavia, l’impatto della sigaretta elettronica sulla qualità dell’aria interna è stato studiato solo di recente. Secondo uno studio del 2015, condotto dall’Università degli studi di Cassino e del Lazio Meridionale in collaborazione con il National Institute of Ionizing Radiation Metrology, l’aerosol prodotto dalla sigaretta elettronica funziona come vettore dei figli del radon e, di conseguenza, esiste la stessa correlazione dimostrata per il radon e il fumo di sigaretta.

In Italia il numero di casi di tumore polmonare attribuibili all’esposizione al radon, stimati dall’Istituto Superiore di Sanità (ISS), è compreso tra 1.500 e 5.500 ogni anno (su un totale di circa 31.000), la maggior parte dei quali tra i fumatori a causa dell’effetto sinergico tra radon e fumo di sigaretta.

È importante sottolineare che non esiste una concentrazione di radon al di sotto della quale l’esposizione non comporti rischi. Per tale motivo, molte organizzazioni scientifiche internazionali, quali l’OMS, la Comunità Europea e i singoli Paesi, hanno fissato dei cosiddetti livelli di azione, ossia dei valori di concentrazione di radon superati i quali raccomandare o imporre azioni di rimedio per ridurne la concentrazione. Sotto questi livelli, invece, il rischio è considerato accettabile.

I riferimenti normativi

Tutta la normativa in materia di radon indoor ha come caratteristica generale quella di fissare dei livelli di azione. Attualmente, il concetto di livello di azione è stato sostituito da quello di livello di riferimento che, come vedremo in seguito, assume un significato diverso e ben preciso.

Nella maggior parte dei paesi europei, compresa l’Italia, esiste una distinzione per il tipo di normativa proposta tra ambienti di lavoro e ambienti residenziali (abitazioni). Il principale motivo di questa differenza deriva dal numero di ore che si trascorrono in tali ambienti.

Ambienti residenziali

In Italia non esiste ancora una normativa nazionale o regionale che fissi un limite di legge per gli ambienti residenziali.

Per molti anni si è fatto riferimento alla Raccomandazione Euratom 143/90 “Sulla tutela della popolazione contro l’esposizione al radon in ambienti chiusi” della Commissione Europea, emanata il 21 febbraio 1990. In tale Raccomandazione è consigliata per gli edifici residenziali, una soglia di intervento pari a 400 Bq/m3 per gli edifici esistenti, e pari a 200 Bq/m3 per gli edifici di nuova costruzione. Le soglie di intervento vanno intese come valori medi annui di concentrazione di radon. In caso di superamento di tali valori, si raccomanda di adottare provvedimenti semplici ma efficaci volti a ridurre il livello di radon.

Successivamente, nel 2009, il WHO ha pubblicato un documento di riferimento internazionale per la valutazione e la gestione del rischio radon negli ambienti confinati (WHO Handbook on Indoor Radon: A Public Health Perspective), nel quale, sulla base delle stime di rischio derivate da più recenti studi epidemiologici, si raccomanda per le abitazioni un livello di riferimento di 100 Bq/m3 o, nel caso di Paesi per i quali le condizioni esistenti non consentono il rispetto di questo valore, di 300 Bq/m3.

Il 17 Gennaio 2014 è stata pubblicata la nuova Direttiva della Comunità Europea “Direttiva 2013/59/Euratom” che stabilisce le norme fondamentali di sicurezza relative alla protezione contro i pericoli derivanti dall’esposizione alle radiazioni ionizzanti. L’articolo 74 richiede agli Stati membri di stabilire livelli di riferimento nazionali, per la media annua della concentrazione di radon in aria, non superiori a 300 Bq/m3 per tutti gli ambienti chiusi, incluse le abitazioni. La direttiva parla di livelli di riferimento e quindi l’ottimizzazione della protezione riguarda sia le esposizioni al di sopra del livello di riferimento sia al di sotto di detto livello. Questa è la differenza fondamentale rispetto al precedente concetto di livello di azione. Gli stati dovranno inoltre promuovere interventi volti ad individuare le abitazioni che presentano concentrazioni di radon superiori al livello di riferimento e, se del caso, incoraggiano misure di riduzione della concentrazione di radon in tali abitazioni. L’articolo 103 richiede agli Stati Membri di definire un piano d’azione nazionale che affronta i rischi di lungo termine dovuti alle esposizioni al radon nelle abitazioni, negli edifici pubblici e nei luoghi di lavoro per qualsiasi fonte di radon, sia essa il suolo, i materiali da costruzione o l’acqua. Lo stesso articolo, al punto 3, impone agli Stati Membri di individuare le zone in cui si prevede che la concentrazione di radon superi il pertinente livello di riferimento nazionale in un numero significativo di edifici.

La Direttiva 2013/59/Euratom, seppur di notevole impatto per la protezione delle abitazioni dal radon, non è stata recepita nel nostro Paese entro il termine previsto (6 febbraio 2018). Diverse autorità sottolineano l’importanza e l’urgenza del recepimento al fine di garantire la protezione della popolazione negli ambienti residenziali.

Ambienti di lavoro

A differenza di quanto accade per le abitazioni, allo scopo di tutelare i lavoratori e la popolazione dall’esposizione al radon negli ambienti di lavoro in Italia si dispone di una normativa specifica, il Decreto Legislativo n° 241 del 26 maggio 2000. Tale decreto recepisce le direttive 89/618/Euratom, 90/641/Euratom, 92/3/Euratom e 96/29/Euratom, e modifica i precedenti decreti 230/95 e 187/00.

Questa norma definisce come campo di applicazione particolari luoghi quali tunnel, sottovie, catacombe, grotte, terme e tutti i luoghi di lavoro interrati (art. 10-bis, comma 1). Nel decreto è imposta l’obbligatorietà delle misurazioni di radon indoor nei luoghi di lavoro suddetti entro 24 mesi dall’inizio dell’attività. Viene fissato un livello di azione oltre il quale il datore di lavoro deve attuare particolari adempimenti, a esempio notifiche a pubbliche amministrazioni e, in particolare, una valutazione della dose efficace. Tale livello è espresso come concentrazione media annua di radon in aria e corrisponde a 500 Bq/m3. Nel caso in cui la dose efficace superi il valore di 3 mSv/anno, il datore di lavoro ha l’obbligo di ridurre la concentrazione di radon o la dose efficace al di sotto dei valori sopra riportati.

Il datore di lavoro non è tenuto alle azioni di rimedio se dimostra, avvalendosi di un esperto, che nessun lavoratore è esposto a una dose superiore a 3 mSv/anno; questa disposizione non si applica per gli esercenti di asili nido, scuola materna e scuola dell’obbligo, per i quali rimane il limite di 500 Bq/m3 (art. 10-quinquies, comma 5).

Il decreto prevede, inoltre, che le regioni e le province autonome individuino le zone o i luoghi di lavoro con caratteristiche determinate a elevata probabilità di alte concentrazioni di attività di radon, definite radon prone areas, secondo le modalità individuate da un’apposita commissione (non ancora istituita).

La Direttiva 2013/59/Euratom, come riportato sopra, riguarda tutti gli ambienti chiusi e, quindi, i luoghi di lavoro. Anche in questo caso, poiché introduce livelli di riferimento inferiori rispetto al D.lgs. 241/2000, risulta importante il suo recepimento nella normativa nazionale.

Il radon indoor in Italia

 

La distribuzione del radon indoor in Italia è parecchio disomogena, come si evince dalla mappa sotto riportata. La media nazionale si attesta attorno a 75 Bq/m3 (quella mondiale è molto più bassa, 48 Bq/m3). Vi sono quattro regioni (Lombardia, Lazio, Campania e Friuli Venezia Giulia) in cui il valore medio misurato si attesta intorno a 100 Bq/m3. Se per quanto concerne Lazio e Campania ciò viene giustificato in termini di elevata presenza nel sottosuolo di rocce ignee ricche di uranio, rimane ancora non del tutto compreso l’elevato valore di radon indoor nelle altre due regioni, nonostante i numerosi studi di tipo geologico effettuati nel tentativo di razionalizzare tale realtà. Una plausibile spiegazione per quanto concerne il Friuli Venezia Giulia sta nella possibile elevata fratturazione delle rocce presenti nel sottosuolo a causa della elevata sismicità. Per la Lombardia si è invece ipotizzata la cospicua presenza di sottosuolo caratterizzato da depositi alluvionali molto permeabili.

Mappa dei valori medi di radon indoor in Italia per singola regione o provincia autonoma

Va sottolineato il fatto che il contributo dato dalla composizione del sottosuolo al radon indoor è quasi totale (93-100%), i materiali da costruzione contribuiscono in percentuale molto bassa (0-5%), mentre l’apporto dato dall’acqua potabile è ancora minore (0-2%). I materiali da costruzione che possono dare un discreto apporto sono il tufo, la pozzolana, il granito e il porfido, per questa ragione il problema si pone prevalentemente nel centro-sud della nazione dove è più frequente l’uso di tali materiali in edilizia.

*Lavora presso il Dipartimento di Scienze AgroAlimentari, Ambientali e Animali (DI4A) dell’Università di Udine, dove Insegna “Chimica Generale e Inorganica” – laurea triennale in Scienze per l’Ambiente e la Natura; “Chimica Generale e Inorganica” – laurea triennale in Scienze Agrarie; “Inquinamento Chimico e Fisico dell’Atmosfera” – laurea magistrale in Analisi e Gestione dell’Ambiente.

Svolge attività di ricerca nel settore della chimica dei composti di coordinazione e sintesi di complessi di Ru, Os, Pd e Au e del loro impiego in catalisi omogenea.

E’ stato Presidente della Sezione Friuli Venezia Giulia della SCI nel triennio 2011-2013.

La lotta per ripulire il fiume Sarno.

In evidenza

Raffaele Attardi

Questo articolo sulla situazione del fiume Sarno, e sulla tutela della zona di Sorrento che proponiamo qui sul blog, è interessante per diverse ragioni. Il fiume Sarno è considerato tra i fiumi più inquinati d’Europa. E la storia del suo tentativo di risanamento, ricorda quelle che nel passato interessarono sia il Po, che altri tre fiumi divenuti tristemente famosi negli anni 70:Lambro,Seveso e Olona.

L’autore, partendo dalla descrizione storica della zona di Sarno e più in generale dell’area geografica di Sorrento, scrive un articolo che è un appello accorato perché si realizzino le opere e si sblocchino gli investimenti necessari. Questa vicenda ci fa capire anche come, ancora troppo spesso, a fronte di emergenze ambientali, si sprechino tempo e risorse economiche in un ginepraio di burocrazia, sovrapposizioni di enti preposti ad assumersi l’onere delle realizzazioni, e dell’esercizio di verifica e controllo. La creazione di aziende ad hoc, poi chiuse, l’intervento di un commissario regionale. Sono situazioni che anche in altre regioni si sono verificate, diverse nella forma ma non nella sostanza. Anche per collettare le acque reflue di Milano c’è voluto tempo. Nel 1998 le acque reflue di Milano non erano ancora depurate, e la situazione anomala era nota e conosciuta dagli anni 80. Dal 2003 entrò in funzione il primo lotto del depuratore di Nosedo, seguito poi da quelli di Milano San Rocco nel 2004 e quello di Peschiera Borromeo nel 2005.

L’autore, Raffaele Attardi chimico, fondatore del gruppo “La grande onda” cerca di indicare le soluzioni. Alcune di queste sono state oggetto di articoli che ho pubblicato su questo blog e che quindi mi trovano idealmente al fianco di chi le propone. Ma la cosa importante è la passione civile che lo muove. Le opere di costruzione del depuratore di Punta Gradelle durano da quarant’anni, e il depuratore di Solofra, che tratta reflui industriali, sembra non funzionare adeguatamente. E il gruppo “La grande onda” si gemella idealmente con quello “Amici dell’Olona” che allo stesso modo pungola e sprona una classe politica spesso distratta, e purtroppo non sempre cosciente del fatto che il problema acqua sia un problema che si risolve con atti concreti. Da parte di tutti. Quindi con la realizzazioni di sinergie tra enti, gestori del ciclo idrico, Università. Ma anche con la spinta dal basso, dai comitati di cittadini. Evitando quanto di più deleterio ci sia quando si parla di trattamento delle acque. La demagogia o la superficialità. Attivando un continuo dialogo con i cittadini, i quali a loro volta devono evitare comportamenti scorretti. La plastica che finisce nei fiumi o nei depuratori, per fare l’esempio più banale possibile, non vi è certamente arrivata da sola.

Quindi invito alla lettura con grande piacere, augurando all’autore e ai cittadini della zona, ma augurandomi io stesso che la situazione si sblocchi, e che il fiume Sarno inizi il percorso di risanamento.

La strada è iniziata nel 1976, dalla nascita della mai dimenticata legge Merli. Poi sono arrivati i recepimenti di normative europee (che per quanto si possa criticare l’unione europea sono state invece importanti per sbloccare un percorso che era lentissimo). Ma lo sforzo non è ancora totalmente compiuto. E’ stato fatto molto, ma ancora non tutto.

Buona lettura. Mauro Icardi.

 

Raffaele Attardi.

 

Sorrento ed il bacino del Sarno : due facce della stessa medaglia

Note a margine del Convegno sul disinquinamento organizzato da La Grande Onda e Lyons della penisola sorrentina tenutosi a Sant’Agnello il 29 marzo 2019.

  1. Premessa

La penisola sorrentina, la costa vesuviana ed il bacino del Sarno sono relativamente piccoli, ma il distretto nel quale sono inseriti ha una storia antica con insediamenti e memorie, lasciate da decine di civiltà che iniziano dalla preistoria, e che testimoniano la presenza degli Osci, degli Etruschi , dei Greci , dei   Romani, dei Longobardi e di tutte le diverse dinastie che hanno caratterizzato il Regno di Napoli, fino ai Borbone.

Ma soprattutto è così ricco di vicende umane , tradizioni , mestieri , religiosità e creazioni dell’ingegno , di biodiversità e prodotti agricoli che neanche il Nilo può reggere al suo confronto.

Tutto il distretto dovrebbe essere considerato patrimonio dell’umanità e invece si continua ad esaltare e sfruttare solo alcuni luoghi, peraltro bellissimi come Sorrento , la costiera Amalfitana Pompei   raggiungendo così il risultato di vederli consumati e aggrediti da un turismo di massa , che sta facendo perdere non solo la conoscenza di quello che veramente c’è nel distretto , ma anche l’identità dei singoli luoghi e sta lasciando nel degrado località altrettanto ricche di storia e di bellezza. Facendo nascere in aggiunta problemi sociali enormi come l’impossibilità di trovare alloggi per i residenti nelle località più gettonate e  compromettere la salute delle persone nelle località più degradate.

Le sorgenti del Sarno.

Il turismo può ancora produrre tanta ricchezza e sanare molte ferite ma ad una sola condizione: bisogna bloccare questa crescita disordinata e fare in modo che il turismo cresca in maniera diffusa in tutto il distretto

E per ottenere questo risultato è interesse di tutti risolvere le criticità che si presentano del bacino del Sarno .

Mi sono dilungato in un precedente articolo su ciò che occorre fare per migliorare i sistemi di comunicazioni , adesso voglio esporre le mie idee su cosa bisogna fare per affrontare quelle che sono i rischi storici, derivanti dalla cattiva gestione delle acque , partendo dalle acque meteoriche e passando dall’approvvigionamento fino alla depurazione . Danni enormi scolpiti nella memoria collettiva per le vittime che hanno prodotto le frane , gli allagamenti e l’inquinamento del fiume e del mare.

Ed in particolare voglio affrontare l’argomento rifacendomi alle esperienze che stiamo condividendo insieme ai tanti Cittadini che hanno dato vita ai movimenti della Grande Onda e alla Rete del Sarno.

 

2) LA VISIONE CHE BISOGNA CONDIVIDERE

Per affrontare un problema così complesso prima ancora di cercare soluzioni tecniche bisogna avere chiara la visione da raggiungere.

Il termine visione non ha nulla di tecnico e la definizione del termine che troviamo nel Dizionario Treccani e la seguente : ‘Apparizione, immagine o scena del tutto straordinaria, che si vede, o si crede di aver visto, in stato di estasi o di allucinazione’ .

E quella che noi stiamo cercando di condividere, convinti che può portare al risanamento può essere riassunta in due frasi .

 

  • L’acqua non è un rifiuto che si deve gettare via , ma una benedizione : neanche una goccia d’acqua deve essere persa ; .
  • Neanche una goccia di refluo non trattato deve finire in fossi , canali , fiume o a mare

Un bravo tecnico sa che una visione deve precedere sempre la ricerca di soluzioni : e cercheremo di dimostrare che solo se si segue questa visione tutte le criticità del bacino del Sarno che sono tante riassumibili nel rischio idrogeologico, idraulico ,inquinamento di falde, inquinamento del fiume e del mare, possono essere ricondotte ad un discorso unitario e ad azioni interconnesse fra loro .

  1. a) L’acqua non è un rifiuto da gettare da via ma una benedizione

I vantaggi che si otterrebbero da un recupero delle acque sono intuitivi, ed altrettanto evidenti sono gli effetti in termini di mitigazione del rischio che si otterrebbero.

Regolamentando e regimentando le acque meteoriche e gestendo meglio le acque fluviali si riducono il rischi in campo idrogeologico e idraulico .

Queste cose le sapevano già i Romani ed i Borbone, che per secoli hanno curato la raccolta ed il riutilizzo delle acque idrogeologiche e sorgive del Sarno, lasciandoci in eredità decine e decine di invasi ed un reticolo di canali per la bonifica e l’irrigazione del territorio ,che si estende per centinaia di kilometri. Eredità che abbiamo dissipato largamente utilizzando gli invasi nati per assorbire le acque piovane, per raccogliere le acque fognarie o per il deposito incontrollato dei rifiuti

Distruggendo questa ricchezza non solo abbiamo reso impossibile il riutilizzo della acque piovane , ma abbiamo aumentato il rischio d’inquinamento dei pozzi di approvvigionamento idrico e causato problemi di allagamento .

Il recupero delle acque di pioggia è indispensabile non solo per ridurre questi rischi , ma anche perché favorisce la gestione delle reti fognarie e degli impianti di depurazione . Quando piove, infatti, se le acque di pioggia non sono gestite separatamente , ma finiscono nelle fogne miste,  causano la fuoriuscita di acque inquinate dai troppo pieni della rete fognaria e compromettono l’efficienza degli impianti di depurazione, facendo arrivare agli stessi portate ingestibili .

C’è da dire che la mancata regolamentazione delle acque di pioggia e fluviali si verifica quasi ovunque in Italia e si sente fortemente la necessità di una normativa che imponga la realizzazione di un sistema di gestione delle acque meteoriche che preveda regole per la loro raccolta e trattamento e la regolamentazione del deflusso nei corpi idrici o a mare .

3) NEANCHE UNA GOCCIA DI REFLUI NON TRATTATI DEVE CONTAMINARE FOSSI , CANALI , FIUNI O IL MARE

Il disinquinamento del bacino del Sarno può essere realizzato attraverso il raggiungimento di 3 obiettivi distinti . in particolare isogna :

  1. combattere l’inquinamento biologico
  2. combattere l’inquinamento chimico
  3. c) bisogna eliminare i solidi grossolani trascinati dal fiume .

 

un tratto del Fiume sarno

 

Se si vogliono raggiungere questi obiettivi bisogna analizzare quello che si è verificato nel passato e proporre azioni concrete, senza ripetere sempre gli stessi errori

a ) bisogna combattere l’inquinamento biologico.

L’inquinamento biologico dipende dagli scarichi urbani e non sono bastati gli episodi gravissimi verificatisi , ultimo il colera degli anni ottanta a convincere le Amministrazioni locali del bacino del Sarno della necessità di dotarsi di sistemi adeguati di fognatura e depurazione . Le fogne sono opere di urbanizzazione primaria la cui realizzazione fino al 2000 circa, è stata di competenza dei Comuni . E nel distretto sorrentino sarnese vesuviano ci sono Città che hanno realizzato fogne e sistemi di depurazione completi, talvolta associandosi spontaneamente fra loro fra loro , altre che hanno realizzato sistemi fognari solo parziali e altre che semplicemente non hanno fatto nulla.

I soldi per fare le fogne ci sono sempre stati ,per tutti , messi a disposizione dallo Stato attraverso la Cassa Depositi e Prestiti o sotto altre forme ; e i soldi continuano ancora ad arrivare dai tributi locali che i Cittadini pagano per oneri di urbanizzazione , sanzioni per il condoni e tasse per oneri indivisibili. In conclusione dove le fogne non si sono fatte, questo è dipeso principalmente dall’ignavia di molte Amministrazioni Locali

Per rimediare a questa gravissima situazione , lo Stato si è sostituito ai Sindaci del bacino del Sarno , nominando un commissario Straordinario e ha stanziato direttamente rilevantissime somme. Il Commissario ha iniziato la guerra e vinto alcune battaglie , realizzando la quasi totalità degli impianti di depurazione , ed iniziando la costruzione dei collettori , ma quando si è trattato di realizzare le fogne Città per Città ,    si è impantanato in una guerra di trincea , facendo pochi progressi e rinviando di anno in anno la vittoria finale. Dopo alcuni anni si è deciso di cambiare strategia e allo Stato è subentrata la Regione, e il Commissario è stato sostituito da una struttura regionale, Arcadis.

Ma anche questo tentativo è fallito e Arcadis è stata sciolta E così il problema non solo non è stato risolto, bruciando centinaia di milioni, ma queste gestioni hanno lasciato in eredità una miriade di lavori incompleti ,tanti conteziosi e tante navicelle con equipaggi costosissimi , che ancora navigano in questo mare per chiudere ognuna un capitolo di questa vicenda.

Io penso che questi insuccessi non siano dipesi dalla qualità delle persone scese in campo, o da carenza di risorse, ma da un fatto oggettivo: per costruire un impianto bastano dei tecnici , per costruire una fogna bisogna conoscere e letteralmente occupare il territorio, combattendo talvolta anche contro i Cittadini che vedono molto malvolentieri i lavori fognari , perché creano intralcio , e anche contro altri subdoli padroni del territorio , cioè le aziende del gas e dell’energia , che occupano nel disordine generale il sottosuolo e che quando vedono arrivare una fogna difficilmente cedono il passo.

E poi una rete fognaria non si può fare in un territorio dove tutto cambia senza regole , utilizzando aerofotogrammetrie o rilievi estemporanei, : solo chi gestisce localmente le Città può condurre questa battaglie che richiede mille compromessi .

E nessuno conosce meglio del Sindaco il territorio. Solo i Sindaci possono risolvere questi problemi.

Oggi i Sindaci sono stati chiamati nuovamente a scendere in campo, e una legge regionale li ha riuniti in un unico Ente Assembleare, l’ Ente Idrico Campano (EIC) ed i Distretti, strutture dell’Ente in cui è suddiviso il territorio. L’EIC non è un Ente Regionale, è l’ente associativo dei Sindaci . E i Sindaci sono perciò di nuovo responsabili , dopo il lungo periodo di emergenza non solo della gestione delle fogne , dei collettori e degli impianti di depurazione, ma dell’intero ciclo dell’acqua. E fanno parte dell’EIC anche i cittadini che hanno diritto a partecipare alle sedute dell’ Ente con ruolo consultivo .

Sono i Sindaci attraverso gli organi dell’EIC, che possono e devono decidere la pianificazione delle opere da realizzare e che devono riprendere in mano il completamento della rete fognaria , dei collettori , la verifica della funzionalità dei depuratori , alcuni dei quali funzionano benissimo , ed altri invece presentano gravi criticità , stabilire gli eventuali adeguamenti e la gestione ed il controllo degli stessi.

Nel Convegno che si è tenuto a Sant’Agnello il 29 marzo , il Presidente Luca Mascolo e il Direttore Generale Vincenzo Belgiorno dell’EIC hanno preso un impegno : entro fine luglio 2019 sarà presentato il Piano d’ambito del distretto sarnese vesuviano , con l’indicazione delle opere incomplete e la pianificazione preliminare di ciò che resta da fare .

E la partecipazione dei Sindaci comincia a crescere . Al Convegno di Sant’Agnello abbiamo avuto la soddisfazione di vedere presenti quelli di Torre Annunziata , Sant’Agnello , Massa Lubrense ed i rappresentanti di Cava dei Tirreni .Sono quasi il 10% dei Sindaci dei del Distretto e molti altri hanno dato la loro adesione o mostrato interesse . Abbiamo piantato un primo seme e siamo fiduciosi che crescerà .

E sono venuti e sono stati protagonisti le rappresentanze dei Cittadini di una gran parte del bacino del Sarno , anche loro decisi ad essere attori in questo processo.

  1. Bastano 3 persone per abbattere l’inquinamento chimico

Per combattere questa piaga che è diffusissima nel bacino del Sarno e che dipende dagli scarichi provenienti dalle aree di attività produttiva ma anche dalla miriade di opifici che caratterizzano il bacino e dall’agricoltura industriale che fa uso di pesticidi e fertilizzanti spesso nocivi alla salute delle persone e alle specie viventi del bacino , l’unico presidio che c’è è l’impianto di Solofra , progettato per effettuare la depurazione dei reflui industriali , impianto messo peraltro in discussione perché si nutrono forti dubbi sull’efficienza depurativa; oggi l’impianto é sotto sequestro perché arreca molestie olfattive e  che ci si augura che passi presto all’EIC e che tutta la gestione venga riesaminata.

Le azioni da fare per combattere l’inquinamento chimico sono ben note e includono il controllo su chi mette in commercio e usa prodotti chimici e pesticidi , il controllo delle attività produttive ed in particolare il rispetto degli impianti di trattamento e degli scarichi , e la caccia agli scarichi abusivi. E la caccia ad eventuali scarichi nel sottosuolo , che incidono fortemente sulla qualità delle acque sotterraneee

Ciascuno deve mettere ordine in casa propria. Ed è in queste azioni che si deve concretizzare l’autorità del Sindaco , che ha tutti gli strumenti che servono , a cominciare dall’autorità conferitagli dalla legge di imporre il rispetto delle regole, che sono a monte delle autorizzazioni, ad esercitare le attività produttive , pena il ritiro delle autorizzazioni a produrre , fino al controllo degli scarichi i .

E per fare questo bastano 3 persone per Comune , un tecnico comunale , un fognere ed un vigile urbano.

Se ognuno dei Sindaci del Distretto mette in campo 3 persone per effettuare queste verifiche , si avrà disponibile un esercito di 180 persone che in poco tempo metterà fine all’inquinamento chimico del bacino del Sarno. E se le Amministrazioni locali non ce la fanno da sole, bisogna che anche nel nostro distretto vengano istituite gruppi misti di controllo con il supporto di Guardia Costiera Carabinieri , Guardia di Finanza , replicando lo stesso modello che si è adottato per combattere i roghi nella terra dei fuochi.

E insieme ai Sindaci devono scendere in campo le Associazioni , gli Imprenditori, i Lavoratori, perché i pirati danneggiano tutti gli onesti e compromettono sviluppo e occupazione.

  1. bisogna combattere la presenza di solidi sospesi nel Sarno .

Questo obiettivo è forse al momento il più difficile da raggiungere, ma è anche il più urgente da conseguire.

I solidi trascinati dalla corrente   finiscono a Rovigliano dove inquinano e distruggono la bellezza di uno dei posti più belli del Golfo di Napoli, poi vagano per tutto il Golfo , contribuendo a creare le isole di plastica . ma prima ancora inquinano il fiume , perché spesso i solidi sono formati da contenitori di pesticidi e fertilizzanti , e infine sono una delle cause principali delle esondazioni del Sarno .

Per capire come tutto sia interconnesso bisogna sedersi sulla sponda del fiume e vede cosa succede .

Tutto inizia con la costruzione di un ponticello , spesso abusivo , realizzato a pelo d’acqua per passare da una parte all’altra del fiume . Poi succede che molti solidi, di origine naturale o meno , cominciano nel tempo a depositarsi sul fondo del fiume , riducendo la profondità . Capita anche che per effetto di eventi eccezionali, ad esempio la caduta di un albero o semplicemente a seguito del naturale ciclo vegetativo, fogli, canne e arbusti finiscano contro il ponticello e formino una diga . A questo punto il gioco è fatto : basta poco per vedere formarsi sotto il ponticello un norme tappo formato dai rifiuti .

Ed il fiume esonda , o peggio si forma un onda di piena che allaga il territorio circostante .

Tutto questo accade ogni volta che piove quando cioè l’acqua dilavando tutto, fa franare le sponde e trascina nel fiume gli alberi o la  vegetazione secca, che formano barriere dietro cui si raccolgono enormi quantità di rifiuti scaricati abusivamente lungo gli argini o nel del fiume stesso

C’è un motivo a monte di questi disastri annunciati : è pressa a poco dal 1970 , cioè da quando il governo del fiume è passato dallo Stato alle Regioni, che le operazioni ordinarie di controllo , pulizia e manutenzione del fiume e degli argini e dragaggio dei fondali sono diventate l’eccezione da effettuare in caso di emergenza piuttosto che la prassi da seguire per evitare i disastri .

E c’è la presenza di molti Lazzaroni che continuano ad usare gli argini ed il fiume come una pattumiera

Tutto è interconnesso, inquinamento ed esondazioni sono due facce della stessa medaglia e per risolvere entrami i problemi bisogna curare il governo delle acque e del territorio ed il disinquinamento

4 ) CONCLUSIONI

L’impianto di depurazione Punta Gradelle vorrei mettere in. evidenza  che dopo una gestione durata 40 anni finalmente funziona ed é considerato come uno dei più avanzati d’Europa (é stato recentemente visitato da centinaia di tecnici provenienti da più parti),

La raccolta delle acque meteoriche, la gestione del rischio idraulico ed in parte di quello idrogeologico , la creazione di riserve d’acqua , la protezione delle fonti sotterranee , il disinquinamento sono le diverse facce di una stessa problematica .

Attualmente queste problematiche vengono gestite da soggetti diversi , in particolare la gestione delle acque meteoriche e dei fiumi è condivisa fra Stato , Regione , mentre la realizzazione e gestione delle reti fognare , dei collettori e degli impianti di depurazione è ritornata ai Comuni , che devono esercitarla attraverso l’EIC ed i distretti ovvero il loro ente associativo..

Bisogna che queste gestioni migliorino e si interfaccino .

In particolare occorre che Stato e Regioni mettano mano (in accordo fra loro) a riscrivere le regole per la regolamentazione delle acque meteoriche , rendendo obbligatoria la separazione e recupero delle acque bianche e la creazione di invasi per il loro recupero. E insieme devono stabilire il percorso per ripristinare una corretta gestione dei corsi idrici, gestione che deve prevedere il rispetto delle aree naturali di esondazione ,della biodiversità , il dragaggio dei fondali e la pulizia e manutenzione continua dei corsi d’acqua e degli argini. E la regolamentazione deve includere anche le norme di costruzione delle strade , dei parcheggi esterni e delle superfici impermeabili che raccolgono le acque piovane , talvolta contaminate come accade nel caso delle acque di prima pioggia , e l’obbligo di adottare in tutti i casi possibili le tecniche di drenaggio urbano. Tutte le acque possono e devono essere recuperate, anche per ridurre il consumo di acqua potabile , una risorsa sempre più costosa e difficile da reperire.

Stiamo investendo ancora oggi enormi risorse per gestire le acque, ultime quelle stanziate per il GPS grande progetto Sarno, ma se il progetto non include una corretta gestione delle acque meteoriche e dei fiumi continueremo ad avere allagamenti e frane, con l’aggravante che se ci si limita a spostare acque inquinate , realizzando vasche di laminazione e seconda foce ,le criticità aumenteranno invece di diminuire .

I Comuni invece hanno il compito governare correttamente lo sviluppo del territorio,  facendo in modo che i Piani Urbanistici piuttosto che essere pieni di opere che consumano il territorio , scendano nel dettaglio di quali devono essere le opere di drenaggio urbano , la rete bianca e la rete fognaria ; ed il percorso delle rete fognaria deve essere stabilito prima e non dopo la realizzazione di case e opifici . E devono partecipare e sostenere la gestione dell’EIC , il loro Ente Associativo , nella pianificazione , realizzazione e corretta gestione delle reti , dei collettori e degli impianti di depurazione .

E ancora i Comuni per abbattere l’inquinamento chimico devono verificare  che le aree di sviluppo produttivo , come pure per ogni singola attività produttiva sia dotata degli impianti necessari a garantire il trattamento chimico fisico dei reflui , e devono provvedere a ritirare le autorizzazioni a quelli che non rispettano tali requisiti.

Dobbiamo giocare winner to winner ,facendo ognuno ciò che compete al proprio ruolo, smettendola di giocare a scarica barile .

Dobbiamo tutti avere cura di ciò che ci è stato affidato .E aver cura significa non solo somministrare qualche medicina , ma avere premura , cioè agire con tempestività , amorevolezza , sollecitudine .

Dobbiamo aver cura delle persone e della Terra , che è l’ultimo dei poveri , sottoposto ad uno sfruttamento senza rispetto e senza regole.

Per raggiungere quest’obiettivo è indispensabile la spinta che deve venire dai Cittadini per isolare i Lazzaroni e la spinta che deve venire dalla scuola , per evitare che di generazione in generazione i Lazzaroni si ripresentino.

La Grande Onda , la Rete del Sarno, i movimenti che crescono nei social, le tante Associazioni , i gruppi spontanei , e singoli cittadini , stanno facendo crescere il coinvolgimento e la sensibilizzazione e sta nascendo una nuova consapevolezza dei problemi.

Bisogna continuare a spingere , guardando tutti nella stessa direzione, garantendo la diversità di ognuno e rispettando tutti.

L’inquinamento è un mostro dai mille tentacoli ci voglio mille braccia per combatterlo .

Il prossimo appuntamento è a settembre , quando faremo il punto sulle iniziative messe in campo dal Ministero dell’Ambiente e dalla Regione , augurandoci che il GPS affronti concretamente il rischio idraulico partendo da una visione condivisibile , e di avere disponibile il Piano d’Ambito che l’EIC sta predisponendo con evidenziati i rottami che galleggiano nel mare delle opere incompiute , ma anche la rotta che i Sindaci avranno tracciato per realizzare una sistema adeguato di gestione per le reti fognarie e di depurazione.

Il Sarno nasce puro ogni giorno e ci offre ogni giorno una nuova possibilità.

Helen Kemp Archbold Porter (1899-1987)

In evidenza

Rinaldo Cervellati

Helen Porter è stata un biochimico inglese, prima donna professore ordinario all’Imperial College di Londra, una dei primi scienziati britannici a utilizzare le tecniche, allora innovative, della cromatografia e dei marcatori radioattivi.

Helen nacque il 10 novembre 1899 a Farnham, cittadina nel Surrey, circa 55 km a sud-ovest di Londra, da una famiglia della classe media. Il padre, George Kemp Archbold era direttore e comproprietario di una scuola privata, la madre, Caroline Emily Broughton Whitehead, cantante professionista, formatasi al Conservatorio di Bruxelles in Belgio.

Helen descrisse sua madre come persona energica che eccelleva nelle virtù domestiche con un profondo senso del dovere verso la famiglia. Il suo passatempo era la musica.

La prima infanzia di Helen fu felice, come si intende convenzionalmente la vita in una famiglia vittoriana conservatrice della classe media. Nel 1901 i suoi genitori si trasferirono da Farnham a Clifton, un sobborgo di Bristol. La prima educazione di Helen, come quella della sorella maggiore, avvenne in casa, la madre le insegnò a leggere e scrivere e le fornì una buona conoscenza della lingua francese. In casa c’erano molti libri da leggere per le bambine, ma nessun testo scientifico. Il momento clou dell’anno era la lunga vacanza estiva con i nonni materni a Torquay.

Nel 1906 Helen cominciò a frequentare la Clifton High School for Girls e, all’età di 13 anni, cominciò a interessarsi di scienze grazie anche all’influenza che su di lei ebbe Francis Jennet Clark, l’insegnante di scienze e matematica.

Fotografia delle ragazze della Clifton High School for Girls nel 1917. Helen Kemp è la prima a sinistra della Preside Miss Phillips nella fila di mezzo

L’adolescenza fu bruscamente interrotta dallo scoppio della I Guerra mondiale, la famiglia si separò: il padre si recò nello Yorkshire a lavorare in un’altra scuola, la madre andò a Londra per impiegarsi nelle Cucine Nazionali Governative, le figlie restarono a Clifton per continuare a frequentare la Clifton High School for Girls. Come Helen disse più tardi: la mia infanzia felice era finita.

Giocò a cricket, tennis e hockey nelle squadre della Clifton School, diventando poi capitano di queste ultime due. Nel 1917 superò gli esami finali con successo in tutte le materie e si preparò per l’esame di ammissione al Bedford College for Woman, che faceva parte della London University. Fu ammessa con distinzione nell’ottobre 1917, iscrivendosi a un corso di studi quadriennale in chimica, fisica e matematica pura e applicata, conseguendo nel 1921 i diplomi in chimica e fisica con lode. Durante il suo periodo da studente fece parte attiva dell’Unione Studentesca e per due anni fu rappresentante di Facoltà nel Comitato dell’Unione.

Helen Kemp continuò i suoi studi all’Imperial College di Londra come studente post-diploma; lavorò nel laboratorio di chimica organica diretto dal professor Jocelyn Thorpe sotto la supervisione del Dr. Martha Whiteley[1]. I suoi studi nel laboratorio di Thorpe riguardarono derivati ​​di vari barbiturici.

Per perfezionarsi in biologia e biochimica, Helen Kemp frequentò il Birkbeck College e il Chelsea Polytechnical College.

Nel 1922, entrò a far parte di un gruppo di ricerca del Dipartimento di Fisiologia vegetale e Biochimica delle piante che collaborava con la Stazione di Ricerca Basse Temperature associata all’Università di Cambridge, per studiare il deterioramento delle mele nelle celle frigorifere, un problema che affliggeva gli importatori del frutto. Il gruppo di ricerca, in particolare Kemp, analizzò i composti organici contenuti nel frutto, zuccheri, acidi organici, ammidi, emicellulose e pectine. Lo studio di Kemp si estese dalla semplice analisi chimica all’esame del ruolo di queste sostanze chimiche nello sviluppo e nella maturazione del frutto, come pure nel loro trasporto, sintesi e metabolismo. Nel 1931, Helen Kemp e il suo team avevano capito con successo le reazioni chimiche che avvenivano nelle mele immagazzinate ma non ne avevano ancora accertato la causa; quell’anno il finanziamento dello studio fu purtroppo interrotto a causa della grande depressione e le ricerche considerate concluse. Queste ricerche le valsero il titolo di D.Sc. dall’Università di Londra.

Helen Kemp fu definitivamente trasferita al Dipartimento di Fisiologia Vegetale dell’Imperial College, diretto dal Prof. F.G. Gregory[2], collaborando anche con i Laboratori sperimentali Rothamstead. La sua ricerca comprendeva la relazione fra la nutrizione minerale e il metabolismo dei carboidrati nelle monocotiledoni, in particolare nell’orzo. Allo stesso tempo Kemp divenne Visiting Lecturer in Biochemistry presso lo Swanley Horticultural College.

I suoi studi sull’orzo riguardavano l’origine dell’amido nelle granaglie. Si riteneva comunemente che provenisse dallo zucchero conservato nello stelo trasferitosi nel seme e convertito in amido durante la sua maturazione. Helen Kemp e i suoi colleghi dimostrarono, con analisi accurate e dettagliate, che l’amido si formava direttamente dal biossido di carbonio appena fissato e che lo zucchero nel gambo era usato per la respirazione durante la sua senescenza.

Nel 1937 sposò il medico William George Porter, che morì tragicamente solo pochi anni dopo. Helen Kemp mantenne il cognome Porter per il resto della sua vita.

Allo scoppio della II guerra mondiale l’Imperial College fu requisito per scopi militari, Porter e colleghi furono trasferiti al Centro Sperimentale Agrario Rothamstead nella cittadina di Harpenden. Ancora una volta la sua vita e la sua casa furono sconvolte dalla guerra.

Tuttavia Porter continuò il lavoro di ricerca durante il conflitto, gettando le basi per i suoi futuri studi sulla sintesi dei polisaccaridi, specialmente quella dell’amido delle granaglie e i fruttosi.

Il lavoro sull’orzo la condusse a un interesse duraturo sugli enzimi responsabili della formazione e del degrado dell’amido. Nel 1947 alla fine della guerra andò per un anno al Laboratorio Coris a St Louis, Stati Uniti. Proprio in quell’anno i coniugi Cori (Gerthy Theresa e Carl Ferdinand) avevano vinto il premio Nobel per la medicina e la fisiologia per la scoperta dei meccanismi di conversione catalitica del glicogeno. Di conseguenza questa visita fu molto stimolante per Helen Porter.

Al suo ritorno all’Imperial College, continuò a lavorare sul metabolismo dell’amido e nel 1949 fu invitata a trascorrere sei mesi a Bangor nel laboratorio della Prof. Peat. Durante questo periodo è stata in grado di dimostrare la presenza di amido fosforilasi nell’orzo.

Come risultato della sua crescente reputazione scientifica, nel 1953 ebbe una generosa sovvenzione dalla Fondazione Nuffield. Questo è stato un punto fondamentale nella sua carriera di ricercatrice perché questa sovvenzione comprendeva sia personale che apparecchiature, e lei fu in grado di formare un gruppo di ricerca e dotare di adeguata strumentazione un laboratorio dell’Imperial College. L’intenzione iniziale era far partire un progetto di studio dei sistemi enzimatici interessati al metabolismo dei polisaccaridi dai metodi convenzionali disponibili al momento.

Tuttavia negli anni ’50 si stavano sviluppando due nuove tecniche importanti per la ricerca biochimica: la cromatografia e l’impiego di marcatori radioattivi. Porter divenne uno dei primi ricercatori ad applicare questi metodi per preparare prodotti chimici radioattivi e usarli per studiare il metabolismo intermedio delle piante.

Helen Porter nel suo laboratorio

Con l’aiuto del Dr G. Popjak a Mill Hill e del Dr. J.R. Catch ad Amersham, fu costruito un apparecchio mediante il quale fu preparato amido radioattivo partendo dalla fotosintesi di grandi foglie di tabacco in presenza di 14CO2 marcata con C-14. Questo polisaccaride è stato utilizzato per la prima volta per preparare il glucosio radioattivo a scopo di ricerca medica ma poi sia l’apparato sia le sostanze radioattive prodotte da esso furono usate per gli studi di Helen Porter sul metabolismo delle piante. In particolare lo studio della formazione dell’amido da zuccheri contenuti nel tessuto fogliare e il movimento del materiale fotosintetico nelle piante seguito mediante autoradiografia e tecniche di conteggio portarono a una serie di ricerche innovative descritte in altrettanti importanti articoli scientifici.

Helen Kemp Porter

La crescente reputazione scientifica di Helen Porter fu tale da meritare la sua elezione a Fellow della Royal Society nel 1956, e nel 1957 fu nominata Lettrice in Enzimologia nel Dipartimento di Botanica dell’Imperial College. Fu anche incaricata Responsabile scientifico principale dell’Istituto di Ricerca in Fisiologia Vegetale nello stesso College. Nel 1959 divenne la prima donna professore ordinario nella storia dell’Imperial College e succedette al suo collega e mentore, il professor Gregory, come capo del Dipartimento di Fisiologia vegetale. Helen Porter si ritirò nel 1964 con all’attivo ben 36 pubblicazioni scientifiche.

Nel 1962 si unì in secondo matrimonio con Arthur St George Huggett, professore di fisiologia vedovo con due figlie. Sfortunatamente anche il secondo marito morì sei anni dopo, così, anche se non aveva figli suoi, acquisì le due figlie adolescenti del suo secondo marito e, infine, un notevole numero di nipoti. Agì come amica e saggia consigliere della sua famiglia adottiva, aiutandoli tutti finanziariamente e professionalmente.

Porter possedeva anche eccellenti doti amministrative prendendo decisioni senza suscitare troppo risentimento e antagonismo. Quando lasciò la cattedra all’Imperial College fu secondo segretario al Consiglio di Ricerche Agrarie diventando un funzionario pubblico molto efficace. Nel 1972 divenne consigliere del Primo Segretario.

Curiosamente Helen aveva coltivato fin dall’infanzia un interesse che aveva progressivamente maturato. Nel ricamo era insolitamente abile e mantenne questa passione fino alla morte, avvenuta il 7 dicembre 1987, all’età di 88 anni. Gli arazzi che lei ricamava erano artistici e fantasiosi e in molti casi le immagini erano ispirate da fotografie scientifiche che avevano particolarmente attirato la sua attenzione.

Opere consultate

D.H. Northcote, Helen Kemp Porter, Biographical Memoirs of Fellows of the Royal Society1991, 37, 400–409.

Catharine M.C. Haines, International Women in Science, ABC CLIO, Santa Barbara, 2001

  1. B. Ogilvie, J. D. Harvey, eds, The biographical dictionary of women in science: pioneering lives from ancient times to the mid-20th century. Vol.2, L-Z., Routledge. New York, 2000.

[1] Vedi https://ilblogdellasci.wordpress.com/2018/08/24/scienziate-che-avrebbero-potuto-aspirare-al-premio-nobel-martha-annie-whiteley-1866-1956/

[2] Frederick Gugenheim Gregory (1893−1961) britannico, botanico e fisiologo vegetale noto per le sue ricerche sul fotoperiodismo, traspirazione e metabolismo dei carboidrati. Fu direttore del Laboratorio di Fisiologia Vegetale dell’Imperial College nel 1937 e nel 1947 fu nominato Direttore del Dipartimento contribuendo a ricostruirlo dopo i danni subiti nella 2a guerra mondiale. Eletto Fellow della Royal Society (FRS) nel 1940 e insignito della Royal Medal nel 1957 per I suoi importanti studi di fisiologia vegetale.

Agricoltura 4.0.

In evidenza

Luigi Campanella, già Presidente SCI

L’innovazione tecnologica nel settore della coltivazione, che potremmo chiamare agricoltura 4.0, muove un enorme mercato economico: si stima infatti che nel mondo valga 7 miliardi, raddoppiato rispetto al 2017, di cui 400 milioni di dollari in Italia. Ormai Industria 4.0 ò divenuto un’espressione familiare a molti italiani. Non si può dire purtroppo la stessa cosa per Agricoltura 4.0 intendendo con essa non solo agricoltura digitale, come nel caso delle imprese gestionali, ma anche un approccio globale di sistema, che va dalla coltivazione alla raccolta alla gestione attraverso tecnologie innovative che consentono di valorizzare il significato di filiera Agricola.

Questa limitata percezione da parte del cittadino, se poteva essere giustificata dalla situazione reale fino ad un paio di anni fa,oggi lo è molto meno.La nacchina si è finalmente messa in moto: Un fenomeno globale che lo scorso anno ha visto 500 startup raccogliere 2,9 miliardi di dollari di investimenti: di queste un quarto sono attive nel campo dell’Agricoltura 4,0; nel nostro Paese il settore è cresciuto in un anno del 270% ed è rappresentato per l’80% da aziende esistenti che si sono innovate e per il restante 20% da nuove realtà (elettronica e sensori, software, robotica e droni, produttori indoor). Si tratta comunque di una nicchia rispetto al mercato globale perché il nostro mercato vale soltanto il 5% del mercato globale e il 18% di quello europeo (dati Osservatorio Smart AgriFood del Politecnico di Milano).

Ma l’agricoltura 4.0, anche in un mercato piccolo come il nostro, può dare risposte alle sfide climatiche e ambientali dei prossimi anni e fornire tecnologie che mitighino la mancanza di risorse e riducano gli sprechi, come per esempio le coltivazioni fuori suolo, l’idroponica, l’acquaponica, l’agricoltura urbana e il vertical farming.

La prima sfida è nutrire la crescente popolazione cercando il minor impatto ambientale possibile ed è stata tradotta in numeri da Daniel Podmiserg del Vertical Farm Institute. L’introduzione nelle aree urbane di coltivazioni verticali integrate ha impatto positivo su molte dimensioni della sostenibilità urbana, a patto che il modello agricolo riesca a valorizzare l’intero volume degli edifici, inserendo colture complementari.

La tecnologia del fuori suolo permette di ottenere efficienze elevatissime anche senza iperspecializzare la fattoria, a patto di far coincidere il luogo di vendita/consumo con quello di produzione: il vero Km 0.https://www.wired.com/2017/01/rise-vertical-farm-weeks-must-read-stories/

Dalle micro e nano plastiche nei mari si parla da tempo, ma il problema riguarda anche i terreni agricoli. Si parla delle microplastiche, che vengono ingerite dagli animali da cortile attraverso i vermi, che si occupano anche di diffonderle, e della nanoplastiche, che per le piccolissime dimensioni riescono a entrare in circolo nei vegetali. I pericoli potenziali provengono dalle sostanze chimiche nocive che si attaccano alle particelle di plastica, e in questo modo aggirano le barriere difensive degli organismi. Ancora in larga parte misterioso è invece l’effetto che le nanoplastiche più piccole, sotto i 20 nanometri, hanno sul funzionamento cellulare, per esempio mimando l’azione di determinati enzimi o interferendo sulle membrane.

L’inquinamento da microplastiche e nanoplastiche del terreno e delle falde acquifere.

Tante sono le fonti possibili: una di queste sono i teli usati per la pacciamatura, che si sta diffondendo per combattere meccanicamente le malerbe eliminando i diserbanti; un’altra il compost ottenuto anche con plastiche bio-based, che prima di essere assorbite si comportano come le plastiche tradizionali (anzi peggio, perché sono più bio-affini).Questi sono i primi risultati emersi dalla ricerca del team di Esperanza Huerta della Wageningen University & Research sulla sfida che la richiesta per maggiore produzione agricola con metodi tradizionali pone all’umanità.Per questa sfida, oltre all’educazione contro lo spreco e l’inquinamento, una soluzione radicale è rappresentata dall’ indoor farming, termine che racchiude in sé un alto sviluppo tecnologico, oltre a essere sinonimo di produttività, controllo sulla qualità e localizzazione della produzione. Se il problema è il suolo, perché non disponibile o a rischio di contaminazione o di sfruttamento non sostenibile, riduciamone la necessità per la produzione agricola. Questo innovato approccio alla produzione di cibo include mercati che vanno dai più tradizionali, ortofrutticoli, fino a quelli del non food, come la nutraceutica e la canapa. Oltre ai vantaggi spesso ricordati, rese elevatissime per metro quadro, riduzione dell’uso di suolo, acqua, fertilizzanti, azzeramento di pesticidi e diserbanti, il fuori suolo ne ha molti altri: uniformità della qualità, possibilità di controllare le caratteristiche dei prodotti, purezza dei principi attivi estratti, possibilità di utilizzare varietà ottimizzate che richiederebbero uso di prodotti chimici in grandi quantità, indipendenza dalle condizioni climatiche.

Un altro aspetto importantissimo riguarda la necessità di una buona legge sul consumo di suolo per fare i conti con serietà e responsabilità con il dissesto idrogeologico e l’alto rischio sismico che caratterizzano buona parte del nostri Paese. Va anche resa più equa e sostenibile la filiera alimentare ed è per questo che vanno rilanciati con forza due strumenti che vorremmo fossero supportati anche dalle norme dello Stato.

I prodotti Dop (più menzionati sono stati Parmigiano Reggiano, Prosciutto di Parma, Grana Padano, Prosecco, Chianti e Barolo)e Igp hanno assunto un ruolo nuovo all’interno dei territori italiani diventando il baricentro di una crescita che non è solo economica.

Attraverso le analisi del Big Data, Mauro Rosati, il direttore generale della Fondazione Qualivita sintetizza così i risultati della prima ricerca sperimentale che associa i dati economici e sociali del comparto con le conversazioni digitali sul web e offre il primo report delle informazioni digitali sul food made in Italy: dall’analisi della “nuvola” emergono significative ricadute sulla crescita culturale, turistica e sociale del Paese; ad oggi infatti sugli 882 prodotti Food e Wine IG sono 501 quelli con un sito ufficiale (nel 2016 erano 412, per una crescita del +22%), mentre 420 hanno almeno un profilo social (contro i 268 del 2016, per un +60%);quel che conta è “il lavoro in rete che stanno facendo consorzi e singoli produttori che permettono di fare una promozione di sistema del cibo made in Italy”. I prodotti Dop: non si parla solo più di tradizione, ma anche di “arti, architettura, storia e ambiente ,della conoscenza generale di una comunità. Non è un caso, allora, che le aziende Ig siano in prima linea “con azioni che spaziano dalle ricerche scientifiche che migliorano l’impatto dei metodi di produzione agli studi per l’educazione alimentare e la salute dell’uomo, passando per il sostegno alle più significative attività ricreative delle comunità territoriali.https://novagricoltura.edagricole.it/agricoltura-4-0/

Elementi della Tavola Periodica: Alluminio, Al

In evidenza

Alberto Zanelli*

L’alluminio (Al) è l’elemento con numero atomico 13 e si trova nel terzo periodo, tredicesimo gruppo (IIIA), dell’attuale sistema periodico degli elementi. Con una abbondanza relativa del 8% é il terzo elemento più presente sulla crosta terrestre dopo ossigeno e silicio. In natura si trova con i soli isotopi 27Al, quasi 100% del totale , 26Al (dalla spallazione dei raggi cosmici) ; sempre ossidato, sotto forma di feldspati, miche, argille e caolini. L’ossido puro è il corindone, gemma con durezza Mohs pari a 9 (il diamante sta a fondo scala cioè a 10), di cui alcune varietà sono note come rubino e zaffiro. Per l’estrazione del metallo si ricorre all’ossido idrato (bauxite). A causa del basso potenziale standard di riduzione (E0 = -1.66 V), non è possibile ottenere il metallo per riduzione ad alta temperatura con coke, come per ferro e rame, ma è necessario ricorrere ad un processo elettrochimico, come per magnesio e titanio.

Nel processo Hall-Heroult (1886) la bauxite viene fusa a circa 1000°C con criolite (3NaF·AlF3) che più recentemente è stata sostituita con miscele artificiali di fluoruri di sodio, alluminio e calcio. La riduzione avviene alla base della cella elettrolitica contro anodi di carbone con un dispendio di energia che oggi è circa 14 kWh per 1 kg di Al, secondo la reazione di cella: [1]

2Al2O3 + 3C → 4Al + 3CO2

Ne esce il metallo fuso (punto di fusione di Al 660°C) con un titolo del 99.4 – 99.9%. Recentemente Alcoa ha introdotto una preventiva conversione in carburo di Al e Calsmelt ha ridotto le temperature di esercizio aggiungendo rottami di alluminio nella miscela di minerali fusi, abbassando i consumi energetici.

Nel 2017 la produzione mondiale di Al primario è stata circa 63,4 milioni di tonnellate, di cui il 57% in Cina e solo il 12% in Europa, con un assorbimento di circa il 3,5% della produzione elettrica mondiale. L’elevato costo dell’energia, insieme alla riduzione della richiesta interna e all’aumento del riciclaggio, è il motivo per cui Italia, Paesi Bassi e Regno Unito hanno abbandonato, negli ultimi anni, la produzione di Al primario.[2] Nel 2012 in UE si estraevano poco più di due milioni di tonnellate di bauxite tra Grecia, Francia e Ungheria mentre la produzione di allumina, usata principalmente nei refrattari, raggiungeva 5,6 milioni di tonnellate. La produzione europea di Al soffre anche dell’incertezza sull’approvvigionamento di fluoruro di calcio (fluorite) che la UE importa peri il 70%, principalmente dalla Repubblica Popolare Cinese, responsabile di 2/3 dell’estrazione mondiale.[3] In Italia la bauxite non si estrae più dal 2016, l’allumina dal 2010 e si è ridotta drasticamente anche l’estrazione di fluorite. Era di fluorite la miniera per cui vennero maldestramente costruiti i bacini di decantazione dell’impianto di flottazione che crollarono il 19 luglio 1985 provocando 268 morti in Val di Stava (TN), ma questa è un’altra storia. Resta il fatto che i consumi energetici, le crisi nell’approvvigionamento delle materie prime e i rischi derivanti dall’attività industriale sono tre aspetti interconnessi su cui interrogarsi quando si ragiona sul nostro modello economico anche per un metallo così familiare come Al.

Dopo il ferro, Al è il metallo più utilizzato soprattutto grazie alla sua bassa densità (2690 kg m-3 a 20°C) e alla resistenza alla corrosione dovuta alla formazione spontanea di uno strato protettivo per reazione con l’ossigeno (passivazione). Grazie al punto di fusione relativamente basso Al può essere lavorato per pressofusione in stampi di acciaio o per idroformatura. Le leghe leggere basate su Al, magnesio, rame e zinco a seconda dell’uso, sono utilizzate in aeronautica, ma anche per scafi di imbarcazioni e particolari di automobili sportive. Lo strato di passivazione può essere ispessito con il così detto processo di anodizzazione che ne consente anche una tenace colorazione: per questo Al è largamente usato per la realizzazione di infissi in edilizia.

Figura 1. Manufatti in alluminio: bicicletta, cartellonistica, infissi e, riflessa sul vetro, linea di alta tensione (foto A. Zanelli).

Per la sua buona conducibilità elettrica Al, puro o in lega con Manganese e Silicio per aumentarne il carico di rottura in trazione, sostituisce il rame nelle linee elettriche aeree poiché consente di realizzare cavi che gravano meno sui tralicci di sostegno. Per la sua buona conducibilità termica invece viene utilizzato negli scambiatori di calore mentre leghe Al-silicio-rame si utilizzano per parti di motori.[4]

La versatilità di questo metallo e delle sue leghe ha consentito a ingegneri e stilisti una grande libertà di progettazione per realizzare una miriade di oggetti per uso professionale, sportivo e domestico. Al Museo Nazionale della Scienza e della Tecnologia “Leonardo da Vinci” di Milano, nell’esposizione permanente dedicata ad Al, è esposta un’ampia campionatura di questi oggetti.

Al è molto utilizzato anche per gli imballaggi tanto che, nel 2017 solo in Italia, ne sono stati immesse al consumo 65.000 tonnellate delle quali il 90% riguarda il settore alimentare e oltre 40.000 tonnellate sono ad uso domestico. In quell’anno il 63,4% degli imballaggi in Al è stato riciclato superando l’obiettivo per il 2025 (50%) e sfiorando quello per il 2030 (65%) che era stato superato però nel 2016 con un riciclaggio del 72%.[5] Per riciclare Al è sufficiente separarlo da altri rifiuti, pretrattarlo a 500°C per bruciare vernici ed etichette, rifonderlo a 800°C in atmosfera inerte, descorificare, e colare in lingotti o placche, la resa sul rottame iniziale è dell’87% ma il risparmio sull’energia ―e sulle relative emissioni di CO2― che si consumerebbe per la produzione del metallo primario dai minerali è del 95%.[6]

Figura 2. Utilizzo di Al come imballaggio.

Sempre nel settore imballaggi, piccole quantità di Al sono fatte aderire in fogli sottili o spruzzate su materiali diversi (cartone o plastiche) per ottenere un effetto barriera all’ingresso dell’ossigeno e consentire una maggiore durata delle derrate alimentari ivi contenute in atmosfera inerte. Il recupero da questi materiali poliaccoppiati è però estremamente difficile.

Nel corpo umano Al è presente in concentrazioni inferiori alla parte per milione e, in rapporto all’abbondanza relativa, si colloca al penultimo posto sopra al silicio nella graduatoria degli elementi su cui pare essersi evoluto Homo sapiens. In generale sembra che Al non sia essenziale per gli esseri viventi ma non sia neanche particolarmente tossico, nonostante l’elevata concentrazione nella litosfera e i complessi cicli geochimici che lo mettono continuamente in contatto con la biosfera. Ma se la lenta evoluzione della Vita è rimasta pressoché indifferente ad Al, l’Uomo, nella sua breve storia, ha dapprima sapientemente usato i minerali di Al poi, a partire dal ‘900, forse anche per il valore strategico nell’aereonautica, ha massicciamente introdotto il metallo nel suo armamentario tecnologico facendone uno dei materiali su cui si basa l’impennata del nostro sviluppo negli ultimi decenni. Il frequente uso dei Al nella vita di tutti i giorni, ma ancor di più l’inacidimento delle precipitazioni determinato dall’attività antropica sta aumentando l’esposizione ambientale ad Al e i sospetti di correlazione con l’aumento di casi di alcune patologie tipiche del nostro tempo. [7]

Proprio al controllo di Al nell’acqua potabile è legato un bel ricordo dei miei primi anni da laureato in chimica quando, nella calda mattina del ferragosto ’97, durante il mio stage estivo presso il laboratorio di controllo delle acque dell’allora SeaBo, la concentrazione di Al in un impianto di potabilizzazione sull’Appennino superò il livello di guardia.

Figura 3. Il cloruro di alluminio allo stato solido si presenta con catene di eleganti ottaedri uniti su un lato, centrati sul’atomo di Al e con gli atomi di cloro nei vertici (https://en.wikipedia.org/wiki/Aluminium_chloride)

L’impianto usava “polialluminio cloruro” come agente floculante e, a causa di un anomalo aumento di temperatura del bacino di captazione, cominciò a liberare Al. L’unico tecnico in servizio quella mattina si mosse per andare a risolvere il problema e, non potendo entrare in impianto da solo per motivi di sicurezza, mi chiese di accompagnarlo, con l’unica consegna di chiamare i soccorsi in caso d’incidente. Così io potei fare la mia scampagnata di ferragosto. Grazie alluminio!

[1] World aluminium.

[2] M. Conserva, La produzione mondiale di alluminio primario, A&L 21/02/2019.

[3] Deloitte Sustainability, British Geological Survey, Bureau de Recherches Géologiques et Minières, Netherlands Organisation for Applied Scientific Research, Study on the review of the list of Critical Raw Materials. Critical Raw Materials Factsheets, 2017.

[4] AA. VV. Enciclopedia della Chimica Garzanti, Garzanti editore, Milano, 1998.

[5] I.S.P.R.A Rapporto rifiuti urbani edizione 2018.

[6] CIAL – Consorzio Imballaggi in Alluminio.

[7] C. Exley J. Inorg. Biochem. 97 (2003) 1–7.

* Alberto Zanelli, consigliere del Gruppo Interdivisionale per la Diffusione della Cultura Chimica della S.C.I., si è laureato in Chimica e si è specializzato in Metodologie chimiche di controllo e di analisi presso l’Università di Bologna. Si è occupato di elettrochimica ed igiene industriale è ricercatore presso l’Istituto per la Sintesi Organica e la Fotoreattività del Consiglio Nazionale delle Ricerche dove si è occupato di materiali organici per l’elettronica, sensori e processi avanzati di ossidazione per la riqualificazione delle acque. Consigliere nel Gruppo interdivisionale per la divulgazione della cultura chimica della Società chimica italiana, è coinvolto in alcuni progetti di divulgazione scientifica.

I PFAS nell’uovo di Pasqua.

In evidenza

Mauro Icardi

Di composti organici bioresistenti, ed in particolare di Pfas sulle pagine di questo blog si è scritto parecchio negli ultimi due anni. Ma purtroppo la cronaca di questi giorni riporta il problema alla nostra attenzione.

https://www.rovigooggi.it/n/86836/2019-04-18/4-kg-al-giorno-del-nuovo-pfas-nel-po-servono-limiti-nazionali-per-impedirlo

Viene lanciato un allarme, e un giorno dopo un’altra notizia è in controtendenza rispetto alla prima.

http://www.telestense.it/arpae-nessuna-emergenza-pfas-emilia-romagna-20190418.html

Cominciamo col dire che il susseguirsi di notizie che si smentiscono non aiutano la comprensione del problema. Ammetto di fare fatica, e io sono un tecnico del settore idrico. Immagino lo sgomento della pubblica opinione. Per altro su un tema decisamente molto sentito come quello dell’acqua.

Occorre rendersi conto di alcune cose. E dopo le opportune riflessioni cercare di intraprendere delle azioni mirate e coraggiose.

A mio parere, per tutta una serie di ragioni concomitanti in Italia si è perso lo slancio iniziale, quello che negli anni 70 aveva dato il via alle realizzazioni degli impianti di depurazione e dei collettamenti delle acque fognarie. In Italia abbiamo percentuali di acque fognarie trattate che raggiungono percentuali del 98% nella provincia autonoma di Bolzano, e solo del 40% in Sicilia. Sono dati conosciuti. Occorre uniformare al più presto le percentuali di acque fognarie che devono essere sottoposte almeno alla depurazione fino al trattamento secondario. Ma relativamente al problema dei Pfas tutto questo non è sufficiente. Per eliminare questo genere di inquinanti solamente trattamenti di tipo innovativo (per esempio cavitazione idrodinamica o impianti a membrane) possono essere efficienti. E se guardiamo ai dati Istat la percentuale di Impianti in Italia dotati di trattamento terziario avanzato è solo del 10%, anche se la percentuale di acque trattate è del 60% (Fonte censimento delle acque per uso civile Istat 2012).Un secondo punto da cui partire è l’implementazione dei controlli sugli scarichi di origine industriale. E credo si debba evitare la concessione di deroghe allo scarico per aziende che nel loro ciclo produttivo rilasciano composti che possono esercitare interferenza endocrina, o essere inquinanti persistenti. Ho proposto su queste pagine di creare una sorta di new deal idrico, o in termine italico gli “stati generali dell’acqua”. Abbiamo già procedure di infrazione pendenti per la scarsa qualità delle acque reflue depurate. E non riusciamo a raggiungere gli stati di qualità previsti dalle norme europee per i nostri corsi d’acqua. Il problema degli inquinanti emergenti, legato a quello delle siccità prolungate rischia di creare situazioni decisamente gravi. In Italia esiste il “Portale dell’acqua” dove i cittadini possono recepire informazioni relative. Trovo debba essere migliorato e reso maggiormente fruibile.

Proporrei anche un centro di ricerca, o un coordinamento di Arpa, Ats, Utilitalia, Ispra, Cnr Irsa e Istituto superiore di sanità.

Prendendo esempio da quanto è usuale in Olanda. Creare sinergie significa in ultima analisi ottenere risultati concreti.

Un’altra proposta è quella di inserire i Pfas tra i parametri da ricercare sia nelle acque reflue, che in quelle potabili. In tempi congruenti, ma piuttosto rapidamente. Ricordiamoci che i Pfas sono classificati come cancerogeni di classe 2B e hanno attività di interferenti endocrini. Cancerogeni di classe 2B significa o che sono sicuramente cancerogeni per gli animali ma solo possibilmente per gli uomini o quando c’è limitata evidenza di cancerogenicità nell’uomo e meno che sufficiente evidenza di cancerogenicità negli animali da esperimento. Possibilmente perché i dati disponibili non sono sufficienti per i pochi studi condotti. Servono studi ulteriori. Quindi si devono destinare fondi alla ricerca.La vicenda Pfas ha avuto un impatto piuttosto importante in Veneto. E ha visto e vede i medici impegnati. In particolare quelli dell’associazione Isde (medici per l’ambiente).

http://archivio.vicenzapiu.com/leggi/il-dott-cordiano-risultati-indagine-epidemiologica-isde-su-mortalita-da-pfas

Ai medici la proposta che faccio è quella di dare informazioni certe, e di contribuire ad orientare tutti noi.

La notizia oggi riguarda le acque superficiali. Che sono poi le acque che utilizzeremo per irrigare i nostri campi. Non credo sia più il tempo dei rinvii. Occorre agire. Presto.

Lebbra antiplastica: dalla fantasia alla realtà.

In evidenza

Claudio Della Volpe

Una delle serie più longeve della TV è quella di Doctor Who, un personaggio a metà fra lo scienziato e lo stregone che viaggia avanti e indietro nel tempo e nello spazio in una astronave con le apparenze di cabina telefonica inglese, originario di un altro pianeta ma con l’aspetto di un terrestre che lotta contro i cattivi e per la giustizia; partita negli anni 60 sulla BBC, dunque quasi 60 anni fa, è ancora sulla breccia. Incredibile.

Uno degli autori con più successo delle storie del Doctor Who è stato KIT Pedler, ossia Christopher Magnus Howard “Kit” Pedler, capo del dipartimento di microscopia elettronica dell’istituto di oftalmologia dell’Università di Londra, che è stato un noto autore di libri di fantascienza.

Pedler insieme con Gerry Davis curò un altro programma di fantascienza della BBC Doomwatch.

Il tema di una delle puntate di Doomwatch fu poi usato per scrivere nei primi anni 70 un libro destinato ad un notevole successo, Mutante 59, il mangiatore di plastica, tradotto in italiano con il titolo di Lebbra antiplastica.  Nel libro una mutazione spontanea di alcuni batteri li porta ad attaccare la plastica e produce una gran quantità di disastri prima di essere debellata.

Lo spirito degli autori va in controtendenza rispetto al clima di scienza ultrapossente che spadroneggiava all’epoca, con l’idea che la catastrofe possa annidarsi dove meno ce lo aspettiamo.

Pendler fu anche autore di un libro sull’ecologia del pianeta e sull’ipotesi Gaia, sviluppata da James Lovelock, un modo di spiegare ed introdurre nella scienza i meccanismi di retroazione che rendono la biosfera un sistema complesso e omeostatico, in un universo in continua trasformazione.Insomma un esponente indomito di quella scuola materialista, utopista inglese che vide fra i suoi esponenti di punta il grande biologo JBS Haldane.

L’idea di batteri che potessero “mangiare” la plastica, che è un prodotto sintetico, non naturale è tornata a più riprese non solo nella letteratura, ma sempre più anche nella ricerca; e in anni recenti si è tramutata in ricerca di punta con lo scopo di rendere la plastica un materiale effettivamente riciclabile. Ci sono state osservazioni fortunate, serendipità vera e propria di cui abbiamo reso conto in un post del 2017 (La serendipità della camola) la scoperta delle capacità di digerire la plastica di un comune insetto, la camola del miele.

In realtà ci sono vari organismi che sono in grado di digerire certi tipi di plastica grazie anche alla simbiosi con batteri.

Plodia interpunctella e Galleria mellonella (la camola) , si è dimostrato che possono digerire il PE il primo certamente attraverso l’azione della sua flora intestinale, Enterobacter asburiae e un tipo di Bacillus. Ma si sa che esistono altri casi come Aspergillus tubingensis e Pestalotiopsis microspora, due funghi che digeriscono il poliuretano.

Vi riferisco qua dei tre sistemi enzimatici in grado di aggredire il PET che sono stati scoperti e migliorati in questi ultimi anni.

Nel 2016 Yoshida e collaboratori del Kyoto Institute of Technlology scoprirono un batterio la Ideonella Sakaiensis in grado attraverso due enzimi specifici di degradare il PET a acido tereftlaico e etilenglicole.

I due enzimi chiamati PETasi e MHETasi sono di dimensioni alquanto diverse come appurato da ricerche sucessive. . Nell’aprile 2018 la struttura del Petase è stata decodificata grazie a una ricerca condotta fra Gran Bretagna e Stati Uniti (2)e pochi giorni fa è stata decodificata anche quella del secondo enzimaLa PETasi è la prima forbice a entrare in azione, scomponendo la plastica in frammenti; quindi la MHETasi, molto più grande del primo enzima, scompone i frammenti fino a ottenere gli elementi di base del Pet, ossia l’acido tereftalico e il glicole etilenico.

La conoscenza dei due enzimi e del loro meccanismo di azione apre la possibilità della loro riprogettazione (attraverso modifiche geniche dei batteri) e del loro miglioramento in termini di efficienza, con potenziali enormi ricadute applicative per quanto riguarda l’economia circolare.

Riferimenti.

1) Science, 1196 11 MARCH 2016 • VOL 351 ISSUE 6278

A bacterium that degrades and assimilates poly(ethylene terephthalate) Shosuke Yoshida et al.

 

2) E4350–E4357 | PNAS | vol. 115 | no. 19

Characterization and engineering of a plastic-degrading aromatic polyesterase

Harry P. Austin   et al

3) NATURE COMMUNICATIONS | (2019)10:1717 | https://doi.org/10.1038/s41467-019-09326-3 | http://www.nature.com/naturecommunications

Structure of the plastic-degrading Ideonella sakaiensis MHETase bound to a substrate Gottfried J. Palm et al.

Chimica: oltre le apparenze.

In evidenza

Mauro Icardi

Ho avuto occasione ultimamente, di discutere e scambiare opinioni con ragazzi molto giovani. Cosa che cerco di fare sempre molto volentieri, in particolare se la discussione verte su temi oggi molto sentiti. In particolare la crisi ambientale e climatica. Durante questi anni di collaborazione al blog, ho sempre espresso con chiarezza il mio punto di vista, raccontando anche quale sia stata la mia formazione personale. Non solo legata al percorso formativo scolastico, ma anche a quello dello studio successivo. Studio legato alla formazione continua che ho seguito per passione personale, molto prima di doverlo fare per rispettare le indicazioni e i regolamenti dell’ordine professionale. Parlando con uno studente giovane, che appartiene ad uno dei gruppi locali italiani di “Friday for future”, ho raccontato della mia formazione e interesse per questi temi. E mi sono anche qualificato come chimico ambientale. La risposta che ho ricevuto, mi ha lasciato vagamente sbigottito. Sostanzialmente questo ragazzo mi ha detto “Lei è un chimico e si interessa di queste cose?” Abbiamo ancora chiacchierato per una mezz’oretta, con la promessa di mantenerci eventualmente in contatto.

Per l’ennesima volta ho sentito crescere dentro di me una sensazione di palese ingiustizia. Per riassumerla credo che questo brano, tratto dall’editoriale del mese di Marzo de “L’almanacco delle scienze” del CNR, a firma di Marco Ferrazzoli sia decisamente utile.

Sta di fatto che la chimica sembra scontare sia la sottovalutazione della sua importanza per la vita dell’uomo, sia la sopravvalutazione dei rischi a cui viene consuetamente legata. Chimica vista quindi come scienza complicata, noiosa, oppure causa dell’inquinamento e responsabile della mancanza di rispetto per la natura e per il Pianeta. La chimica se la batte quasi con la matematica per il titolo di disciplina più negletta a livello popolare e mediaticamente con minor appeal. Un giudizio severo, ingiusto, immotivato, poiché si tratta invece di una materia di grande fascino e importanza, a patto ovviamente che sia spiegata e comunicata in modo efficace e comprensibile.

Questo è quello che cerchiamo di fare anche noi che scriviamo su questo blog.

Per quanto riguarda la mia formazione personale, e per il lavoro che svolgo, la chimica e le nozioni principali di questa scienza sono state il mio costante ausilio. Il mio lavoro riguarda l’acqua e la sua salvaguardia. Negli anni mi sono confrontato con moltissime persone (ingegneri, biologi, tossicologi) e con molte persone con le quali collaboro per lavoro (elettricisti, meccanici). Da tutti ho ricevuto qualcosa, e a tutti ho cercato di dare qualcosa. Ma con quasi tutti ho dovuto faticare, lavorare ai fianchi. Per dimostrare (o tentare di farlo) che la chimica è qualcosa di molto diverso, da una sorta di vaso di Pandora dal quale sono scaturiti tutti i mali di questo nostro tempo. Altre volte ho scritto pezzi in difesa di una scienza che a troppi appare come il ricettacolo di ogni male. Mi occupo di acqua. Bastano queste poche nozioni per capire la bellezza della chimica.

Le eccezionali proprietà chimico-fisiche e la maggior parte di quelle chimiche dell’acqua sono legate alla sua polarità elettrica e alla possibilità di formare legami a idrogeno intermolecolari. Pur essendo formata da molecole semplici, possiede una stabilità chimica sorprendentemente elevata. Poiché le sue molecole sono polari è un solvente eccellente per sali e molecole che presentano legami polari (soluzioni).

Questo brano è tratto da appunti scritti a macchina che ho conservato gelosamente. Risalgono all’anno scolastico 1974/75. Frequentavo la seconda classe della scuola secondaria di primo grado, meglio conosciuta come seconda media. Mi vennero regalati da un ragazzo di qualche anno più vecchio di me, che frequentava il liceo scientifico. Sono stati in qualche modo profetici.

Non vorrei ripetere concetti già espressi. Sarebbe tutto sommato noioso e ripetitivo ritornare sul concetto che la chimica ha rischi, ma ci ha concesso molti benefici. Che molto del benessere di cui godiamo oggi, e delle cose a cui siamo abituati dipende da scoperte fatte nei laboratori chimici. Non mi voglio ripetere. La chimica che utilizzo io, è una chimica che deve affinare i propri metodi analitici. Che deve migliorare la parte preparativa dei campioni difficili (fanghi, morchie,reflui, rifiuti di varia tipologia). E’ una chimica che deve modellizzare flussi di acque, oppure di inquinanti aerodispersi. E che quindi deve dialogare strettamente con fisica e matematica. Una chimica che deve guardare al proprio futuro. E che sarà modificata da chi la vorrà studiare con lo stesso impegno. Ritornando per un attimo alla conversazione di cui parlavo all’inizio, mi ha fatto invece molto sorridere l’idea che quel ragazzo aveva della chimica, cioè che si occupasse esclusivamente di petrolio. In parte è vero, se uno sfoglia in maniera distratta e superficiale un testo di chimica organica. Io continuo a studiarla, magari non sistematicamente. Tenendo sul comodino (si lo confesso) dei testi che ogni tanto rileggo, o per meglio dire riassaporo. Tutto questo mi serve ogni giorno, e mi aiuta anche a mantenermi aggiornato ed attento.

Ecco, vorrei dire a quel ragazzo ,e a chi avrà la pazienza e la voglia di leggere questo post. Provate anche voi ad approcciarla. Se lo farete sono certo che troverete almeno un argomento che vi potrà appassionare. Ma per farlo liberatevi da condizionamenti che non hanno più ragione di essere. Perché posso assicurarvi che anche i chimici possono essere artefici di un nuovo modo di guardare al mondo, al pianeta ed al futuro.

E credo ne abbiano tutto il diritto. Lo abbiamo scritto come presentazione di questo blog : “Nell’Antropocene, l’epoca geologica attuale fortemente caratterizzata dalle attività dell’uomo, la Chimica ha il compito di custodire il pianeta e aiutare a ridurre le diseguaglianze mediante l’uso delle energie rinnovabili e dell’economia circolare.

Provate a leggere la tavola periodica, come fosse il calendario dell’avvento, anche se il Natale è trascorso, ed il prossimo non è alla porte. Provateci, potreste rimanerne finalmente affascinati, abbandonando le due p che si legano alla chimica. Tranquilli, non sto parlando delle p degli orbitali sp. Sto parlando delle p che significano le iniziali di preconcetto e pregiudizio. Che la chimica davvero non merita. Datele una possibilità.

NdA. Spero che le immagini “leggere” di questo post non siano fraintese. Tutto può servire a mio parere ad avvicinare, non solo alla chimica, ma alla conoscenza in generale.

Altre storie di piante e di chimica.

In evidenza

Claudio Della Volpe

Abbiamo recentemente parlato del metil-jasmonato,una molecola simile alle prostaglandine, che serve alle piante a costruire un sistema per comunicare alle altre piante situazioni di pericolo ed a difendersi da esso . E’ un esempio di come le piante non siano esseri che “vegetano”, vegetali come li chiamiamo sprezzantemente noi umani, ma complessi sistemi viventi diversi da noi, alieni, costruiti secondo una logica differente, ma non per questo meno efficace.

La storia di come le piante comunicano ha a che fare con la loro chimica e ci insegna tante cose.

Stavolta vi racconto la storia di come i sistemi di comunicazione delle piante che sono altamente evoluti possono essere messi in difficoltà da un insetto pestifero; e di cosa possiamo imparare da questa lotta fra piante e insetti e dalla sofisticata chimica che vi viene usata.

Questa storia è stata scoperta e raccontata in un lavoro (1) pubblicato di recente su PNAS.

La mosca bianca del tabacco (Bemisia tabaci), scoperta dapprima sul tabacco, è in realtà un insetto responsabile di danni molto ingenti a parecchi tipi di piante coltivate, come il pomodoro. Infatti essa è prima di tutto polifaga, mangia di tutto, induce dunque danni a parecchie colture e per quote elevate, ma trasporta anche virus di vario genere.

La mosca bianca del tabacco.

E’ caratteristica comune di questa specie di insetti, ma anche di altri della medesima famiglia (denominata Aleurodidi) avere comportamenti che ne rendono difficile l’eliminazione: elevato potenziale riproduttivo, insorgenza di fenomeni di resistenza, difficoltà intrinseca di raggiungere con gli insetticidi di copertura la pagina inferiore delle foglie dove comunemente stanziano, la polifagia, ossia l’essere onnivori, attaccare molte piante diverse, la mobilità degli adulti e, infine, la semplificazione degli agrosistemi, in particolare le colture protette in serra, in termini di biodiversità.

Per tutti questi motivi si è sviluppato un grande interesse nello scoprire come queste tipologie di insetti riescono ad essere così invasivi.

La premessa del racconto è che le piante rispondono agli erbivori e alle infezioni patogene con la sintesi di vari composti di difesa, inclusi composti volatili che sono emessi nell’ambiente circostante. Questi composti possono essere percepiti dalle piante vicine e le avvisano dell’attacco e anche dello specifico attaccante.

In particolare le piante usano un sistema a base di acido jasmonico (JA),

che interagisce con il sistema digestivo degli insetti compromettendone l’alimentazione, per difendersi dall’attacco degli insetti ed in genere dei mangiatori di foglie ed invece un secondo sistema a base di acido salicilico (SA), (proprio lui, il nostro antenato dell’aspirina) per comunicare e difendersi dai virus e dai patogeni.

E’ da notare che le due strade di difesa interferiscono, nel senso che se si accentua l’una si deprime l’altra e viceversa.

Difesa JA -> contro gli insetti e gli erbivori (mediata per esempio da (E)-β-ocimene, linaloolo e metil-isonicotinato, composti 8,10 e 11 della figura precedente, attacco di bruchi)

(E)-β-ocimene

linaloolo

metilisonicotinato

Difesa SA -> contro i virus e le infezioni (mediata per esempio da α-pinene e β-mircene, composti 3 e 4 della figura precedente attacco di Pst DC3000 una infezione batterica)

β- mircene

Le mosche bianche sono in grado invece di interferire in questo meccanismo inducendo come conseguenza nelle piante vicine una risposta sbagliata. L’attacco delle mosche bianche (nella prima riga) per esempio induce nel pomodoro la riduzione della produzione del composto 11, il metil-isonicotinato ed invece l’aumento del composto 3, l’α-pinene, così i pomodori circostanti attivano le difese contro i virus ma non quelle contro i mangiatori di foglie.

Ma come fa la mosca bianca ad indurre le piante a produrre il segnale sbagliato?

I ricercatori cinesi hanno usato sia esperimenti sul campo in ambienti controllati misurando le sostanze presenti nell’aria e nei tessuti, sia invece usando sostanze di sintesi, molecole sintetiche usate dalle piante come messaggeri e verificando che le piante infestate da batteri o attaccate da bruchi emettevano composti di allarme diversi da quelli emessi dalle piante attaccate dalla mosca bianca. Il meccanismo era messo in moto tramite l’attivazione di geni specifici. Hanno potuto escludere che la sostanza necessaria fosse emessa dalla mosca direttamente ma che invece la sua produzione era indotta nella pianta. Rimane da capire il meccanismo esatto di induzione da parte dell’insetto alla produzione della sostanza sbagliata da parte della pianta.

In effetti leggendo l’articolo ci si rende conto che la risposta potrebbe essere complessa; le piante potrebbero rispondere ai virus trasportati dagli insetti, quasi come cavalli di troia, prima che agli insetti e mentre combattono i primi sono distrutte dai secondi. Gli insetti da parte loro contribuiscono ad indebolire le difese anti-insetto stimolando quelle antivirus. Nella forma di ninfe fanno dire alle piante: attente ai virus e quando quelle si preparano a combattere i virus, gli insetti ormai maturati da ninfe in insetti adulti sono pronti a distruggerle.

Lotta per la vita mediata dalla chimica.

(1) Airborne host–plant manipulation by whiteflies via an inducible blend of plant volatiles

Peng-Jun Zhang, Jia-Ning Wei, Chan Zhao, Ya-Fen Zhang, Chuan-You Li, Shu-Sheng Liu, Marcel Dicke, Xiao-Ping Yu e Ted C. J. Turlings

Si veda anche Gli hacker delle piante su Internazionale 1301, pag. 102 oppure su The economist https://www.economist.com/science-and-technology/2019/03/30/whiteflies-are-such-a-pest-because-they-hack-the-way-plants-communicate

Spammatori di idrogeno.

In evidenza

Vincenzo Balzani

Bologna, 11 aprile 2019

                                    Lettera aperta al Corriere della Sera

Gentile Direttore,

Sul Corriere del 2 aprile a pag. 35 nella rubrica “Sussurri & Grida” c’era un titolo in grande,  “Snam sperimenta il mix idrogeno-gas, prima in Europa”, e un breve articolo nel quale si elogia “la prima sperimentazione in Europa da parte della Snam di una miscela di idrogeno al 5% e gas naturale (H2HG) fornita a un pastificio  e a un’azienda di imbottigliamento di acque minerali”. L’articolo poi continua così: “Una prima volta che <proietta la Snam e il nostro Paese nel futuro dell’energia pulita>, ha detto il CEO di Snam Marco Alverà, che era a Contursi insieme al sottosegretario al ministero per lo sviluppo economico Andrea Cioffi”. L’articolo infine conclude  notando che “L’idrogeno avrà un ruolo cruciale nel raggiungimento degli obiettivi europei e globali di decarbonizzazione al 2050”.

Forse è giusto aver messo questa notizia nella rubrica “Sussurri & Grida”.  Faccio notare, però, che i primi “sussurri” riguardo la possibilità di utilizzare miscele di idrogeno e metano risalgono al 2006 in Emilia Romagna e al 2010  in Lombardia come combustibile per auto, apparentemente senza successo.  Wikipedia ci informa che dal 2009 al 2013 è stato attivo il “progetto MHyBus“, finanziato dalla Commissione Europea con l’obiettivo di indagare scientificamente sul comportamento di un autobus per trasporto urbano alimentato con una miscela di idrometano al 15% di idrogeno. La relazione finale su questo progetto, al quale hanno lavorato Regione Emilia-Romagna, ENEA, ATM Ravenna, SOL ed ASTER, è molto sintetica: “l’autobus portato in strada ha mostrato significativi risparmi di carburante e riduzioni delle emissioni di anidride carbonica rispetto a un veicolo a metano”. Poi non si è sentito più nulla.

La prima domanda è allora che senso ha “gridare”  che “Snam sperimenta il mix idrogeno-gas, prima in Europa”? Il dubbio che viene è che in Europa nessuno se ne sia interessato perché hanno subito capito che non è una strada utile per decarbonizzare il mondo.

D’altra parte, come potrebbe essere altrimenti? L’idrogeno (5-15%) che viene miscelato al metano e che viene ottenuto anch’esso dal metano, forse migliora un po’ combustione, ma non può ridurre significativamente le emissioni totali di anidride carbonica e non ci sono prove né motivi scientifici cha possa abbattere le emissioni di ossidi di azoto e di particolato ultrafine.

La seconda domanda, allora, è come si può “gridare” che l’esperimento del pastificio di Contursi  <proietta la Snam e il nostro Paese nel futuro dell’energia pulita>?

E’ bene anche ricordare che l’idrogeno, come l’energia elettrica, non è una fonte energetica primaria, semplicemente perché non esiste in natura (non ci sono pozzi di idrogeno!).  La scienza è riuscita a convertire la luce solare, fonte di energia primaria abbondante ed inesauribile, in energia elettrica con ottimi rendimenti mediante i pannelli fotovoltaici. Se anche la scienza riuscirà ad ottenere idrogeno (pulito) dall’acqua mediante la cosiddetta fotosintesi artificiale,  non sarà conveniente “bruciarlo” in un motore a combustione, ma piuttosto convertirlo in elettricità mediante pile a combustibile per alimentare un motore elettrico, che è 3-4 volte più efficiente di un motore a combustione. Ecco, quindi, che la terza  <grida> dell’articolo,  “L’idrogeno avrà un ruolo cruciale nel raggiungimento degli obiettivi europei e globali di decarbonizzazione al 2050”, andrebbe dedicata non all’idrogeno, ma all’energia elettrica prodotta con fonti rinnovabili.

D’altra parte, basta guardare a quello che accade nei paesi all’avanguardia nei trasporti pubblici. Mentre noi stiamo parlando di cose inutili come l’idrometano, un fantasma con cui le compagnie petrolifere tentano disperatamente di tenere in vita i motori a combustione, in Cina ogni cinque settimane vengono messi in strada 9.500 bus elettrici, un numero uguale a quello della intera flotta di bus di Londra. Gli autobus elettrici in funzione nel mondo sono già più di 300.000 e si prevede che dal prossimo anno costeranno meno di quelli convenzionali utilizzati nelle città. È probabile che nel 2040 l’80% di tutti gli autobus saranno elettrici.

Un discorso simile vale per le tratte non elettrificate delle linee ferroviarie. Mentre la Snam spinge per sostituire le motrici a gasolio con motrici a LNG (metano liquefatto), in altri paesi utilizzano treni elettrici alimentati da batterie.

Infine, sempre Snam è molto attiva per diffondere l’uso del biometano per autotrazione. Anche questo è un estremo tentativo per tener in vita il motore a combustione: fin che ci saranno opportunità per usare questi motori, una parte (anzi, la gran parte) di essi continuerà, infatti, ad usare metano fossile. Questo è anche ciò a cui mira la politica di Eni, che continua a trivellare in molte parti del mondo anche se è noto che le riserve di combustibili fossili già disponibili alle compagnie petrolifere sono superiori alle quantità di combustibili fossili che potremo utilizzare senza causare danni gravi al pianeta. Eni e Snam, aziende controllate dallo Stato, fanno quindi una politica in netta contraddizione con quella ufficiale del Governo che, almeno a parole, sostiene la transizione dai combustibili fossili alle energie rinnovabili.

Cordiali saluti,

Vincenzo Balzani, Università di Bologna, Coordinatore del gruppo energiaperlitalia

 

Il racconto del 2019.

In evidenza

Claudio Della Volpe

Come sappiamo questo è l’anno dedicato alla Tavola periodica degli elementi; e certo la rubrica che ci siamo inventati sul più alto numero possibile di elementi da commentare facendo riferimento al loro ciclo biogeochimico ed mano è un modo di celebrarlo. Così come gli innumerevoli riferimenti al nostro autore preferito, Primo Levi ed alla sua opera “Il Sistema periodico”, che sembra fatta apposta per questo anno.

Ma c’è un altro racconto, almeno uno, di fantascienza, scritto molti anni fa, nel 1957, che merita di essere citato come racconto dell’anno.

Il racconto di cui di parlo oggi si chiama “Omnilingual” (Onnilinguista) e fu scritto da uno scrittore americano, Henry Beam Piper e pubblicato su una delle più note riviste di FS del mondo, ossia Astounding Science Fiction; il racconto mi è stato segnalato da due soci della sez. TAA della SCI i colleghi Jolanda Filippi e Marino Kofler.

Henry Beam Piper, morto a soli 60 anni nel 1964 fu uno scrittore autodidatta che scrisse varie serie di racconti legati da due temi: lo sviluppo di una futura federazione terrestre, una sorta di storia del futuro umano e storie basate su pianeti alternativi alla Terra.

Omnilingual è un racconto breve scritto nel 1956-57 e publicato nel numero di febbraio 1957 della rivista; il testo inglese è pubblico, ma non so quello italiano che comunque si trova in rete, se aveste problemi a trovarlo chiedetemi;

https://www.gutenberg.org/files/19445/19445-h/19445-h.htm

Quell’anno è stato un anno decisivo nella scienza e tecnologia internazionali. E’ noto per essere stato il primo anno geofisico internazionale che vide una collaborazione vastissima di ricercatori in ambito geofisico ma anche astronomico; era in corso la lotta per la supremazia spaziale e verso la fine di quell’anno il primo satellite artificiale solcò lo spazio attorno alla Terra, lo Sputnik 1, un piccolo dispositivo che rimase in orbita per parecchio tempo.

L’interesse per lo spazio era enorme.

Il racconto si svolge in un futuro prossimo (e per noi passato) nel 1997 e racconta l’esplorazione di Marte e la scoperta di un modo per tradurre la lingua marziana, una ipotetica civiltà fiorita sul pianeta rosso solo 50.000 anni prima. La protagonista è una astroarcheologa che spera di trovare un modo per tradurre la lingua marziana contro le opinioni di tutti i suoi colleghi maschi.

Ma era il massimo a cui arrivava. Era in grado di pronunciare dalle tre alle quattromila parole marziane, ma non era in grado di assegnare un significato a nessuna di esse. Selim von Ohlmhorst era convinto che non ci sarebbe mai riuscita. E lo stesso credeva Tony Lattimer, il quale era assai meno reticente a dirlo. Ed era sicura che anche Sachiko Koremitsu la pensava allo stesso modo. Di tanto in tanto c’erano momenti in cui cominciava ad aver paura che avessero ragione.

Le lettere sulla pagina davanti a lei cominciarono ad agitarsi e a danzare, magre vocali con piccole e grasse consonanti. Adesso lo facevano ogni notte, nei suoi sogni. E c’erano altri sogni nei quali lei le leggeva con la stessa facilità dell’inglese; quando si svegliava, cercava disperatamente, ma invano, di ricordarsene.

Marte è coperto di polvere depositata dalle famose tempeste e le costruzioni dei marziani sono accessibili solo dalle sommità che emergono.

La squadra terrestre esplora ed occupa questi edifici condizionandoli per usarli come propria base e trova anche materiali nuovi che sulla Terra non sono ancora stati inventati.

Già, ma come si fa a tradurre la lingua di una civiltà di un altro pianeta, ormai scomparsa in assenza di una pietra di Rosetta come è servita sulla Terra per le lingue di altre culture di società più primitive tecnologicamente?

E’ una domanda a cui Asimov, che presenta il testo, dichiara di non essere riuscito a rispondere pur essendo un chimico.

Quando lessi per la prima volta questo racconto nel 1957, non riuscii a prevedere in anticipo la soluzione di Beam. Ma questo non mi rese felice. Mi riempì d’un inconsulto rincrescimento. Avrei dovuto. Ancora oggi per me «Onnilinguista» è la storia il cui finale non mi riuscì di prevedere, anche se avrei dovuto.

Oh, be’, se non avete mai letto la storia, forse riuscirete a fare meglio di me.

ma in realtà la risposta è facile e nella sua forma generale è stata anche applicata da noi stessi nei materiali inclusi nelle due sonde inviate nello spazio profondo: il Pioneer e il Voyager.

Una civiltà avanzata, che domina lo spazio e che dunque per forza di cose conosce la scienza ha un riferimento che è comune a qualunque altra intelligenza, ossia la Natura stessa e le sue leggi e secondo alcuni anche la matematica. Sia su Pioneer che su Voyager ci sono delle piastre d’oro con incisi simboli che si sono ritenuti di universale interpretazione.

Alcuni dei simboli fanno riferimento ad aspetti chimico spettroscopici (come la transizione iperfine dell’idrogeno), ma nulla fa riferimento alla Tavola.

Ho qualche dubbio che siano così banali da interpretare, mentre una tavola periodica o perfino alcuni elementi chimici tipo la Heritage Table ma inserendoci quelli radioattivi sarebbe stata a mio parere comprensibile, fornendo la possibilità di associare numeri e costanti universali o altre notizie come le lettere dell’alfabeto e la loro posizione nell’alfabeto.

«Quella non è soltanto la tavola marziana degli elementi: è la tavola degli elementi. È l’unica che ci sia,» esclamò Mort Tranter, quasi sul punto di esplodere. «Guarda, l’idrogeno ha un protone e un elettrone. Se invece avesse più protoni ed elettroni non sarebbe più idrogeno, ma qualcos’altro. E lo stesso vale per il resto degli elementi. E l’idrogeno, su Marte, è uguale a quello sulla Terra, o su Alfa Centauri, o nella galassia più lontana…»

«Basterà che tu metta i numeri in quell’ordine, e qualunque studente del primo anno di chimica potrà dirti che elementi rappresentano,» disse Penrose. «Sempre che voglia essere promosso, s’intende.»

La Tavola Periodica è uno dei più potenti strumenti di comprensione della Natura e rappresenta verosimilmente una costante universale, qualcosa che non cambia in nessun posto dell’Universo conosciuto dove la vita possa svilupparsi. Il suo uso come strumento di comunicazione è un altro aspetto di questa universalità.

Ed è appunto la scoperta di una tavola degli elementi marziana che consentirà alla protagonista di avere la sua Stele di Rosetta; una stele che varebbe per qualunque civiltà dell’Universo conosciuto, sappiamo infatti dalle osservazioni astronomiche, dalla spettroscopia stellare che la materia è la stessa dappertutto con gli stessi atomi, almeno nella sua parte più facile da sperimentare; se dunque trovassimo una civiltà stellare certamente la tavola Periodica sarebbe uno strumento di comunicazione comune.

Voi che ne dite?

Elsie May Widdowson (1906-2000)

In evidenza

Rinaldo Cervellati

Elsie Widdowson è stata una delle prime donne a ottenere un dottorato di ricerca in chimica all’Imperial College, nato come Istituto di Scienze, Tecnologia e Medicina, uno dei primi college inglesi ad accettare studenti di sesso femminile.

Elsie Widdowson nacque il 21 ottobre 1906 a Wallington, una cittadina nella contea di Surrey, non molto distante da Londra. Il padre faceva l’assistente droghiere. Elsie frequentò la Sydenham County Grammar School for Girls a Durwich, un sobborgo di Londra. La sua materia preferita era la zoologia e lei pensava di proseguirne gli studi all’università. Tuttavia ebbe un’ottima insegnante di chimica che la convinse piuttosto a scegliere questa materia. La tradizione voleva che le donne si iscrivessero ad uno dei college a loro riservati. Incoraggiata da tre ragazze più grandi di lei che erano andate all’Imperial College, decise di fare la stessa cosa. Si trovò in un ambiente del tutto maschile: nell’anno in cui si iscrisse su circa 100 studenti soltanto tre erano donne.

Widdowson sostenne gli esami per il diploma di B.Sc. dopo due anni ma le fu riconosciuto soltanto un anno dopo, nel 1928. Trascorse questo periodo nel laboratorio di biochimica del prof. S.B. Schryver[1] che si occupava di chimica di proteine e aminoacidi estratti da vegetali. A quei tempi non c’era la cromatografia e nel laboratorio si utilizzavano metodi chimici di separazione, lavorando con grandi quantità di materiale contenute in recipienti enormi.

Verso la fine del 1928 Widdowson iniziò il lavoro post-diploma nel Dipartimento di Fisiologia Vegetale dell’Imperial College, che aveva ottenuto una sovvenzione governativa per la ricerca sulla chimica e fisiologia delle mele. Responsabile della ricerca era Helen Porter[2] che affidò a Elsie il compito di analizzare i carboidrati dei frutti dal momento della loro comparsa sugli alberi fino alla maturazione e raccolta, e successivamente durante lo stoccaggio. Per questo lavoro Widdowson si recava ogni due settimane nei frutteti del Kent a raccogliere i frutti di specifici alberi per poi analizzarli in laboratorio. Mise a punto un metodo per separare e analizzare amido, emicellulose, saccarosio, fruttosio e glucosio nelle mele. Nel 1931 pubblicò i risultati di questa lunga ricerca su Biochemical Journal [1]. Nello stesso anno ottenne con questo lavoro il dottorato in chimica.

Indubbiamente Helen Porter diede a Elsie aiuti e consigli, e le comunicò il suo amore per la ricerca, che lei conservò per tutta la vita.

Esaurita la sovvenzione, Widdowson, che peraltro non desiderava dedicare la sua vita alle piante ma era più interessata agli animali e agli umani, lasciò il Dipartimento di Fisiologia Vegetale. Nel 1932 si recò al Courtauld Institute del Middlesex Hospital, facendo ricerche sotto la guida del Professor Edward C. Dodds[3], acquisendo esperienza in biochimica umana. Nei 18 mesi passati al Courtauld, pubblicò i risultati di una ricerca sul confronto fra l’urina e le proteine del siero di soggetti sani e di malati di nefrite [2].

Nel 1933 Elsie rimase senza occupazione e in quei tempi i lavori di ricerca erano difficili da trovare, soprattutto per una donna. Il professor Dodds le disse che quella della dietetica era una professione promettente e, su suo consiglio, Widdowson si iscrisse al primo corso di diploma post-universitario in dietetica, nel Dipartimento di Economia domestica e Scienze sociali al King’s College, diretto dal prof. V.H. Mottram[4].

Figura 1 Elsie May Widdowson

Nella prima parte del corso Widdowson dovette studiare tecniche di cucina industriale nelle cucine del King’s College Hospital. Qui incontrò Robert McCance, un giovane medico che indagava gli effetti chimici della cottura dei cibi come parte della sua ricerca clinica sul trattamento del diabete. Widdowson rilevò un errore nella tecnica analitica di McCance sul contenuto di fruttosio nella frutta, entrambi realizzarono inoltre che c’erano errori significativi anche nelle tabelle nutrizionali standard. Da quel momento iniziò fra i due un sodalizio scientifico che durò per i successivi 60 anni (figura 2), fino alla morte di McCance avvenuta nel 1993[5].

Figura 2

Su suggerimento di Elsie i due ricercatori si proposero di analizzare in dettaglio la composizione di tutti gli alimenti che componevano la dieta britannica. Questa ricerca, durata per più di 15 anni, richiese circa 15000 analisi e condusse alla raccolta dei risultati nel volume The chemical composition of foods, senza dubbio uno dei libri più longevi (v. nota 5).

Poiché McCance e Widdowson stavano raccogliendo così tante informazioni sulla composizione del cibo, erano in una posizione privilegiata per calcolare l’assunzione di energia e sostanze nutritive da parte di uomini, donne e bambini individualmente, invece che basarsi sulle famiglie come era stato fatto fino ad allora. Elsie iniziò le sue indagini seguendo le assunzioni dietetiche dapprima di 63 uomini e 63 donne (lei compresa), per un periodo di una settimana. In seguito estese l’indagine su oltre 1000 bambini e ragazzi di età compresa fra 1 e 18 anni. I risultati evidenziarono la grande variazione nel fabbisogno energetico e sostanze nutritive tra un individuo e un altro dello stesso sesso ed età [3,4]. I Sali minerali (Cu, Zn, Cr e Co) e la loro escrezione furono oggetto di questa e successive ricerche.

Seguì un periodo molto intenso. A McCance furono concessi alcuni letti per pazienti nell’ospedale del King’s College. In particolare, una dei degenti era affetta da policitemia vera e venne trattata con acetil fenilidrazina. Così facendo si ruppero abbastanza globuli rossi da liberare 5 grammi di ferro nel suo corpo. Con loro grande sorpresa il ferro non venne escreto. McCance e Widdowson quindi si auto iniettarono e iniettarono a colleghi volontari ferro per via endovenosa[6].

Anche in questo caso il ferro non fu escreto. Ciò li portò a suggerire che la quantità di ferro nel corpo deve essere regolata non per escrezione ma per assorbimento intestinale controllato. Studi più sofisticati dimostrarono la veridicità dell’ipotesi [5-8].

McCance, analizzando le urine di pazienti in coma diabetico, notò che queste erano prive di sale (cloruro di sodio). Insieme a Widdowson iniziarono una serie di test clinici su volontari cui veniva applicata una dieta senza sale. I risultati di questi esperimenti aiutarono i medici a comprendere l’importante ruolo dei fluidi e del sodio nell’organismo [9].

Oggi, il mantenimento dell’equilibrio dei fluidi e del sale è una parte del trattamento standard dei pazienti con coma diabetico, disfunzioni renali e infarto cardiaco e di chi ha subito interventi chirurgici.

In seguito alla pubblicazione degli articoli sull’assorbimento del ferro, a McCance fu offerto il posto di Lettore di Medicina all’Università di Cambridge. Egli accettò a patto che anche Elsie Widdowson fosse assunta, in modo che la loro collaborazione non si interrompesse. Così McCance e Widdowson si trasferirono a Cambridge nel 1938.

Dopo pochi mesi scoppiò la Guerra. Widdowson, McCance e i loro colleghi divennero essi stessi soggetti sperimentali adottando per diversi mesi una dieta molto povera costituita da pane, cavoli e patate con poca carne e latticini, per scoprire se tale dieta potesse influire sulla loro salute (fig. 3).

Figura 3 Widdowson (al centro), McCance (alla sua destra) e il loro staff mentre sperimentano la loro dieta, 1940 ca.

Dimostrarono che una buona salute poteva essere supportata da questo tipo di dieta se integrata con calcio e vitamine. Il ministro degli approvvigionamenti li nominò responsabili della formulazione del razionamento bellico della Gran Bretagna durante la seconda guerra mondiale. A questo scopo suggerirono di aggiungere piccole quantità di sali di calcio al pane e il loro lavoro è diventato la base della dieta di austerità in tempo di guerra [10].

Dal 1946 Widdowson e McCance lavorarono al Medical Research Council partecipando alla riabilitazione delle vittime della grave inedia nei campi di concentramento nazisti. Visitarono i Paesi Bassi e la Danimarca per studiare l’impatto della dieta in tempo di guerra sulla salute di queste popolazioni sotto l’occupazione tedesca. I due scienziati furono anche per diverso tempo nella Germania del primo dopoguerra visitando diversi orfanotrofi dove il cibo era severamente razionato e di conseguenza i bambini erano denutriti.

Widdowson proseguirà poi questa ricerca nei successivi anni ’50, ’60 e ’70 studiando la malnutrizione in Africa.

Nel 1949 Widdowson e McCance tornarono al Medical Department di Cambridge, riprendendo la ricerca che avevano lasciato prima della guerra sulla composizione del corpo umano. Studiarono le variazioni di composizione dalla nascita alla maturità, analizzando gli stessi costituenti come avevano fatto con gli alimenti: grassi, proteine, carboidrati, ecc. Questa ricerca condusse a numerose pubblicazioni in collaborazione, la più importante è riportata in [11].

La ricerca si estese al confronto con la composizione degli organismi animali e alle funzioni di organi come reni e fegato.

Figura 4 Elsie Widdowson in età matura

Nel 1968 Elsie si trasferì al Dunn Nutrition Laboratory del Medical Research Council, come capo della divisione di ricerca sulla nutrizione infantile. I suoi studi portarono a un importante confronto fra la velocità di crescita di diverse specie animali, fra cui l’uomo [12]. Widdowson mostrò che un neonato umano ha il 16% del suo peso in grasso, molto più elevato dell’1-2% in altre specie. Ha anche studiato l’importanza del contenuto nutrizionale delle diete per bambini, in particolare di tracce di vitamine e minerali nel latte materno. Questo lavoro portò alla revisione degli standard per i sostituti del latte materno nel Regno Unito negli anni ’80.

Nel 1973 si ritirò una prima volta continuando comunque a fare ricerca nel Dipartimento di Medicina Investigativa, nuovo nome dato al Dipartimento di Medicina Sperimentale di cui McCance era stato direttore. Agli amministratori dell’ospedale, sensibili ai movimenti animalisti non piaceva la parola “sperimentale”. Per un certo tempo usufruì di un laboratorio e seguì alcuni studenti di dottorato, ma anche quando il laboratorio non fu più disponibile aveva ancora un ufficio che il direttore Ivor Mills le permise di mantenere fino a quando andò in pensione. Elsie si ritirò per la seconda volta nel 1988.

Anche questo fu però un ritiro “attivo”: Widdowson aveva assunto molte responsabilità, in particolare la presidenza della British Nutrition Foundation dal 1986 al 1996, la presidenza di diversi comitati nazionali e internazionali e la presidenza della Società Nutrizionale e della Società Neonatale.

Elsie Widdowson fu nominata membro della Royal Society nel 1976 e Commander of the Order of the British Empire nel 1979. Ricevette lauree ad honorem da università britanniche e americane.

È morta all’Addenbrooke Hospital (l’Ospedale di Cambridge) in seguito a un ictus il 14 giugno 2000.

Elsie Widdowson divenne una persona famosa e molto amata dai suoi connazionali, oltre ai necrologi sulle riviste specializzate (Nature, 2000, 406, 844), è stata ricordata sui quotidiani: The Telegraph (22/6/2000), The Guardian (22/6/2000) e l’autorevole The Economist (14/6/2000).

Omaggio a Elsie Widdowson

Opere consultate

  1. Ashwell, Elsie May Widdowson, C.H., Biogr. Mems Fell. R. Soc. Lond. 2002, 48, 483–506.

Bibliografia

[1] E. Widdowson, A method for the determination of small quantities of mixed reducing sugars and its application to the estimation of the products of hydrolysis of starch by taka-diastase. Biochem. J., 1931, 25, 863–879.

[2] E. Widdowson, A comparative investigation of urine- and serum-proteins in nephritis. Biochem. J. 1932, 27, 1321-1331.

[3] R.A. McCance, E. Widdowson, A study of English diets by the individual method. Part I. Men. J. Hyg., Camb., 1936, 36, 269–292.

[4] R.A. McCance, E. Widdowson, A study of English diets by the individual method. Part II. Women, J. Hyg., Camb., 1936, 36, 293–309.

[5]R.A. McCance, E. Widdowson, The fate of the elements removed from the blood-stream during the treatment of polycythaemia by acetyl-phenylhydrazine. Q. J. Med. 1937, 6, 277–286.

[6] R.A. McCance, E. Widdowson, The absorption and excretion of iron before, during and after a period of very high intake. Biochem. J., 1937, 31, 2029–2034.

[7] R.A. McCance, E. Widdowson et al., Absorption and excretion of iron. Lancet, 1937, 230(5951), 680–684.

[8] R.A. McCance, E. Widdowson, The absorption and excretion of iron following oral and intravenous administration. J. Physiol., Lond., 1938, 94, 148–154.

[9] R.A McCance, E. Widdowson, The secretion of urine in man during experimental salt deficiency. J. Physiol., Lond. 1937, 91, 222–231.

[10] R.A. McCance, E. Widdowson, Mineral metabolism of healthy adults on white and brown bread dietaries. J. Physiol., Lond. 1942, 101, 44–85.

[11] R.A. McCance, C.M. Spray, E. Widdowson, The chemical composition of the human body. Clin. Sci. 1951, 10, 113–125.

[12] E. Widdowson, Harmony of Growth, Lancet, 1970, 295(7653), 901-905.

[1] Samuel Barnett Schryver (1869-1929) chimico e biochimico britannico, professore all’Imperial College di Londra, è stato un pioniere nell’isolamento di amminoacidi da proteine vegetali.

[2] Di Helen Kelp Archbold Porter (1899-1987) parleremo in un prossimo articolo.

[3] Edward Charles Dodds (Sir) (1899-1973) biochimico britannico, professore di Biochimica all’Università di Londra. I suoi interessi scientifici furono ampi e vari; ebbe un continuo interesse per il cancro e la ricerca sulle sue cause, e fu anche un’autorità in materia di alimentazione e dieta. Incoraggiò sempre colleghi più giovani in attività quali immunopatologia, chimica degli steroidi, citochimica e al lavoro che portò alla scoperta dell’aldosterone.

[4] Vernon Henry Mottram (1882-1976), biochimico e fisiologo britannico compì inizialmente ricerche sul metabolismo dei grassi nel fegato, per dedicarsi poi alla chimica della nutrizione. Divenuto professore di Fisiologia al King’s College di Londra nel 1920, raccolse i suoi studi nel volume Human Nutrition (1944).

[5] Robert Alexander McCance, (1898-1993) britannico, è stato un pediatra, fisiologo, biochimico e nutrizionista, primo professore di Medicina Sperimentale all’Università di Cambridge. Coautore insieme a Elsie Widdowson dell’ampio volume The Chemical Composition of Foods, 1940. Il libro divenne noto come riferimento per il pensiero nutrizionale occidentale moderno, più volte riedito fino al 2002.

[6] A questo proposito Elsie Widdowson scrisse: “Non pensavamo di usare soggetti umani in esperimenti che comportassero dolori o difficoltà, a meno che non avessimo fatto gli stessi esperimenti su noi stessi”

Cenere sei e cenere ritornerai.

In evidenza

Claudio Della Volpe

Una frase famosa della Genesi (3,19), ma stavolta il gioco di parole (sostituendo cenere a polvere, ma tenete presente che dopo tutto la festa è “delle Ceneri”) mi serve per parlare di combustione e di incendi e di come si spengono gli incendi.

Quando ero un giovane studente di chimica una sera ho invitato a cena i nuovi amici che mi ero fatto, fra i quali anche qualche laureato e docente; mio padre che era anche lui appassionato di chimica (aveva fatto l’assistente di laboratorio durante la prigionia nella 2 guerra mondiale) partecipava alla conversazione e mi fece fare una figuraccia. Non ricordo come la conversazione arrivasse alla combustione, ma “Di cosa sono fatte le ceneri?” se ne uscì. Beh io non lo sapevo e dunque cominciai ad “arrotolarmi”, materiale non bruciato, carbone, legna degradata; assolutamente no.

Sotto lo sguardo severo di Ugo Lepore, che insegnava allora stechiometria. Volevo scomparire.

La cenere è fatta di ossidi di metalli del primo e secondo gruppo (potassio, calcio, magnesio, sodio) e se si aspetta che si raffreddi anche di carbonati dei medesimi a causa del riassorbimento di CO2 dall’atmosfera.

E’ una cosa che non ho dimenticato più.

La cenere della legna ha una tradizione possiamo dire di almeno un milione di anni, visto da quanto tempo il genere Homo sa accendere il fuoco, da prima che noi doppi Sapiens (Homo Sapiens Sapiens) esistessimo (solo 200.000 anni).

Per secoli si è usata per fare la “liscivia”, ossia per lavare i panni: acqua calda sulle ceneri estrae gli ossidi e i carbonati che saponificano i grassi staccandoli dai tessuti; una procedura analoga partendo da grassi animali produce il sapone.

Insomma la cenere è una risorsa; si può usare come componente del concime, ma anche come antilumache: una risorsa molto importante.

Ma data la natura dialettica della chimica, data la natura a due facce o “a due corni“, come avrebbe detto il mio maestro Guido Barone, c’è un aspetto non secondario di almeno alcuni dei componenti della cenere che servono ad estinguere il fuoco; vengono dal fuoco ed estinguono il fuoco.

E infatti i carbonati, le loro soluzioni, le loro polveri o i loro aerosol sono una nota base per la produzione di dispositivi antincendio.

Il più recente e spettacolare di questi dispositivi è stato presentato pochi giorni fa in Corea del Sud dalla Samsung (si avete ragione è quella dei cellulari). La Corea del Sud è soggetta al problema di incendi nelle città densissimamente popolate e dunque la lotta agli incendi è una priorità del governo.

Come vedete si tratta di un vaso da fiori a doppia camera; al centro c’è un vero vasetto dove mettere i fiori, mentre nell’intercapedine chiusa c’è una soluzione di carbonato di potassio; l’involucro esterno è di PVC (e questa è una scelta che non capisco tecnicamente, è un PVC fragile ma se brucia può produrre diossine, ma non è questo il punto adesso). Una volta scagliato sul fuoco il dispositivo si rompe e il carbonato svolge la sua azione estinguente in una frazione di secondo; non è una invenzione originale, esistono già altri prodotti analoghi come questo http://m.id.automaticextinguisher.com/throwing-fire-extinguisher/vase-throwing-fire-extinguisher.html

E sono molto efficaci come potete vedere da questo filmato.

Esistono dispositivi analoghi di tipo statico da posizionare nei luoghi a più alto rischio come le Elide fire balls; ma anche altri similari basati su polveri e non su soluzioni come si vede qui.

D’altronde gli estintori a polvere sono un dispositivo tradizionale e nella composizione delle polveri entrano anche i carbonati, bicarbonato di sodio, fosfato di ammonio e cloruro di potassio a seconda del tipo di combustibile da contrastare.

In genere si sostiene che l’azione estinguente dei carbonati e bicarbonati nasca dal fatto che ad alta temperatura i carbonati cedano il biossido di carbonio e dunque estinguano il fuoco soffocandolo, per spostamento dell’ossigeno. E probabilmente questo meccanismo contribuisce.

Tuttavia questa teoria, che viene presentata anche nei corsi antincendio attuali non mi soddisfa né mi convince, certamente non è completa.

La situazione è molto più complessa.

Come funziona la combustione? In realtà non esiste una teoria semplice della combustione; è una reazione radicalica, che sfrutta la natura chimica dell’ossigeno; e si propaga attraverso una sequenza complessa e numerosa di reazioni radicaliche semplici e ripetute, una catena radicalica.

Come detto altre volte l’ossigeno è una molecola biradicalica che contiene due elettroni spaiati in un orbitale di antilegame e tre coppie di legame; la differenza equivale a due legami covalenti , ma la situazione effettiva è del tutto diversa.

L’ossigeno tripletto è un esempio molto intrigante di molecola biradicalica stabile, i due elettroni spaiati hanno lo stesso spin ½, e la molecola dunque presenta spin totale S=1. (ricordiamo ai lettori meno esperti che lo spin si origina dalle proprietà magnetiche delle particelle, è come se le particelle ruotassero su se stesse divenendo delle piccole calamite).

In questo stato la molecola non è particolarmente reattiva sebbene non sia affatto inerte. L’ossigeno tripletto è paramagnetico, cioè è debolmente attratto dai poli di un magnete. Questa interpretazione è stato uno dei successi della teoria dell’orbitale molecolare.

Lo stato superiore di energia, di norma poco popolato, ma comunque popolato è quello a S=0, denominato ossigeno singoletto; infatti se salta al livello superiore l’ossigeno conterrà adesso entrambi gli elettroni con spin opposto in un unico orbitale di antilegame; la situazione è adesso molto più reattiva, l’ossigeno singoletto, come si chiama, è pronto ad iniziare una catena di reazioni radicaliche.

       Singoletto 1                                           Singoletto   2                           Tripletto

In questo schema vediamo la struttura in termini di orbitali molecolari, a partire dal secondo livello; l’1s è uguale per tutti e non viene mostrato. Dai sei orbitali atomici 2p otteniamo 6 orbitali molecolari, 3 di legame e 3 di antilegame, di cui 4 a simmetria p e 2 a simmetria s.

L’ossigeno tripletto, lo stato fondamentale dell’ossigeno comune, la forma non reattiva o poco reattiva è a destra nello schema; mentre a sinistra vediamo due delle forme che la molecola può avere quando passa al primo stato eccitato; come si vede a destra lo spin è S=1, mentre a sinistra lo spin S=0.

La regola di Hund (in realtà ci sono tre regole, ma questa è la più importante), scoperta da Frederik Hund nel 1925 stabilisce che per una certa configurazione elettronica il termine con l’energia più bassa è quello con la maggiore molteplicità di spin dove la molteplicità è definita come 2S+1 dove S è lo spin totale; nel nostro caso dunque lo stato tripletto è a più bassa energia degli stati singoletti.

In questo stato due elettroni con il medesimo spin occupano due orbitali molecolari di antilegame a simmetria p. Attenzione ad immaginarveli; non potreste usare il classico salsicciotto, quello vale per quelli di legame, quelli di antilegame hanno il grosso della concentrazione “fuori” dalla zona interatomica, in altre parole tendono a tirar via i loro nuclei dal legame. Purtroppo la figura non rende giustizia a questa complessità.

Nei due stati eccitati i due elettroni hanno spin opposti ed occupano il medesimo orbitale oppure al massimo dell’energia due orbitali di antilegame.

Aggiungo per completezza che lo stato eccitato a sinistra, quello intermedio come energia, non è radicalico poichè i due elettroni occupano il medesimo orbitale. Questo gli consentirebbe di reagire come elettrofilo, o come un’acido di Lewis.

Come fanno a passare dallo stato fondamentale a quello eccitato? Qualcuno mi dirà: assorbendo un fotone di opportuna energia; risposta sbagliata. La transizione è proibita perchè lo spin è diverso e dunque la probabilità che il passaggio avvenga in questo modo, in caso di transizioni elettroniche è del tutto trascurabile; la simmetria della funzione d’onda non può cambiare in questo caso.

Per far avvenire la transizione occorre un intermedio che assorba energia dalla radiazione e la trasferisca alla molecola di ossigeno in uno dei modi permessi.

Adesso possiamo tornare alla questione della combustione.

La reazione di combustione è una reazione a catena alla quale partecipano molte diverse specie radicaliche; una reazione a catena comporta che durante la reazione gli intermedi di reazione vengano ricreati dalla reazione stessa ed in questo caso gli intermedi sono radicali.

Il fatto che la combustione richieda una alta energia per iniziare, ossia abbia bisogno di un iniziatore o di un innesco dipende proprio dalla situazione che abbiamo tratteggiato dell’ossigeno; ci vuole l’ossigeno singoletto, ma esso non si produce facilmente e il tripletto domina la scena. Le molecole di combustibile sono di solito a spin nullo, tutti gli atomi sono ben legati e non ci sono elettroni spaiati.

Nelle reazioni chimiche in genere la somma degli spin si conserva; qualcosa come l’equazione scritta qui sotto.

E allora come si fa?

Dato che partiamo da spin interi o nulli dobbiamo ritrovarci con spin interi o nulli; ma se accade così la reazione non sarà a catena oppure dovrà produrre due radicali alla volta (spin semiintero); o ancora dovrà essere, almeno all’inizio, una reazione che introduce due spin semininteri, staccando un atomo dalla molecola.

In genere si pensa che la reazione iniziale sia la “sottrazione” di un atomo di idrogeno da un combustibile da parte della molecola di ossigeno singoletto per dare un radicale idroperossido HOO. ; una volta formatosi questo può formare ulteriori perossidi o radicali idrossilici. Ecco dunque spiegata l’importanza di iniziatori radicalici o dell’innesco in temperatura.

Rispetto a questo processo le molecole a più alto contenuto energetico come i singoletti sono favorite, perché possono disporre di una quota di energia di attivazione più elevata.

Ma ecco anche spiegato allora il ruolo di quelle molecole che possono bloccare i radicali; gli scavenger radicalici che catturano i radicali o ne bloccano la formazione interrompono la catena della reazione e bloccano la combustione; non si tratta solo allora di sviluppare la CO2 nei millisecondi di riscaldamento disponibili, come vorrebbe l’ipotesi dello spostamento dell’ossigeno, ma di bloccare la catena radicalica. L’effetto di spostamento c’è ma non è così importante. Ma sia lo ione potassio che lo ione carbonato sono in grado di formare un radicale con potenti azioni in vari campi, sia biologici che inorganici: K. and CO3.-. Una ampia letteratura ne conferma il ruolo e l’esistenza. L’azione di questi radicali può spiegare bene la efficienza delle soluzioni di carbonato e di altri sali come agenti estinguenti di incendi nel loro stato iniziale. Non è ancora ben spiegato il ruolo della forma aerosol o comunque delle interfacce che si formano usando i vari dispositivi, ma probabilmente anche quello serve a bloccare la formazione della catena reattiva.

Un uso veramente inatteso della cenere: viene dal fuoco ma lo può anche bloccare. Guido Barone sarebbe stato soddisfatto, avrebbe detto la chimica ha due corni, la chimica è dialettica.

Riferimenti.

  1. Laing The three forms of molecular oxygen JCE 66, 6 (1989)

Scaricabile da:

https://www.uni-saarland.de/fileadmin/user_upload/Professoren/fr81_ProfJung/Laing89.pdf

https://www.nist.gov/sites/default/files/documents/el/fire_research/R0501578.pdf

https://www3.nd.edu/~pkamat/wikirad/pdf/spinchem.pdf

https://onlinelibrary.wiley.com/doi/full/10.1002/fam.1088

https://www.ncbi.nlm.nih.gov/pubmed/17505962

https://www.ncbi.nlm.nih.gov/pubmed/8021011

Elementi della Tavola Periodica: Potassio, K.

In evidenza

Mauro Icardi

Potassio: simbolo chimico K, numero atomico 19, massa atomica 39,0983 u.

Metallo alcalino che ha tra le sue proprietà specifiche, quella di poter essere addirittura tagliato con un coltello. Reagisce molto violentemente con l’acqua, generando idrogeno e idrossido di potassio. Sulla superficie del metallo esposto all’aria si formano stradi di ossido quasi immediatamente, per questa ragione il potassio deve essere conservato in olio minerale. La derivazione nella lingua italiana ed inglese, proviene da “potassa”. Nel 1807 Humphry Davy riuscì per primo ad ottenerlo per elettrolisi della potassa caustica fusa. E’ il settimo per abbondanza e costituisce il 2,4- 2,58% del peso della crosta terrestre. Bastano poche tracce ridotte di potassio, per colorare la fiamma di violetto, quando si esegua un saggio alla fiamma.

I più grandi giacimenti di sali potassici sono distribuiti in varie zone del mondo. Il Canada è il più grande produttore di potassio del mondo, con una produzione che arriva ai 12 milioni di tonnellate/anno. Nel paese opera la Nutrien, la più grande società del settore, derivante dalla fusione di Potash Corporation of Saskatchewan e di Agrium. Le due aziende si sono unite all’inizio del 2018 e hanno creato un gigante industriale globale del valore di 36 miliardi di dollari. Seguono poi con una produzione minore di circa il 50% la Russia (produzione mineraria: 7,2 milioni di tonnellate),la Bielorussia (produzione mineraria: 6,4 milioni di tonnellate), e l’immancabile Cina (produzione mineraria: 6,2 milioni di tonnellate). Il paese asiatico è uno tra i più grandi consumatore di fertilizzanti.  Secondo lo US Geological Survey (USGS), il consumo di potassio aumenterà fino a 45,6 milioni di tonnellate entro il 2021, con Asia e Sud America che saranno i maggiori consumatori di cloruro di potassio.

Negli USA, e più precisamente nello Utah il cloruro di potassio viene prodotto per evaporazione. Un meccanismo che ricorda quello delle saline, ma con effetti cromatici del tutto diversi.

(NdB il colore dipende dal’aggiunta di un colorante a base di cobalto che incrementa l’assorbimento della luce e dunque l’evaporazione dell’acqua)

La maggior parte delle riserve mondiali di potassio provenivano dai punti dove in passato la terra era ricoperta dagli oceani. Dopo l’evaporazione dell’acqua, sul terreno sono rimasti depositi di sali di potassio cristallizzati in grandi giacimenti. Ma nel corso del tempo i movimento della crosta terrestre hanno sepolto questi depositi. A Cane Creek, vicino a Moab, si trova una delle più grandi miniere degli Stati Uniti. Realizzata all’inizio del 1960 come una tradizionale miniera sotterranea, nel 1970, a seguito di un drammatico incidente in cui persero la vita 18 minatori, venne trasformata nell’attuale impianto a evaporazione che sfrutta il calore del Sole per estrarre il minerale. L’acqua del fiume viene pompata nella miniera e scioglie il cloruro di potassio. La soluzione salina viene poi immessa negli stagni di evaporazione dove il calore del sole asciuga l’acqua permettendo così la raccolta del materiale.
Nell’immaginario di molte persone, il potassio è sinonimo di integratore salino. E per molti il potassio si associa alla banana, che per esempio alcuni ciclisti infilano nelle tasche posteriori della maglia da bici. In effetti la banana ha una forma perfetta per essere sfilata da una tasca posteriore, senza interrompere il ritmo della pedalata. Ma nonostante questa fama, non è l’alimento più ricco in potassio. Questo frutto ne contiene infatti 385 mg/100g, mentre i fagioli bianchi arrivano ad un valore di 561. Se poi si ritorna per un attimo alla pratica del ciclismo, la banana è composta principalmente da fibra solubile, pectine per la maggior parte. Queste oltre al senso di sazietà, potrebbero anche contestualmente ridurre lo stimolo a bere. Per questa ragione, quando si pedala meglio idratarsi regolarmente. La banana potrà servire come spuntino pre o post pedalata.

Il potassio è implicato in diversi processi fisiologici importanti come lo scambio idro-salino a livello cellulare; la contrattilità dei muscoli lisci (come i vasi sanguigni) e di quelli striati (come i muscoli scheletrici)il rilascio dei secreti e degli increti da parte delle cellule endocrine e delle ghiandole esocrine (si tratta di ghiandole che versano il loro secreto all’esterno del corpo o in cavità comunicanti con l’esterno come quelle sudoripare, lacrimali e salivari);la regolazione della pressione arteriosa.

E considerando che quest’anno festeggeremo non solamente il 150° anniversario della tavola periodica, ma anche il centenario della nascita di Primo Levi, scrittore e chimico a cui tutti noi facciamo ovviamente riferimento, è giusto ricordare un altro dei bellissimi racconti de “Il sistema periodico”, quello dedicato proprio al potassio. Levi è prossimo a conseguire la laurea. Le leggi razziali sono già state emanate, ma essendo già iscritto all’Università gli sarà consentito di terminare il percorso universitario. Levi troverà Giacomo Ponzio, un uomo non sedotto dalle sirene del fascismo, antifascista ed anticonformista, che accetterà di essere relatore per la sua tesi sul comportamento delle molecole dielettriche e sull’inversione di Walden. In una Torino già prostrata dai bombardamenti, dovrà riuscire a fare le sue sperimentazioni con tutto quello che è rimasto nel magazzino di prodotti chimici dell’Università, senza poter acquistare nulla.

Deve purificare il benzene tecnico che ha un grado di purezza insufficiente, tramite distillazione. Dovrebbe distillarlo una seconda volta, in presenza di sodio. Ma il sodio è introvabile. Riesce a trovare del potassio, e pensando che tutto sommato “è gemello del sodio” se ne impadronisce e torna al suo lavoro di distillazione. Ma questa scelta sarà la base per una importante riflessione. E a questo punto, per comprenderne pienamente la bellezza ed il significato, credo sia giusto riportare un lungo brano, della parte finale del racconto.

“Frugai invano il ventre dell’Istituto: trovai dozzine di ampolle etichettate, come Astolfo sulla Luna, centinaia di composti astrusi, altri vaghi sedimenti anonimi apparentemente non toccati da generazioni, ma sodio niente. Trovai invece una boccetta di potassio: il potassio è gemello del sodio, perciò me ne impadronii e ritornai al mio eremitaggio. Misi nel palloncino del benzene un grumo di potassio “della grossezza di mezzo pisello” (così il manuale) e distillai diligentemente il tutto: verso la fine della operazione spensi doverosamente la fiamma, smontai l’apparecchio, lasciai che il poco liquido rimasto nel pallone si raffreddasse un poco, e poi, con un lungo ferro acuminato, infilzai il “mezzo pisello” di potassio e lo estrassi. Il potassio, come ho detto, è gemello del sodio, ma reagisce con l’aria e con l’acqua con anche maggiore energia: è noto a tutti (ed era noto anche a me) che a contatto con l’acqua non solo svolge idrogeno, ma anche si infiamma.

Perciò trattai il mio mezzo pisello come una santa reliquia; lo posai su di un pezzo di carta da filtro asciutta, ne feci un involtino, discesi nel cortile dell’Istituto, scavai una minuscola tomba e vi seppellii il piccolo cadavere indemoniato. Ricalcai bene la terra sopra e risalii al mio lavoro. Presi il pallone ormai vuoto, lo posi sotto il rubinetto ed aprii l’acqua. Si udì un rapido tonfo, dal collo del pallone uscì una vampa diretta verso la finestra che era vicina al lavandino, e le tende di questa presero fuoco. Mentre armeggiavo alla ricerca di qualche mezzo anche primitivo di estinzione, incominciarono ad abbrustolire i pannelli degli scuri, ed il locale era ormai pieno di fumo. Riuscii ad accostare una sedia ed a strappare le tende: le buttai a terra e le calpestai rabbiosamente, mentre già il fumo mi aveva mezzo accecato e il sangue mi batteva con violenza nelle tempie.
A cose finite, quando tutti i brandelli incandescenti furono spenti, rimasi in piedi per qualche minuto, atono e come istupidito, con le ginocchia sciolte, a contemplare le tracce del disastro senza vederle. Appena ebbi ripreso un po’ di fiato, scesi al piano di sotto e raccontai l’episodio all’Assistente. Se è vero che non c’è maggior dolore che ricordarsi del tempo felice nella miseria, è altrettanto vero che rievocare un’angoscia ad animo tranquillo, seduti quieti alla scrivania, è fonte di soddisfazione profonda. L’Assistente ascoltò la mia relazione con attenzione educata ma con un’aria curiosa: chi mi aveva costretto a imbarcarmi in quella navigazione, e a distillare il benzene con tutte quelle cure? In fondo mi stava bene: sono queste le cose che accadono ai profani, a coloro che si attardano a giocare davanti alle porte del tempio invece di penetrarvi. Ma non disse nulla; assunse per l’occasione (malvolentieri come sempre) la distanza gerarchica, e mi fece notare che un pallone vuoto non s’incendia: vuoto non doveva essere stato. Doveva aver contenuto, se non altro, il vapore del benzene, oltre naturalmente all’aria penetrata dal collo.

Ma non s’è mai visto che il vapore di benzene, a freddo, prenda fuoco da sé: solo il potassio poteva aver acceso la miscela, ed il potassio io l’avevo tolto. Tutto? Tutto, risposi io: ma mi venne un dubbio, risalii sul luogo dell’incidente, e trovai ancora a terra i cocci del pallone; su uno di essi, guardando bene, si scorgeva, appena visibile, una macchiolina bianca. La saggiai con la fenolftaleina: era basica, era idrossido di potassio. Il colpevole era trovato: aderente al vetro del pallone doveva essere rimasto un frammento minuscolo di potassio, quanto era bastato per reagire con l’acqua che io avevo introdotta ed incendiare i vapori di benzene.

L’Assistente mi guardava con occhio divertito e vagamente ironico: meglio non fare che fare, meglio meditare che agire, meglio la sua astrofisica, soglia dell’Inconoscibile, che la mia chimica impastata di puzze, scoppi e piccoli misteri futili. Io pensavo ad un’altra morale, più terrena e concreta, e credo che ogni chimico militante la potrà confermare: che occorre diffidare del quasi-uguale (il sodio è quasi uguale al potassio: ma col sodio non sarebbe successo nulla), del praticamente identico, del pressappoco, dell’oppure, di tutti i surrogati di tutti i rappezzi. Le differenze possono essere piccole, ma portare a conseguenze radicalmente diverse, come gli aghi degli scambi; il mestiere del chimico consiste in buona parte nel guardarsi da queste differenze, nel conoscerle da vicino, nel prevederne gli effetti. Non solo il mestiere del chimico.

Primo Levi “Il sistema periodico”   Einaudi 1975 L’immagine del ciclo potasico è tratta dalle lezioni citate qui sotto ed esemplifica il comportamento complessivo del potassio il cui ciclo è alquanto complesso.

http://www.agraria.unirc.it/documentazione/materiale_didattico/1462_2017_432_27726.pdf

Mary Letitia Caldwell (1890-1972)

In evidenza

Rinaldo Cervellati

Mary Letitia Caldwell è stata la prima donna a diventare professore assistente di chimica alla Columbia University nel 1929 e poi professore ordinario nel 1948.

Mary Letitia nacque il 18 dicembre 1890 a Bogotà (Colombia) da genitori statunitensi. Sostenitori convinti dell’importanza dell’istruzione superiore vi avviarono tutti i cinque figli. Negli Stati Uniti i college femminili erano la strada principale per le giovani donne per arrivare alla laurea, pertanto Mary frequentò il Western College for Women a Oxford, contea di Butler, Ohio. Ottenne il B.Sc. nel 1913 e, visto il suo talento, fu assunta l’anno successivo come istruttrice dalla stessa istituzione. Nel 1917 fu promossa al grado di assistente. Caldwell rimase solo un altro anno al Western College, decidendo che aveva bisogno di acquisire conoscenze più specialistiche se voleva fare carriera in biochimica.

Nel 1918 Caldwell entrò alla Columbia University, a New York, ottenendo il M.Sc. nel 1919 e il dottorato di ricerca (Ph.D.) in chimica organica nel 1921. Il talento di Caldwell era così notevole che fu immediatamente ingaggiata dal Dipartimento di Chimica della Columbia come istruttrice, unica donna in un’epoca in cui l’idea stessa di donne che lavoravano in una facoltà scientifica era praticamente impensabile al di fuori dei college femminili. Nel 1929 fu nominata professore assistente e nel 1948 ottenne la cattedra come full professor. Rimase alla Columbia per tutta la vita.

Mary Letitia Caldwell

Oltre a sostenere un pesante carico di insegnamento, Caldwell sviluppò un importante progetto di ricerca in nutrizione e biochimica. Dal 1918 il suo particolare interesse era la famiglia di enzimi chiamata amilasi. Come noto gli enzimi accelerano notevolmente la velocità con cui si verificano le reazioni chimiche nei sistemi biologici. Senza enzimi, il complesso corpo umano non sarebbe in grado di funzionare. Le amilasi sono enzimi che catalizzano la trasformazione degli amidi in zuccheri; l’interesse specifico di Caldwell era l’amilasi pancreatica, la versione dell’enzima presente nel pancreas dei mammiferi. Quando iniziò la sua ricerca, era insoddisfatta della purezza dell’enzima allora disponibile in commercio. Fu la prima persona a ottenere amilasi pancreatica a elevato grado di purezza da pancreas di maiale. Alla Columbia costituì un gruppo di ricerca insieme a studenti di dottorato che sviluppò metodi per produrre amilasi pancreatica pura in forma cristallina da diverse origini. E qui fu supervisore di dottorato di Marie Maynard Daly  di cui abbiamo parlato in un post precedente.

Struttura di una amilasi

Le ricerche di Caldwell hanno migliorato radicalmente l’enzimologia: molte delle sue tecniche sono diventate pratiche standard nelle ricerche accademiche e nell’industria. Caldwell e il suo gruppo dimostrarono anche che le amilasi sono proteine, identificarono il loro meccanismo di azione concludendo che per le α-amilasi il meccanismo non è lo stesso. Si occupò ovviamente anche di amminoacidi proteici.

Caldwell soffriva di una disabilità muscolare progressiva, dal 1960 fu costretta su una sedia a rotelle. Nonostante ciò non si trasferì mai dal suo ufficio al 9° piano della Chandler Hall, sede del laboratorio di ricerca alla Columbia University. Nel 1960 le è stata assegnata la Garvan Medal dall’American Chemical Society, un riconoscimento conferito ogni anno a una donna distintasi per aver fornito contributi eccezionali in chimica.

Caldwell era un’eccellente didatta, rispettata dagli studenti. Per questo la Columbia le assegnò anche incarichi amministrativi: per oltre trenta anni ha servito come consulente incaricata dell’assegnazione dei compiti didattici agli assistant professors e all’ammissione dei diplomati ai Corsi di dottorato. È stata anche segretaria del Dipartimento di Chimica e consulente finanziario per i dottorandi. Ha svolto questi incarichi con la stessa dedizione che aveva per il lavoro di ricerca, si può senz’altro parlare di carriera parallela.

Al di fuori del suo lavoro fu un’appassionata escursionista fino all’insorgere della malattia muscolare. Caldwell si ritirò nel 1959 e morì a Fishkill, New York, il 1° luglio 1972.

Opere consultate

N.M. Roscher, P.L.Ammons, Early Women Chemists of Northeast., Presented in part at the 182nd American Chemical Society National Meeting, New York, N.Y., August 1981, p. 180

  1. Rayner-Canham, G.W. Rayner-Canham, http://www.chemistryexplained.com/Bo-Ce/Caldwell-Mary.html

Note sulla chimica dell’incenso.

In evidenza

Claudio Della Volpe

Questo post nasce dalla curiosità di approfondire cosa dia all’incenso il suo caratteristico profumo. E anche dal capire, sia pure superficialmente, la differenza fra le varie piante che vengono più o meno correttamente individuate come incenso.

Tutto è partito quando mia moglie, che è appassionata di piante e chimica come me (più di me in molti casi) ha portato a casa una pianta dalla Fiera di S. Giuseppe, che si svolge attorno al 19 marzo a Trento, e segna l’inizio della primavera, soprattutto per tutti gli appassionati di piante e fiori.

E’ tornata a casa con un esemplare di “pianta dell’incenso”; questa pianta la vedete raffigurata qui sotto:Fig. 1 Plectranthus Coleoides

https://www.portaledelverde.it/blog-giardinaggio/plectranthus-pianta-incenso-coltivazione-cura/#close

La pianta ha un fortissimo odore di incenso ed è venduta come rimedio naturale antizanzare.Fig. 2 Boswellia Sacra

Su parecchi siti viene confusa con un’altra del genere Boswellia, la Sacra o la Serrata , appartenente alla famiglia delle Burseraceae; ma quest’ ultima è un albero, di dimensioni notevoli anche, come vedete nella fig. 2, dalla cui resina viene estratto l’incenso ufficiale, diciamo così, quello che si usa nelle cerimonie religiose; quasi tutte le religioni usano l’incenso (bruciato lentamente in condizioni di scarsa ossigenazione, come capita ad una sigaretta non aspirata, un fenomeno individuato dal termine inglese “smouldering”) come generatore di aromi e fumi/profumi “sacri”.

La pianta della prima figura invece si chiama Plectranthus Coleoides, appartenente al genere Plectranthus, famiglia delle Lamiaceae, piante molto contenute come dimensioni, striscianti e cespugliose, che spesso si ritrovano in colori anche diversi, rossastri per esempio.

Dunque la similitudine dell’aroma fra le due piante le confonde ma quale è la molecola o le molecole che si ritrovano in entrambe (se ci sono)?

Ho cercato in letteratura raggiungendo le conclusioni qui sotto.

La differenza fra le due piante è tale che nei testi ufficiali il Plectranthus è del tutto assente quando si parla di incenso; dunque si tratta di una confusione legata solo al mercato delle piante casalinghe non a quello professionale.

Occorre anche dire però che spesso l’incenso non è ottenuto dalla Boswellia, ma di fatto da resine ed oli essenziali di diversa origine. Per esempio sulla rivista danese Survey of chemical substances in consumer products un intero numero (il 39 del 2004 liberamente scaricabile da eng.mst.dk/media/mst/69122/39.pdf ) è dedicato alle sostanze emesse dall’incenso quando viene bruciato; il nome Plectranthus è assente ma lo è anche Boswellia; in questo caso si parla solo delle numerose altre sostanze, alcune sintetiche, a volte aggiunte alla resina per produrre l’incenso sacro.

La pubblicazione è interessante e indica che la combustione dei vari tipi di incenso per uso religioso o casereccio a scopo odorifero non è priva di rischi per l’utilizzatore, a causa dell’elevato numero di sostanze organiche che si formano durante la combustione; l’incenso infatti si usa bruciandolo mentre l’odore a cui mi riferisco io è l’odore della pianta allo stato naturale. Ovviamente durante lo smouldering una parte degli oli essenziali evapora semplicemente ma si formano anche altre piccole molecole. Qualche anno fa c’è stata una rivolta a Taipei perché il governo aveva cercato di regolamentare l’uso dei fumi dell’incenso considerato pericoloso per la salute.

Per distinguere il prodotto originale si usa anche il termine “franchincenso”, che sta ad indicare il “vero” incenso.

Il franchincenso (https://it.wikipedia.org/wiki/Franchincenso) è quello che si ottiene dalla Boswellia ed è noto anche come “olibano” dall’arabo al-lubán, il latte che indica la resina di origine; tuttavia anche qua la questione è che le piante da cui si ottiene la resina possono essere più numerose della sola Boswellia Sacra o Serrata e così la composizione non è del tutto univoca (ma quante parole dobbiamo all’arabo?).

Un composto tipico dell’incenso da Boswellia è il seguente acido boswellico:

che costituisce il 30% della resina ma non è quello che conferisce l’odore tipico.

Se proprio volete saperlo perfino una classica review del 2009 (1) sui componenti dell’odore di incenso, una review che ha avuto l’onore di essere copiata e ricopiata (c’è un’altra review ritirata per plagio di questa) dopo aver esaminato buona parte dei 300 componenti conclude :

None of the volatiles identified in the different studies have, according to our knowledge, ever been attributed to the specific smell of frankincense. It is interesting to note, however, that an olibanum-like odour has been reported elsewhere for a substance found in orange oil residue,[15] which was identified as cis-iso-cascarilla acid (cf. Figure 4). Nevertheless, this compound has not been reported as a constituent of frankincense in the literature discussed in this review. ……..

The studies summarized in this review are generally focused on substances with high abundances and it is not clear whether all odour contributing compounds of frankincense or of specific frankincense varieties have thus so far been identified. Furthermore, it remains unanswered whether there are substances with frankincense-specific odour qualities, or whether the characteristic smell of frankincense is due to a specific blend of odorants, as often observed in other food or plant aromas. Further research is therefore necessary to elucidate the specific contributors to the aroma-profile of frankincense and frankincense pyrolysate.

(attenzione alle parti in rosso)

Dunque apparentemente non c’era risposta alla domanda fino a 10 anni fa; in realtà solo 3 anni fa c’è stata la scoperta da parte di un gruppo di cui fanno parte tre colleghi dell’Università di Torino con un bellissimo lavoro su Angewandte (2), che ho letto con difficoltà (non è facile né banale) ma con grande interesse. Hanno usato la Boswellia carteri ed una combinazione dei più sofisticati metodi di ricerca comprendenti sia i metodi cosiddetti olfattometrici sia un panel di persone fisiche per estrarre e caratterizzare una coppia di molecole finora non individuate ma che sono all’origine dell’odore dell’incenso. Si tratta di due delle molecole qui sotto indicate la prima e la terza (acidi (1S,2S)- (+)-trans- e (1S,2R)-(+)-cis-2-octilciclopropil-1-carbossilici ) battezzati col nome comune di acidi olibanici:

Notate la somiglianza con la molecola indicata dalla review del 2009 (che appare essere simile alla quarta dell’elenco ma con un carbonio in meno nella coda)!

Quale è la funzione di questi acidi nelle piante? Sono messaggeri chimici di qualche tipo? Non lo so, né gli autori avanzano ipotesi sul tema. Essi hanno anche sintetizzato le due molecole e le hanno cercate in altre specie di Boswellia. Nelle conclusioni commentano i motivi per cui nonostante la ampia e secolare ricerca finora non ci sia stata una identificazione certa, e questa è la parte più interessante per il chimico analitico.

Le due molecole identificate appartengono ad un gruppo non comune ma comunque presente in altre piante e la cosa bella è che molecole simili erano state identificate nella menta e nell’olio di arancia con la osservazione che (1, 6) “It is interesting to note, however, that an olibanum-like odour has been reported elsewhere for a substance found in orange oil residue, which was identified as cis-iso-cascarilla acid (cf. Figure 4).

” (si tratta proprio di uno stretto parente dell’acido numero 6 della figura seguente (8 atomi nella coda) che, come notato, è a sua volta legato a quelli effettivamente individuati).

Diciamo che il processo di inviduazione è iniziato con una intuizione del 2007 ma solo 10 anni dopo ha trovato conferma certa. E questo dopo secoli di uso del franchincenso.

La situazione della seconda pianta, l’incenso abusivo, diciamo così, il Plectranthus è invece nella fase in cui ci sono molti lavori sui componenti dell’olio essenziale, ma le molecole identificate dai colleghi torinesi non sono individuate fra queste, e non è strano se è così difficile trovarle. Cito solo fra i lavori che ho consultato il (3) e il (4), ma ce ne sono a dozzine come ce n’erano per la Boswellia. Le analogie di costituenti sono molte, ma una volta esclusa l’idea, pure possibile, che ci siano “effetti di gruppo” dei componenti sull’odore e che i responsabili veri dell’odore dell’incenso siano esclusivamente gli acidi olibanici occorre dire che ancora non si sa se ci sono o no anche nel Plectranthus, nessuno li ha cercati; probabilmente ci sono e si tratta di cercarli (un suggerimento per i colleghi torinesi: il Plectranthus contiene gli acidi olibanici?)

A riguardo della funzione, che come sapete è un argomento che mi appassiona una sola nota da aggiungere

Carlisle, Ellis & Betts (1965) (5) propongono una spiegazione per la sincronizzazione della maturazione degli adulti della Schistocerca gregaria, ossia della Locusta comune. Essi riportano parecchi dati che confermerebbero che la maturazione coincide “with the bud burst of certain desert shrubs, a week or more before the heavy rains begin and several weeks before the appearance of the annual vegetation”.

In pratica i fiori di piante come la Boswellia e la Commiphora (ossia la mirra della Bibbia!!!), che hanno germogli resinosi quando sono messi in gabbie con locuste ne causano la rapida maturazione con cambio di colore; nel deserto le locuste maturerebbero appena prima delle piogge quando i fiori della Boswellia e della mirra danno loro il segnale sbocciando massicciamente! E’ possibile che qualcuno dei componenti dell’olio essenziale di queste piante abbia il ruolo di scatenare lo sviluppo delle locuste. Forse proprio uno degli acidi olibanici? Pensate che cosa incredibile e magnifica e terribile nello stesso tempo! E noi che siamo ancora al REACH (e per fortuna ci siamo arrivati)! Controlliamo solo le sostanze prodotte in gran quantità, ma chissà quante altre di sintesi hanno effetti significativi e nemmeno lo immaginiamo.

E la Natura (intendo qua non il dio dell’incenso, ma il dio di Spinoza, deus sive Natura, io sono ateo e non vado oltre) che possiede metodi così meravigliosi di allerta e di rete, così sottili e fantasticamente selettivi e precisi si compiace, forse, dei nostri sforzi di comprenderla, ma soprattutto se la ride della nostra illusione di dominarla.

Riferimenti.

(1) Flavour Fragr. J. 2009, 24, 279–300 The volatile constituents of frankincense – a review Michaela Mertens, Andrea Buettner and Eva Kirchhoff

(2) The (+)-cis- and (+)-trans-Olibanic Acids: Key Odorants of Frankincense CØline Cerutti-Delasalle, Mohamed Mehiri, Cecilia Cagliero, Patrizia Rubiolo, Carlo Bicchi, Uwe J. Meierhenrich, and Nicolas Baldovini Angew. Chem. Int. Ed. 2016, 55, 13719 –13723

(3) Gerhard Buchbauer , Leopold Jirovetz , Michael Wasicky & Alexej Nikiforov (1993) Volatile Constituents of the Headspace and Essential Oil of Plectranthus coleoides Marginatus (Labiatae), Journal of Essential Oil Research, 5:3, 311-313, DOI: 10.1080/10412905.1993.9698226

(4) Microdistillation and essential oil chemistry—a useful tool for detecting hybridisation in Plectranthus (Lamiaceae)

A.M. Viljoen , B. Demirci, K.H.C. Bas ̧er , C.J. Potgieter , T.J. Edwards South African Journal of Botany 72 (2006) 99 – 104

(5) Carlisle, Ellis & Betts The influence of aromatic shrubs on sexual maturation in the desert locust Schistocerca gregaria

Journal of Insect Physiology 11(12):1541-1558

(6)S. Widder, J. Looft, W. Pickenhagen, T. Voessing, S. Trautzsch, U.

Schaefer, G. Krammer. Recent Highlights in Flavor Chemistry and Biology (Proceedings of the Wartburg Symposium), 8 Feb/Mar 2007, 280.

Novel flavor compounds in orange oil residue (English)

Widder, S. / Looft, J. / Pickenhagen, W. / Vossing, T. / Trautzsch, S. / Schafer, U. / Krammer, G.

8th, Wartburg symposium on flavor chemistry and biology; 2007; Eisenach, Germany

inWartburg symposium on flavor chemistry and biology ; 280-283

Wartburg symposium on flavor chemistry and biology

Deutsche Forschungsanstalt fur Lebensmittelchemie ; 2008

Nuove tecnologie sperimentali per la rimozione del fosforo dalle acque reflue.

In evidenza

Mauro Icardi

Il problema dei nutrienti rilasciati nei corpi idrici, in particolare azoto e fosforo, era già emerso tra la metà degli anni 70 e i primi anni 80. Le fioriture algali nel mare Adriatico, con la conseguente ricaduta negativa nel settore turistico, furono trattate ampiamente nei servizi giornalistici, soprattutto televisivi, in quel periodo.

Per quanto riguarda il trattamento di rimozione del fosforo, esso è sempre risultato leggermente più complesso di quello dell’azoto. Questo perché da sempre, i limiti per questo parametro erano più restrittivi rispetto a quelli dell’azoto. La legge 319/76 (Legge Merli) prevedeva per il fosforo un valore limite di 0,5 mg/lt.   Questo valore si applicava a tutti gli impianti che recapitavano gli scarichi in particolari zone, maggiormente vulnerabili a rischi di eutrofizzazione. In particolare i laghi e i corsi d’acqua ad essi afferenti per un tratto di 10 Km dalla loro immissione nel lago; le aree lagunari e i laghi salmastri; le zone umide.

Attualmente il dlgs 152/2006 vigente, ha recepito la direttiva quadro 2060/CE che mira a conseguire la classificazione di “buono stato ecologico e chimico” per tutte le acque superficiali. Quindi non solo per quelle specificate nella ormai abrogata Legge Merli. In caso di situazioni critiche, per qualunque corso d’acqua ritenuto vulnerabile, si possono stabilire limiti allo scarico più restrittivi.

Con il trattamento di depurazione biologica a fanghi attivi tradizionale la percentuale di abbattimento del fosforo normalmente si attestava intorno a valori percentuali pari al 45-50%. Non era quindi possibile rispettare il valore limite che, generalmente è sempre stato fissato tra 0,5 e 1 mg/lt. Le acque reflue possono contenere da 5 a 20 mg/l di fosforo totale, di cui 1-5 mg/l rappresentano la frazione organica, ed il resto è la parte inorganica. Il contributo pro capite di fosforo varia tra 0.65 e 4.80 g/abitante/ giorno, con una media di circa 2.18 g.

Il fosforo contenuto nelle acque reflue si riscontra normalmente in queste due specie chimiche:

Ortofosfati: disponibili per il metabolismo biologico senza ulteriori scissioni

Polifosfati: molecole con due o più atomi di fosforo, atomi di ossigeno e qualche volta idrogeno, combinati in una molecola complessa. Solitamente i fosfati vanno incontro ad idrolisi e si trasformano in ortofosfati, ma il processo è in genere piuttosto lento.

La principale tecnica per il trattamento di questo inquinante è il trattamento chimico-fisico utilizzando sali trivalenti di ferro, oppure di alluminio se esistono problemi legati al colore.

L’allume o il solfato di alluminio idrato è ampiamente usato per la precipitazione di fosfati e fosfati di alluminio (AlPO4).

Questa la reazione di base: Al3+ + HnPO43-n ↔ AlPO4 + nH+

Il trattamento con sali di alluminio viene maggiormente utilizzato per la chiarificazione di acqua destinata ad uso potabile. Questo perché, nel trattamento delle acque reflue possono svilupparsi maggiori problemi gestionali, legati principalmente ai valori di alcalinità, pH ed elementi in tracce presenti nell’acqua da trattare. Oltre a questo i composti a base di alluminio possono interagire negativamente con la popolazione di protozoi e rotiferi che colonizzano il fango attivo.

Per queste ragioni, il trattamento di precipitazione è effettuato principalmente tramite dosaggio di cloruro ferrico.

Fe3+ + HnPO43-n ↔ FePO4 + nH+

Gli ioni di ferro si combinano per formare fosfato ferrico. Reagiscono lentamente con l’alcalinità naturale e quindi un coagulante, come la calce, viene normalmente aggiunto per aumentare il pH e favorire la coagulazione e la precipitazione.Il cloruro ferrico però tende ad essere aggressivo nei confronti delle strutture ferrose, ed inoltre questo tipo di trattamento produce notevoli quantità di fanghi. Che devono essere smaltiti separatamente, oppure miscelati in proporzione non superiore al 20% con i fanghi biologici, e poi destinati al trattamento di disidratazione.

Per superare questo tipo di problemi, si stanno sperimentando alcune tecniche nuove.

Depurazione con nanoparticelle di ferro.

In questo caso si tratta di ottenere lo stesso effetto della precipitazione chimica, impregnando sferette di resine sintetiche con ioni ferrici. L’acqua da trattare viene fatta passare sulle sferette che trattengono alla loro superficie i composti di fosforo. La rigenerazione del letto o della cartuccia di trattamento si ottiene con soluzione di soda caustica. Il processo non produce fanghi. Rimane aperto il problema della rigenerazione della soluzione esausta, e della possibilità, per ora solo teorica, di recupero del fosforo del fosforo dalla stessa.

Bioreattori con alghe.

Le sperimentazioni di bioreattori contenenti alghe in grado di accumulare i composti di fosforo, sono risultati promettenti dal punto di vista dei rendimenti di rimozione (80-85%), ma costosi per quanto riguarda la rimozione delle alghe stesse dal bioreattore. Per ridurre i costi di estrazione si è pensato di incapsulare le alghe entro sferette di resine biologiche (alginati), derivanti dalle alghe stesse. Le sferette essendo più pesanti dell’acqua tendono a sedimentare. Quindi per questo utilizzo è necessario utilizzare un reattore a letto fluido. Le sferette di alghe ricche di fosforo potrebbero trovare impiego diretto come fertilizzanti. In alternativa essere inviate al processo di digestione anaerobica. La parte gassificabile sarebbe convertibile in energia, il residuo solido (digestato), arricchito in fosforo potrebbe essere utilizzato come materia prima di recupero o fertilizzante.

Fitodepurazione reattiva combinata.

In questo caso il trattamento del fosforo avviene in un impianto di fitodepurazione a canneto. L’ambiente acquatico viene arricchito in ioni calcio utilizzando scorie di acciaieria . Normalmente questo sottoprodotto possiede concentrazioni in calcio dell’ordine dei 130-150 g/Kg. Il calcio fa precipitare il fosforo sotto forma di fosfato, e può venire aspirato dal bacino di fitodepurazione e successivamente filtrato. Il processo è in fase di sperimentazione in Inghilterra da parte della società pubblica Severn Trent Water, che gestisce il ciclo idrico nella zona di Nottingham e Derby.

Sono da valutare in questo caso le possibili destinazioni d’uso del fosfato di calcio ottenuto. In particolare verificando la contaminazione da metalli, prima di deciderne la destinazione finale. E ovviamente anche la sostenibilità economica.

Recupero per via elettrochimica.

Una delle tecniche usate per il recupero del fosforo è quella di precipitarlo sotto forma di struvite, cioè fosfato di magnesio e ammonio esaidrato (NH4)MgPO4·6(H2O). Per ottenere la struvite è necessario aggiungere sali di magnesio e soda, per regolare il pH. Il processo tedesco ePhos ® (Electrochemical Process for Phosphorus Recovery), sviluppato dal Fraunhofer Institute for Interfacial Engineering and Biotechnology di Stoccarda riesce può essere utilizzato per rimuovere fosforo dalle acque reflue.

Il processo si basa sull’utilizzo di una cella elettrolitica con un anodo in magnesio. L’azione alcalinizzante è sviluppata dall’ossidazione al catodo dell’acqua, con produzione di idrogeno gassoso e ioni OH(ione idrossile).

Non vi è quindi la necessità di utilizzare prodotti chimici, ottenendo un prodotto di alta purezza.

La struvite ottenuta con questo processo può quindi essere utilizzata direttamente come fertilizzante a lento rilascio. Il prodotto riesce ad essere assimilato meglio dalle piante rispetto ai normali fertilizzanti commerciali, quali il nitrato d’ammonio o il perfosfato (conosciuto comunemente con il nome di superfosfato). La resa di abbattimento del fosforo dai reflui utilizzando questa tecnica processo, si attesta su valori pari all’85%,con un consumo energetico pari a 0,78 kWh/mc.

Probiotici si o no?

In evidenza

Luigi Campanella, già Presidente SCI

Dalle barrette alle polveri proteiche i probiotici hanno avuto in quest’ultimi tempi un vero e proprio boom a favore della salute in tutti i gusti di alimenti. Consumando questi benefici batteri se ne ricevono vantaggi in molte delle funzioni del nostro organismo, dalla digestione alle funzioni del cervello;ma senza alcun riguardo rispetto a quali forma e dimensioni di questi probiotici siano da preferire.In molti casi però le persone non traggono da essi il vantaggio atteso ed addirittura in qualche caso specifico possono ricavarne dei danni. Alcuni studi di recente pubblicati sul giornale Cell indagano proprio questo, il rapporto fra benefici e danni che possono derivare dal loro uso incontrollato. E’ stato così dimostrato che in molte persone il tratto gastrointestinale rigetta probiotici generici prima che essi possano cominciare ad agire. Ancora peggio nella competizione microbiologica i probiotici somministrati possono prevenire il ristabilirsi dell’equilibrio probiotico naturale,possibilmente compromesso, ad esempio, a seguito dell’assunzione di antibiotici. Questo significa passare da una filosofia del compra e consuma rivolta a generici probiotici commerciali ad una più personalizzata. Questo non significa un ridotto interesse verso i probiotici tenuto conto del fatto che, a maggior ragione nella nuova visione, vantaggi certamente ne derivano dal loro uso, tanto è vero che il 60% dei medici li consigliano e 4 milioni di americani-è l’unica statistica sul tema che ho trovato- li consumano.

Dal fatto che molti di essi siano venduti come supplementi alimentari e non siano soggetti alle restrizioni e regolamenti delle agenzie del farmaco potrebbe derivare una corrispondenza non garantita fra realtà e quanto dichiarato dai produttori:lo studio sembra superare questo rischio in quanto probiotici testati realmente contenevano le culture,fino a 11 insieme, dichiarate. Quella che invece cambia è la risposta individuale che può essere di accettazione o di espulsione dei probiotici somministrati in ragione del proprio patrimonio naturale probiotico già presente. E’ quindi una combinazione del microbioma naturale, di quello aggiunto e del sistema immunogenetico umano a determinare lo specifico stato di una persona rispetto alla resistenza e alla colonizzazione da parte dei probiotici. E’ stato poi anche rilevato che in molti casi le componenti colturali di un probiotico si comportano in modo diverso, positive alcune, negative altre. Infine nei test eseguiti è emerso che il trattamento prolungato nel tempo con probiotici può produrre danni rispetto alla rigenerazione del patrimonio batterico, anche dopo 6 mesi dall’assunzione.

https://www.cell.com/cell/pdf/S0092-8674(18)31102-4.pdf

Come è nata la prima “Tavola Periodica “ di Mendeleev ?

In evidenza

Roberto Poeti

Il museo

Penso non ci possa essere per un chimico una emozione tanto forte come quella che si prova visitando l’appartamento di Mendeleev all’Università di San Pietroburgo . Vi abitò dal 1867 al 1890 . L’appartamento si trova al pianterreno della Facoltà di Chimica ed era comunicante con il suo laboratorio . Dal 1911 , quattro anni dopo la sua morte , è stato trasformato in Museo . Ho visitato il Museo nel 2009 in occasione di un viaggio a San Pietroburgo . La cosa paradossale è che non avevo idea dell’esistenza di questo patrimonio . Il penultimo giorno di permanenza a San Pietroburgo mi sono accorto , consultando per l’ennesima volta la guida , che in un angolino , a caratteri minuti , era riportata la notizia dell’esistenza del museo. Quindi in pieno Ferragosto , giorno feriale in Russia , sono riuscito a trovare con difficoltà il museo e a visitarlo . Una visita tutta in solitario , con la Dott. Natalia che mi faceva da cicerone senza parlare inglese , ma leggendo le informazioni scritte in inglese da un suo quadernetto di appunti . Mi è sembrato di visitare un piccolo museo di paese senza ostentazioni , tutto molto informale . Quando si entra nell’ appartamento, dopo aver percorso alcune stanze , si arriva allo studio . Qui il tempo si è fermato , tutto è rimasto come era alla morte di Mendeleev. In un lato dello studio c’è la sua scrivania , la sua poltrona , gli scacchi . Ed è proprio qui che Mendeleev, ha fatto i suoi primi tentativi di sistemare gli elementi .

Lo studio di Mendeleev con la scrivania dove ha concepito la Tavola Periodica                                                                                                                                           Durante la visita ho potuto scattare molte foto , comprese copie di appunti che Mendeleev ha tracciato su alcuni fogli su cui sono rappresentati schemi di sistemazione degli elementi . Analizzando il contenuto di questi documenti in relazione alla loro cronologia si può seguire il cammino che ha compiuto M. per arrivare alla sua prima stesura della T.P. che dà alle stampe il 17 Febbraio 1869 e che intitola “ Un tentativo di sistemare gli elementi secondo i loro pesi chimici e le funzioni chimiche “ .

 Il contesto scientifico

Vediamo prima il contesto in cui si inserisce la scoperta di M. . Pochi anni prima al congresso di Karlsruhe ( 1861 ) era stato definito ad opera di Cannizzaro un metodo rigoroso per la determinazione dei pesi atomici. M. giovane chimico partecipa al congresso ed è tra quelli che è fortemente impressionato dalla soluzione proposta da Cannizzaro . Da quel momento i pesi atomici escono dalla ambiguità che li aveva prima caratterizzati e diventano uno dei parametri fondamentali dell’identità degli elementi . Si aggiungono a proprietà come la valenza , pesi specifici, calori specifici , volumi atomici , formazione e natura dei composti . Quest’ultimi sono stati studiati a fondo per anni da M. L’esigenza di passare dallo specifico al generale , cioè dal confronto di pochi elementi ad uno schema generale di classificazione che comprenda tutti gli elementi , diviene sempre più impellente . Nel 1867 a M. viene affidata l’importante cattedra di Chimica all’Università di San Pietroburgo , carica che era occupata prima dal suo mentore Voskresenskii . La riforma dei pesi atomici e la scoperta di nuovi elementi ha reso tutti i precedenti libri di testo superati e ha fatto emergere la necessità di un loro aggiornamento .

Un nuovo libro di testo

E’ questa esigenza che M. sente così importante e urgente . C’è bisogno di un nuovo libro di testo per la formazione chimica degli studenti universitari russi , ” Ho cominciato a scrivere [Principi] quando ho iniziato a tenere lezioni sulla chimica inorganica all’Università dopo [la partenza di] Voskresenskii e quando, dopo aver dato una occhiata a tutti i libri, non ho trovato nulla da consigliare agli studenti “. Così si accinge a scrivere nel 1868 il libro “ Principi di Chimica“. E’ un’opera che tratta in modo esteso la Chimica Generale e Inorganica . La prima parte dell’opera viene completata alla fine del 1868 . Vi sono trattati gli elementi H , O , N , C , detti elementi organogenesi , in ogni dettaglio . Ha ordinato gli elementi secondo la loro valenza . Segue per ultimo la trattazione del gruppo degli alogeni, considerati fortemente non metallici . Verso la metà di febbraio del 1869 completa i primi due capitoli della seconda parte dell’opera presentando i metalli alcalini , speculari agli alogeni, fortemente metallici e entrambi con valenza uno . Si presenta ora in tutta la sua acutezza il problema che si era già presentato nello stendere il piano preliminare della seconda parte dell’opera e cioè quali elementi trattare dopo i metalli alcalini , ma più in generale quale schema adottare nella trattazione di tutti gli elementi conosciuti . Ha trattato 8 elementi , ne restano 55 ( gli elementi conosciuti erano 63) . Ritiene sia necessario che gli elementi siano sistemati con un criterio più rigoroso , come poteva essere quello numerico . E’ una esigenza di tipo pedagogico quella che determina la necessità di ordinare in un sistema coerente gli elementi . L’obbiettivo è essenzialmente quello di preparare un testo aggiornato e utile per gli studenti .

Una persona poliedrica

Con questo assillo il giorno 17 febbraio inizia la giornata preparandosi per un viaggio di dieci giorni , da tempo programmato , che lo avrebbe portato a visitare diverse cooperative di prodotti lattiero – caseari in alcuni distretti della Russia centrale . M. è una persona poliedrica , sensibile alle tematiche sociali , fornisce la sua collaborazione volontaria alla Società Economica di San Pietroburgo , una associazione diremmo oggi no-profit. Nella prima decade della seconda metà dell’ottocento la Russia , sotto lo Zar Alessandro II Romanov , vede l’attuazione di importanti riforme come l’abolizione della servitù della gleba che emancipa quaranta milioni di contadini , la riforma della giustizia, dell’istruzione , della stampa . Si creano ogni tipo di cooperative , crescono le piccole aziende artigiane. M. che ha sempre combattuto per le forme più avanzate di sviluppo economico nel suo paese fu un ardente fautore di queste nuove forme di produzione . Collabora con la Società Economica che aiuta e stimola queste forme associative.

La prima bozza

Ed è proprio la mattina del 17 Febbraio ( secondo il calendario Juliano ) mentre fa colazione , prima della partenza in treno, che M. riceve una lettera dal segretario dell’Associazione delle Cooperative che lo informa sui particolari del viaggio . Sul retro della lettera , sulla quale è rimasta l’impronta della tazza della bevanda che stava sorseggiando , M. traccia il primo appunto della giornata , il documento della Fig.1 . La sua giornata inizia in modo agitato tra i tempi stretti di una partenza e il pensiero pressante sul libro che sta scrivendo . Cosa contiene la prima bozza della giornata?

E’ il primo tentativo di ricerca di un criterio numerico per la sistemazione degli elementi . La scelta di M. cade sul peso atomico . Occorre precisare che il peso atomico aveva avuto un posto secondario nella trattazione degli elementi presenti nell’opera che stava in questo stesso periodo scrivendo . Il peso atomico era usato come una qualità secondaria che mostrava l’ordine gerarchico all’interno di una famiglia di elementi . Cosa rappresentano i numeri ?

La prima serie di numeri è attribuibile al peso atomico degli elementi alcalini , la seconda serie ad un gruppo di metalli con valenza due (rimane incerta la prima posizione ): ? , Mg , Zn , Cd. I pesi atomici dei due gruppi sono disposti in ordine crescente .

La novità sta nel confronto tra i pesi atomici di coppie di elementi dei due gruppi che si corrispondono . E’ in questo momento della mattinata che Mendeleev concepì l’idea di confrontare elementi chimicamente diversi in termini di grandezza dei loro pesi atomici . E questo confronto lo realizzò attraverso la differenza tra i loro pesi atomici .

Mendeleev sta lavorando in modo concitato , tallonato dagli impegni assunti , al punto che la sistemazione degli elementi diventa la priorità . Rinvierà poi il viaggio sprofondandosi nel nuovo compito . Ma da questo primo e confuso tentativo è sorprendente che nel volgere della giornata , attraverso momenti di stress e di depressione , come testimonia l’amico Inostrantzev che quel giorno gli ha fatto visita , raggiunga , come vedremo , il risultato rappresentato dalla compilazione della prima tavola periodica .

Un secondo tentativo

Da questo primo tentativo , confrontando i metalli alcalini con il gruppo di altri metalli , M. non ha ottenuto come risultato uno schema che lo convince . Tuttavia insiste sul criterio adottato , cioè la differenza tra pesi atomici . In un altro appunto sparso che ci ha lasciato e si suppone segua quello precedente ordina questa volta in una tabella i gruppi di non metalli, a valenza crescente , più noti in quel momento .

Il criterio principale che segue nel comporre questa tabella è sempre costituito dal confronto tra i pesi atomici degli elementi di gruppi adiacenti . In tutti questi casi , eccetto uno ( Tellurio) , il peso atomico di elementi successivi di gruppi diversi in una colonna decresce di circa la stessa quantità , poche unità atomiche . Ne segue che la posizione di un elemento è corretta se la dimensione del suo peso atomico rispetto agli elementi diversi , adiacenti nella stessa colonna , è di poche unità . Questo criterio acquisterà sempre più , mano a mano che progredisce nella costruzione del suo sistema , un rilievo dominante . A questo proposito nella relazione “ La correlazione delle proprietà e dei pesi atomici degli elementi “ che scrive per la Società Chimica Russa ( 6 Marzo 1869 ) , poco tempo dopo la compilazione della sua prima T.P. , renderà esplicita la scelta di questo criterio :

Lo scopo del mio saggio sarebbe interamente raggiunto se riuscissi ad attrarre l’attenzione degli studiosi verso le relazioni tra le dimensioni dei pesi atomici di elementi non simili [di gruppi diversi ] , che , mi sembra , siano state fino ad oggi ignorate“.

Un passo in avanti

In una successiva bozza che riporta sempre la data del 17 Febbraio M. inserisce nella Tab 1 altri elementi passando da quindici a quaranta circa . La bozza è costituita da due distinti tentativi di ordinazione degli elementi , disposti nello stesso foglio . Il primo , in ordine cronologico , è quello nella parte superiore e il secondo successivo in ordine di tempo è collocato nella parte inferiore . Tra il primo e il secondo M. apporta significanti modifiche .

Vi sono aggiunti tre gruppi rispetto alla Tab.1 , quello dei metalli alcalini , dei metalli alcalini terrosi e il gruppo di metalli che abbiamo già incontrato nel primo tentativo che fa M. nella prima bozza Mg , Zn , Cd . Vi sono altri elementi che chiaramente M. ha difficoltà a inserire e che dispone ai margini . La cosa interessante è il cambiamento che interviene passando dalla disposizione in alto a quella successiva in basso :

 Il corpo centrale della T.P. prende forma , manca il terzo gruppo , la posizione del Berillio e Idrogeno sono incerte .

Un lavoro incessante

Il lavoro di M. prosegue senza pausa . Il documento che più di tutti esprime lo sforzo intellettuale di M. è il seguente , successivo nel tempo a quello della Fig 2 .

La bozza ( Fig.3 ) è un vero e proprio laboratorio sperimentale dove gli elementi vengono collocati singoli o in gruppi, spostati , cancellati , sostituiti. La vera novità rispetto alla bozza di Fig 2 sta nell’avere ampliato la tavola riuscendovi a collocare i metalli di transizione che avevano rappresentato il suo più grosso ostacolo sia per l’incertezza di alcuni pesi atomici , sia per la minore conoscenza delle loro proprietà.  . Trova una collocazione al Be , attribuendogli il corretto peso atomico , superando le difficoltà precedenti. Individua per la prima volta il terzo gruppo con B – Al . Inserisce nel sistema 61 elementi , quasi la totalità di quelli conosciuti . Alla sommità dello schema ci sono le terre rare a cui sono attribuiti pesi atomici non corretti , e il cui inserimenti nella T.P. costituirà sempre un problema per M. All’Uranio è attribuito la metà del suo peso atomico . Alla fine si delinea un sistema con i pesi atomici che crescono di poche unità dal basso verso l’alto e una disposizione degli elementi simili per gruppi , collocati nella stessa riga orizzontale , mentre sono incolonnati in periodi gli elementi i cui pesi atomici variano gradualmente . Il risultato complessivo alla fine è rappresentato da un sistema sufficientemente compatto e coerente .

Gli spazi vuoti

L’ aspetto “rivoluzionario “ di questo lavoro è la presenza di diversi spazi vuoti tra alcuni elementi appartenenti a gruppi diversi . Tra questi ultimi elementi esiste una differenza tra i loro pesi atomici troppo alta, non di poche unità ( ricordiamo che questo è il criterio fondamentale che impiega M. ) . La possibile esistenza di elementi ancora da scoprire che riempiano queste vacanze è una ipotesi ancora prematura . M. ha cercato di costruire uno strumento didattico, gli spazi vuoti hanno il significato che lo schema non è definitivo sia perché diversi pesi atomici sono provvisori , non corretti o non conosciuti , sia perché i vuoti potrebbero essere ridotti con una migliore distribuzione degli elementi.    Rappresentano perciò la spia che il sistema deve essere ancora migliorato .   E’ sorprendente come queste lacune che nascono come difetti del sistema , diventeranno poi la caratteristica che legittimerà agli occhi del mondo il sistema stesso . In nessuna sistemazione degli elementi fatta in quello stesso periodo , quella di John Newlands (1865 ) , di Lothar Meyer (1869 ) e di De Shancourt era prevista la presenza di vuoti nei loro schemi . Il criterio che adotta M. ha una peculiarità unica , mostra i punti dove è da correggere . Nonostante le correzioni , i miglioramenti che M. apporterà al suo primo schema , le lacune continueranno a esistere . M. comincerà a pensare alla possibilità che siano espressione di elementi mancanti , non scoperti .

Ma alla compilazione della sua prima T.P. questo pensiero non si è ancora maturato .

La tavola si ribalta

Alla fine di una lunga giornata di intenso lavoro , dopo un breve riposo , Mendeleev porta una modifica , l’ultima , allo schema visto precedentemente . Immaginiamo di ruotare lo schema di Fig.3 di 180 ° attorno al suo asse X . Otteniamo lo schema di Fig 4 dove il peso atomico degli elementi cresce dall’alto verso il basso ( come nella odierna T.P. ) . La prima versione rifletteva il criterio adottato da M. , infatti egli faceva la differenza tra le dimensioni dei pesi atomici . Nella differenza tra due numeri il più grande si posiziona in alto , da qui la prima sistemazione degli elementi.

E’ in questa ultima forma che M. sistema gli elementi nella sua ultima bozza (Fig 5) , che farà stampare subito dopo .

Vi apporta delle modifiche . Riempie lo spazio vuoto tra Fe e Cu con Ni e Co ai quali tuttavia assegna lo stesso peso atomico ( la posizione di entrambi sarà risolta con la conoscenza della struttura atomica ) . Si mostra nuovamente incerto nel collocare il Mg . Inserirà di nuovo il gruppo Be , Mg , Zn , Cd ( era il gruppo che aveva confrontato all’inizio con i metalli alcalini ) , separando il Mg dal secondo gruppo (Ca, Sr,Ba )

Una tavola periodica familiare

Forse osservando questa ultima bozza , abbiamo l’impressione che sia molto diversa dalla versione che oggi ci è familiare . I gruppi degli elementi sono disposti in righe , mentre i periodi in colonne . Ma se separiamo la bozza in tre parti ( Fig 6) e poi le ricollochiamo in un ordine diverso ( separando gli elementi delle terre rare ) ma rispettando la progressione dei pesi atomici , otteniamo una forma che ci è familiare (figura a destra ). In termini moderni nella prima T.V. di M. troviamo distinti gli elementi divisi nei tre blocchi s , p , d , rispetto al riempimento degli orbitali , come nella versione odierna della T.V.

Nasce così verso la sera del 17 febbraio 1869 , dopo una lunga giornata di intenso e stressante impegno intellettuale, in cui si alternano momenti di esaltazione a periodi di depressione , la prima sistemazione degli elementi di Mendeleev. Fa stampare la bozza , 150 copie in russo e 50 in francese che invia a vari chimici .

Lo chiama “Tentativo “ . M. è ben consapevole del carattere ancora provvisorio del suo lavoro e delle posizioni incerte di diversi elementi . Ma le basi sono gettate. In questo momento la consapevolezza di una legge periodica che sottostà al suo schema non è ancora maturata . Infatti è improbabile che Mendeleev avesse compreso la generalità del suo sistema, quando lo sviluppò nel febbraio 1869 . Se fosse stato consapevole delle implicazioni del sistema periodico, egli molto probabilmente non avrebbe relegato al suo amico Nokolay Menshutkin la presentazione iniziale di esso alla Società Chimica Russa nel marzo 1869 mentre era a ispezionare le cooperative per conto della Società Economica di San Pietroburgo . Così come era ancora lontano dalla possibilità di prevedere nuovi elementi che occupassero gli spazi vuoti . Scriverà il primo articolo scientifico sulla sua prima T.P. nell’Aprile 1869 , due mesi dopo che ha fatto stampare la prima bozza . Fa alla fine dell’articolo una lista di otto vantaggi che il suo sistema avrebbe nei confronti delle altre classificazioni concorrenti in quel periodo . Al sesto punto vi compare il primo accenno sulla possibilità di prevedere nuovi elementi . E’ una predizione debole , la colloca solo al sesto punto ed è molto vaga . Prevale , dalle sue note , la scelta di cercare di riempire gli spazi vuoti con elementi già esistenti in base alle proprietà chimiche , e vedere se per esempio i loro pesi atomici fossero stati erroneamente misurati . Solo nell’agosto 1869 in un articolo sul volume atomico abbandonerà questo approccio e alcune delle precedenti vaghezze . Apporterà nei due anni successivi diverse modifiche alla sua prima bozza , fornendo varie versioni ( ma questa è un’altra storia ) .

Una ricostruzione della T.P. a posteriori

Quando immaginiamo di costruire la Tavola Periodica mettendo gli elementi secondo l’ordine dei loro pesi atomici crescenti e osservando che a certi intervalli si ripresentano elementi con proprietà simili , stiamo facendo una ricostruzione a posteriori che è efficace nella pratica didattica , ma che non è corretta come ricostruzione storica .

Le proprietà periodiche e la legge della periodicità sono emerse in seguito , diverso tempo dopo la compilazione della prima T.P. Quest’ultima già contiene i caratteri di periodicità , ma il riconoscimento di una legge di natura è stato più complesso della presenza di una certa regolarità nel sistema . In realtà , come si è visto , Mendeleev non usa il peso atomico quanto piuttosto la differenza tra i pesi atomici come criterio per creare un sistema di elementi .

La sua prima T.P. mostra come i gruppi di elementi siano stati sovrapposti , come gli elementi di una pila di Volta , secondo il criterio della minima differenza tra i pesi atomici di elementi adiacenti di gruppi diversi . E là dove i gruppi di elementi non erano ben caratterizzati e differenziati , come tra i metalli della serie di transizione , è riuscito a trovare, dopo un lavoro tormentato fatto di prove ed errori come abbiamo visto , una loro definizione e collocazione seguendo il criterio principale da lui adottato . La periodicità non viene scoperta e quindi subito riconosciuta , quanto piuttosto emerge come una conseguenza del criterio che lui adotta nel suo sistema . Ne è un conseguenza , da qui il tempo più lungo per riconoscerne la sua importanza .

Un paradosso

La tavola periodica e la enunciazione della legge della periodicità che sarà il traguardo finale di M. hanno costituito lo strumento più potente in mano ai chimici e fisici per arrivare a comprendere la struttura dell’atomo . Ed è paradossale, ma nella storia della scienza altri esempi non mancano , che proprio M. che ha costruito questo strumento , abbia nutrito nei confronti della teoria atomica una buona dose di diffidenza e che di fronte alla possibilità , in seguito , che l’atomo avesse una struttura subatomica opponesse il suo scetticismo .

Immagini del Museo

Nel mio blog è contenuto un articolo sull’appartamento – museo di Mendeleev all’Università di San Pietroburgo .

Sono raccolte le immagini delle stanze dell’appartamento , delle foto e dei quadri appesi alle pareti   , di vari documenti raccolti nelle bacheche . Le didascalie sono state tradotte dal russo .

http://www.robertopoetichimica.it/universita-san-pietroburgo-la-casa-museo-dimitrij-ivanovic-mendeleev/

Bibliografia

Michael D.Gordon “ A well – ordered thing “

B.M. Kedrof “ On the question of the psychology of scientific creativity ”

Masanori Kaji “ D. I. mendeleev’s concept of Chemical elements and the principles of chemistry “

Eric Scerri “ How exactly did Mendeleev discover his periodic table of 1869? “

Eric Scerry “ The Periodic Table: A Very Short Introduction “

L’avvertimento arriva da lontano

In evidenza

Mauro Icardi

In questi giorni sto nuovamente riflettendo sulla situazione del ciclo idrico. Rifletto sull’acqua. Condizione non nuova, ma che si lega alle notizie che ci mostrano la fine di una stagione invernale che non ha decisamente più senso definire anomala. Gli inverni, perlomeno nel nordovest in Italia sono più caldi, ma quel che è peggio anche avari di precipitazioni. E questa situazione si ripercuote ovviamente nei problemi ordinari di gestione, sia dal punto di vista della fornitura di acqua destinata ad uso potabile, che per il raggiungimento di limiti maggiormente restrittivi per gli impianti di depurazione.

Prima di proseguire nella mia riflessione, vorrei però ricordare una pubblicità progresso risalente al 1976 che venne pubblicata su quotidiani e periodici in quell’anno.

Credo che questa immagine sia decisamente interessante. Segnala un problema che in quegli anni forse non preoccupava la maggior parte delle persone. Forse i problemi percepiti erano ben altri. Inflazione, terrorismo, disoccupazione. Ma gli anni 70 sono anche quelli in cui il problema ambientale emerge prepotentemente. E il settore idrico non fa eccezione. Come già altre volte ho ricordato, nel 1976 viene promulgata la legge 319/76, ma meglio ricordata come “Legge Merli”. L’Italia compie il primo importante passo per una migliore gestione delle risorse idriche. Ma più specificatamente inizia a dotarsi di una serie di impianti per il trattamento delle proprie acque di rifiuto. Il cammino iniziato 43 anni orsono, non è ancora completato. Si sono fatti molti passi avanti, ma ancora pendono procedure di infrazione per mancata o incompleta depurazione degli scarichi fognari.

La situazione è sinteticamente descritta in questo articolo.

http://www.gruppohera.it/gruppo/com_media/dossier_depurazione/articoli/pagina22.html

Quello che invece mi interessa come tecnico del settore è fare presente come, nelle zone d’Italia più soggette a lunghi periodi di siccità, e scarso innevamento invernale, si stia sempre più verificando un fenomeno che deve essere monitorato. I fenomeni di siccità ravvicinati e frequenti provocano sempre più spesso periodi di asciutta dei corsi d’acqua minori, e forti riduzioni della portata dei fiumi principali, per esempio Ticino e Po.

Questa foto si riferisce alla secca del fiume Lambro nell’Agosto del 2015, e credo che valga molto più di ogni parola. La filosofia progettuale degli impianti di depurazione ha sempre cercato un ragionevole equilibrio tra costi di realizzazione e qualità delle acque in uscita. Queste ultime venivano recapitate in corpi idrici dove avveniva l’ultima parte del processo depurativo. I flussi di portata erano valutati, ma non si ipotizzavano situazioni di asciutta perlomeno per i grandi fiumi. Fino all’inizio del nuovo millennio, dove i sistemi di canalizzazione e trattamento dei reflui erano efficienti e correttamente gestiti, si sono visti notevoli miglioramenti. Si erano faticosamente riequilibrate la condizioni favorevoli per gli ecosistemi fluviali, e per il mantenimento della biodiversità degli stessi. Ora queste situazioni rischiano di essere nuovamente compromesse. E quindi credo sia giunto il momento di capire che l’acqua è ormai già più preziosa della benzina. E non dal punto di vista meramente economico, ma dal punto di vista del suo essere indispensabile per la nostra stessa vita. E quindi lancio un ulteriore appello. Accorato e profondamente sentito. Difendiamo e tuteliamo la risorsa acqua. Ma per fare questo dobbiamo creare sinergie. Università, enti di ricerca, enti di controllo e gestori. E cittadini, non ultimi. Che però non solo debbono essere correttamente informati, ma devono pensare a modificare stili di vita, e abitudini consolidate. Prima che i fiumi muoiano. E prima di dover fare la fila davanti all’autobotte parcheggiata davanti a casa per avere acqua. L’acqua è un diritto universale. Ma è un diritto a cui si arriva con l’impegno. Con le corrette scelte di gestione del territorio e del patrimonio idrico. L’acqua è certamente un diritto universale, ma non garantito. Ricordiamolo ogni volta che apriamo il rubinetto di casa, o pigiamo il pulsante dello scarico del nostro wc.

Per fare qualche riflessione.

http://www.nimbus.it/clima/2019/190301InvernoItalia.htm

https://www.mbnews.it/2016/02/emergenza-siccita-nel-molgora-ce-solo-lacqua-scaricata-dai-depuratori/

https://lecconotizie.com/cronaca/lecco-cronaca/laghi-in-secca-i-geologi-serve-una-gestione-idrica-diversa/

La coperta.

In evidenza

Luigi Campanella, già Presidente SCI

La coperta delle risorse naturali è corta e il benessere dell’umanità è minacciato dal riscaldamento del clima; per fortuna abbiamo già a portata di mano tutti gli strumenti necessari per uno sviluppo sostenibile. Lo annuncia Paul Hawken, padre del “capitalismo naturale”, dalla cui opera è nato il concetto di Green Economy.

Hawken e il suo team di 70 scienziati e economisti hanno compilato un elenco delle cento soluzioni più efficaci per combattere l’effetto serra, dando al tempo stesso una spinta all’economia globale. Da questo studio è nato un libro “Drawdown” (Penguin), che trae il titolo dal momento nella storia in cui la concentrazione di gas a effetto serra in atmosfera comincerà a calate. Un momento che, procedendo nella direzione attuale, potremmo non raggiungere mai.

Dice Hawken :“Nessuno dei modelli stilati finora dalle istituzioni impegnate nella lotta ai cambiamenti climatici o da scienziati indipendenti è in grado di raggiungere quel momento, perché tutti si occupano principalmente di energia. Al massimo, riescono ad ottenere l’inversione del trend delle emissioni, ma non un calo della CO2 già emessa in atmosfera. Partono dal presupposto che arrivando al 100 per cento di produzione energetica da rinnovabili avremo risolto il problema, ma non è vero. Ci sono altri campi oltre all’energia, dal cibo agli edifici, dall’utilizzo del territorio all’istruzione delle donne, che sono altrettanto importanti. Tra le novità più sorprendenti che abbiamo scoperto, dopo aver analizzato tutti i dati e superata la revisione di altri scienziati, c’è l’importanza del ruolo delle donne. Mettendo insieme l’impatto dell’istruzione femminile e quello della pianificazione familiare si scopre che l’educazione delle bambine sta in cima alla lista delle azioni contro i cambiamenti climatici, perché facendola avanzare da qui al 2050 avremmo 1,1 miliardi di persone in meno rispetto al trend attuale, con tutte le conseguenze positive sui minori consumi di risorse. L’eliminazione degli sprechi alimentari e la diffusione di una dieta ricca di proteine vegetali invece che animali (ma non completamente vegetariana) sono altri contributi per salvare il nostro pianeta.

Per ottenere una vera inversione di tendenza lo sguardo va allargato a tutte le attività umane:si pensi che l’allevamento di animali da macello produce globalmente la stessa quantità di emissioni di tutte le centrali elettriche del mondo.

In ogni caso però il primo posto in graduatoria per efficacia, è occupato dalla

-definitiva messa al bando degli idrofluorocarburi dagli impianti di refrigerazione;la sostituzione con altri refrigeranti, in base all’accordo firmato l’anno scorso da oltre 170 Paesi, comincerà quest’anno e proseguirà fino al 2028, ma è essenziale che gli impianti siano svuotati correttamente, perché il 90 per cento delle emissioni avvengono a fine vita.

-la fotosintesi, quindi si tratta di fermare la deforestazione, avviare progetti di massa per ripiantare moltissimi alberi e riconvertire i pascoli con sistemi silvo-pastorali , in cui si alleva il bestiame su terreni alberati, con ottimi risultati sia per gli animali che per l’ambiente. Sono tutte azioni semplici quelle che suggeriamo-conclude Hawken– non c’è bisogno di rompersi la testa per applicarle”.

Commenti alla PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA

In evidenza

15 marzo 2019

Gruppo di scienziati energia per litalia

Commenti alla

PROPOSTA DI PIANO NAZIONALE INTEGRATO PER L’ENERGIA E IL CLIMA 31/12/2018

Introduzione

Nella conferenza COP21 di Parigi (2015) si è unanimemente riconosciuto che il cambiamento climatico è il più preoccupante problema per l’umanità e si è individuato un percorso per fermarlo: la transizione dai combustibili fossili alle energie rinnovabili entro il 2050. Nella COP24 del dicembre scorso a Katowice il segretario dell’ONU Guterres ha dichiarato però che “il mondo è fuori rotta” e gli scienziati dell’IPCC hanno lanciato “un’ultima chiamata” per salvare il pianeta.

Il Piano Nazionale Integrato per l’Energia e il Clima presentato dal Governo deve necessariamente inserirsi in questo quadro. Nel Piano sono presentate molte proposte sulle quali non si può non essere d’accordo, come, la necessità di riorganizzare e potenziare i sistemi di accumulo, l’autoconsumo e la formazione di comunità energetiche. Altri punti pienamente condivisibili sono: l’urgenza di superare le attuali criticità nella distribuzione dell’energia e nell’integrazione del mercato, l’individuazione di meccanismi per risolvere il problema della povertà energetica, la necessità di aumentare i fondi e ridurre la frammentazione nei finanziamenti delle ricerche sull’energia e di promuovere un’azione di informazione e formazione delle persone
Chi si aspettava però un piano capace di riportare l’Italia nella “rotta giusta” e di rispondere “all’ultima chiamata” degli scienziati rimarrà deluso.

Energia primaria e mix energetico

Il Piano prevede una diminuzione del consumo di energia primaria, da 155 Mtep nel 2016 a 135 Mtep nel 2030: si tratta di una diminuzione di poco maggiore (5%) rispetto a quanto accadrebbe senza le misure proposte dal Piano stesso. Il mix energetico al 2030 non cambia molto rispetto a quello del 2016: viene confermata l’uscita dal carbone, ma il petrolio diminuisce solo da 36% al 31%, il gas rimane addirittura invariato al 37% e le rinnovabili aumentano soltanto dal 18% al 28%. Questi dati sono molto deludenti, tanto più che in questo modo al 2030 la quota delle rinnovabili sarebbe ancora minore sia di quella del petrolio che di quella del gas, prese separatamente. Per il mix energetico il Piano si spinge al 2040, prevedendo che la fonte prevalente di energia primaria saranno ancora i combustibili fossili (circa 65%). Questi obiettivi riguardo il mix energetico, del tutto insoddisfacenti, sono la conseguenza inevitabile di un Piano che si preoccupa di facilitare e potenziare, anziché di limitare, l’approvvigionamento e l’utilizzo di gas e petrolio. Evidentemente nella stesura del Piano ci sono state forti pressioni delle lobby che hanno interessi nella ricerca ed estrazione di idrocarburi, nell’importazione di GNL e nella messa in opera di strutture per la sua di distribuzione, e nel completamento della TAP, che pure una delle forze politiche che guida il paese sembrava volesse eliminare. Fa parte di queste pressioni il ricatto “diminuzione oil & gas uguale perdita di posti di lavoro”, anche se tutti gli studi dimostrano che il bilancio fra posti persi e posti creati nella transizione dai combustibili fossili alle energie rinnovabili sarà positivo perché l’intensità di lavoro nelle rinnovabili (industria manifatturiera) è più alto di quello che si ha nell’industria estrattiva [1,2].

Persino nel settore dell’energia elettrica, in cui le rinnovabili sono partite da una posizione molto avvantaggiata grazie all’idroelettrico preesistente, secondo il Piano più di un terzo della produzione elettrica verrà ancora da fonti fossili nel 2030. In questo settore si potrebbe certamente fare di più perché nel 2018 c’è stata una diminuzione del 27% nel costo dei pannelli fotovoltaici. Inoltre, la quantità di celle fabbricabili con un lingotto di silicio puro è destinata ad aumentare ulteriormente grazie al progresso tecnologico e si ritiene che ben prima del 2030 si svilupperanno pannelli con moduli flessibili di uso più generale. Il Piano prevede, e non si può che essere d’accordo, l’individuazione di aree idonee per la realizzazione di nuovi impianti di eolico e fotovoltaico, il repowering e rewamping degli impianti già esistenti, il potenziamento dell’obbligo di quota minima negli edifici nuovi o ristrutturati e snellimento delle pratiche burocratiche. La previsione di raggiungere con le rinnovabili 187 TWh nel 2030 (38.7% della produzione elettrica) è però deludente e notevolmente inferiore alla previsione del Coordinamento FREE (210 TWh) [3].

Per quanto riguarda la riduzione delle emissioni, il Piano si adagia sulle prescrizione della UE (riduzione delle emissioni del 40% al 2030), mentre il Parlamento europeo ha già chiesto che la riduzione sia portata 55%. Anche chi aspettava misure più conseguenti al tanto sbandierato principio “chi inquina paga” sarà deluso. Nel Piano, infatti, non c’è traccia della carbon tax [4], provvedimento molto delicato, ma necessario per la transizione energetica.

Risparmio ed efficienza

In base alle norme europee, nel periodo 2021-2030 siamo tenuti a ridurre il consumo di circa 51 Mtep. Il Piano afferma che si raggiungerà questo obiettivo risparmiando ogni anno lo 0,8% di energia rispetto ai consumi dell’anno precedente. Questo risparmio si otterrà, in gran parte adeguando e potenziando gli strumenti di sostegno già in vigore: (i) il meccanismo dei Certificati Bianchi; (2) le detrazioni fiscali per gli interventi di efficienza energetica e il recupero del patrimonio edilizio esistente; (iii) il Conto Termico; (iv) il Fondo Nazionale per l’Efficienza Energetica. Un forte contributo dovrà poi venire dal settore dei trasporti.

Il Piano prevede grandi risparmi di energia termica derivanti da una forte diffusione delle reti di teleriscaldamento alimentate da centrali termoelettriche a cogenerazione,

biomasse, o termovalorizzazione dei rifiuti (Figura 47), mentre insiste molto meno sulla opportunità di diffondere l’uso di solare termico e di pompe di calore.
La difficoltà di ridurre i consumi energetici aumentando l’efficienza è materia di vasta discussione nella letteratura scientifica [5,6]. Per raggiungere l’obiettivo prefisso sarà necessaria l’attuazione di un serio programma informativo e formativo per i cittadini, molto più incisivo dei tentativi fatti finora. Bisogna partire dal concetto di sufficienza, cioè convincere le persone e, se necessario, obbligarle mediante opportune disposizioni di legge, a ridurre l’uso dei servizi energetici. Per consumare meno, bisogna anzitutto “fare meno”: meno viaggi, minor velocità, meno luce, meno riscaldamento. Se poi tutto quello che si usa dopo aver adottato la strategia della sufficienza è più efficiente, si avrà un risparmio ancora maggiore: è il fare meno (sufficienza) con meno (efficienza).

La recente proposta di aumentare il limite di velocità in autostrada a 150 km/ora e il continuo aumento del numero, delle dimensioni e della potenza delle auto che costituiscono il parco macchine italiano non contribuiscono certamente a ridurre i consumi. Il Piano non affronta questi argomenti.

Trasporti

Nel settore dei trasporti le politiche del Piano sono deludenti. Anzitutto c’è un equivoco, purtroppo molto diffuso, dovuto anche a disposizioni di legge precedenti: si parla di “carburanti alternativi” indicando con questo nome biocarburanti, elettricità da rinnovabili, idrogeno e a volte anche gas naturale, cose che non potrebbero essere più diverse fra loro. Ad esempio (pag. 88) , “Ci si propone di accelerare quanto previsto dal comma 10 del D.Lgs 275/2016…… per la sostituzione del parco autovetture, autobus e mezzi di servizio in modo che le Pubbliche Amministrazioni …. siano obbligate all’acquisto di almeno il 30% entro il 2022, il 50% entro il 2025 e l’85% entro il 2030 di veicoli elettrici e veicoli ibridi con ricarica esterna, a metano e a idrogeno, nonché elettrici o metano nel caso degli autobus”.

Il Piano è chiaramente orientato per continuare con l’uso dei combustibili fossili. Manca qualsiasi accenno a una data indicativa per il phase out dei veicoli a benzina e diesel, fissata per il 2025 in Olanda e per il 2040 in Francia e Regno Unito. Il Piano a parole sostiene la diffusione della mobilità elettrica per persone e merci, ma si propone come obiettivo soltanto 1,6 milioni di auto elettriche “pure” nel 2030, in contrasto con stime molto superiori di altre fonti che si basano anche sulla forte riduzione nel costo delle batterie che avverrà nei prossimi anni. Ma l’energia elettrica che sarà usata nei trasporti nel 2030 sarà ancora prodotta per quasi il 40% usando combustibili fossili, per cui la penetrazioni delle rinnovabili nel settore dei trasporti stradali è affidata prevalentemente ad una selva di norme e agevolazioni per l’uso dei biocarburanti (vide infra).

Il Piano, in accordo con le compagnie petrolifere, incoraggia l’uso del metano non solo per la produzione di elettricità, ma anche come “combustibile ponte” per la mobilità. E’ vero che a parità di energia prodotta, il metano genera il 24% in meno di CO2 rispetto a benzina e gasolio, ma questo non basta per combattere il cambiamento climatico in modo sostanziale. Inoltre, va tenuto presente che Il metano è un gas serra 72 volte più potente di CO2. Poiché nella lunga filiera del metano si stima ci siano perdite di almeno il 3% rispetto alla quantità di gas usato, passando dal carbone e dal petrolio al metano c’è il rischio di peggiorare la situazione riguardo gli effetti sul clima [7]. Anche per quanto riguarda l’inquinamento, gli studi più recenti [8] indicano che il particolato prodotto dalla combustione del metano è, come massa, inferiore a quello prodotto dal gasolio, ma le particelle sono in numero superiore e più piccole, quindi potenzialmente più pericolose per la salute. Pertanto, non ha senso considerare il metano come combustibile “pulito” e come fonte energetica “alternativa” al carbone e al petrolio [9]. Questo importante concetto è ignorato dal Piano che ha per obiettivo nel 2040 una quota del 37% di energia primaria da metano, la stessa del 2016.

Nel Piano non c’è alcuna recriminazione sul fatto che le case automobilistiche italiane continuano a produrre auto a benzina o diesel e si dedicano in particolare alla fabbricazione di auto di lusso e/o di SUV, utilizzando incentivi diretti o indiretti. La FCA ha annunciato che, accanto ai SUV Alfa Romeo e Lancia che già produce, costruirà a Modena, dove gli operai della Maserati sono sotto occupati, una nuova super sportiva ad alta gamma a partire dall’autunno 2020. Ci si dovrebbe interrogare su quale sia il “valore sociale” di questo tipo di “lavoro” e sarebbe anche opportuno chiedersi per quanto tempo potranno andare avanti queste produzioni prima di trovare rifugio, ancora una volta, negli ammortizzatori sociali. Nel frattempo sempre FCA ha annunciato, in grave ritardo rispetto ai concorrenti tedeschi e francesi, la produzione di un veicolo elettrico, la 500, a partire dalla seconda metà del 2020 a Mirafiori, dove nel frattempo verranno messi in cassa integrazione per un anno 3.245 dipendenti, tra operai e dirigenti [10].

Approvvigionamenti di combustibili

l consumo di gas, che era di circa 85 Gm3 all’anno nel periodo 2005-2008, è diminuito negli ultimi anni (75,2 Gm3 nel 2017). Le previsioni SNAM sono per un consumo di 74,3 Gm3 nel 2027 e per una più decisa diminuzione negli anni successivi (70.9 Gm3 nel 2030) [11]. Gli attuali canali di fornitura del metano sono, dunque, più che sufficienti. Nonostante questo, il Piano insiste per la diversificazione degli approvvigionamenti dall’estero di gas e sostiene la necessità di agire su tre fronti: 1) ottimizzare la capacità di importazione e di distribuzione di gas naturale liquefatto (GNL); 2) aprire la TAP entro il 2020 per consentire l’importazione da 8.8 a 18 mld di m3 all’anno; 3) partecipare al progetto EastMed. L’intendimento del Piano, già contenuto nella Strategia Energetica Nazionale del precedente governo, è fare dell’Italia un hub del gas: un report di SNAM chiarisce infatti che importiamo più gas di quello che serve, per poi esportarne circa l’8% a paesi del Nord Europa.

Per quanto riguarda il GNL, il Piano parte dalla considerazione che sono già su strada più di 2000 veicoli pesanti che usano questo combustibile. Prevedendo una forte crescita nel numero di questi veicoli, il Piano sostiene la necessità di sviluppare una rete di distribuzione GNL lungo i 3000 km di autostrade, mentre dovrebbe incoraggiare con iniziative concrete il passaggio del trasporto merci dalla strada alla rotaia o alle vie marittime, che pure a parole dice di voler sostenere coniando due nuovi tipi di incentivi, Ferrobonus e Marebonus.

C’è il rischio reale di costruire infrastrutture per il gas che rimarranno inutilizzate o sotto utilizzate, con spreco di denaro pubblico. Poi, al solito, ci saranno forti pressioni perché “ormai ci sono e quindi vanno utilizzate”, come accade per le centrali termoelettriche a carbone, la cui chiusura è condizionata alla concessione di compensazioni per il mancato uso, e le centrali a turbogas che vanno remunerate anche se funzionano solo parzialmente, perché troppo numerose. Poiché in futuro per vari motivi si produrrà e si userà sempre più energia elettrica, sarebbe meglio investire ancor di più di quanto previsti nel Piano in sistemi di accumulo dell’elettricità, piuttosto che in impianti di stoccaggio geologico del gas di importazione, con tutte le problematiche di sicurezza che ne derivano (vedi deposito di Minerbio).

Più in generale, le compagnie petrolifere, non avendo interesse nel carbone, sono d’accordo per la progressiva sostituzione delle centrali termoelettriche a carbone con centrali turbogas a metano, vedendo in questa trasformazione non solo un interesse economico, ma anche il modo di ridurre le preoccupazioni dell’opinione pubblica. Le compagnie petrolifere hanno anche capito che l’uso del gasolio per i trasporti non sarà difendibile a lungo dopo il diesel gate e le notizie sul più recente accordo delle industrie automobilistica tedesca di rallentare, per contenere i costi, lo sviluppo di tecnologie in grado di ridurre le emissioni dei motori a benzina e a gasolio [12]. Ufficialmente le compagnie petrolifere sostengono che è necessario usare il gas come energia ponte in attesa che le rinnovabili siano “mature”, ma in realtà, come è emerso alla World Gas Conference (Washington, 29 giugno 2018), pensano al gas come il combustibile “pulito” del futuro. Quindi c’è una forte spinta anche nel settore dei trasporti per passare al gas, spacciandolo per fonte alternativa al pari dell’energia elettrica. Ma è provato che, se anche l’energia elettrica fosse tutta ottenuta dal gas, sarebbe ugualmente più conveniente perché i motori elettrici sono 3-4 volte più efficienti di quelli a combustione [9].

Biocarburanti

Quello sui biocarburanti è un discorso molto delicato perché tocca grandi interessi economici e molti incentivi, ma è necessario fare chiarezza anche su questo argomento. Come già fece la Strategia Energetica Nazionale del precedente governo, l’attuale Piano incoraggia l’uso di biocarburanti al fine di rimpiazzare i combustibili fossili con fonti rinnovabili. A questa presa di posizione non è certamente estraneo il fatto che ENI ha puntato sulle bioraffinerie, abbondantemente pubblicizzate sulle pagine dei quotidiani fino ad affermare che “in Italia il carburante si otterrà anche dalle bucce di mele” [13].

In linea generale, può essere utile ottenere biocarburanti da prodotti di scarto, ma va anche detto che i prodotti di scarto sono in piccola quantità rispetto al consumo di carburanti. Ecco allora che il biometano di cui parla il Piano non sarà ottenuto solo da scarti e rifiuti, ma dallo “sviluppo di una filiera agricolo/industriale per la produzione di biometano sia da matrice agricola, sia da rifiuti” come chiarisce SNAM [11]. Bisogna rendersi conto che la produzione di biometano o biocarburanti liquidi di prima generazione da prodotti agricoli dedicati non è una soluzione per la mobilità sostenibile. D’altra parte, i biocarburanti di seconda generazione, che sfruttano una frazione maggiore della biomassa non sono affatto in uno stato avanzato.

L’Unione Europea, nel tentativo di abbattere la produzione di CO2, ha concesso agli Stati membri di fornire sussidi per la produzione di biodiesel da miscelare al gasolio di origine fossile. In Italia il biodiesel viene prodotto da ENI in massima parte con olio di palma proveniente da Paesi equatoriali. E’ noto [14] che il biodiesel prodotto in questo modo genera quantità di CO2 maggiori del gasolio fossile perché per creare piantagioni di olio di palma vengono abbattute foreste tropicali che hanno un’azione positiva sul clima. Per rimediare a questo errore, che gli scienziati avevano segnalato da tempo, il Parlamento Europeo, nel gennaio 2018 ha votato per escludere entro il 2020 l’olio di palma dai sussidi per il biodiesel. Il provvedimento però non è stato ancora approvato dalla Commissione Europea. Nel frattempo, la Norvegia è stata presentata una petizione per chiedere all’Esecutivo comunitario di rispettare gli impegni presi con il Parlamento UE per far cessare subito i sussidi e anticipare entro il 2025 la messa al bando dell’olio di palma nei biocarburanti prevista al momento per il 2030. E’ il solito ricatto: ormai le bioraffinerie ci sono e bisogna usarle, altrimenti si perdono posti di lavoro.
Su un piano più generale, per rappresentare un’alternativa credibile ai combustibili fossili i biocarburanti devono (a) fornire un guadagno energetico (EROEI>1), (b) offrire benefici dal punto di vista ambientale, (c) essere economicamente sostenibili e (d) non competere con la produzione di cibo. Molto spesso queste condizioni, in particolare la prima e l’ultima, non sono verificate.
I biocarburanti non possono giocare un ruolo importante nelle transizione energetica semplicemente perché l’efficienza della fotosintesi naturale è molto bassa (0,1-0,2%) e la ricerca scientifica mostra che non è possibile aumentarla in modo significativo. E’ evidente che il trasporto (a volte su lunghe distanze) e il processo di raffinazione delle biomasse contribuiscono ad abbassare ulteriormente l’EROEI dei biocarburanti, ma dati attendibili su questo parametro non vengono mai forniti dai produttori. Ma gli scienziati sanno che l’efficienza di conversione dei fotoni del sole in energia meccanica delle ruote di un’automobile (sun-to-wheels efficiency) è più di 100 volte superiore per la filiera che dal fotovoltaico porta alle auto elettriche rispetto alla filiera che dalle biomasse porta alle auto alimentate da biocarburanti [15]. Questo spiega perché gli esperti, al contrario di quanto si propone il Piano, non prevedono una sostituzione significativa dei  combustibili fossili con biocarburanti, ma una rapida, dirompente diffusione delle auto elettriche. La cosa non meraviglia perché i motori elettrici, oltre a non produrre CO2, non inquinano, sono quattro volte più efficienti dei motori a combustione interna, sono molto più facili da riparare e meno costosi da mantenere. Un ultimo grande vantaggio dell’alimentazione elettrica è che l’energia si può ottenere senza occupare suolo agricolo, ma collocando i pannelli fotovoltaici sui tetti e su altre aree inidonee alla agricoltura.

La non sostenibilità dei biocarburanti in Italia balza all’occhio anche dai dati riportati nel Piano (Figure 14 e 15): il 50% della produzione delle 997 mila tonnellate di materie prime consumate nel 2017 veniva dall’Indonesia, il 38% da altri paesi e solo il 12% dall’Italia; la materia prima è era costituita in gran parte da olii vegetali (in particolare, olio di palma), con un 5% di colture dedicate (grano, mais, soia), che probabilmente erano il principale contributo italiano.

Sicurezza e energetica

Il Piano prevede (pag. 191) che la dipendenza energetica, essenzialmente dovuta all’importazioni di petrolio e metano, diminuisca dal 77,5% nel 2016 al 72,7% nel 2025, al 71,2% nel 2030 e al 67,2 neo 2040. Con una diminuzione così lenta, non si capisce come faremo ad eliminare i combustibili fossili entro il 2050.

Il Piano si prefigge di assicurare la sicurezza energetica aumentando e differenziando le connessioni internazionali sia per la rete gas che per quella elettrica e con la formazione di scorte di sicurezza per il petrolio. Come già sottolineato, c’è il rischio concreto di costruire infrastrutture, specie nella visione di fare dell’Italia un hub del gas, che rimarranno inutilizzate o sotto utilizzate. La vera sicurezza energetica, quella che potrebbero fornirci le energie rinnovabili, non viene perseguita.

Ricerca, innovazione, formazione, cultura

Per quanto riguarda la ricerca, il Piano lamenta giustamente la scarsa disponibilità di fondi, la frammentazione dei finanziamenti e la carenza di coordinamento. Andrebbe sottolineata anche la necessità che la politica si giovi della disponibilità e dell’esperienza degli scienziati, cosa che negli ultimi anni non è avvenuta.

Per quanto riguarda i fondi per l’innovazione, nel Piano viene giustamente sottolineato che l’innovazione nel settore della sostenibilità ecologica ed energetica deve avere priorità, discorso che può sembrare ovvio, ma che ovvio non è poiché si premia ancora l’innovazione nelle ricerche petrolifere e nell’energia nucleare. Anche se il futuro è già presente, il passato non vuole passare.

il Piano si propone anche di rivedere il sistema degli incentivi e a questo proposito riporta che da una recente indagine del Ministero dell’Ambiente sono state individuate 57 misure che hanno un impatto in campo energetico per un totale di 30,6 mld€ nel 2017; di questi, 16,9 mld€ sono costituiti da sovvenzioni ai combustibili fossili (altro che“carbon tax”!), mentre i sussidi a fonti con impatto ambientale favorevole ammontano a 13,7 miliardi. Dunque, l’uso dei i combustibili fossili, responsabili per il cambiamento climatico e i danni alla salute dell’uomo, è ancora oggi incentivato più delle energie rinnovabili, che ci salveranno da queste sciagure.

Conclusione

In base agli accordi di Parigi e al successivo riesame della situazione presentato a Katowice si devono ridurre le emissioni di CO2 del 45% entro il 2030 e a zero al 2050. Il primo obiettivo che ogni Paese dovrebbe proporsi oggi è quindi una rapida transizione energetica. Non sembra che il Piano proposto dal Governo sia molto efficace per svolgere questo compito, poiché non prevede e tanto meno propone una forte riduzione dell’uso dei combustibili fossili e una forte espansione delle rinnovabili. Non accenna neppure alla necessità di facilitare, con opportune strutture stradali, la mobilità ciclistica, che ha anche un forte potenziale turistico.

Nel Piano c’è un ossequioso rispetto per gli obiettivi che l’Unione Europea si è data per il 2030, ma non ci sono idee originali e tanto meno proposte concrete per andare oltre quegli obiettivi, come converrebbe ad un Paese come l’Italia che ha abbondanti energie rinnovabili, una affermata industria manifatturiera, scarsissimi combustibili fossili, forte dipendenza energetica dall’estero e che è molto colpita nella sua vocazione turistica e culturale dai cambiamenti climatici e dall’inquinamento. Bisognerebbe finalmente capire che per avere energia abbiamo “bruciato” più di quello che si poteva “bruciare”, che l’agricoltura deve essere utilizzata solo per l’alimentazione e che il futuro è nell’energia elettrica rinnovabile.

Quello proposto dal Governo è un Piano che sembra non rendersi conto che la transizione energetica dai combustibili fossili alle energie rinnovabili è non solo necessaria, ma inevitabile e che assecondarla e anticiparla è una grande opportunità di crescita economica e riduzione dei costi causati dagli impatti ambientali e climatici. Compito del Piano dovrebbe essere anche quello gettare le basi per il passaggio dal consumismo e dall’usa e getta dell’economia lineare ad una economia circolare caratterizzata dalla sobrietà. L’Italia, che per decenni ha caricato pesanti debiti sulle spalle delle future generazioni, può e deve trovare nella transizione energetica l’occasione per un netto cambiamento di rotta che le permetterebbe anche di assumere un ruolo di guida all’interno della Unione Europea.

[1] http://www.irena.org/publications/2018/Apr/Global-Energy-Transition-A-Roadmap- to-2050
[2] M.Z. Jacobson, et al., Joule, 2017, 1, 108-21. http://dx.doi.org/10.1016/j.joule.2017.07.005

[3] https://energiaoltre.it/wp-content/…/11/Position-paper-Coordinamento-FREE-2.pdf [4] https://www.rivistamicron.it/corsivo/la- -e-possibile-a-patto-che/
[5] http://www.eueduk.com/bedazzled-energy-efficiency/

carbon-

tax

8

[6] E. Shove, BuildingResearch&Information, 2018, 46(7), 779.
[7] priceofoil.org/2017/11/09/burning-the-gas-bridge-fuel-myth/
[8] T. Wang et al., Environ. Sci. Technol., 2017, 51, 6990.
[9] https://www.transportenvironment.org/sites/te/files/2018_10_TE_GNC_e_GNL_per_au to_e_navi_ITA.pdf
[10] http://www.hdmotori.it/2018/12/04/fiat-500-elettrica-mirafiori-cassa-prezzi-uscita/
[11] pianodecennale.snamretegas.it/includes/doc/2/2019012208362018- decennale_web.pdf.
[12] https://www.repubblica.it/economia/rubriche/eurobarometro/2018/09/29/news/auto _diesel-207618352/?ref=search.
[13] Si veda, ad esempio, Corriere della Sera, 5 gennaio 2018.
[14] https://www.transportenvironment.org/news/biodiesel-increasing-eu-transport- emissions-4-instead-cutting-co2.
[15] E. Williams et al., Environ. Sci. Technol., 2015, 49, 6394

ENERGIA PER L’ITALIA (http://www.energiaperlitalia.it/energia-per-litalia/) è un gruppo di docenti e ricercatori di Università e Centri di ricerca di Bologna, coordinato dal prof. Vincenzo Balzani (vincenzo.balzani@unibo.it ; tel: 335 264411)

Energia per l’Italia

Vincenzo Balzani (coordinatore), Dipartimento di Chimica “G. Ciamician”, Università Nicola Armaroli, ISOF-CNR

Alberto Bellini, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Giacomo Bergamini, Dipartimento di Chimica “G. Ciamician”, Università Enrico Bonatti, Columbia University, Lamont Earth Observatory, ISMAR-CNR

Alessandra Bonoli, Dipartimento di Ingegneria Civile, Chimica, dell’Ambiente e dei Materiali, Università

Carlo Cacciamani, Dipartimento della Protezione Civile Nazionale Romano Camassi, INGV

Sergio Castellari, INGV

Daniela Cavalcoli, Dipartimento di Fisica ed Astronomia, Università

Marco Cervino, ISAC-CNR

Maria Cristina Facchini, ISAC-CNR

Sandro Fuzzi, ISAC-CNR

Luigi Guerra, Dipartimento di Scienze dell’Educazione «Giovanni Maria Bertin», Università

Giulio Marchesini Reggiani, Dipartimento di Scienze Mediche e Chirurgiche, Università Vittorio Marletto, Servizio IdroMeteoClima, ARPA

Enrico Sangiorgi, Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, Università

Leonardo Setti, Dipartimento di Chimica Industriale, Università
Micol Todesco, INGV
Margherita Venturi, Dipartimento di Chimica “G. Ciamician”, Università Stefano Zamagni, Scuola di Economia, Management e Statistica, Università Gabriele Zanini, ENEA-Divisione MET

Sicurezza del lavoro all’Università e nella Scuola.

In evidenza

Claudio Della Volpe

Da quasi 5 anni mi occupo di sicurezza sul lavoro nella mia università; la cosa andò così. Sono sempre stato iscritto ad un sindacato (non vi dico quale, potreste immaginarlo; anche se devo dire che i sindacati non si muovono molto per i docenti universitari, siamo considerati tutto sommato dei privilegiati).

Ad un certo punto il mio sindacato mi contatta e mi chiede di presentarmi come Rappresentante dei lavoratori per la sicurezza. 5 anni fa la cosa non mi impressionò particolarmente; all’epoca vedevo le pur rare richieste da parte dell’ufficio della Sicurezza Prevenzione e Protezione come delle richieste a volte eccessive e comunque molto burocratiche.

Il Rappresentante dei Lavoratori è previsto dalla Legge 81/08 ed è una figura che serve ai lavoratori di qualunque tipo e attività a monitorare, senza obblighi, ma a monitorare cosa succede nel proprio ambiente di lavoro ed eventualmente a fare presenti problemi alla controparte, ossia al Datore di lavoro, oppure nel caso estremo agli organismi esterni di controllo: ispettorati del Lavoro, UO delle ASL e Magistratura del Lavoro.

Attenzione non è che non fossi attento alla sicurezza nel mio laboratorio e nemmeno che fossi contrario, ma mi sentivo sicuro delle mie procedure e dunque poco propenso a perdere altro tempo.

Beh devo dire che questa esperienza mi ha cambiato la vita e mi è servita a rendermi conto che mi sbagliavo.

Prima di 5 anni fa non avevo mai letto la legge 81/08; voi sapete cosa è?

E’ la legge che regola nel nostro paese le questioni relative alla sicurezza sul lavoro. Ha sostituito la precedente 626 che già fu una vera rivoluzione.

Secondo una stima del 2017 della Agenzia per la Salute e la sicurezza sul lavoro europea il costo degli incidenti e delle malattie sul lavoro nell’Europa a 27 è poco meno di 500 miliardi di euro, ossia dell’ordine di 1000 euro a testa all’anno.

(https://osha.europa.eu/en/about-eu-osha/press-room/eu-osha-presents-new-figures-costs-poor-workplace-safety-and-health-world)

che corrispondono a più del 3% del PIL.

Sempre in Europa si stima che il numero di morti sul lavoro (eccettuati quelli avvenuti in itinere, ossia per incidenti stradali legati al lavoro e che sono una percentuale elevata del totale almeno in Italia) sia dovuto come segue:

https://visualisation.osha.europa.eu/osh-costs#!/

In Europa metà di tutti i morti sul lavoro sono legati ad un tumore preso sul posto di lavoro, un quarto a malattie circolatorie ed un altro quarto scarso a malattie muscolo scheletriche anche su base autoimmune e solo il 2% ad incidenti veri e proprii.

Questi dati sono importanti perchè poi quelli che compaiono sui giornali sono solo quel 2%; dunque un enorme numero di morti (ed incidenti e malattie) che hanno a che fare col lavoro non le vediamo quotidianamente.

In quel 2% però non ci sono tutti i morti per incidenti violenti; una parte è mascherata da incidenti stradali per andare al lavoro o tornare a casa.

Infine tenete presente che il numero di morti per cause di lavoro nel mondo è dominato da quelli dovuti alle malattie cardiocircolatorie; in Europa invece il numero dominante è quello dei tumori.

Diciamo subito una cosa; queste statistiche non sono articolate a livello di singolo paese per quanto riguarda le cause di morte; dunque non sono in grado di dirvi se quel 2% vale anche in Italia; supponiamo per un istante che sia vero.

Allora se fosse così in quel 2% ci sarebbero i circa 1000 morti all’anno per motivi di lavoro per INCIDENTE. Se moltiplichiamo il valore per 50 per avere il totale avremmo una stima (ripeto non ho i dati specifici per l’Italia) di quasi 50.000 morti all’anno per motivi legati al lavoro: sarebbero l’8% di tutti i morti di un anno.

Siete sbalorditi? Beh è normale quasi nessuno ci pensa o semplicemente lo sa.

Ma è solo una stima, probabilmente sono di meno. Probabilmente la distribuzione percentuale per l’Italia è diversa, probabilmente le statistiche europee sulla mortalità sono fatte diversamente dalle nostre.

Potete anche criticarmi perchè parto con queste ipotesi di calcolo tutto sommato molto approssimate; ma sono giustificato; in realtà c’è una notevole confusione statistica. Noi chimici ed in genere scienziati della Natura siamo abituati a valori esatti, deviazioni standard valutate con notevole precisione.

Invece in un settore come quello dela sicurezza sul lavoro non potete immaginare quante approssimazioni e mancanze ci siano; a partire dal fatto che i valori ufficiali INAIL riguardano solo gli assicurati INAIL e non tutti i lavoratori lo sono; per legge. A partire dal fatto che i dati non sono aggiornati in tempo reale e vengono cambiati spesso DOPO l’anno considerato; questo perchè le stime sono soggette a conclusioni giuridiche che arrivano in ritardo sui fatti nudi e crudi.

Ecco perchè sono nati molti gruppi di lavoro, siti internet dedicati a questo tema che cercano di denunciare tutti i casi che vengono alla luce, per esempio l’Osservatorio Indipendente di Bologna gestito da un pensionato, Carlo Soricelli.

http://cadutisullavoro.blogspot.com/

Ma torniamo alla questione che da il titolo al post.

L’università.

Bene allora diciamo subito che a norma della legge 81 art 2 comma a è un lavoratore fra l’altro: l’allievo degli istituti di istruzione ed universitari e il partecipante ai corsi di formazione professionale nei quali si faccia uso di laboratori, attrezzature di lavoro in genere, agenti chimici, fisici e biologici, ivi comprese le apparecchiature fornite di videoterminali limitatamente ai periodi in cui l’allievo sia effettivamente applicato alla strumentazioni o ai laboratori in questione;

Questo comporta da parte del Datore di lavoro una serie di obblighi a partire da una formazione generale e specifica della durata di 12 ore almeno.

Questa formazione deve esere somministrata PRIMA dell’accesso ai laboratori o dell’uso delle apparecchiature.

Da voi si fa? Nella mia Università noi RLS ossia rappresentanti dei lavoratori (siamo 6 al momento di cui solo io docente) siamo riusciti a spingere l’Università a iniziare questo percorso. I corsi devono essere somministrati da personale qualificato in classi di non più di 35 persone e seguiti da un test di verifica.

L’Università, come molte altre istituzioni statali (ospedali, forze armate, scuole in genere, carceri, etc ) è prevista esplicitamente nella 81/08 ma vi si dice anche che saranno emanate norme specifiche a causa delle condizioni particolari di svolgimento del lavoro; in realtà a parte un caso (quello dei volontari) tali norme non sono state emanate, lasciando la situazione in colpevole assenza e costringendo molte istituzioni ad arrangiarsi. Si dice che in Italia ci siano troppe leggi; beh qua invece mancano.

Per le Università inoltre esiste una legge specifica, il decreto ministeriale 363/98, che non è mai stata abrogata ma nemmeno aggiornata e dunque rimane valida con ulteriore problema.

Il Datore di Lavoro dell’Università è il Rettore a meno che non abbia delegato ad altri, per esempio ai Direttori di Dipartimento, delega che prevede prima di tutto la possibilità di spendere, di avere autonomia di spesa sul tema. Dunque in genere il Rettore è il responsabile di ultima istanza se si verificano problemi; e sicuramente lo è per la mancata formazione degli studenti ma anche del personale, compresi noi stessi, che pure possiamo essere considerati preposti degli studenti e dei tecnici. Nelle scuole il Datore di Lavoro è il Dirigente scolastico.

Il tema è complesso ma assolutamente urgente; non conosco casi specifici di altre Università a parte il famoso “caso Catania”, che ha avuto l’onore di un film (Col fiato sospeso), e che per quanto mi consta è la punta dell’iceberg. Conoscendo le condizioni di lavoro dellla mia Università so che ci sono molti punti da migliorare o perfino da iniziare ad affrontare: locali interrati non derogati (quanti laboratori sono interrati senza motivi tecnici e opportune metodiche di gestione?), misure antincendio non attuate (le Università sono luoghi a rischio incendio alto a causa del numero dei frequentanti), documenti di valutazione del rischio non realistici o veritieri, e potrei continuare a lungo.

Non aspettiamo un secondo caso Catania, non potremmo sopportarlo di fronte ad una opinione pubblica molto critica con l’università; facciamoci parte dirigente in un processo di aggiornamento e di attuazione delle norme di sicurezza in tutte le Università a partire dai nostri laboratori.

Concludo dicendo che molte scuole tecniche su questo sono anni luce avanti.

Elementi della tavola periodica. Zinco, Zn.

In evidenza

Rinaldo Cervellati

Lo Zinco (Zn) è l’elemento n. 30 della Tavola Periodica, il ventitreesimo elemento più abbondante nella crosta terrestre. L’origine del suo nome è oscura ma è certo che era riconosciuto come metallo a se stante centinaia di secoli a. C., e i suoi minerali erano usati per la fabbricazione dell’ottone. Nel libro della Genesi viene menzionato Tubal-cain, discendente di settima generazione da Adamo, come dotato di una reale maestria nella lavorazione dei metalli [1]. T.C. Mitchell [2] sostiene che egli scoprì la possibilità di fucinatura a freddo e di bombatura del ferro meteorico. Tubal-cain è stato descritto anche come il primo chimico [3]. Un fatto certo è che una lega contenente l’87% di zinco è stata trovata in rovine preistoriche in Transilvania e che zinco metallico è stato prodotto nel 13° secolo a.C. in India riducendo il minerale calamina (figura 1) con sostanze organiche come la lana [1].

Figura 1               Calamina                                           zinco metallo in lastra

Il metallo fu riscoperto in Europa da Andreas Sigismund Marggraf[1] nel 1746, riducendo il minerale calamina (un miscuglio di silicato idrato di zinco e carbonato di zinco) con carbone.

Oltre alla calamina, principali minerali dello zinco sono sfalerite o blenda (solfuro di zinco e ferro), smithsonite (carbonato) e franklinite (ossido misto di ferro, zinco e manganese). In seguito a processi geologici e chimici, lo zinco si è concentrato a livelli particolarmente elevati in certi luoghi del pianeta piuttosto che in altri. Il minerale può essere estratto da queste zone quando la concentrazione di zinco supera il 5%. Le aree più ricche di zinco si trovano principalmente in Nord e Sud America, Australia, Asia e, in misura minore, in Europa.

Le risorse minerarie sono stimate a circa 220 milioni di tonnellate di riserve di zinco attualmente sfruttabili. Il consumo mondiale annuo di zinco è attualmente di circa 9,7 milioni di tonnellate. Poiché il riciclaggio rappresenta circa il 39% del consumo di zinco, le riserve si esaurirebbero a un tasso annuo di 5,9 milioni di tonnellate. L’aumento del riciclaggio compenserà la crescita futura dei consumi. Sulla base del consumo costante e senza ipotizzare futuri successi esplorativi, le riserve di zinco sfruttabili dureranno per un periodo di circa 55 anni. Tuttavia, se si aggiungono le riserve di minerale potenzialmente disponibili in futuro, le risorse totali sono stimate in 1.900 milioni di tonnellate, un valore che soddisferebbe il fabbisogno di zinco per diversi secoli all’attuale tasso di estrazione annuale [4,5].

Lo zinco può essere ottenuto mediante arrostimento dei suoi minerali con formazioni di ossido e successiva riduzione dell’ossido di zinco con carbone (ZnO + C → Zn + CO), seguita da distillazione del metallo alla temperatura di 750 °C. Un altro metodo di estrazione è quello per via elettrolitica. Dopo aver ottenuto l’ossido dal minerale, è trattato con acido solforico e la soluzione risultante è inviata a una cella elettrolitica con anodo costituito da una lastra di piombo e catodo da una lastra di zinco puro, la reazione complessiva è:

ZnSO4 + H2O → Zn + H2SO4 + 1/2O2

Si ottengono così catodi di zinco puro.

Lo zinco è al quarto posto fra i metalli più utilizzati al mondo, preceduto nell’ordine da ferro, allumino e rame. La quantità di energia necessaria per produrre zinco dai suoi minerali è bassa rispetto all’energia necessaria per produrre altri metalli non ferrosi (alluminio, rame) utilizzati in edilizia, come mostra il seguente grafico, tratto da [4]:

Ancor meno energia è necessaria per produrre zinco per riciclaggio.

Lo zinco presente in natura contiene cinque isotopi stabili.

Lo zinco è un metallo bianco-azzurrognolo, brillante che esposto all’atmosfera si ricopre più o meno lentamente di una patina bianca. È questa patina che conferisce allo zinco la sua lunga durabilità. La superficie di zinco metallico reagisce infatti con l’ossigeno atmosferico (O2) in presenza di acqua (H2O) per formare idrossido di zinco (Zn(OH)2). L’idrossido di zinco reagisce con il biossido di carbonio atmosferico (CO2) per formare idrossicarbonato di zinco (2ZnCO3.3Zn(OH)2) che è il componente principale della patina (figura 2).

Figura 2 Formazione della patina protettiva, tratta da [4]

Lo zinco è fragile a temperature ordinarie ma malleabile a 100-150°C. È un buon conduttore di elettricità e brucia in aria al calor rosso con sviluppo di nuvole bianche dell’ossido.

Lo zinco metallico ha moltissimi impieghi industriali, dalla galvanizzazione di metalli per prevenirne l’ossidazione (grondaie), alle zamak (leghe a base di Zinco, Alluminio, Magnesio, Antimonio e Rame) usate nella produzione di parti di autoveicoli, pannelli solari, elettrodomestici, giocattoli, bottoni e cerniere. Alcune grondaie in lega di zinco possono durare fino a 100 anni perché la patina è insolubile in acqua, impedendo ogni ulteriore reazione con ossigeno e CO2[2]. Cilindretti di zinco sono usati come contenitore (e polo negativo) nelle pile Leclanché (zinco-carbone). Lo zinco è anche usato in lega per la fabbricazione di oggetti di oreficeria e argenteria. Leghe molto importanti sono l’ottone (Zn-Cu), il bronzo commerciale (Cu 90%, Zn 10%), l’alpaca o argento tedesco (Zn-Cu-Ni), e la lega con alluminio < 5% da fonderia. Grandi quantità di zinco servono a produrre pressofusi, ampiamente utilizzati dalle industrie automobilistica, elettrica e informatica. I composti organometallici dello zinco sono usati nella sintesi di numerose sostanze organiche.

Una lega denominata Prestal®, costituita da zinco al 78% e il 22% di alluminio è quasi forte come l’acciaio, ma è facile da modellare quanto la plastica (superplasticità). Il Prestal® è così plastico da poter essere modellato in forma di pressofusi relativamente poco costosi.

Secondo una statistica del 2016 (US Geological Survey), i dieci Paesi con la produzione maggiore di zinco sono stati: Cina (4.5 milioni tonnellate), Perù (1.3), Australia (0.85), USA (0.78), Messico (0.71), India (0.65), Bolivia (0.46), Kazakistan (0.44), Canada (0.31) e Svezia (0.25).

La Cina è dunque il più grande paese produttore a livello mondiale e un importante consumatore del metallo. I consumi cinesi sono stati la causa principale della rapida crescita dei prezzi.

Lo zinco è potenzialmente riciclabile al 100%. Una stima afferma che il 60% dello zinco disponibile a fine vita è recuperata ed effettivamente riciclata [4,6]. In Europa, il 95% del laminato di zinco usato è riciclato. Il successo del riciclaggio dello zinco laminato è dovuto a un mercato molto ben organizzato (figura 3):

Figura 3 Riciclaggio dello zinco, tratta da [4]

Lavorati contenenti zinco come ferro o acciaio zincato possono diventare una fonte di materiali per il riciclaggio alla fine delle loro vite utili (“vecchi rottami”). Questi materiali sono raccolti e processati in base alla loro composizione (quantità dello zinco e degli altri metalli nella lega) e facilità di elaborazione. Inoltre, a causa di potenziali perdite durante la fabbricazione e la lavorazione (ad esempio, scorie, residui, scarti, ecc.), una certa quantità di zinco diventa disponibile per il riciclaggio già durante la fase di lavorazione stessa (“nuovo rottame”).

Secondo la composizione del rottame, il riciclaggio può avvenire per ri-fusione o rimandato direttamente al processo di raffinazione [6].

Lo zinco ha un solo numero di ossidazione, 2+, quindi il suo ossido è ZnO. Di questo importantissimo composto abbiamo parlato in un precedente post

(https://ilblogdellasci.wordpress.com/2016/02/29/zinco-e-ossido-di-zinco-una-riscoperta/)

che contiene anche una satirica clip tratta dal film Ridere per ridere di John Landis (1977). Vale comunque la pena ricordare che l’ossido di zinco contenuto nelle preparazioni farmaceutiche, igieniche e cosmetiche non può essere riciclato.

Lo zinco è un elemento fondamentale per la vita animale (esseri umani compresi) e vegetale.

Esiste un intervallo di concentrazione di zinco ottimale per ciascun organismo vivente. All’interno di questo intervallo gli organismi viventi possono regolare la loro concentrazione interna per soddisfare i requisiti metabolici (figura 4).

Figura 4 Salute e apporto di zinco,tratta da [4]

Lo zinco è un importante oligoelemento per gli esseri umani in quanto occupa il 3° posto, dopo il magnesio e il ferro. È essenziale per la crescita, lo sviluppo del cervello, la protezione della pelle, il corretto funzionamento del sistema immunitario, la digestione, la riproduzione, il gusto, l’olfatto e molti altri processi fisiologici. Il corpo umano non è in grado di sintetizzare lo zinco di cui ha bisogno, deve quindi introdurlo con l’alimentazione. Cereali, legumi, frutta secca, uova, latticini e carni rosse sono alcuni dei cibi più ricchi in zinco.

L’Organizzazione mondiale della sanità (OMS) raccomanda un apporto giornaliero di 10 mg/giorno per i bambini, 12 mg/giorno per le donne e 15 mg/giorno per gli uomini. Alcuni gruppi di popolazione hanno un fabbisogno di zinco più elevato e pertanto sono più a rischio di carenza di zinco: bambini e adolescenti, donne incinte, sportivi, anziani, ecc. Se queste condizioni ottimali non sono soddisfatte e vi è un deficit può verificarsi una carenza.

I sintomi legati a una carenza di zinco sono: riduzione dei sensi di gusto e olfatto, problemi della pelle, letargia mentale e riduzione della fertilità.

La varietà nella dieta di una persona dipende principalmente da fattori culturali e socio-economici. Poiché la quantità di zinco varia secondo il tipo di alimentazione, su scala globale molti adulti e bambini ne assumono troppo poco. Nei paesi in via di sviluppo, la carenza di zinco è al quinto posto tra i primi 10 fattori di rischio per la salute umana; l’OMS ha stimato circa 800.000 morti l’anno per carenza di zinco [4].

A differenza degli esseri umani gli ecosistemi sono raramente soggetti a una mancanza di zinco, ma possono essere sottoposti a un eccesso.

Come mostrato in figura 5 lo zinco è naturalmente presente nell’ambiente: rocce, suolo, acqua e aria hanno sempre contenuto naturalmente concentrazioni variabili di esso.

Figura 5 Intervalli conc. Zn in diversi ecosistemi, tratta da [4]

Nel corso della loro evoluzione, tutti gli organismi viventi hanno utilizzato lo zinco disponibile nel loro ambiente per specifiche funzioni del loro metabolismo, adattandosi alla concentrazione naturale di zinco nel loro ecosistema. Inoltre, hanno sviluppato meccanismi per mantenere condizioni di vita ottimali quando questo livello di concentrazione dovesse variare di poco dalla norma. Ma se la concentrazione di zinco cambia radicalmente, le condizioni di vita non sono più ottimali e il funzionamento dell’ecosistema viene alterato. Per questo motivo vengono condotti studi ecotossicologici per valutare il rischio per l’ambiente di un eccesso di zinco.

In questi studi è presa in considerazione solo la concentrazione di zinco disciolto perché la parte insolubile non ha alcun effetto su di essi. La concentrazione di zinco disciolto è influenzata dalle proprietà dell’ambiente quali pH, durezza dell’acqua, carbonio organico disciolto e temperatura. Pertanto, qualsiasi studio sull’impatto ambientale dello zinco deve tenere conto delle caratteristiche specifiche dell’ecosistema in questione e della concentrazione di zinco disciolto, non della concentrazione totale.

Studi ecotossicologici hanno dimostrato che le concentrazioni di zinco negli ecosistemi europei, originate da attività umane (come la corrosione atmosferica di zinco laminato e acciaio zincato, usura di pneumatici di veicoli, fertilizzanti e alimenti per animali, ecc.) o emissioni naturali (principalmente da attività vulcanica), rimangono fortunatamente per ora nei limiti delle condizioni di vita ottimali.

Bibliografia

[1] CRC, Handbook of Chemistry and Physics, 85th, p. 4-35

[2] T. C. Mitchell, Tubal-cain, in New Bible Dictionary (IVF, 1962), 1302.

[3] Tubal-Cain Acclaimed as Pioneer Chemist, in The Science News-Letter, Society for Science & the Public, 30 agosto 1941, p. 142,

[4] https://www.vmzinc.com

[5] https://www.zinc.org/

[6] IZA (International Zinc Association),

https://www.initiative-zink.de/fileadmin/iz_web_dateien/D_O_K_U_M_E_N_T_E/Broschueren/IZA_Broschueren/IZA_Closing_the_Loop_new.pdf

[1] Andreas Sigismund Marggraf (1709-1782) chimico prussiano, allievo di Caspar Neumann discepolo di Stahl, assistente del chimico Spielmann, seguì le lezioni di Friedrich Hoffmann e di Johann Juncker. Nel 1734 si recò a Freiberg in Sassonia per studiare metallurgia con Henckel. Fu poi direttore del Laboratorio Chimico dell’Accademia Prussiana delle Scienze e della Classe di Filosofia Sperimentale della stessa Accademia. Aderì alla teoria del flogisto di Stahl-Juncker ma il suo profondo interesse per la scienza chimica, il perfezionamento di strumenti analitici e l’uso della bilancia anticiparono alcuni aspetti della rivoluzione chimica lavoisierana. https://www.encyclopedia.com/people/science-and-technology/chemistry-biographies/andreas-marggraf

[2] La durata dello zinco può essere ridotta da alcuni inquinanti acidi, che aumentano il tasso di corrosione. Il principale inquinante è il biossido di zolfo (SO2) che reagisce con la patina formando solfato di zinco, che è solubile in acqua e corrosivo. Il biossido di zolfo è emesso da alcuni impianti industriali, impianti di riscaldamento centralizzati a olio e traffico stradale. Di conseguenza, il tasso di corrosione è maggiore in aree urbane o industrializzate rispetto a un ambiente rurale.

Dorothy Maud Wrinch (1894-1976)

In evidenza

Rinaldo Cervellati

Dorothy Maud Wrinch nacque il 13 settembre 1894 a Rosario (Argentina), figlia di Hugh Edward Hart Wrinch, ingegnere britannico, e Ada Souter, casalinga. Poco dopo la sua nascita, la famiglia Wrinch tornò in Inghilterra. Dorothy crebbe a Surbiton, un sobborgo sul Tamigi, 18 km a sud-ovest di Londra. Frequentò la scuola elementare e le superiori a Surbiton. Nel 1913 vinse una borsa di studio per il Girton College, un college residenziale per donne a Cambridge, dove studiò matematica e filosofia. In particolare, fu fortemente influenzata dal matematico e filosofo Bertrand Russell[1], del quale divenne amica. Nel 1916 fu l’unica donna a superare con onori gli esami della prima parte (matematica) del progetto Tripos per la matematica dell’Università di Cambridge.

Il successivo anno accademico (1916-17) Wrinch rimase a Girton, dove studiò e passò la seconda parte (filosofia) del progetto Tripos, che la qualificò per studiare la logica simbolica con Russell.Dorothy Maud Wrinch al Girton

Rimase al Girton anche l’anno seguente, come ricercatrice. Nel periodo della sua vicinanza intellettuale a Russell, Wrinch potrebbe aver avuto un legame romantico con il fratello Frank e probabilmente ebbe un attaccamento infelice con un altro dei suoi discepoli, Raphael Demos, ma le fonti biografiche differiscono sul fatto che Wrinch avesse piuttosto desiderato una relazione sentimentale con Russell [1 a, b].

Bertrand Russell

Nel 1918 Wrinch accettò una docenza all’University College di Londra. A Londra Wrinch frequentò l’Aristotelian Society, partecipando ai dibattiti sulla natura della fisica, della biologia e della psicologia, e divenne amica di D’Arcy Thompson[2]. Fu stretta compagna intellettuale di Harold Jeffreys[3], e alcuni osservatori contemporanei pensarono che fossero fidanzati e che potrebbe essere stata la rottura di questo impegno che incoraggiò Jeffreys a entrare in psicoanalisi, che all’epoca era di moda a Cambridge.

Nell’autunno del 1918 Wrinch partecipò a uno studio universitario sulle espansioni asintotiche al King’s College di Londra, iniziò a insegnare all’University College e continuò comunque a lavorare con Jeffreys sulla filosofia del metodo scientifico.

Dorothy Wrinch a Londra

Si trasferì in un appartamento a Mecklenburgh Square di proprietà della allora amante di Russell, Colette O’Neil. Nel 1920 il Girton College assegnò a Wrinch una borsa di studio della Yarrow Research di quattro anni con libertà di lavorare su qualsiasi area a sua scelta.

Nello stesso 1920 ottenne il master e l’anno successivo il dottorato in matematica dall’University College di Londra.

Nel 1922 Wrinch sposò il suo supervisore al King’s College di Londra, il fisico matematico John William Nicholson[4]. Nicholson era stato di recente nominato direttore del College di matematica e fisica del Balliol College di Oxford, dove Wrinch lo raggiunse. La coppia ebbe una figlia, Pamela, nata nel 1927. Il libro di Wrinch (con lo pseudonimo Jean Ayiling) sulla genitorialità, Retreat from Parenthood, dedicato a Russell, fu un saggio sociologico piuttosto che un manuale su come crescere e educare bambini.

Altra immagine di Wrinch

La salute mentale di Nicholson si deteriorò alla fine degli anni ’20 e nel 1930 fu certificato come malato di mente. I due coniugi si separarono nel 1930, da quest’anno Wrinch si legò intellettualmente ed emotivamente al matematico Eric Neville[5] in un’amicizia che durò fino al 1961.

Durante il periodo oxfordiano Wrinch trovò il tempo per approfondire la sua educazione matematica, conseguendo un master (1924) e un dottorato (1929); fu la prima donna a conseguire un dottorato in scienze a Oxford (il Dipartimento di Scienze includeva la Matematica).

Mentre Wrinch stava approfondendo le sue conoscenze, pubblicò 42 articoli di matematica, fisica matematica e filosofia della scienza, tutti con il suo nome da nubile, che usò per tutta la sua carriera[2].

Nel 1931 Wrinch ottenne da Oxford una dispensa per studiare biologia, cosa che fece in università e laboratori di Londra, Parigi, Vienna e Berlino. In particolare, applicò concetti matematici alla struttura di proteine e cromosomi, che portarono al suo primo lavoro in biochimica, pubblicato su Nature nel 1934 [3]. Questo lavoro le valse nel 1935 una borsa di studio quinquennale della Fondazione Rockefeller per continuare le ricerche sull’applicazione di metodi matematici in biologia.

Nel 1937 presentò una nuova teoria della struttura delle proteine in una riunione dell’Associazione Britannica per l’Avanzamento della Scienza. La teoria era incentrata sull’esistenza di legami ciclici tra gli amminoacidi che costituiscono le proteine, struttura detta Cyclos (ciclone)[4].

Wrinch con la sua ipotesi di struttura

Sebbene la teoria fosse attraente per la simmetria matematica che possedeva e la sua capacità di spiegare molte proprietà delle proteine [5,6], tanto da essere sostenuta da molti, compreso Irving Langmuir [7,8], fu presto attaccata dai cristallografi britannici, i quali affermarono che la teoria non era conforme ai loro dati sperimentali. Inoltre, il chimico americano Linus Pauling calcolò che i legami del cyclos erano troppo instabili per persistere oltre un certo tempo. Pauling e Wrinch si impegnarono in un dibattito sempre più aspro attraverso le pagine del Journal of the American Chemical Society. Alla fine, entrambi hanno avuto torto: gli aminoacidi si combinano nelle proteine formando lunghe catene e legami tipo ciclone sono stati evidenziati nella segale cornuta (una malattia fungina delle graminacee).

Wrinch discute la sua struttura

Nel 1937 ottenne il divorzio da Nicholson sulla base della malattia mentale del marito.

Nel 1939 Wrinch e sua figlia si trasferirono negli Stati Uniti, in parte perché il rettore dell’Università di Oxford e il segretario agli Esteri Lord Halifax le consigliarono che sarebbe stata molto più utile là per sostenere lo sforzo bellico inglese attraverso attività di ricerca e conferenze divulgative.

Wrinch incolpò Pauling per la sua iniziale difficoltà nel trovare una sistemazione accademica negli Stati Uniti. Dopo essere stata visiting professor per un anno presso la Johns Hopkins University di Baltimora, Maryland, nel 1941 Wrinch ottenne una cattedra di ricerca in contemporanea in tre college femminili in Massachusetts: Amherst College, Mount Holyoke College e Smith College. Otto Charles Glaser[6], biologo e vicerettore dell’istituto maschile Amherst College, che era un convinto sostenitore della teoria del ciclone di Wrinch, fu determinante nel sostenere la sua candidatura. I due si sposarono quello stesso anno. Nel 1942 Wrinch ottenne una cattedra a tempo pieno presso lo Smith College, e nel 1943 divenne cittadina americana. Ha continuato a fare ricerca in biochimica fino al 1965 pubblicando i risultati sulle riviste più qualificate [2].

Il suo lavoro più noto di questo periodo è l’applicazione della trasformata di Fourier all’analisi dei dati cristallografici a raggi X [9].

Si è ritirata a Woods Hole nel 1971 ed è morta a Falmount (MA) l’11 febbraio 1976.

 

Opere consultate

William L. Losch, Dorothy Maud Wrinch Brithish-American mathematician and biochemist,

https://www.britannica.com/biography/Dorothy-Maud-Wrinch

D.C. Hodgkin, Obituary, Nature, 1976, 260, 564.

Dorothy Maud Wrinch Wikipedia

Bibliografia

[1] a)  M.Senechal, I died for beauty : Dorothy Wrinch and the cultures of science, Oxford: Oxford University Press,Oxford, USA, 2012; b) P.G. Abir-Am, Synergy or clash: Disciplinary and marital strategies in the career of the mathematical biologist Dorothy M. Wrinch (1894-1976)’ in: P.G. Abir-Am & D. Outram (eds.), Uneasy careers and intimate lives, Women in Science, 1789-1979,  Rutgers University Press, New Brunswick, Canada, 1987.

[2] L’elenco completo dei lavori di Dorothy Maud Wrinch si trova in http://wikler.net/marjoriesenechal/wrinch/wrinch-papers.htm

[3] D.M. Wrinch, Chromosome behavior in terms of protein pattern., Nature, 1934, 134, 978-979.

[4] D.M. Wrinch, On the pattern of proteins. Proc. Royal Society, 1937,160, 59-86.

[5] D.M. Wrinch, The cyclol hypothesis and the globular proteins. Proc. Royal Society, 1937, A 161, 505-524.

[6] D.M. Wrinch, The cyclol theory and the “globular” proteins., Nature, 1937, 139, 972-973.

[7] D.M. Wrinch, I. Langmuir, The Structure of Insulin Molecule. J. Am. Chem. Soc., 1938, 60, 2247-2255.

[8] I. Langmuir, D.M. Wrinch, Nature of the Cyclol Bond., Nature, 1939, 143, 49-52.

[9] D.M. Wrinch, Fourier Transforms and Structure Factors, published by the American Society for X-ray and Electron Diffraction, January 1946.

[1] Bertrand Arthur William Russell (1872 – 1970) britannico, pensatore preminente del XX secolo è stato matematico, logico, filosofo, storico, scrittore, critico sociale, divulgatore, attivista politico. Nel 1950 gli fu assegnato il Premio Nobel per la letteratura “in riconoscimento ai suoi vari e significativi scritti nei quali egli si erge a campione degli ideali umanitari e della libertà di pensiero”. Nel 1945 aveva pubblicato la poderosa opera (A) History of Western Philosophy And Its Connection with Political and Social Circumstances from the Earliest Times to the Present Day (Ed It.: Storia della Filosofia Occidentale). Il libro fu aspramente criticato dai filosofi di professione: Russell fu accusato di generalizzazioni e omissioni, ciononostante diventò un successo popolare e commerciale, ed è rimasto in stampa fin dalla sua prima pubblicazione. Sta di fatto che Russell è riuscito a far capire la filosofia al grande pubblico scrivendo in modo chiaro e comprensibile talvolta alleggerendo gli argomenti più difficili con humor tipicamente britannico. Grazie, Bertrand!

[2] Sir D’Arcy Wentworth Thompson (1860-1948) è stato un biologo scozzese, matematico e studioso di classici. Fu un pioniere della biologia matematica, viaggiò per spedizioni nello Stretto di Bering e ricoprì la carica di professore di storia naturale all’University College, Dundee per 32 anni, poi a St Andrews per 31 anni.

[3] Sir Harold Jeffreys (1891 – 1989) è stato un matematico, statistico, geofisico e astronomo britannico, docente di matematica, poi di geofisica e infine professore di Astronomia all’Università di Cambridge.

[4] John William Nicholson (1881 -1955) fisico matematico inglese è noto soprattutto per i suoi studi spettroscopici che lo portarono a scoprire nuovi elementi. Confinato nel Warneford Hospital fino alla sua morte nel 1955

[5] Eric Harold Neville (1889 – 1961) matematico inglese, noto per i suoi studi di geometria differenziale.

[6] Otto Charles Glaser (1880 – 1951) zoologo statunitense. È stato assistente di biologia all’Università del Michigan, poi professore di Biologia all’Amherst College del Massachusetts dal 1916 al 1948.

Elementi della tavola periodica: Zolfo, S.

In evidenza

Mauro Icardi

Zolfo: simbolo chimico S, numero atomico 16, massa atomica 32.07 u.  Appartiene alla famiglia dei non metalli, e di quegli elementi arcaici, noti fin dall’antichità. Lo zolfo si lega nei miei ricordi di studio e personali anche alla Sicilia e alle sue miniere. E alle descrizione di Dante nel Paradiso: “E la bella Trinacria che caliga tra Pachino e Peloro , sopra il golfo che riceve da Euro maggior briga non per Tifeo ma per nascente zolfo

E naturalmente, così come per il rame, anche lo zolfo richiama i ricordi d’infanzia. Usato nella coltivazione della vite, per combattere l’oidio quello che i nonni e zii chiamavano il “mal bianco”, termine usato ancora oggi. La malattia di origine fungina, causa la copertura della foglia della vite con delle macchie di colorazione grigio-biancastra e polverulenta, che ricoprono tutti gli organi verdi della pianta. La pianta che viene attaccata dal fungo ingiallisce e cade. Nei pomeriggi d’estate girovagando nei locali dove venivano conservati i sacchi, ho potuto ancora vedere qualche sacco proveniente proprio dalla Sicilia.

Per quanto riguarda l’origine dei depositi di zolfo, si possono distinguere due meccanismi di formazione:

  1.     Origine Sedimentaria

I giacimenti di origine sedimentaria si possono far risalire 25 milioni di anni fa, in terreni detti EVAPORITI perché formatisi per evaporazione di acque marine in ambienti lagunari, e con climi caldi e asciutti. L’evaporazione dell’acqua e la fioritura di alghe fecero diventare l’ambiente, ricco di pesci e di organismi dal corpo racchiuso in un guscio calcareo, sempre più povero di ossigeno, fino a provocare la morte di quasi ogni specie vivente.

La sostanza organica caduta sul fondo venne attaccata da organismi capaci di vivere in assenza di ossigeno (batteri anaerobici) e col trascorrere dei secoli si formò dapprima gesso e quindi carbonato di calcio e zolfo.

Questa la sequenza delle reazioni:

2CaSO4 + 2CH4(o batteri anaerobici) – – > Ca (HS)2 + CaCO3 + CO2 + 3H2O

Ca (HS)2 + CO2 + H2O – – – > CaCO3 + 2 H2S

E per ultimo stadio:

3H2S + CaSO4 – – – > 4S + Ca (OH)2 + H2O

2 Origine vulcanica

Nelle emanazioni di vulcani allo si trovano H2S, SO2 ed altri vapori di zolfo.
Tali composti, in presenza di acqua, reagiscono fra loro e depositano lo zolfo formando incrostazioni e masse che in qualche caso sono state usate in alternativa all’estrazione mineraria vera e propria.
Le più note solfatare sono quelle di Pozzuoli (Na), Montefiascone, Latera, Pomezia (tutte nel Lazio), isola di Vulcano e del Vesuvio , conosciute ampiamente già in epoca romana.

Una delle più note reazioni per la genesi vulcanica è la seguente:

2H2S + O2 – – > 2S + 2 H2O + 527 kJ

ed anche in presenza di anidride solforosa:

2H2S +SO2 – – > 3S + 2H2O.

Dal punto di vista squisitamente lessicale i giacimenti sedimentari si chiamano solfare, mentre quelli di origine vulcanica solfatare.

Il trasporto al mare dello zolfo, sotto forma di ione solfato, avviene tramite dilavamento del terreno e delle rocce e infiltrazione in falde freatiche. Nelle acque degli oceani esso viene utilizzato dalle alghe marine per la produzione di una betaina contenente zolfo, il dimetilsolfonio propionato (DMSP). In seguito alla morte delle alghe questa sostanza viene liberata, scomponendosi a formare lo ione acrilato e il dimetilsolfuro (DMS), che tende a passare allo stato gassoso.

Il DMS gassoso viene ossidato dai gas atmosferici originando un aerosol di sale solfato che funziona come nucleo di condensazione, venendo circondato dalle goccioline d’acqua che daranno così origine alle nubi.
Sotto questa forma lo zolfo perviene nel terreno con le precipitazioni, a beneficio delle piante terrestri, delle quali favorisce la crescita. La sua presenza aumenta inoltre la velocità di erosione delle rocce, con un conseguente maggior flusso di nutrienti a beneficio degli organismi marini.
Il passaggio all’atmosfera dello zolfo può anche essere causato da eruzioni vulcaniche o attività antropica, in seguito all’impiego di combustibili che contengano questa sostanza. Viene così prodotta anidride solforosa (SO2), che si ossida all’aria ad anidride solforica (SO3). L’anidride solforica viene facilmente convertita in acido solforico, e in presenza di inquinanti può originare un aerosol, contenente in prevalenza solfato di ammonio, all’origine di quelle che vengono definite piogge acide.

Lo zolfo trova impiego non solo nei processi industriali quali quelli per la produzione di acido solforico, e la vulcanizzazione della gomma, ma anche per la produzione di saponi e detergenti allo zolfo. Questi vengono usati principalmente per la detersione delle pelli grasse. Essendo lo zolfo un componente della cheratina viene chiamato anche il “minerale della bellezza” principalmente per pelle, unghie e capelli.

Non va dimenticata l’importanza dello zolfo negli aminoacidi. Il nostro organismo trae zolfo principalmente da due aminoacidi: la cisteina e la metionina, aminoacidi solforati. Si tratta di aminoacidi che il nostro organismo deve assumere attraverso l’alimentazione. Essendo costituenti delle proteine, è chiaro come gli alimenti più ricchi di zolfo siano il pesce, il manzo, il pollo, ma anche uova, legumi, asparagi, cipolla, aglio, germe di grano e cavolo. A titolo personale, nonostante il caratteristico odore, io preferisco integrare la mia quantità di zolfo attraverso il consumo di cipolle, aglio e cavoli. Una scelta personale, ma in qualche modo guidata anche da una sorta di istinto primario.

Probabilmente questo elemento potrebbe avere per qualcuno una cattiva fama. Questo per il suo essere associato in moltissime pagine letterarie con il diavolo. E anche nelle diverse leggende relative ai vari “ponti del diavolo sparsi in Italia. Per esempio a Lucca e a Lanzo tra i tanti. Vorrei ricordare la leggenda del ponte di Lanzo, che sentii narrare dalla mia insegnante di scuola elementare, Mariagrazia Rozzi.

Un tempo gli abitanti dei casolari e delle baite periferiche di Lanzo, per raggiungere il borgo erano costretti ad un largo giro, e dovevano superare il torrente Stura più a monte, in prossimità dell’abitato di Germagnano. Anche i collegamenti tra Lanzo e la sponda destra del fiume avvenivano su precari ponti in legno. Venne quindi decisa la costruzione di un nuovo ponte, ma ogni volta avversità naturali e crolli improvvisi ne ritardavano la realizzazione. Il Diavolo, avendo visto frustrati gli sforzi degli aitanti del paese, si offerse di costruire egli stesso un ponte che non sarebbe crollato. Ma in cambio avrebbe preteso l’anima del primo che lo avesse attraversato. Gli abitanti accettarono l’offerta e quando il ponte fu finito fecero passare per primo un cagnolino. Il Diavolo, furioso per l’affronto subito, sbatté con violenza le sue zampe sulle rocce intorno formando le caratteristiche “Marmitte dei Giganti”, visibili ancora oggi dietro la Cappella di San Rocco che si trova all’imbocco del ponte dalla parte di Lanzo. Un’altra versione invece dice che lasciò l’impronta di una zampa proprio sul ponte, sparendo poi, sempre arrabbiato e lasciando dietro di sé il classico odore di zolfo.

Ma per restare in tema letterario e riallacciarsi ad una sorta di contrappasso dantesco, il diavolo stizzito e iracondo finisce male. Infatti nell’apocalisse il diavolo viene gettato proprio in uno stagno di fuoco e zolfo:

“E il diavolo, che li aveva sedotti, fu gettato nello stagno di fuoco e zolfo, dove sono anche la bestia e il falso profeta: saranno tormentati giorno e notte per i secoli dei secoli.”

Una piccola rivincita per il povero cagnolino!

 

Nota del Postmaster.

Il ciclo dello zolfo è molto interessante per vari motivi, fra i quali le varie ipotesi fatte per il ruolo climatico del DMS; qui sotto una rapresentazione alternativa del ciclo dello zolfo e le due ipotesi CLAW e anti-CLAW sul ruolo del DMS.

L’ambiente al Portico della Pace.

In evidenza

Vincenzo Balzani

PORTICO DELLA PACE

luogo interculturale interreligioso interconfessionale intergenerazionale di incontro e di lavoro di tutte le donne e uomini costruttori di pace a Bologna

Portico della Pace, 2 marzo 2019, Piazza Maggiore, Bologna

Buon pomeriggio, grazie per la presentazione, sono molto contento di essere qui per partecipare, con tutti voi, a questo presidio. Siamo qui, in tanti, per dimostrare che è possibile organizzare una resistenza pacifica e democratica contro chi chiude confini, alza muri, rifiuta cooperazione e solidarietà, provoca ed esalta le disuguaglianze.

Mi è stato chiesto di parlare dell’ambiente, una parola che oggi, nel suo significato più comune, si riferisce al clima, all’inquinamento e alla natura considerata come un patrimonio da proteggere. Ma l’ambiente non riguarda solo la natura; l’ambiente è anche l’insieme delle condizioni sociali e culturali in cui viviamo. L’ambiente comprende il pianeta e anche noi che ci viviamo sopra.

Quello dell’ambiente, quindi, è un tema, e anche un problema, molto importante. Un grande scrittore, Italo Calvino era solito dire: “Se vuoi capire bene le cose importanti, prima di tutto devi guardarle da lontano”. Uno dei primi uomini che ha visto da lontano la Terra è stato William Anders, un’astronauta della missione Apollo 8 che, nel 1968, la vigilia di Natale, era in orbita attorno alla Luna. All’improvviso apparve agli astronauti uno spettacolo che nessuno prima aveva mai visto: il sorgere della Terra, la Terra che usciva dal cono d’ombra della luna. Sbalordito, William Anders fece una fotografia, che ancor oggi è considerata fra le cento foto più importanti. Scattò quella foto e un attimo dopo disse: “Siamo venuti fin quassù per esplorare la luna e la cosa più importante è che abbiamo capito cos’è la Terra”. Aveva ragione Calvino: per capire le cose importanti, bisogna prima guardarle da lontano.

Quando si guarda la Terra da lontano, ci si rende conto quale sia la nostra condizione, il nostro ambiente: appare chiaro che siamo passeggeri di una specie di astronave che viaggia nell’infinità dell’universo. Su questa astronave siamo in tanti e così diversi: bianchi, neri gialli, ricchi e poveri, buoni e cattivi; nessuno se ne può andare, se non morendo, nessuno può arrivare da fuori: bisogna nascerci dentro. La Terra, dunque, è una astronave, ma un’astronave del tutto speciale perché non potrà mai atterrare da nessuna parte, non potrà mai attraccare a nessun porto per far rifornimento o scaricare rifiuti. E se qualcosa non funziona, se qualcosa si rompe dovremo ripararla da soli, senza neppure scendere.

Si capisce, allora, che siamo in un a situazione molto delicata. Quindi, questa astronave Terra, questo unico luogo dove possiamo vivere vivere, questa nostra casa Comune come la Chiama papa Francesco, va custodita con grande attenzione. Purtroppo, non lo stiamo facendo. Lo dicono gli scienziati come Lester Brown che ha scritto un libro per ammonire che siamo vicini al collasso, siamo sull’orlo del baratro; lo dice anche papa Francesco nell’ enciclica laudato si’:

“Le previsioni catastrofiche ormai non si possono più guardare con disprezzo e ironia. Lo stile di vita attuale, essendo insostenibile, può sfociare solo in catastrofi”.

Che la situazione sia critica lo aveva già capito, tempo fa, un grande filosofo, Hans Jonas:

... è lo smisurato potere che ci siamo dati, su noi stessi e sull’ambiente, sono le immani dimensioni causali di questo potere ad imporci di sapere che cosa stiamo facendo e di scegliere in che direzione andare”.

Se dobbiamo imporci di sapere cosa stiamo facendo, vuol dire che stiamo sbagliando qualcosa, che non abbiamo capito come si deve vivere su questa Terra, su questa allora astronave. Cerchiamo allora di capire insieme cosa c’è che non va.

Dobbiamo vivere, e per vivere ci vogliono risorse. L’unica risorsa proveniente dall’esterno su cui possiamo contare è la luce del sole. Tutte le altre risorse dobbiamo prenderle dalla Terra. Ora la Terra ha dimensioni “finite”, è quella che è, non è grande come la voglio io: siccome la Terra ha dimensioni finite, le risorse della Terra sono limitate. Sembrerebbe un concetto ovvio, ma evidentemente non lo è se papa Francesco nell’enciclica deve scrivere:

“L’idea di una crescita infinita, che tanto entusiasma gli economisti, è basata sul falso presupposto che esiste una quantità illimitata di risorse”.

Falso presupposto, perché non è vero che le risorse sono illimitate. Sono limitate, e dobbiamo tenerne conto in tutto quello che facciamo. Ne deriva che il PIL (prodotto interno lordo), parametro che è basato sull’idea di una crescita infinita, è un non senso.

Poi c’è l’altra faccia della medaglia: ogni volta che si utilizzano risorse, si producono rifiuti. Esempio: uso la risorsa carbone, produco il rifiuto anidride carbonica CO2. E siccome la Terra ha dimensioni finite, anche lo spazio disponibile per collocare I rifiuti è limitato. Altro concetto che sembrerebbe ovvio, ma evidentemente neanche questo lo è se papa Francesco nell’enciclica deve scrivere:

“L’uomo pensa di essere di fronte ad una natura che può essere sfruttata senza problemi perché gli effetti negativi dello sfruttamento possono essere eliminati”.

Non è affatto vero che i rifiuti possono essere eliminati; non possiamo metterli in un non luogo che appunto non c’è. I rifiuti dobbiamo tenerceli qui, sulla Terra.

Vediamo ora perché la situazione risorse/rifiuti è insostenibile. Prendiamo il caso della risorsa più importante, che è l’energia. La nostra principale fonte di energia oggi sono i combustibili fossili. Sapete quanti ne consumiamo? Attenzione: ogni secondo, e i secondi passano in fretta, ogni secondo al mondo consumiamo 250 tonnellate di carbone, 1000 barili di petrolio e 105 mila metri cubi di gas. Ogni secondo. E ogni secondo, bruciando queste enormi quantità di combustibili fossili, produciamo e immettiamo nell’atmosfera 1000 tonnellate di anidride carbonica. Quindi, stiamo consumando con una rapidità incredibile una grande risorsa, i combustibili fossili e allo stesso tempo immettiamo nell’atmosfera quantità enormi di rifiuti: l’anidride carbonica, responsabile del cambiamento climatico e altre sostanze, come le famigerate polveri sottili che danneggiano la salute.

Questo discorso si può estendere a tutti gli altri tipi di risorse e di rifiuti. 100 o a anche solo 50 anni fa c’erano molte risorse non ancora usate e non c’erano tutti i rifiuti che abbiamo prodotto. Ecco allora che in questi ultimi 100 anni l’uomo, con una frenetica attività resa possibile dalla grande diponibilità di energia fornita da combustibili fossili e dai progressi della scienza e delle tecnica, ha modificato profondamente il pianeta. Gli scienziati dicono infatti che stiamo vivendo in una nuova epoca, a cui hanno dato il nome Antropocene. Nel passato le epoche erano scandite da cambiamenti nella Natura: oggi l’uomo è più forte della natura e si è creato una sua epoca: l’Antropocene.

Negli ultimi 20 anni però, le persone che guardano non solo al presente ma anche al futuro hanno capito che non si può andare avanti così. Lo hanno capito scienziati, filosofi, anche gente non colta, pochissimi fra i politici. Hanno capito che in un mondo limitato come è la nostra astronave Terra non si può avere una crescita infinita. Hanno capito che bisogna cambiare.

Per prima cosa, bisogna smettere di usare i combustibili fossili per tre motivi: intanto sono una risorsa non rinnovabile e quindi in via di esaurimento, per cui verrebbero in ogni caso a mancare alle generazioni future; poi, l’inquinamento che causano è molto pericoloso per la salute dell’uomo (in Italia, abbiamo, ogni anno, circa 80.000 persone che muoiono prematuramente); e c’è un terzo motivo che è di gran lunga il più importante: l’anidride carbonica che immettiamo nell’atmosfera bruciando i combustibili fossili provoca il cosiddetto effetto serra: avvolge il pianeta come in un manto permettendo alla luce solare di giungere sulla superficie della Terra, ma poi impedisce, almeno parzialmente, al calore di uscire. L’effetto serra provoca poi il cambiamento climatico. Come certamente sapete nel dicembre 2015 in una conferenza indetta dall’ONU a Parigi le delegazioni di tutti i 195 paesi presenti hanno riconosciuto che il cambiamento climatico è oggi il pericolo più grave che per l’umanità. Questo significa che dobbiamo diminuire da subito l’uso dei combustibili fossili e cessare del tutto di usarli entro il 2050.

La cosa è possibile se sostituiamo l’energia che fino ad oggi ci hanno fornito i combustibili fossili con le energie rinnovabili generate dall’unica risorsa che ci viene da fuori, la luce del Sole: possiamo convertire direttamente la luce solare in elettricità col processo fotovoltaico e utilizzare anche l’energia solare che genera il vento (energia eolica) e la pioggia (energia idrica). Purtroppo non c’è tempo per illustrare i molti pregi e i pochi difetti delle energie rinnovabili. Ricordo solo che il processo fotovoltaico è un vero miracolo della scienza poiché converte l’energia solare in energia elettrica con un’efficienza del 20%, quando la fotosintesi naturale, che utilizza la luce solare per fornirci chimica, ha un’efficienza minore del 0,5%. Ricordo anche che già oggi l’eolico fornisce, senza dare problemi, una quantità di energia pari a quella che produrrebbero, con infiniti problemi, 180 centrali nucleari.

Se fino ad oggi la civiltà è progredita utilizzando energia termica generata dalla combustione di carbone, petrolio e metano, in futuro non sarà più così: il progresso della civiltà è ormai affidato all’utilizzo, diretto e indiretto, dell’energia solare per generare energia elettrica.

Fotovoltaico, eolico e idroelettrico sono forme di energia già utilizzabili, ma fanno fatica ad affermarsi perché il loro sviluppo è ostacolato da interessi economici e di potere legati alle grandi compagnie petrolifere, come la nostra ENI; ENI oggi per l’Italia è come una palla al piede che ci impedisce di correre verso il futuro. Ha pozzi di metano e petrolio in molte parti del mondo, in particolare in Africa, e ora grazie a un permesso del presidente Trump comincia a sforacchiare anche nell’Artico.

Potremmo riassumere la situazione dicendo che il futuro (le energie rinnovabili) è già presente, ma il passato (i combustibili fossili) non vuole passare. Il passato viene tenuto in vita artificialmente perché coinvolge molti interessi. E se poi continuando ad usare i combustibili fossili si aggrava il cambiamento climatico e aumenta il numero di poveri costretti a lasciare i paesi africani, a noi ricchi poco importa: continueremo a fermarli chiudendo i porti, lasciandoli affogare nel Mare Nostrum o morire nei campi di concentramento in Libia. E noi ricchi potremo continuare senza problemi a scegliere in quale paese dell’Africa andare in vacanza: per esempio in Egitto, con cui facciamo affari importanti nel campo dei combustibili fossili e anche nel commercio delle armi, affari che forse impediscono sia fatta luce sul caso Regeni.

Abbiamo molti motivi, dunque, perché sia portata a termine la transizione dai combustibili fossili alle e energie rinnovabili e dobbiamo batterci perché questo avvenga il più rapidamente possibile.

La transizione energetica, pur necessaria, non è però sufficiente per garantire un futuro sostenibile. Perché c’è un problema più generale, che investe tutte le risorse che prendiamo dalla Terra. Oggi il mondo funziona con la cosiddetta economia lineare: prendiamo le risorse dalla Terra, costruiamo quello che ci serve (spesso anche quello che non serve) lo usiamo e alla fine lo gettiamo nei rifiuti: è l’economia dell’usa e getta, il consumismo. Un sistema economico di questo tipo non è sostenibile perché è basato su due falsità che abbiamo già avuto modo di notare: non c’è una quantità infinita di risorse a cui attingere, e non è possibile eliminare i rifiuti. E sappiamo anche che l’accumulo di rifiuti, vedi anidride carbonica, può causare gravi problemi.

Se vogliamo raggiungere almeno un certo grado di di sostenibilità, bisogna passare dall’economia lineare dell’usa e getta all’economia circolare: che significa prelevare dalla Terra le risorse nella minima quantità possibile, usarle in modo intelligente per produrre cose che funzionino bene, che se si rompano possano essere riparate o usate per altri scopi, e che infine vengano raccolte in modo differenziato per poterle riciclare e ottenere così nuove risorse.

Ma anche questa seconda transizione, dall’economia lineare all’economia circolare non può garantirci un futuro sostenibile se non ci abituiamo a consumare di meno, a vivere adottando il criterio della sufficienza e della della sobrietà, che non vuol dire essere meno felici.

Non c’è tempo per approfondire l’argomento, ma prima di chiudere vorrei soffermarmi brevemente sul problema più grave che affligge oggi l’umanità: è il problema delle disuguaglianze. Quando vado a fare conferenze nelle scuole parlo ai ragazzi delle disuguaglianze: in Italia, dove il 5% più ricco ha risorse economiche pari al 90% più povero; negli Stati Uniti dove accanto ad un folto gruppo di miliardari convivono 46 milioni di poveri che che mangiano una volta al giorno con i food stamps, i buoni pasto forniti dal governo. Ma la cosa che più impressiona gli studenti è questa pagina di giornale nella quale è scritto che al mondo ci sono “tre uomini ricchi come l’Africa”. L’Africa, la nostra vicina di casa, l’Africa, di cui tanto si parla, magari senza saperne nulla.

Se avessi avuto modo di proiettare, avrei potuto mostrarvi 4 o 5 figure molto interessanti sull’Africa: provo a riassumerle brevemente.

  • l’Africa: è talmente grande che dentro all’Africa ci starebbero la Cina, gli Stati Uniti, l’India, l’Europa occidentale, parte dell’Europa orientale e il Giappone;
  • L’Africa ha una popolazione di 1,1 miliardi di persone; la popolazione della Nigeria, attualmente 200 milioni, nel 2050 supererà la popolazione degli USA;
  • l’Africa è molto povera da punto di vista economico, ma è molto ricca di risorse naturali e di minerali pregiati
  • molti stati, direttamente come fa la Cina o indirettamente tramite multinazionali stanno spolpando l’Africa. Alex Zanotelli, uno che di Africa se ne intende, ha detto che “Per aiutare l’Africa i paesi ricchi dovrebbero anzitutto smettere di portare via le sue risorse ”.Infine, vi sarà capitato di guardare nel computer le foto del mondo di notte: avrete visto quante luci ci sono in tutta Europa, mentre l’immensa Africa è quasi tutta buia. In Africa 400 milioni di persone non hanno elettricità. Senza elettricità non ci può essere progresso economico, scientifico, politico, culturale. L’Africa è tutta buia di notte perché non ha energia elettrica, ma di giorno gode di una immensa quantità di energia solare. l’Africa è benedetta dall’energia solare.

Ecco allora di cosa c’è bisogno in Africa: sviluppare il fotovoltaico e le altre tecnologie connesse alle energia rinnovabili. Un Governo italiano che si rispetti dovrebbe avere un Ministero dedicato all’Africa, non per colonizzarla come fece il fascismo, non per portarle via risorse come fanno oggi molti stati, non per estrarne il petrolio inquinando il territorio come fa ENI, ma per aiutarla ad utilizzare le sue immense risorse di energie rinnovabili.

Un’Africa non più buia, ma piena di luce, non sarebbe né un peso né una minaccia per l’Italia e per l’Europa.

Industria farmaceutica italiana prima in Europa.

In evidenza

Luigi Campanella, già Presidente SCI

La recente notizia del superamento da parte dell’Italia del gigante Germania per quanto riguarda la produzione di farmaci – per esattezza 31,2 miliardi contro 30,1-non può che essere al tempo stesso motivo di soddisfazione e di riflessione. La soddisfazione deriva soprattutto dai caratteri di questo sorpasso da ascrivere all’export italiano nel settore cresciuto da 1,3 miliardi nel 1991 agli attuali 24,8 miliardi,di fatto il 55 % dell’export hi tech del Paese:tale dato è indicatore della fiducia che i farmaci prodotti in Italia riscuotono nel mondo. Tale soddisfazione deriva anche dalle statistiche in termini di allungamento della vita media-quasi 10 anni dal 1978 ad oggi – e di ridotta mortalità per le prime 5 cause di decesso (malattie del sistema cardiocircolatorio, tumori, malattie del sistema respiratorio, patologie dell’apparato digestivo, HIV/AIDS). A tale soddisfazione non può però non accompagnarsi una riflessione:come nello stesso Paese tali descritte eccellenze coesistano con zone d’ombra e con situazioni di crisi?

Di recente il dibattito su Industria 4.0 ha messo a fuoco quali siano le innovazioni e le direttrici di questa nuova concezione industriale. Se si va ad esaminarne i contenuti non si può fare a meno di osservare che l’industria farmaceutica è stata quella che più li ha interpretati e realizzati. Molti paradigmi dell’ ìndustria farmaceutica sono mutati dall’anno zero, quello cruciale del 1978, nel quale nacque il Servizio Sanitario Nazionale. Negli ultimi 10 anni grazie all’accelerazione tecnologica supportata dalla rivoluzione digitale e dai Big Data le innovazioni hanno trasformato il mondo dei farmaci, che non sono più solo un prodotto, ma fanno parte di un processo di cura più complesso ed interconnesso a diagnostica di precisione, sensoristica, medical device e kit. Tale innovazione per tornare a vantaggio della filiera richiede che i singoli operatori si integrino a sistema, come appunto industria4.0 sostiene., e un sistema per funzionare deve basarsi su regole certe, stabili e condivise, su modelli nuovi di finanziamento, su partecipazione e comunicazione inside e outside continue ed attive.

Credo che uno dei grandi meriti dell’industria farmaceutica sia proprio nell’avere in parte anticipato i tempi pervenendo alla configurazione anzidetta pure nelle difficoltà correnti.

Due questioni in particolare bene interpretano industria 4.0 con riferimento alla farmaceutica: con la serializzazione, la piena attuazione della direttiva sulle falsificazioni di farmaci e la condivisione con le altre associazioni di categoria della ottimizzazione del trasporto nel pieno rispetto della buona pratica di laboratorio. La serializzazione – volgarmente assimilabile alla tracciabilità – segna nel campo dei farmaci una vera e propria rivoluzione: non si tratta solo di produrre e gestire , ma di attuare un sistema di verifica sull’intero ciclo di vita del prodotto (produzione, trasporto, immagazzinamento, vendita, consumo). Per quanto riguarda il secondo punto, il trasporto, si pensi che quello di farmaci rappresenta l’8% del totale trasportato e che da disfunzioni di esso derivano problemi alla distribuzioni con interruzioni o alterazioni che possono mettere in pericolo la vita di malati. Sono due esempi di come fare sistema comporti avanzamenti nella soluzione di problemi anche gravi. Tornano ancora una volta i capisaldi di Industria 4.0 : sicurezza,comunicazione e partecipazione, digitalizzazione. Chi si adegua prima -seguendo l’esempio della farmaceutica – sopravvive meglio e ha più possibilità di crescere, come la farmaceutica stessa ha dimostrato. Anche la Chimica sta percorrendo la stessa strada:dopo la Chimica 1.0, quella del carbone ,la Chimica 2.0, quella del petrolio, la Chimica 3.0,quella delle specialties, siamo alla Chimica 4.0 quella della digitalizzazione, che rende continuo lo scambio di dati fra utente ed utente, fra utente e macchina, superando la discontinuità di Chimica 3.0. Da questa conoscenza scambiata, da questa partecipazione globale nascono le banche dati ed i Big data ai quali prima si accennava sul piano gestionale e nasce il contributo della Chimica all’economia circolare che sostituisce il modello lineare. La circolarità è una caratteristica che si basa sullo partecipazione ad un anello : si riceve (conoscenza e materia) e si offre lo stesso tipo di merce.

Il processo di progressiva trasformazione dell’industria simbolizzato dalla sigla Industria 4.0 interessa l’economia e la società e richiede la formazione di nuove professionalità. Ecco perché l’università viene coinvolta in misura significativa. Fa piacere quindi osservare che qualcosa si muove nella direzione di una collaborazione fra atenei ed imprenditori. In questa logica si è costituito a Milano il Made, nuovo Centro di Competenza guidato dal Politecnico e nato con l’obbiettivo di fornire alle imprese , in particolare di piccola e media dimensione, tre specifici servizi: orientamento, formazione, supporto a progetti di innovazione. Dispone di 2000 mq e sarà organizzato in isole multifunzionali dove le imprese costituenti il Made mostreranno ad altre imprese cosa sia possibile fare con le nuove tecnologie (realtà aumentata, robotica, tecnologie di Big data e Cybersecurity), gettando le basi per indurre queste ad entrare nel Centro o a divenirne clienti. I partner del Centro sono 39,sia pubblici che privati, fra i quali 4 atenei, l’Inail ed alcune istituzioni di ricerca. Quello della formazione è proprio il punto debole di un altro settore delle attività antropiche, l’agricoltura. Oggi non si può parlare,al contrario dei settori di cui prima si è discusso,di agricoltura 4.0. L’agricoltura italiana conserva ancora per certi aspetti la dimensione artigianale:è in limite di cultura che solo si può superare con una formazione adeguata degli addetti,che li renda in grado di confrontarsi con sensori, algoritmi, GIS. I giovani devono essere incoraggiati su questa strada: siano bene accolti quindi start up e spin off. Ancora una volta l’università è chiamata in causa:risponda presente, è in gioco il futuro del nostro settore più tradizionale

Elementi della tavola periodica: Rame, Cu

In evidenza

Mauro Icardi

Rame: simbolo chimico Cu, numero atomico 29, peso atomico 63,546. Elemento conosciuto praticamente da sempre, se si pensa che in Turchia sono stati rinvenuti oggetti in rame risalenti al 7000 a.C.

Ötzi il corpo mummificato di un uomo risalente al 3200 a.C. ,rinvenuto sulle Alpi , ha come corredo un’ascia con la punta di rame.

E’ un metallo duttile, malleabile, e dopo l’argento è il migliore conduttore di elettricità e di calore. Si può trovare in natura allo stato di rame nativo, oppure sotto forma di sali come il solfuro rameoso o calcosite (Cu2S), solfuro di ferro e rame o calcopirite (CuFeS2), e nei composti quali la cuprite (Cu2O). Il simbolo Cu che lo rappresenta deriva dall’abbreviazione di “Cuprum”, dal greco Kyprios, l’isola di Cipro dai cui giacimenti minerari si estraeva il metallo.

I principali paesi produttori di rame sono CILE (Produzione mineraria: 5.5 milioni di tonnellate), PERÙ (Produzione mineraria: 2,3 milioni di tonnellate). Il Perù ha sorpassato la Cina, diventando il secondo più grande produttore del mondo. Nel futuro è possibile che la produzione di rame del paese possa aumentare ulteriormente, CINA (Produzione mineraria: 1,74 milioni di tonnellate), STATI UNITI (Produzione mineraria: 1,41 milioni di tonnellate).

Il rame si utilizza nel processo cuproammoniacale per la produzione di seta artificiale, ed è usato come anticrittogamico. Io ricordo molto bene la preparazione della poltiglia bordolese da spruzzare sulle viti con l’irroratrice a spalla. Nelle estati trascorse dai nonni in Monferrato, ascoltavo con curiosità ed interesse le conversazioni relative alla coltivazione della vite, che si svolgevano a volte sulla piazza principale del paese. La poltiglia bordolese è il rimedio più antico contro la peronospora: per ottenerla si fa disciogliere 1 hg di solfato di rame in 10 litri di acqua, quindi si aggiunge 1 hg di calce spenta in polvere. Il prodotto va tenuto agitato e irrorato subito, altrimenti la calce, in sospensione, decanta sul fondo del recipiente. Oggi si preferiscono prodotti già pronti, in polvere bagnabile o allo stato colloidale, a base di ossicloruro di rame; possono essere mescolati allo zolfo e costituire così un rimedio anche contro l’oidio. Io però ricordo i contenitori all’inizio dei filari, con un lungo bastone per il mescolamento della sospensione, e l’utilizzo ancora per buona parte degli anni 70.

Del rame si fa presto esperienza, anche semplicemente togliendo la copertura isolante di un filo elettrico, oppure perché in qualche casa di campagna è usuale vedere pentole e tegami di rame, che in qualche caso sono diventati elementi di arredo. Nel tempo le pentole in rame sono state progressivamente abbandonate, in quanto la possibile solubilizzazione del rame da parte di acidi organici contenuti negli alimenti, poteva dar luogo ad intossicazioni.

Ma le notizie di cronaca ci hanno anche parlato dei furti di rame, tanto che è stato istituito presso il dipartimento della Pubblica sicurezza, direzione centrale della Polizia criminale, l’osservatorio nazionale su questo fenomeno. Negli ultimi anni i furti sono tendenzialmente diminuiti. Ricordo che invece erano frequenti negli anni 2008-2009 periodo che molti osservatori ed analisti fanno coincidere con l’inizio della crisi economica attuale. L’incremento dei prezzi delle materie prime, iniziato nei primi mesi del 2008 che vide salire il prezzo del petrolio al valore record di 147$ al barile il giorno 11 luglio 2008, la crisi alimentare mondiale e l’aumento del prezzo del grano, un’elevata inflazione globale, la minaccia di una recessione provocarono l’inizio di questo fenomeno.

Iniziarono furti di rame nei cimiteri, nelle sottostazioni elettriche. Si rimuovevano le guaine isolanti dai cavi elettrici, in qualche caso anche bruciandoli, con ovvie emissione di fumi tossici. La stabilizzazione della produzione, ed il calo conseguente del prezzo, oltre a maggiori controlli da parte delle forze dell’ordine hanno diminuito il fenomeno, che però non è stato eliminato completamente. Su un impianto di grosse dimensioni gestito dalla società per la quale lavoro, si è resa necessaria l’istituzione di un servizio di sorveglianza, dopo che si erano verificati ben tre fermi impianto a causa dei furti. Situazioni simili si sono verificate sulle linee ferroviarie.

Episodi di questo genere devono farci riflettere: la terra non può essere sovrasfruttata, anche per quanto riguarda l’estrazione di minerali. Le nuove tecnologie estrattive non potranno prescindere da un uso più attento e consapevole delle risorse. E anche le nostre abitudini personali dovranno necessariamente conformarsi alla constatazione (forse per molti non così semplice), che anche gli elementi chimici in futuro potranno diventare scarsi, o per meglio dire non più economicamente sfruttabili. Con tutte le conseguenze del caso.

L’andamento del mercato del rame può esser preso come termometro della situazione politico-economica internazionale, ma risente notevolmente anche di manovre speculative. Il prezzo infatti è influenzato non solo dal tenore del minerale e dai costi d’impianto, ma anche dalla situazione politica internazionale. Inoltre a periodi di scarsa disponibilità seguono periodi in cui le scorte si accumulano. Dal punto di vista della provenienza, il 60% del rame proviene dalle miniere; il restante 40% è ricavato dal riciclo dei rottami. I giacimenti da cui si estrae il metallo hanno un tenore medio dell’1,5%; sono quindi necessarie grandi operazioni di scavo, di concentrazione e di arricchimento. Per quanto riguarda il recupero i rifiuti di apparecchiature elettriche ed elettroniche potrebbero diventare delle vere e proprie miniere urbane o urban mining; basti pensare che da una tonnellata di schede elettroniche, si possono ricavare più di 2 quintali di rame.

Il rame è un normale componente dell’organismo umano. Un uomo adulto ne contiene da 70 a 180 mg. Questo metallo svolge un importante ruolo nella formazione del tessuto nervoso, osseo e connettivo, ed e presente in molti enzimi.

Dal punto di vista ambientale il rame è un metallo frequente nel regno animale e vegetale. Il catione monovalente (Cu+)) è parte integrante del pigmento respiratorio dei molluschi, l’emocianina.

Nelle acque superficiali la concentrazione di rame è normalmente di poco inferiore ad 1 mg/lt. Il rame monovalente in acqua viene rapidamente ossidato a rame bivalente (Cu++) che in gran parte viene adsorbito su solidi in sospensione o sedimenti.

Il rame è un elemento pericoloso per le pecore, che vanno soggette ad avvelenamento da questo metallo. Un episodio di questo genere è narrato dal veterinario inglese James Herriot in uno dei suoi libri (“Beato tra le bestie”) pubblicato in Italia nel 1977.

http://www.interno.gov.it/it/ministero/osservatori/osservatorio-nazionale-sui-furti-rame

https://copperalliance.it/industria-rame/dove-si-trova/

Una rappresentazione moderna del ciclo del rame

An ‘‘anthrobiogeochemical’’ copper cycle, from Earth’s core to the Moon, combining natural biogeochemical and human anthropogenic stocks and flows is derived for the mid-1990s. Although some aspects of the quantification have moderate to high uncertainty, the anthropogenic mining, manufacturing, and use flows (on the order of 104 Gg Cu/yr) clearly dominate the cycle. In contrast, the natural repositories of Earth’s core, mantle, and crust, and of the Moon, hold much higher stocks of copper (>1010 Gg) than do anthropogenic repositories (<106 Gg). The results indicate that the present anthropogenic rate of copper extraction exceeds the natural rate of renewal by 􏰁106.

Citation: Rauch, J. N., and T. E. Graedel (2007), Earth’s anthrobiogeochemical copper cycle, Global Biogeochem. Cycles, 21, GB2010, doi:10.1029/2006GB002850.

Elizaveta Karamihailova (1897-1968)

In evidenza

Rinaldo Cervellati

Elizaveta Karamihailova è stata una pioniera della fisica nucleare all’inizio del XX secolo, istituì i primi corsi pratici di fisica delle particelle in Bulgaria ed è stata la prima donna a ottenere un titolo di professore in quel Paese.

Elizaveta nacque a Vienna nel 1897 da Ivan Mikhaylov, bulgaro, e Mary Slade, inglese, entrambi studenti all’università della capitale austriaca, lui di medicina, lei di musica. Elizaveta trascorse così gran parte della sua infanzia a Vienna, finché nel 1909 la famiglia si trasferì a Sofia, la capitale della Bulgaria, dove Ivan sarebbe diventato uno dei chirurghi più famosi del paese contribuendo alla costruzione dell’Ospedale della Croce Rossa, diventandone direttore a titolo gratuito. Con un padre chirurgo e una madre musicista, Elizaveta crebbe in un ambiente multiculturale, artistico e scientifico.

Si iscrisse al Sofia Girls’ College, dove si diplomò nel 1917, dopodiché partì per studiare all’Università di Vienna.

Elizaveta Karamihailova

Nel 1922 Karamihailova ottenne il dottorato in fisica e matematica discutendo la tesi “A proposito di figure elettriche su materiali diversi, in particolare cristalli”, sotto la guida di Karl Przibram. Karamihailova continuò il suo lavoro presso l’Institute for Radium Studies di Vienna, interessandosi particolarmente alla radioluminescenza. Nell’autunno del 1923 tornò brevemente in Bulgaria e lavorò come “ricercatore ospite” nell’Istituto di Fisica dell’Università di Sofia. Ben presto Karamihailova tornò a Vienna all’Institute of Radium Studies e iniziò un lavoro sulla trasmutazione degli elementi bombardati con particelle alfa. Nel 1931 Karamihailova e Marietta Blau[1] osservarono uno specifico tipo di radiazione precedentemente sconosciuta emessa dal polonio, che in seguito avrebbe portato James Chadwick alla scoperta dei neutroni. Nel frattempo frequentò corsi di ingegneria elettronica al Politecnico di Vienna.

Elizaveta Karamihailova in laboratorio

Poiché Elizaveta non era austriaca, non poteva essere assunta come assistente di ricerca, pertanto lavorò con un contratto temporaneo. Quando nel 1933 il contratto terminò, fu quasi costretta ad abbandonare la ricerca ma fu in grado di mantenersi attraverso lezioni private mentre continuava a lavorare in laboratorio senza retribuzione.

Nel 1935, dopo più di un decennio senza molte soddisfazioni, il talento di Elizaveta e il suo contributo alla scienza ottennero finalmente un riconoscimento. Fu infatti premiata con una borsa di ricerca triennale Alfred Yarrow Scientific, istituita per consentire alle scienziate di talento di proseguire la ricerca dal Girton College di Cambridge. Lavorò quindi al Cavendish Laboratory dell’Università di Cambridge, uno dei più importanti istituti di ricerca atomica e nucleare dell’epoca[2].

Karamihailova nel suo studio

Karamihailova tornò in Bulgaria nel 1939, dove fu nominata docente di Atomistica Sperimentale e Radioattività all’Università di Sofia. Istituì un corso di fisica atomica, introducendo le conoscenze acquisite nei suoi studi in Austria e Inghilterra e importando alcune delle sue attrezzature.

Karamihailova e suoi studenti

Lo scoppio della seconda guerra mondiale interruppe ogni ulteriore espansione delle attività di ricerca nucleare.

Nonostante il suo formidabile intelletto e la sua statura scientifica, Elizaveta era una persona semplice e amichevole che fraternizzava con i suoi studenti ed era rispettata e amata da loro. Non era particolarmente interessata alle correnti politiche che attraversavano il suo paese durante la seconda guerra mondiale. “Era anticomunista e aveva orrore per tutte le armi”, ha ricordato Mary Cartwright, una collega di Cambridge. Questa avversione avrebbe potuto costarle caro dopo l’invasione sovietica della Bulgaria nel 1944. Fu intrapresa un’epurazione dell’intero sistema educativo per eliminare gli anticomunisti. Elizaveta non fu rimossa ma il suo nome apparve in una lista di “scienziati inaffidabili”. Non perse la cattedra, ma fu trasferita all’Istituto di Fisica dell’Accademia Bulgara delle Scienze, dove ricevette il titolo di professore ordinario. Il divieto di viaggiare all’estero le impedì di interagire e collaborare con altri scienziati. Continuò tuttavia a lavorare nel campo della radioattività.

Omaggio a Elizaveta Karamihailova

I timori di Elizaveta sugli effetti delle radiazioni erano fondati e lei, come molti dei suoi colleghi ne subirono le conseguenze. Elizaveta Karamihailova morì di cancro nel 1968.

Opere consultate

Women in Science, European Communities, 2009, pp. 142-144

[1] Vedi il volume 2007 in bulgaro qui linkato.

[2] All’epoca i principali istituti di ricerca in fisica e chimica nucleare e delle radiazioni erano tre: L’Istituto del Radio a Parigi, in Francia, il Cavendish Laboratory a Cambridge, in Inghilterra e L’Istituto di Ricerca sul Radium a Vienna, in Austria.

Un’antica controversia fotochimica: William Fox Talbot e il brevetto della stampa al collodio

In evidenza

Andrea Turchi

Premessa

Nel maggio del 1854 lo scienziato inglese William Fox Talbot, noto per i suoi studi di ottica e inventore della calotipia, un originale processo di sviluppo fotografico, citò davanti alla corte di Londra un fotografo, James Henderson, accusandolo di utilizzare la calotipia senza pagare le royalties previste dal brevetto che lo stesso aveva registrato alcuni anni prima, nel 1841.

La causa, che Talbot perse, ha una peculiare importanza storica perché permette di esemplificare la profonda connessione tra il progresso delle conoscenze nelle tecniche fotografiche e lo straordinario sviluppo della chimica come disciplina che avvenne nei primi decenni del XIX secolo. Inoltre quella causa mise in luce l’importanza economica e commerciale che stava assumendo la fotografia, la cui nascita e affermazione tanto doveva alle conoscenze chimiche.

Chimica e fotografia a braccetto

Probabilmente non c’è settore della tecnica in cui l’importanza della chimica sia stato più grande che nella fotografia. I processi tradizionali di impressione, fissaggio, sviluppo e stampa fotografici sono essenzialmente chimici e tutti coloro che si dedicarono alla fotografia nella prima metà del XIX sec. avevano conoscenze chimiche (sia pure solo empiriche) ben solide[1].

Impressione delle immagini e ossidoriduzioni

Un antesignano del processo di impressione fotografica fu l’inglese Thomas Wedgood che all’inizio del XIX secolo aveva notato che una carta rivestita con nitrato d’argento risultava fotosensibile, ossia si anneriva nei punti colpiti dalla luce. L’annerimento dei sali d’argento era già noto ai chimici del XVIII sec.: nel 1727 il tedesco Johann Heinrich Schulze si accorse che un recipiente di vetro che conteneva un impasto d’argento, gesso e acido nitrico cambiava colore se esposto alla luce; applicando un oggetto sul vetro si otteneva così l’impronta dello stesso nell’impasto. Schulze chiamò scotophorus (portatrice di tenebre) l’impasto contenuto nel recipiente. Più tardi il grande chimico inglese Robert Boyle annotò l’annerimento del cloruro d’argento (che però attribuì all’azione dell’aria), mentre fu Carl Wilhelm Scheele che per primo mostrò il diverso comportamento chimico tra zone annerite e zone chiare dei sali d’argento, mostrando che facendo digerire il composto fotosensibile con ammoniaca solo la parte non fotosensibilizzata veniva dissolta.

L’annerimento del sale d’argento è, come noto, un processo ossidoriduttivo complesso che comporta la perdita di un elettrone da parte dell’alogeno, per azione di un fotone, e la conseguente riduzione dello ione argento. La conoscenza di questo processo ampliò il panorama chimico dei processi ossidoriduttivi aggiungendosi alla tradizionale riduzione termica e a quella, successiva, elettrochimica, che avevano permesso l’individuazione e l’isolamento di molti nuovi elementi[2].

Talbot era riuscito a preparare una carta a elevata sensibilità fotografica (da lui chiamata fotogenica) immergendo un foglio di carta in una soluzione ‘debole’ (ossia poco concentrata) di NaCl e, dopo averlo asciugata, trattandolo con una soluzione concentrata di AgNO3. In questo modo Talbot otteneva una carta al cloruro d’argento più sensibile di quella ottenuta con soluzioni concentrate di NaCl, utilizzate in precedenza per essere certi di ‘saturare’ tutto l’argento presente [fig.1]. Fig. 1: Disegno fotogenico ottenuto con la tecnica di Talbot (fonte: https://azlein14.wordpress.com/2011/04/04/salted-paper-and-photogenic-drawings-ii/)

Talbot non poteva dare una spiegazione microscopica del suo procedimento, incomprensibile se si ragionava solo sulla base legge delle proporzioni definite.

In realtà l’annerimento delle immagini non è un processo solo ‘atomico’, ma dipende dal contesto molecolare e cristallino in cui avviene. La maggiore sensibilità della carta fotogenica di Talbot sta nel fatto che nel cristallo di AgCl vi è un inserimento interstiziale di ioni Ag+ in eccesso stechiometrico. Gli ioni ridotti danno luogo a una breve reazione redox a catena che porta alla formazione di cluster di atomi di argento, che costituiscono i centri di sviluppo dell’immagine [fig.2].

Fig.2: Catena di reazioni redox che portano alla formazione del cluster d’argento.

Questo processo dipende fortemente dalla grandezza dei cristalli e questo spiega il successo storico dell’uso della gelatina e del collodio nella preparazione dei supporti fotografici, in quanto permettono un processo di cristallizzazione più lento e regolare rispetto alle soluzioni acquose.

Fissaggio delle immagini e nuovi composti chimici

Wedgood non era riuscito a risolvere il problema di rendere stabile l’immagine impressionata su carta: dopo un po’ di tempo tutta la carta si anneriva per azione della luce. Un passo in avanti decisivo in tal senso fu compiuto nel 1824 dal francese Nicéphore Niepce, un geniale inventore, che ‒ utilizzando, probabilmente senza saperlo, le osservazioni di Scheele ‒ sfruttò il diverso comportamento di una sostanza fotosensibilizzata per separarla dalla parte che non aveva reagito alla luce. Dopo vari tentativi (con fosforo, resina di guaiaco,ecc.) Niepce utilizzò il bitume di Giudea, un asfalto già usato da tempo dagli incisori[3] che ha la particolare proprietà di indurire se sottoposto alla luce. Niepce usò dapprima il bitume come materiale sensibile per la fotoincisione calcografica.

Una lastra di rame ricoperta di bitume veniva associata a un disegno e sottoposta alla luce; le parti coperte dal disegno, al contrario di quelle scoperte, non indurivano e venivano dissolte con olio di lavanda così da formare un negativo dell’immagine su lastra metallica; questa poi viene usata come matrice per la stampa di positivi. Questo processo permetteva per la prima volta di riprodurre un disegno originale in un numero indefinito di copie, ponendo le basi per la commercializzazione su vasta scala delle riproduzioni artistiche. Niepce usò questa tecnica per la riproduzione fotografica, che chiamò eliografia: inseriva una lastra di rame (o di peltro) ricoperta di bitume all’interno di una camera oscura dove avveniva l’impressione dell’immagine. La parte non impressionata veniva dissolta dall’olio di lavanda e si otteneva un negativo. In questo modo Niepce ottenne la prima fotografia della storia con una veduta del cortile della casa di Niepce nel villaggio di Saint Loup de Varenne [fig.3].

Fig.3: La prima eliografia realizzata da Niepce nel 1826. L’immagine originale è attualmente conservata nella collezione Gernshiem dell’Università del Texas (fonte: http://100photos.time.com/photos/joseph-niepce-first-photograph-window-le-gras)

Ne 1839, alcuni anni dopo gli esperimenti di Niepce, Louis Jaques Mandé Daguerre, un artista che aveva inventato il Diorama, una teatro di straordinarie e realistiche illusioni ottiche, annunciò di aver trovato un modo per fissare le immagine impressionate nella camera oscura. Daguerre trattava con iodio una lastra di rame argentata per formare ioduro d’argento fotosensibile. Dopo essere stata impressionata nella camera oscura, la lastra veniva sottoposta a vapori di mercurio che condensava sulle parti dell’immagine impressionata (in pratica formando un’amalgama con l’argento). Lo ioduro non impressionato veniva asportato con una soluzione di sale; la lastra veniva poi lavata e asciugata. In questo modo Daguerre otteneva un positivo di grandissima finezza, che chiamò dagherrotipo [fig.4].

Fig. 4: Ritratto di Louis Jacques Mandé Daguerre. Dagherrotipo eseguito da Jean Baptiste Sabatier-Blot nel 1844 (fonte: https://jarrahotel.com/illustration-representing-theories-of-jean-baptiste.html

Rispetto agi altri metodi il dagherrotipo aveva il grande vantaggio di dare un positivo diretto (in quanto le parti colpite dalla luce risultano più chiare per via dell’amalgama) e di non aver bisogno di fissaggio perché l’annerimento prosegue nel tempo solo per le parti non esposte, aumentando il contrasto dell’immagine. Di contro, il grande svantaggio del dagherrotipo era il fatto che consisteva in una immagine unica e non riproducibile, a guisa di un ritratto dipinto.

Niepce e Daguerre non erano chimici, anche se il primo si dilettava in esperimenti. Eppure usavano con disinvoltura sostanze chimiche ben definite: il motivo è che operavano in un ambiente intellettuale nel quale riverberavano sicuramente le nuove conoscenze della chimica. Un ambiente che aveva prodotto la sistematizzazione della conoscenze dovuta a Lavoisier e la conseguente rigorosa definizione delle proprietà delle sostanze. Nei primi decenni del XIX sec. la chimica aveva prodotto un grande accumulo di osservazioni sperimentali sul comportamento delle sostanze, identificando nuove classi di composti e di elementi. In particolare, ai tempi di Daguerre si stavano affermando i grandi laboratori chimici, ben organizzati e ricchi di strumentazione, che permettevano una precisa caratterizzazione delle sostanze. Protagonista in tal senso furono Jöns Berzelius e Justus Liebig. Il primo codificò i comportamenti delle sostanze in principi normativi e fondò metodi di sperimentazione chimica rigorosi e controllati, che furono poi modello per i laboratori di tutta Europa. Il secondo istituì grandi laboratori chimici, ben organizzati e ricchi di strumentazione, vero e proprio luogo si scambio di informazioni dei chimici di tutta Europa.

Fu in questo contesto scientifico che Daguerre iniziò i suoi esperimenti fotografici con lo iodio nel 1833. L’elemento era stato scoperto da Bernard Courtois e isolato da Charles-Bernard Desormes e Nicolas Clément solo venti anni prima mentre le sue proprietà erano state indagate da appena 10 anni. Come detto, Daguerre non era uno studioso della chimica ma conosceva il lavoro di Courtois sullo iodio e questo dimostra come la comunicazione delle scoperte scientifiche si diffondesse allora rapidamente in ambienti non specializzati, anche se è da notare che il milieu culturale dell’epoca era piuttosto ristretto, in particolare dal punto di vista geografico[4], e ciò favoriva lo scambio di informazioni.

Inoltre, non appena   l’invenzione del dagherrotipo fu divulgata nel 1839, l’astronomo e matematico inglese ‒ nonché provetto chimico ‒ John Frederick William Herschel [fig.5],

Fig. 5: Ritratto di Sir John Frederick William Herschel. Stampa da una negativa al collodio del 1867 (fonte: https://www.britannica.com/biography/John-Herschel)

cercò di scoprire i segreti della tecnica, in particolare dell’operazione di fissaggio. Alcuni anni prima Herschel aveva preparato l’acido tiosolforico, che lui aveva chiamato iposolforico, e utilizzò con successo il sale di sodio per solubilizzare[5] lo ioduro d’argento non impressionato. Nel giro di pochissimo tempo Daguerre modificò il suo procedimento sostituendo come agente fissante il sale con il tiosolfato di sodio[6], a dimostrazione del corto circuito rapidissimo tra fotografia e chimica in quel periodo.

Sviluppo delle immagini e catalisi

Le prime fotografie richiedevano tempi di posa lunghissimi, incompatibili con figure in movimento. Per la prima foto ottenuta da Niepce era stato necessario un tempo di posa di alcune ore, mentre per il dagherrotipo, grazie all’azione di sviluppo del mercurio, il tempo di posa era sceso ad alcuni minuti.

Fu però John Talbot a trasformare l’atto fotografico da posa statica a istantanea, aprendo la strada alla moderna fotografia. Tra tutti i protagonisti della nascita della fotografia, Talbot è con Herschel quello ad avere il più alto profilo scientifico e a svolgere il suo lavoro con un vero e proprio programma di ricerca. Talbot aveva idee molto chiare sulle trasformazioni chimiche che avvengono nei processi fotografici. Così, nella sua comunicazione nel 1839 al Royal Society sul suo metodo di sviluppo, scriveva che: «Il nitrato d’argento che diventa nero per azione della luce non è più la stessa sostanza di prima. Di conseguenza se l’immagine, prodotta dalla luce solare,viene successivamente sottoposta a un qualunque processo chimico, le parti chiare e scure si comporteranno diversamente: non c’è evidenza, dopo che tale azione ha avuto luogo, che tali parti bianche e nere siano soggette a ulteriori mutamenti spontanei. Anche se ciò avvenisse non segue che il cambiamento tenderà a farle assomigliare l’una all’altra».

Talbot scoprì nel 1841 che, trattando carta iodizzata[7] con una miscela formata da una soluzione concentrata di AgNO3 in acido acetico glaciale e da una soluzione satura di acido gallico in egual volume, si otteneva una carta di tale sensibilità che erano sufficienti pochi secondi di esposizione per formare l’immagine, di contro le lunghissime pose necessarie per altri processi, come la dagherrotipia. Talbot chiamò la carta così preparato “al calotipo” (dal greco kalós, “bello”) [fig.6]

Fig. 6 Ritratto di William Fox Talbot ottenuto nel 1864 con il metodo della calotipia (fonte: https://en.wikipedia.org/wiki/Henry_Fox_Talbot)

e interpretò correttamente il fenomeno, attribuendo all’acido gallico la capacità catalitica nell’autosviluppo dell’immagine latente, ossia di quella che si forma per effetto della luce ma che è troppo debole per essere correttamente visualizzata.

La scoperta dello sviluppo fotografico rivoluzionò la storia del ritratto, aprendo la strada all’istantanea, ossia all’attuale modo comune di collezionare immagini. Fu un rivolgimento anche sociale: i procedimenti base della produzione delle carte fotosensibili potevano essere facilmente standardizzati e quindi commercializzati, aprendo la strada alla grande diffusione della fotografia. Non solo, ma la rapidità con cui avveniva l’impressione estese grandemente il campo dei soggetti fotografici: non più solo ritratti in posa di regnanti e riproduzioni di paesaggi, a somiglianza delle tecniche pittoriche, ma immagini della vita quotidiana e di persone comuni. Queste innovazioni tecnologiche incrociarono perciò le esigenze degli strati emergenti della società borghese, fornendo loro possibilità di espressione e di autorappresentazione.

L’acido gallico, un raffinato catalizzatore redox

L’azione dell’acido gallico sull’immagine latente è oggi spiegata a partire dai cluster di Ag che si formano durante l’impressione fotografica. L’acido gallico, come altri agenti riducenti quali l’idrochinone, ha la capacità di ridurre solo l’alogenuro attivato presente nei granuli dove si sono formati i cluster. Dal punto di vista termodinamico questa reazione redox è possibile anche per i cristalli non attivati ma è molto più lenta, quindi è cineticamente sfavorita. La grande abilità e, insieme, la grande fortuna di Talbot, fu di aver trovato un agente riducente molto efficiente per lo sviluppo dell’immagine latente ma non aggressivo nei confronti delle parti non attivate dell’alogenuro, come sarebbe accaduto invece con i comuni agenti ossido riduttivi inorganici.

Gli storici della fotografia hanno dibattuto a lungo sulla originalità del processo inventato da Talbot e su quale fosse la fonte di informazioni che lo condussero all’uso dell’acido gallico. In particolare, gli studi si sono concentrati sulla conoscenza che Talbot poteva aver avuto dei lavori con l’infuso delle noci di galla del reverendo Joseph Bancroft Reade, vicario di Stone (nel Buckinghamshire), singolare figura di religioso  a cui interessava più la microscopia che non i compiti pastorali. La questione ebbe notevole rilievo all’epoca di Talbot perché nelle cause che lui intentò per violazione del suo brevetto, gli avvocati avversi ne contestarono l’originalità in quanto l’uso dell’acido gallico come sviluppatore sarebbe risalito agli esperimenti originali di Reade.

In realtà, il proposito originale di Reade era di ottenere immagini ingrandite su carta proiettate dal microscopio; siccome in genere queste risultavano troppo sbiadite, Reade cercò un metodo per ottenere carte più sensibili. Reade aveva letto da Wedgood che il cuoio rendeva il nitrato d’argento più sensibile e, secondo la sua testimonianza, si fece dare dalla moglie un suo guanto per fare delle prove di impressione fotografica: «La signora Reade fu così gentile di darmi un paio di guanti di pelle chiari così da ripetere gli esperimenti di Wedgwood». Al rifiuto della moglie di un secondo paio di guanti Reade Reade, partendo dall’idea che la sensibilità del cuoio fosse dovuta al tannino, con cui solitamente viene trattato il cuoio, si diresse verso l’uso della carta all’infuso di noci di galla che contiene tannino al 50%. Forse questo ricordo così gustoso è ricostruito ad arte[8], come altre volte è capitato nella storia della scienza.

È più probabile che Reade fosse giunto all’uso delle noci di galla perché all’epoca circolava già l’idea che alcune sostanze organiche rafforzassero la fotosensibilità dell’AgNO3, che tra l’altro era un prodotto usato anche in cosmesi e quindi in combinazione con emulsionanti organici (lo stesso Reade aveva sperimentato l’uso della colla di pesce). Inoltre, nella letteratura tecnica dell’epoca erano note le reazioni dei sali metallici con l’estratto di noci di galla nella formulazione degli inchiostri, con i quali anche Reade aveva avuto a che fare.

Sta di fatto che Reade non parlò mai esplicitamente dell’uso di acido gallico che si forma durante la macerazione delle noci di galla per preparare la tintura, e nella quale è presente per il 3%. Lo stesso Reade riconobbe a Talbot tutti i meriti della scoperta dell’uso dell’acido gallico come agente sviluppatore in fotografia e a sé stesso solo quello dell’iniziatore. Per farlo Reade usò un’efficace immagine sportiva: «Io lanciai la palla e Talbot la prese». Sta di fatto che ci sono prove storiche che Talbot era venuto a conoscenza degli esperimenti di Reade e che, in un ambito scientifico più avanzato e accurato, li aveva finalizzati al suo scopo. Forte delle sue competenze chimiche, Talbot concentrò la sua attenzione sull’acido gallico: con ogni probabilità conosceva il procedimento originale del chimico svedese Carl Wilhelm Scheele per l’estrazione dell’acido gallico dall’infuso di galla, ripreso da Berzelius in un suo trattato molto diffuso in quegli anni.

Il brevetto

Talbot brevettò il suo metodo di impressione e sviluppo fotografici l’8 febbraio 1841 con il titolo Metodi per ottenere immagini o rappresentazioni di oggetti. [fig.7]

Fig. 7: Frontespizio del brevetto di Talbot (fonte: http://www.nonesuchsilverprints.com/art-of-silver/PDFs/Fox%20Talbot%20Patent%208842%20-%201841.pdf)

Nel brevetto compariva la preparazione della carta iodizzata e di quella al calotipo, il processo di impressione in camera oscura, quello di fissaggio tramite lavaggio con KBr e NaCl e l’ottenimento del positivo. In quest’ultima fase del processo si usava una seconda carta al calotipo che veniva accoppiata al negativo separandolo con una lastra di vetro e fissando il tutto con viti in un telaio che veniva esposto alla luce. Successivamente si sottoponeva il positivo alle stesse procedure di sviluppo e fissaggio del negativo.

Anche se il brevetto non abbonda di specifiche tecniche, è notevole il travaso di contenuti squisitamente scientifici in un ordinamento giuridico-economico. Talbot aveva esitato a lungo prima di depositare il brevetto, e ciò avvenne dopo che aveva presentato le sue scoperte in diverse occasioni: nel 1839 aveva sottoposto il suo metodo alla Royal Society e nel 1840 [fig.8]

“The Art of Photogenic Drawing” by Fox Talbot. Photo books for auction at Christies, St. James’s London on 31 May 2007.

Fig. 8 Frontespizio della comunicazione di Talbot alla Royal Society nel 1839 (fonte: http://www.photohistories.com/photo-books/15/photogenic_drawing)

aveva allestito a Londra una mostra di fotografie realizzate con il suo metodo. Ciononostante Talbot prese una decisione che pochi decenni prima, nell’epoca dei Faraday e dei Priestley, non sarebbe stato concepibile, e questa novità rappresentò il risultato tangibile dell’incontro diretto e irreversibile tra impresa scientifica e impresa economica.

La novità non stava certo nel fatto che le scoperte scientifiche fossero il motore del progresso tecnico-industriale ‒ basti pensare al contemporaneo sviluppo dell’industria chimica del cloro-soda ‒ ma che il lavoro del singolo scienziato diventasse rapidamente questione economica di estremo rilievo. Non è un caso che ciò sia avvenuto prima di tutto con la fotografia, nella quale il tasso necessario di competenze scientifiche è molto alto. A distanza di quasi due secoli, oggi assistiamo gli estremi esiti di questo connubio, per esempio con la Celera Genomics di Craig Venter, nella quale aspetti scientifici e imprenditoriali sono del tutto indistinguibili.

La controversia

Nel periodo successivo a quello in cui Talbot aveva depositato il suo brevetto, si diffusero altri supporti fotografici. Era noto che il vetro costituiva un supporto molto più efficiente della carta: il problema era come far aderire l’alogenuro al supporto. Anche in questo caso fecero la loro comparsa le sostanze organiche: lo stesso Talbot propose e brevettò una lastra all’albume che, anche se poco sensibile, permise di ottenere una vera e propria istantanea di un oggetto in movimento[9] illuminato da una forte scintilla elettrica.

Ma il sistema che ebbe maggior successo fu la lastra al collodio inventata dall’inglese Frederick Scott Archer nel 1851: su una lastra di vetro veniva versata una sospensione di KI in collodio[10] che, una volta asciugata, veniva immersa in una soluzione di AgNO3: dopo l’impressione la lastra veniva sviluppata in una soluzione di acido gallico. La tecnica al collodio umido ebbe un rapido sviluppo (soprattutto dopo la grande Esposizione universale di Londra del 1851) sostituendo rapidamente la dagherrotipia e la stessa calotipia. Tuttavia Talbot riteneva che i fotografi che utilizzavano quella tecnica violassero il suo brevetto che si basava sull’acido gallico come sviluppatore e fece causa nel 1854 a due fotografi londinesi: James Henderson e Martin Silvester Laroche. Per Talbot la sostituzione del supporto cartaceo con quello al collodio non costitutiva fatto rilevante in quanto la chimica del processo era la medesima, incentrata sull’azione catalizzatrice dell’acido gallico. La difesa di Henderson sosteneva invece che la tecnica al collodio era diversa da quella della calotipia in quanto dai due procedimenti si ottenevano risultati apprezzabilmente diversi. Un esperto della difesa, lo scienziato Robert Hunt, sostenne anche che l’acido gallico era diverso dall’acido pirogallico[11] di cui si serviva Henderson [fig.9]:

Fig. 9: Acido gallico e “acido pirogallico”

 

Talbot però ebbe a controbattere che le due sostanze svolgevano la medesima azione chimica di agente riducente.

La controversia Talbot-Laroche precedette quello con Henderson. Al termine del lungo e complesso dibattimento, nel quale Talbot fece intervenire a suo supporto[12] anche William Thomas Brande, scopritore del litio e tra i più influenti chimici dell’epoca, il tribunale si pronunciò dando ragione alla difesa. Infatti sentenziò che, malgrado si dovesse riconoscere a Talbot il merito dell’invenzione del metodo della calotipia e, in particolare, dell’uso del’acido gallico come rivelatore, il metodo al collodio era sostanzialmente differente da quello al calotipo e che quindi la richiesta di indennizzo da parte di Talbot a Laroche era insussistente.

Per Talbot fu un duro colpo: lo scienziato aveva investito molto del suo nelle ricerche sulla carta al calotipo e si trovò a fronteggiare anche le richieste per danni avanzate da due citati, che avevano dovuto per un certo tempo interrompere la loro attività legate alle lastre al collodio umido. Talbot fu così costretto a risarcire Henderson con 150 ₤. La sconfitta di Talbot fu invece accolta molto positivamente dai numerosi fotografi dell’epoca (solo a Regent street c’erano 20 negozi di fotografi che usavano all’epoca il metodo al collodio), che si vedevano liberati dai vincoli brevettuali del calotipo e del dagherrotipo[13].

Conclusioni

La vicenda giudiziaria di Talbot è molto significativa perché rappresenta bene quel difficile incrocio tra ragioni scientifiche, progresso tecnico-industriale e motivazioni commerciali che si andava realizzando nei primi decenni del XIX secolo. La chimica, in particolare, aveva in tal senso un ruolo rilevante in quanto le competenze chimiche erano presenti sin dall’alba delle prime grandi produzioni industriali. Basti pensare che pochi anni prima della invenzione di Talbot, nel 1825, si avviava a Glasgow la produzione della soda secondo il metodo Leblanc, il primo vero e proprio procedimento industriale chimico, fondamentale per la lavorazione del vetro, dei saponi e dei candeggianti.

Rispetto alla produzione della soda, nella fotografia il prodotto finale non è però un composto chimico, ma un procedimento tecnico nel quale la chimica ha un notevole ruolo. Quel che Talbot non comprese, probabilmente, era che il riconoscimento della primazia intellettuale della scoperta chimica non poteva coincidere con i diritti del brevetto: Talbot si ostinò a cercare di dimostrare che quello al collodio e quello al calotipo erano lo stesso processo in quanto medesimo era il procedimento di riduzione chimica nella fase di sviluppo. Ma questo non significava che l’intero processo al collodio potesse essere riassunto nel brevetto di Talbot. Storicamente, lo scienziato inglese si trovava, come dire, a metà dell’opera: pur consapevole dell’importanza commerciale della sua invenzione, Talbot era ancora mentalmente legato a un’epoca precedente in cui il lavoro dello scienziato doveva comunque primeggiare rispetto alle altre istanze della società. Così Talbot andò incontro a una cocente sconfitta, anche se la sua figura di scienziato non ne rimase intaccata e non sono stati mai disconosciuti i suoi meriti di fondatore dello sviluppo e della riproduzione a stampa fotografica.

Nel prosieguo del secolo,e ancor più in quello seguente, i rapporti tra esigenze industriali, commerciali e chimiche divennero sempre più stringenti e la Rivoluzione industriale suggellò quel rapporto tra pari che è durato per secoli e che oggi deve trovare un nuovo equilibrio per la formidabile spinta delle nuove tecnologie informatiche, per le quali la distinzione tra esperienze scientifiche e applicazioni industriali è semplicemente insussistente. Così, Il pennello della natura, romantico titolo che Talbot diede al primo libro illustrato con le sue fotografie, ha ormai un sapore di cose lontane, molto lontane.

Ringraziamenti

Ringrazio sentitamente Antonio Seccia, litografo, calcografo, litografo, costruttore di torchi storici, profondo conoscitore dei metodi tradizionali di stampa, per i preziosi consigli.

Bibliografia e sitografia utilizzate

·       Berzelius B.B., Trattato di chimica, Napoli 1839, in https://books.google.it/books?id=18S24Ods7PQC&pg=PA157&lpg=PA157&dq=scheele+acido+gallico&source=bl&ots=4bhk4VVxUx&sig=INwwKGFN8Pn8CiL3QTC43Cu9RUM&hl=it&sa=X&ved=2ahUKEwjDiOaNtrDeAhUOWhoKHeUdBI8Q6AEwAnoECAcQAQ#v=onepage&q=scheele%20acido%20gallico&f=false

  • De Franceschi J., La fotografia del Novecento. Studio dell’emulsione argento-gelatinosa attraverso indagini non invasive su campioni dal 1908 al 1980, Tesi di Laurea del Corso d Laurea Magistrale in Scienze chimiche per la Conservazione e il Restauro, Università Ca’ Foscari di Venezia, A:A 2014-15 in http://dspace.unive.it/bitstream/handle/10579/7121/834394-1187735.pdf?sequence=2
  • Leicester H. M., Storia della chimica, ISEDI, Milano, 1978

·       Newhall B., L’immagine latente, Zanichelli, Bologna, 1980

·       Singer Ch., Holmyard E.J., Hall A.R., Williams T.I., Storia della tecnologia, Vol 4*, Bollati-Boringhieri, Torino, 2013

  • Talbot H. F., Some Account of the Art of Photogenic Drawing Or, the process by which Natural Objects may be made to delineate themselves, without the aid of the Artist’s Pencil, Royal Society, London, Received 28th Jan 1839 Read 31 Jan 1839 in http://www.lens-and-sensibility.eu/en/kalotypie/kalotypie.php

·       Torracca E., Il periodo della chimica classica in Storia della chimica, Marsilio editori, Venezia, 1989

  • Watt S., The elements: Silver, Benchmark book, New York, 2003

·       Weeks M. E. The discovery of the Elements, JCE, vol. 9, n. 11, 1932

[1] Naturalmente un grande impulso alla fotografia fu dato anche dall’ottica fisica e geometrica e dalle arti figurative, che usavano da tempo la camera oscura per la riproduzione di immagini dal vero.

[2] Nel primo decennio del XIX sec. furono scoperti ben 14 elementi chimici.

[3] Nella calcografia, per esempio, la lastra di rame viene ricoperta con un impasto di bitume, cere e gomma, che viene inciso con una punta dall’incisore. Sulla lastra viene versato l’acido nitrico che incide il rame laddove lasciato scoperto dal bitume. La lastra viene pulita, inchiostrata e usata come matrice per la stampa.

[4] Nei primi decenni del XIX sec. il cuore delle ricerche chimiche si collocava tra Francia, Inghilterra e Germania.

[5] In realtà non si tratta di una semplice solubilizzazione, in quanto nel lavaggio si forma il tiosolfato doppio di sodio e argento. Da notare che per i chimici degli anni Trenta del XIX secolo era ormai del tutto normale che un sale ‘appena’ modificato dalla luce avesse una ‘solubilità’ del tutto diversa da quello non impressionato e questo dimostra come si fosse rapidamente raffinato lo studio del comportamento chimico delle sostanze.

[6] Il successo del tiosolfato di sodio come agente fissante fu tale che fino a tempi recenti i fotografia hanno continuato ad usare come fissatore il tiosolfato chiamandolo iposolfito, ossia con l’errato nome iniziale dato da Herschel.

[7] Nel tempo si era scoperto che il bromuro e lo ioduro di Ag erano più sensibili del cloruro. Per preparare la sua carta iodizzata Talbot immergeva in una soluzione di KI una carta spennellata con AgNO3.

[8] L’obiezione più fondata a questo ricordo è che i guanti, i particolare quelli chiari da donna, venivano conciati all’allume e non al tannino.

[9] L’oggetto era un copia del Times, a celebrare l’anglocentricità delle tecniche fotografiche del tempo.

[10] Il collodio è fondamentalmente nitrocellulosa, composto sintetizzato per la prima volta nel 1845 dal chimico tedesco Christian Friedrick Schönbein, solo sei anni prima dell’invenzione di Archer, a ulteriore dimostrazione di come chimica e fotografia progredissero allora di pari passo.

[11] L’acido pirogallico differisce dal gallico perché manca del gruppo carbossilico. In effetti, l’attribuzione del termine ‘acido’ per il pirogallico, dovuto al fatto che veniva preparato per pirolisi dell’acido gallico, è impropria perché si tratta di un alcole polivalente. Hunt disse che differivano tra loro come l’aceto dallo zucchero e, strutturalmente parlando, non aveva tutti i torti.

[12] Talbot cercò di convincere a testimoniare anche sir John Frederick William Herschel, suo amico e grande estimatore. Ma Herschel, pur riconoscendo il valore delle scoperte di Talbot, si rifiutò, intuendo la differenza tra primato scientifico e primato commerciale.

[13] La dagherrotipia era libera in Francia ma non in Inghilterra, dove era sottoposta a brevetto, forse per motivi extracommerciali, dovuti alle continue ruggini politiche tra i due Stati.

Elementi della tavola periodica: Azoto, N.

In evidenza

Mauro Icardi

Azoto: simbolo chimico N, numero atomico 7, peso atomico 14,007.  Un gas senza colore, né odore. Appartenente alla serie dei non metalli. Tra tutti gli elementi del quinto gruppo, l’unico che si trova libero (allo stato biatomico) in natura. Capace di formare legami doppi e tripli. L’80% del volume totale dell’atmosfera è occupato da questo elemento. L’aria quindi è la principale fonte di azoto della terra.

In natura esso si presenta in forme diverse, più o meno disponibili per gli organismi viventi.  E’ sempre stato al centro degli approfondimenti nel lavoro che svolgo. Si può ritenere il propagatore degli eterni dilemmi della chimica. Se da tempo ci si interroga sulla chimica, se essa sia portatrice di benefici, oppure la responsabile di ogni nefandezza, a partire dall’ottimo libro di Luciano Caglioti “I due volti della chimica: Benefici o rischi?”, allo stesso modo ci si può porre la domanda per l’azoto: amico o nemico?

Ovviamente le attività dell’uomo hanno prodotto, in particolare negli ultimi tre secoli, un certo cambiamento nella composizione dell’aria sia in termini di concentrazione delle specie già presenti, sia in termini di rilascio di “nuovi” composti. Nel caso dei composti dell’azoto è necessario aggiungere ad N2 e NO anche il biossido di azoto (NO2), l’ammoniaca (NH3), gli acidi nitrico (HNO3) e nitroso (HNO2)

L’azoto venne scoperto nel 1772 da Daniel Rutherford, e contemporaneamente anche da Henry Cavendish in Inghilterra e da Carl W. Scheele in Svezia. Fu Lavoisier a dimostrare che si trattava di un elemento chimico. La presenza di ben tre legami covalenti impartisce alla molecola biatomica dell’azoto un’elevata stabilità. Per questa ragione, viene ampiamente utilizzato come gas inerte a livello industriale. L’azoto liquido è usato come refrigerante per il congelamento tramite immersione, per il trasporto dei prodotti alimentari, per l’immagazzinamento stabile dei campioni biologici.

L’azoto è anche componente delle proteine e degli acidi nucleici.
La proverbiale inerzia chimica dell’azoto molecolare, però, complica notevolmente la sua fissazione e quindi il suo impiego da parte degli organismi viventi come fonte di azoto indispensabile nella sintesi degli amminoacidi e delle proteine.

A questo punto vediamo di focalizzare l’attenzione sul ciclo dell’azoto.

Osservando questa immagine si nota una fitta trama di interconnessioni. Diversi sono anche i compartimenti dove le reazioni che rimettono in circolo l’azoto, tramutandolo da una forma all’altra, avvengono: il suolo, le piante, ma anche le stesse proteine e gli amminoacidi, costituenti degli organismi.

E’ possibile raggruppare l’insieme dei processi che determinano il ciclo dell’azoto in 3 gruppi di reazioni:

  1. Le reazioni di azotofissazione
  2. Le reazioni di ammonificazione
  3. Le reazioni di nitrificazione/denitrificazione

L’azotofissazione consiste in una serie di reazioni, che possono avvenire sia per via biologica che chimica, attraverso le quali viene attivata la conversione dell’azoto molecolare ad azoto organico in modo da renderlo disponibile per il metabolismo delle piante. Le leguminose sono piante che possiedono nelle proprie radici batteri azoto fissatori, in grado di arricchire il suolo di sostanze nutritive azotate. La fissazione biologica è mediata da microrganismi come l’Azobacter e il Rhizobium, ed è resa possibile da un enzima, la nitrogenasi, che catalizza la reazione che produce la rottura del triplo legame covalente stabile presente nella molecola di azoto. Una stima quantitativa è riportata nella figura seguente dal lavoro di Fowler e coll. citato in fondo:Nelle reazioni di ammonificazione si parte da composti organici complessi contenenti azoto. Le sostanze azotate, già derivate da processi di decomposizione della sostanza organica, vengono ulteriormente demolite in sostanze più semplici grazie all’azione di organismi presenti nei suoli, come funghi e batteri, che le utilizzano per fabbricare le proprie molecole essenziali (proteine e amminoacidi). La restante parte di azoto in eccesso viene liberata sotto forma di ioni ammonio  o di ammoniaca.Nelle reazioni di nitrificazione si ha l’ossidazione dello ione ammonio. Questo processo è a carico di alcune specie di batteri che ne traggono energia per le loro attività metaboliche.

Questo processo particolarmente attivo nei suoli caldi e umidi caratterizzati da valori di pH vicino a 7, si svolge attraverso due reazioni ossidative: la nitrosazione e la nitrificazione. La prima consiste nell’ossidazione dell’ammonio a nitrito ed è mediata da microrganismi come i Nitrosomonas:

NH4+ + 3/2 O2 → 2H+ + NO2 + H2O

La seconda reazione di ossidazione porta alla formazione dei nitrati mediata dai Nitrobacter:

NO2 + 1/2 O2 → NO3

In questo modo l’azoto rientra in circolo nella rete alimentare, considerato che il nitrato è la specie chimica attraverso la quale la maggior parte dell’azoto viene assimilata dalle piante attraverso le radici.

In ultimo con la denitrificazione i nitrati vengono scissi in seguito alle attività di alcuni batteri che vivono nel terreno (es Pseudomonas). Questi batteri scindono i nitrati liberando l’azoto che torna all’atmosfera. La denitrificazione avviene soprattutto in terreni saturi d’acqua con poca disponibilità di ossigeno e in presenza di materia organica decomponibile.

Da notare come le reazioni di nitrosazione, nitrificazione e denitrificazione siano quelle usate anche nei processi di trattamento biologico delle acque reflue.

Dopo la scoperta e l’industrializzazione del processo Haber-Bosch per la sintesi dell’ammoniaca, utilizzando come fonte di azoto l’aria atmosferica, il ciclo stesso nel tempo è risultato alterato.

La produzione mondiale di fertilizzanti azotati è cresciuta ,e si è verificato l’accumulo di forme reattive di azoto nella biosfera. Gli inconvenienti principali sono stati quelli dell’eutrofizzazione, del rilascio di tossine algali, e la perdita di biodiversità. I processi produttivi umani convertono all’incirca 120 milioni di tonnellate/anno di azoto in forme più reattive. E’ intuitivo capire che il problema dello sbilanciamento del ciclo dell’azoto non è di facile soluzione. Nell’articolo “A safe operating space for humanity” uscito nel Settembre 2009 su “Nature”, Johan Rockstrom ed i suoi collaboratori hanno proposto la riduzione di questo prelievo di azoto riducendolo a 35 milioni di tonnellate/anno.

Per lavorare in questa direzione occorrono più fondi per la ricerca , e come sempre un’informazione precisa, per rendere l’opinione pubblica più informata e attenta. E allo stesso tempo dobbiamo ricordarci che stime risalenti al 2008 ci ricordano che il 48% dell’umanità e stata sfamata grazie ai concimi prodotti dall’ammoniaca di sintesi. E che nel frattempo la produzione mondiale di fertilizzanti ha raggiunto attualmente i 190 milioni di tonnellate, di cui poco più di 110 milioni di azoto, 45 di fosforo e 35 di potassio. Sono le sfide che ci attendono nel futuro.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3682748/

Fowler D et al. 2013 The global nitrogen cycle in the twenty-first century. Phil Trans R Soc B 368: 20130164. http://dx.doi.org/10.1098/rstb.2013.0164

Un contributo a Discussion Meeting Issue ‘The global nitrogen cycle in the twenty-first century’.

Due aromi utilizzati nelle sigarette elettroniche possono danneggiare le cellule polmonari

In evidenza

Rinaldo Cervellati

La notizia è stata riportata da Tien Nguyen in un recente numero di Chemistry & Engineering newsletter on line. Le due sostanze sospette sono il diacetile e il suo omologo 2,3-pentandione.

                  Diacetile                         2,3-pentandione

Il diacetile, comunemente utilizzato nell’industria alimentare per il suo aroma di burro, è sotto esame fin dai primi anni del 2000. Gli studi rivelarono una possibile correlazione fra questa sostanza e l’insorgenza di bronchiolite obliterante, una malattia che provoca tosse secca e respiro sibilante, osservata per la prima volta negli operai delle fabbriche di popcorn degli USA

Nel 2012, la US Flavor and Extract Manufacturers Association ha stabilito limiti di esposizione sul posto di lavoro per il diacetile (e il suo omologo 2,3-pentanedione) e ha raccomandato che i contenitori di queste sostanze rechino un’etichetta con l’avvertimento che l’inalazione di vapori provenienti dai contenitori potrebbe provocare gravi danni.

Il diacetile è anche il composto più comune fra diverse centinaia di sostanze aromatizzanti utilizzate nelle sigarette elettroniche, uno studio del 2016 su 51 prodotti per sigaretta elettronica ha rilevato che più della metà conteneva 2,3-pentanedione.

Un gruppo multidisciplinare di ricerca, coordinato dai Dott. Joseph Allen & Quan Lu della Harvard TH Chan School of Public Health a Boston, ha valutato l’effetto delle due sostanze aromatizzanti su colture di cellule epiteliali bronchiali e ha proposto un possibile meccanismo di come potrebbero compromettere la funzionalità polmonare. (H-R. Park Sci et al., Transcriptomic response of primary human airway epithelial cells to flavoring chemicals in electronic cigarettes., Sci. Rep. 2019, DOI: 10.1038 / s41598-018-37913-9).

D.J.Allen

Quan Lu

 

 

 

Lo studio si concentra inizialmente sugli effetti del diacetile e del 2,3 pentanedione sulle cellule epiteliali. Queste cellule rivestono le vie respiratorie dei polmoni e le mantengono pulite, ricorda il genetista Quan Lu, condirettore della ricerca. Esistono in tre forme: cellule ciliate, caliciformi e basali. Le cellule ciliate, simili a capelli, lavorano con quelle caliciformi che producono muco per spazzare via la polvere e gli agenti patogeni dalle vie aeree. Le cellule basali possono trasformarsi in uno degli altri due tipi di cellule epiteliali.

I ricercatori hanno trattato tutti e tre i tipi di cellule epiteliali con soluzioni di diacetile, 2,3-pentanione e con una soluzione inerte (controllo). L’esposizione alle sostanze aromatiche ha portato a una diminuzione del numero di cellule ciliate, rispetto all’esposizione alla soluzione di controllo. Usando una tecnica genetica, chiamata RNA-seq, il gruppo ha monitorato i livelli di RNA delle cellule, consentendo di osservare quali geni hanno cambiato la loro espressione dopo l’esposizione alle sostanze aromatiche. Molti dei geni con livelli di espressione più bassi dopo l’esposizione sono stati coinvolti nella ciliogenesi, il modo in cui le cellule basali si trasformano in cellule ciliate. Avere meno cellule ciliate lungo le vie aeree significa che i polmoni hanno meno protezione contro corpi estranei che possono causare infiammazioni. Questo lavoro ha permesso di ipotizzare un possibile meccanismo con cui queste sostanze producono i danni osservati.

Un’indagine commissionata dallo US Public Health Commission ha riportato che gli aromi aggiunti contribuiscono al fascino che i giovani hanno per la sigaretta elettronica: dal 2011 al 2015 l’uso di sigarette elettroniche fra gli studenti delle scuole superiori negli Stati Uniti è cresciuto del 900%, portando il Presidente della Commissione a dichiarare che questo fenomeno potrebbe comportare grossi problemi per la salute pubblica. Nel tentativo di ridurre l’uso di sigarette elettroniche tra i giovani, nel novembre 2018 il commissario della FDA (Food and Drug Administration), Scott Gottlieb, ha proposto politiche per limitare la vendita di prodotti aromatizzati per sigarette elettroniche (senza includere menta, mentolo o aromi di tabacco) nei negozi in cui i minorenni devono presentare un documento di identità per fare acquisti.

I ricercatori di Harvard hanno in programma di testare un insieme più ampio di sostanze chimiche aromatizzanti e di sviluppare anche una tecnica di laboratorio per esporre le cellule agli aromatizzanti aerosolizzati, che imiterebbe meglio il modo in cui le cellule dei polmoni vengono esposte a queste sostanze.

Maciej L. Goniewicz del Roswell Park Comprehensive Cancer Center, che studia la tossicità dei composti aromatizzanti nelle sigarette elettroniche, afferma che studi cellulari controllati come questo sono importanti perché consentono agli scienziati di studiare l’impatto delle singole sostanze chimiche in vitro, che possono essere difficili da investigare in vivo.

                                         Maciej L. Goniewicz

Tuttavia afferma che può non essere corretto estrapolare questi risultati e applicarli alla salute umana. Nel valutare i rischi per la salute Goniewicz aggiunge che è importante tenere presente che i loro rischi sono relativi. Ad esempio, fumare sigarette espone le persone a migliaia di sostanze chimiche, quindi è possibile che anche ammettendo una certa tossicità degli aromatizzanti, le sigarette elettroniche possano essere meno pericolose di quelle tradizionali. Ponderare i rischi dipenderà dalle autorità di regolamentazione, che necessiteranno però di più dati sperimentali e epidemiologici per fare raccomandazioni attendibili.

Negli USA la FDA (Food and Drug Administration) non si è espressa in maniera nettamente negativa sull’uso del diacetile nel liquido per le sigarette elettroniche.

Anche in Europa si è registrato un aumento del mercato delle sigarette elettroniche, a eccezione dell’Italia, dove si è verificato un netto calo dal 2013 al 2015.  Dal 1 gennaio 2018 le sigarette elettroniche sono passate sotto il controllo diretto del Monopolio di Stato, come il tabacco tradizionale. Una ulteriore tassa che rischia di soffocare un intero settore e alimenta una battaglia combattuta a suon di leggi, sanzioni e ricorsi. Non tutti i liquidi per sigaretta elettronica contengono infatti nicotina, molti contengono solo l’aroma del tabacco, insieme ad altri aromi aggiunti.

Wikipedia, alla voce Diacetyl in lingua inglese riporta letteralmente:

In 2016, diacetyl was banned in eliquids / ecigarettes in the EU under the EU Tobacco Products Directive.

Ma le cose non stanno così. Andando a esaminare attentamente il documento citato a sostegno della frase precedente, disponibile in tutte le lingue dell’Unione Europea:

http://europa.eu/rapid/press-release_IP-16-1762_it.htm

si può notare che in nessun punto è menzionato il divieto del diacetile, gli aromi sono citati solo al punto 2 che recita:

Le sigarette e il tabacco da arrotolare non potranno più avere aromi caratterizzanti come mentolo, vaniglia o caramello, che mascherano il gusto e l’odore del tabacco. Nel caso di prodotti con una quota di mercato superiore al 3 % (come il mentolo), il divieto sarà applicato a partire dal 2020.    

 

Nota del blogmaster: si vedano anche

– pag. 20 del rapporto dell’ISS http://old.iss.it/binary/publ/cont/16_44_web.pdf

http://news.doccheck.com/it/2857/sigarette-elettroniche-un-polmone-al-popcorn-per-favore/

 

…per i miracoli ci stiamo attrezzando!

In evidenza

Claudio Della Volpe

Giorni fa il collega Gustavo Avitabile mi ha scritto una mail raccontandomi un episodio avvenuto nel contesto dell’Università di Napoli, dove sono nato e cresciuto; e dunque mi scuserete se, prendendomela a cuore, lo racconto anche a voi. Secondo Gustavo è off-topic sul blog, ma non credo.

Gustavo è un chimico molto bravo e ormai in pensione, si è occupato di raggi X e didattica al computer; ma è anche il Gustavo che insieme ad altri amici di Napoli, come Ugo Lepore, Pina Castronuovo, Guido Barone, Luciano Ferrara, Vittorio Elia hanno fatto di me quel che sono oggi, Gustavo (e Ugo) mi hanno anche fatto il primo esame (nell’estate di 50 anni fa! sono proprio vecchio). E dunque a questa intellettualità napoletana che ha fatto il 68 e ha ancora il buon gusto di indignarsi io devo questo post.

Di cosa parliamo?

L’Università Federico II fa una serie di conferenzedi cui vi mostro la locandina ed in una di queste il prof. Alessandro De Franciscis, 15° presidente dell’Ufficio delle constatazioni mediche di Lourdes, ha raccontato la sua esperienza e anche la storia di Lourdes. Conferenza indubbiamente brillante e vivace, come nella personalità del relatore, tipicamente partenopea, ma anche capace di far indignare Gustavo, perchè poco fondata scientificamente perchè di fatti si passa dalle remissioni spontanee ai miracoli senza soluzione di continuità e senza soprattutto metodo scientifico; la conferenza è visibile su YouTube, potete seguirvela, dura un’ora e mezza e capisco se vorrete farne a meno, ma è piacevole; una sera che non avete di meglio da fare vale la pena al posto del Festival di Sanremo o di altre amenità. Vedrete che la parte finale del titolo, la verifica, è mancata.

Vi accorgerete di quel che dice Gustavo; la conferenza parte bene, il relatore ricorda che le remissioni spontanee sono sempre esistite, ma si finisce male, con l’enumerazione dei 70 miracoli riconosciuti dalla Chiesa Cattolica. Ora è questo che Gustavo rimprovera all’Università di Napoli, con una mail inviata a tutti i colleghi che non è passata, che è stata censurata diciamo così, di non aver saputo garantire il contesto; solo un collega del pubblico, intervenuto a titolo personale il prof. Pignata ha fatto notare i punti deboli del relatore, la mancanza di elementi di controllo e verifica nell’approccio “miracolistico”, la mancanza di considerazione degli aggravamenti ingiustificati come delle remissioni spontanee.

Quel che nessuno ha detto bene e che forse Gustavo avrebbe voluto sentir dire lo dirò io qui.

Cosa sono i 70 miracoli riconosciuti di Lourdes o se volete anche i 7500 casi di guarigioni elencate ma non riconosciute come miracoli? Sono una parte della numerosa congerie di “remissioni spontanee” elencate per esempio in questa pagina:

https://noetic.org/research/projects/spontaneous-remission

E in questo libro scaricabile gratis: http://library.noetic.org/library/publication-bibliographies/spontaneous-remission

Si tratta di 3500 casi analizzati in dettaglio su 800 riviste pubblicate in 20 lingue, dunque al livello dei 70 miracoli, ma circa 50 volte di più. In fondo a Lourdes ci sono andati solo alcune decine di milioni di persone, ma sono una minima parte della popolazione mondiale.

Per quelli che hanno meno tempo consiglio il bel post della counselor in psicosomatica Luciana Giordo: https://www.psicosomatica.eu/remissioni-spontanee/ molto ben scritto o i riferimenti citati allla fine.

La remissione spontanea da malattie anche traumatiche normalmente inguaribili è un fenomeno ben documentato ma ancora non spiegato, nel quale elenco i 70 casi provati di Lourdes rientrano bene; dice la Giordo: se andate su Medline il numero di riferimenti per le chiavi di ricerca “spontaneous remission” o “spontaneous regression”, passa dai 10.603 del periodo 1966-1992 ai 20.502 attuali. Insomma ampio data base sul quale però lo studio non è altrettanto esteso; e questo è il limite della scienza. Le remissioni spontanee da malattie molto gravi (eccettuati i casi fasullli, gli errori, le diagnosi sbagliate etc.) sono non miracoli ma eventi rarissimi ed inaspettati ed al momento non spiegati.

L’interazione corpo-psiche è un argomento poco studiato; certamente c’è la chimica dietro, ma c’è anche un mistero: cosa è l’autocoscienza? Cosa rende noi e tanti altri animali coscienti di se stessi; cosa ci fa comunicare col nostro gatto o col nostro cane e rende noi capaci di guarire spontaneamente (la percentuale è ridottissima, 1/100.000 non vi illudete, se avete un tumore andate dal medico) e lui capace si di guardarsi allo specchio ma non riconoscersi? Non lo sappiamo. Dobbiamo studiarci e tanto.

http://www.treccani.it/enciclopedia/il-rapporto-tra-mente-e-cervello_(XXI-Secolo)/

Ecco questo è il punto; quale è la base materiale della coscienza e dell’autocoscienza e dunque di tutte quelle interazioni fra corpo e mente, per lo più inconsce, automatiche ma potentissime che sperimentiamo continuamente? Milioni di reazioni chimiche, migliaia di enzimi e di sequenze reattive, un “sistema” di reazioni complesse della cui complessità stiamo appena accorgendoci; questo è il cervello, la base fisica; ma la mente, il sistema informatico che è basato sul cervello, il programma che ci gira, il software se volete (so di essere impreciso, ma ci sta, non sono un esperto) dove sta e cosa fa, come comunica col resto, dove sta scritto? La scienza dei sistemi complessi, i meccanismi della retroazione che esploriamo tramite sistemi di equazioni differenziali non lineari, questo contesto che tende ad unire mente e cervello, la tomografia NMR unita alle neuroscienze se volete, questo è mancato nella conferenza, dando spazio al miracolismo; ognuno può pensarla come gli pare ed essere religiosi non è in contrasto per forza con il fare scienza, ma la cosa dovrebbe essere detta e distinta più chiaramente di quanto ha fatto De Franciscis (e ci sta, lui è dichiaratamente cattolico e dichiaratamente di parte) e soprattutto di come gli hanno consentito di fare l’Università di Napoli e anche l’intellighenzia partenopea, che invece dovrebbe essere garante e che a volte dimentica di aver fatto il ’99 e anche il ’68 e si riduce al più modesto presente.

Un’ultima considerazione per giustificare come mai questo apparente OT non sia poi OT; non solo per motivi generali, politici, I care, direbbe Vincenzo, io come intellettuale DEVO occuparmi della società e delle ricadute della scienza, ma anche per un motivo di merito; cosa è una remissione spontanea o se volete col linguaggio di De Franciscis un miracolo? E’ un evento inaspettato, un cigno nero, un accadimento NON LINEARE! Dunque di esso ci occupiamo con i metodi che conosciamo che usiamo per questo: i sistemi lontani dall’equilibrio come il nostro corpo e quello di ogni essere vivente o la biosfera sono proprio il luogo deputato agli eventi non lineari che studiamo con la retroazione, la dialettica, i metodi della termodinamica irreversibile, le equazioni differenziali; ecco perchè non siamo OT (Off Topic).

Bravo Gustavo per esserti indignato, ma non avevo dubbi; su Gustavo si può contare. Un abbraccio e un ricordo grato a te e agli altri chimici ribelli di Napoli (dei quali ho fatto parte e mi scuserà chi non è stato ricordato) da un ex studente.si veda anche: http://www.cicap.org/emilia/miracolo/

http://www.medbunker.it/2013/10/guarire-miracolosamente-o-spontaneamente.html

Precursori dell’Adenina nella sintesi abiotica nello spazio

In evidenza

Diego Tesauro

Tra le ipotesi sull’origine della vita terrestre nelle ultime decadi, ha avuto maggiori fautori l’ipotesi che i primi organismi viventi avessero alla base la molecola dell’RNA. L’RNA quindi avrebbe svolto il ruolo sia di catalizzatore delle reazioni nelle cellule che di trasmettitore dell’informazione. Solo successivamente la maggiore stabilità del DNA e delle proteine avrebbero portato alla sostituzione dell’RNA. Il mondo basato sull’RNA richiede la sintesi abiotica dei nucleotidi e la loro partecipazione nelle reazioni di replicazione dell’RNA non enzimatica. Entrambe le due funzioni mostrano delle criticità non risolte. In questo intervento mi vorrei focalizzare sulla sintesi dei nucleotidi in particolare di una delle basi, l’adenina, per cui di recente sono stati osservati alcuni precursori chiave nella sintesi.

Storicamente la presenza dell’adenina di origine extraterrestre, e quindi di sintesi abiotica, è stata rilavata alla fine degli anni sessanta nella famosa meteorite carbonacea di Murchison (https://it.wikipedia.org/wiki/Murchison_(meteorite)), fonte di innumerevoli molecole organiche di origine prebiotica. Una possibile via sintetica abiotica era già stata proposta da Oro et al. all’inizio degli anni sessanta in una pubblicazione sulla rivista Nature [1]. In questo schema la sintesi prevede la presenza del cianuro di idrogeno e l’ammoniaca come reagenti, verosimilmente presenti nell’atmosfera primordiale terrestre. Per poter spiegare la sintesi dell’adenina nelle nubi idi gas molecolare, da cui hanno origine per contrattazione gravitazionale i sistemi planetari, Chakrabarti ha proposto successivamente che l’adenina si possa formare attraverso l’oligomerizzazione di HCN nella fase gassosa in quattro fasi: HCN → H2C2N2 → NH2CH(CN)2 → NH2(CN)C = C(CN)NH2 → H5C5N5 in cui il primo step è una dimerizzazione del cianuro di idrogeno per dare la cianometanimmina [2] .

Figura 1 I due isomeri geometrici della cianometimmina

Figura 2 Sintesi attraverso due vie dei due isomeri geometrici della cianometimmina

Tuttavia, eseguendo calcoli teorici, negli ultimi decenni, la formazione del dimero di HCN, non sembra verificarsi in maniera efficiente nelle condizioni del mezzo interstellare (ISM). Pertanto il meccanismo di formazione e la possibilità di rilevare la molecola nelle nubi interstellari è di cruciale importanza per spiegare la formazione dell’adenina. La cianometanimmina presenta due diversi isomeri geometrici: l’isomero Z e l’isomero E (Figura 1). Pur essendo l’isomero Z più stabile dal punto di vista energetico fino ad oggi nell’ISM era stato rilevato solo l’isomero E. Solo recentemente è stata osservata la presenza di entrambi gli isomeri geometrici nella nube molecolare quiescente G + 0.693 del Centro Galattico mediante le osservazioni del radiotelescopio 30 m dell’IRAM sul Pico Veleta della Sierra Nevada in Spagna, nel dominio delle onde millimetriche [3]. Il rapporto osservato di abbondanza relativa tra i due isomeri [Z/E] è circa 6. Questo valore è estremamente maggiore rispetto a quanto previsto teoricamente dalle due vie di formazione chimica precedentemente proposte (in fase gassosa o sulla superficie dei grani di polvere della nube). Infatti la prima via prevede la reazione del radicale ciano con la metanimmina con formazione dei due isomeri nel rapporto 1.5 mentre l’alternativa, avente come reagenti il cianogeno e due atomi di idrogeno, mostra un rapporto nel prodotto tra gli isomeri intorno a 0,9 (Figura 2). Invece il rapporto [Z/E] osservato è in buon accordo con l’equilibrio termodinamico alla temperatura cinetica del gas (130-210 K). Poiché l’isomerizzazione non è possibile nell’ISM, le due specie potrebbero essersi formate ad alta temperatura. Nuovi modelli chimici, inclusa la chimica delle superfici su grani di polvere e reazioni in fase gassosa, dovrebbero essere esplorati per poter spiegare questi risultati. Qualunque sia il meccanismo di formazione, l’elevata abbondanza di Z-HNCHCN mostra che i precursori dell’adenina si sono formati nell’ISM. Ancora più recentemente è stata osservata per la prima volta anche la presenza di idrossiacetonitrile o glicolnitrile (Figura 3) in una protostella di tipo solare in formazione in IRAS 16293-2422 B, una zona della nebulosa oscura r Ophiuchi (Foto 1) [4]. La rilevazione è stata ottenuta mediante il radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array) in Cile (Foto 2), osservando a frequenze comprese tra 86,5 GHz e 266,5 GHz Sono state identificate in totale 15 transizioni di glicolnitrile.

Figura 3 Sintesi del Glicolnitrile e sue reazioni per produrre Adenina e Glicina

 

Foto 1 Il complesso Rho Ophiuchi cloud, una nebulosa oscura di gas e polveri localizzata ad 1° a sud dalla stella ρ Ophiuchi della costellazione dell’Ofiuco. Trovandosi a circa 131 ± 3 parsecs, (430 anni luce) è una delle zone di formazione di sistemi planetari più vicine al sistema solare.

Foto 2 Alcune delle antenne del Radiotelescopio interferometrico ALMA sull’altopiano di Chajnantor delle Ande cilene (https://www.eso.org/public/italy/teles-instr/alma/)

Anche questa molecola è coinvolta nella sintesi dell’adenina. Nel mezzo interstellare (ISM), il glicolnitrile potrebbe formarsi su superfici di grani ghiacciate attraverso la reazione tra formaldeide e cianuro di idrogeno. Questo composto, in presenza di ammoniaca e cianuro di idrogeno a pH basico, è in grado di accelerare il processo di sintesi dell’adenina. Inoltre in una miscela eutettica ghiaccio-acqua in presenza di ammoniaca, si può ottenere dal glicolnitrile la glicina. Quindi questa molecola gioca un ruolo chiave nella sintesi abiotica e nella chimica dei nitrili nell’ISM. Inoltre i dati mostrano la presenza della molecola sia nel core caldo interno che nell’involucro esterno freddo di IRAS16293 B, pertanto ci si può spiegare la sua presenza (e di composti organici quali la glicina) in oggetti appartenenti alle zone remote dei sistemi planetari come le comete e gli asteroidi. Molti punti restano però oscuri per cui è necessario condurre ulteriori esperimenti nonché elaborare dei modelling per avere una visione completa della chimica in fase gassosa a bassa densità e nelle interfaccia dei sistemi eutettici a bassa temperatura.

[1] J. Oro Mechanism of Synthesis of Adenine from Hydrogen Cyanide under Possible Primitive Earth Conditions Nature 1961, 1193-1194)

[2] S. Chakrabarti, S.K. Chakrabarti Astronomy and Astrophysics, 2000, 354, L6-L8 doi astroph/0001079

[3] V. M. Rivilla, J. Martín-Pintado, I. Jiménez-Serra, S. Zeng, S. Martín, J. Armijos-Abendaño, M. A. Requena-Torres, R. Aladro, D. Riquelme Abundant Z-cyanomethanimine in the interstellar medium: paving the way to the synthesis of adenine Monthly Notices of the Royal Astronomical Society: Letters, 2019, 483(1), L114–L119. doi 10.1093/mnrasl/sly228

[4] S. Zeng, D. Quénard, I. Jiménez-Serra, J. Martín-Pintado, V M. Rivilla, L. Testi, R. Martín-Doménech First detection of the pre-biotic molecule glycolonitrile (HOCH2CN) in the interstellar medium Monthly Notices of the Royal Astronomical Society: Letters, 2019, 484(1), L43–L48. doi:10.1093/mnrasl/slz002

 

 

Scienziate che avrebbero potuto aspirare al Premio Nobel: Ellen Gleditsch (1879-1968)

In evidenza

Rinaldo Cervellati

Ellen Gleditsch è stata uno dei primi specialisti in radiochimica, misurò l’emivita del radio e confermò l’esistenza degli isotopi. Come esperta cristallografa, ha dato importanti contributi alla scienza nel laboratorio di Marie Skłodowska-Curie. Fu la seconda donna a occupare una cattedra universitaria in Norvegia.

Ellen nacque il 28 dicembre 1879 a Mandal (Norvegia), prima di 11 figli. Suo padre, un insegnante di storia naturale, e sua madre, intellettuale e sostenitrice dei diritti delle donne, fecero in modo che tutti i figli fossero impegnati in attività culturali e musicali oltre a frequentare la scuola regolare.

Una giovane Ellen Gleditsch

Fu la prima della classe alla scuola di farmacia nel 1902. Nel 1903, Gleditsch fu invitata a studiare nel laboratorio del chimico Eyvind Bødtker[1] all’Università di Oslo e presto divenne la sua assistente. Nel 1905 superò l’esame di ammissione all’università[2] ma su suggerimento e con il sostegno di Bødtker decise di proseguire gli studi a Parigi.

Nel 1907 iniziò a lavorare nel laboratorio di Marie Curie, già famosa avendo vinto il Premio Nobel per la fisica nel 1903 (insieme al marito Pierre Curie e a Henry Becquerel). Ellen si dimostrò una risorsa inestimabile per il laboratorio di Curie, eseguendo “cristallizzazioni frazionate”, una tecnica difficile in cui pochi scienziati erano competenti. Con questa tecnica Gleditsch riuscì a purificare il radio. Lavorò a stretto contatto con Curie per cinque anni analizzando minerali radioattivi alla ricerca di uranio e radio e, dopo aver lasciato il laboratorio, vi tornò più volte per supervisionare gli esperimenti. In questo periodo pubblica almeno cinque lavori [1-4].

Ellen conseguì la Licenciée en sciences degree (licenza in scienze) dalla Sorbona nel 1911 e nello stesso anno ottenne una borsa di studio presso l’Università di Oslo.

Ellen Gleditsch dottore in scienze

Dopo un anno nella capitale norvegese, vinse una borsa della American-Scandinavian Foundation (la prima borsa di studio assegnata a una donna) per studiare negli Stati Uniti, e colse al volo l’occasione. Fece domanda a due prestigiose scuole degli USA chiedendo di lavorare nei loro laboratori ma entrambe le domande furono rifiutate, in un caso su base di genere.

Nonostante fosse stata respinta, si recò all’Università di Yale, nel laboratorio di Bertram Boltwood[3] , dove trascorse un anno per completare le sue ricerche sul tempo di emivita del radio stabilendolo in 1686 anni [5], che è rimasto lo standard per molto tempo prima di essere corretto a 1620 anni.

La misurazione di Ellen ha aperto la strada a diverse importanti scoperte, poiché l’emivita del radio poteva essere utilizzata come parametro per lo studio della radiochimica di altri elementi. Gli scienziati che l’avevano rifiutata cambiarono idea sul fatto di avere donne nei loro laboratori. Nel giugno 1914, ricevette un dottorato onorario per il suo lavoro sulla radioattività dallo Smith College di Northampton, nel Massachusetts.

Ellen tornò all’Università di Oslo nel 1914 e nel 1917 divenne la seconda donna ad essere eletta all’Accademia delle Scienze di Oslo. Dodici anni più tardi, dopo un’ardua procedura di nomina, è diventata la seconda donna a ricoprire una cattedra universitaria in un’università norvegese (università di Oslo). A Oslo avviò con successo un gruppo di ricerca in radiochimica. Durante gli anni ’30, continuò a produrre articoli in inglese, francese, tedesco e norvegese. Nel 1939 è stata nominata membro del comitato internazionale per la cooperazione intellettuale, del quale aveva fatto parte Maria Curie alcuni anni prima.

Ellen Gleditsch in laboratorio

Sebbene il suo risultato scientifico più celebre sia stato la determinazione del tempo di emivita del radio, Gleditsch ha anche svolto un ruolo importante nel confermare l’esistenza degli isotopi. Quando nel 1913 il chimico britannico Frederick Soddy avanzò l’ipotesi che gli atomi di un elemento potevano avere pesi atomici[4] diversi, Ellen, insieme ad altri ricercatori, inviò un campione di piombo che aveva purificato a un importante scienziato negli Stati Uniti. Il suo campione era l’unico abbastanza puro da provare l’esistenza degli isotopi.

Fervente sostenitrice delle donne nella scienza per tutta la sua vita, è stata co-fondatrice della Norwegian Women Academics Association nel 1919 e, dal 1926 al 1929, ha ricoperto il ruolo di presidente della International Federation of University Women, posizione che le ha permesso di viaggiare e tenere conferenze.

Quando la Norvegia fu occupata durante la seconda guerra mondiale, nascose gli scienziati e continuò a usare la sua casa per gli esperimenti. Durante un’incursione nel suo laboratorio nel 1943, le scienziate riuscirono a nascondere i minerali radioattivi ma tutti gli uomini furono arrestati.

Si ritirò dall’università nel 1946 e iniziò a lavorare con l’UNESCO partecipando a iniziative per porre fine all’analfabetismo. Nel 1952 fu nominata alla commissione norvegese che lavorava per il controllo delle armi atomiche. Nello stesso anno si dimise dall’UNESCO per protesta contro l’ammissione della Spagna fascista di Francisco Franco.

Ellen Gleditsch in conferenza

Nel 1962, all’età di 83 anni, ricevette un dottorato onorario dalla Sorbona, la prima donna a ricevere un tale onore.

Ellen Gleditsch morì, stroncata da un ictus, il 5 giugno 1968. In suo onore è stata istituita la Ellen Gleditsch Scholarship Foundation con lo scopo di sostenere aspiranti scienziati.

Opere consultate

The gifted cristallographer. Epigenesys https://www.epigenesys.eu/en/science-and-you/women-in-science/773-ellen-gleditsch

Marelene F. Rayner-Canham, Geoffrey W. Rayner-Canham, A Devotion to Their Science: Pioneer Women of Radioactivity, Chemical Heritage Foundation, 1997, pp. 51-75 https://books.google.com.mx/books?id=YAbzjGWdIA0C&pg=PA73&lpg=PA73#v=onepage&q&f=false

  1. Lykknes, L. Kvittingen, A. K. Børresen, Appreciated Abroad, Depreciated at Home. The Career of a Radiochemist in Norway: Ellen Gleditsch (1879–1968)., 2004, 95, 576-609.

Bibliografia

[1] Mme Curie et Mlle Gleditsch, Action de l’émanation du radium sur les solutions des sels de cuivre., Radium, 1908, 5(8), 225-227 https://hal.archives-ouvertes.fr/jpa-00242300/document

[2] E. Gleditsch, Sur le radium et l’uranium contenus dans les mineraux radioactifs., Comptes Rendus, 1909, 148, 1451.

[3] E. Gleditsch, Ratio Between Uranium and Radium in the Radio-active Minerals., Comptes Rendus, 1909, 149, 267.

[4] E. Gleditsch, Sur les rapports entre l’uranium et le radium dans les mineraux radioactifs., Radium, 1911, 8(7), 256-273.

[5] E. Gleditsch, The life of Radium., American Journal of Science., 1916, 41, 112-124.

[1] Eyvind Bødtker (1867 – 1932) farmacista e chimico norvegese si è occupato principalmente di omologhi del benzene e di composti aliciclici. La maggior parte della sua carriera si è svolta all’università di Christiana dove è stato professore dal 1918.

[2] Il Matriculatium exam o Examen artium, corrispondeva all’esame di maturità di oggi, dopodiché gli alunni ricevevano il titolo di “studenti” poiché era anche il requisito per accedere all’università. Fino al 1923 questo esame non era tuttavia obbligatorio per gli studi di farmacia. Questo spiega perché Gleditsch aspettò fino al 1905 per iniziare i suoi studi universitari di chimica.

[3] Bertram Borden Boltwood (1870 – 1927), radiochimico statunitense stabilì che il piombo è il prodotto finale del decadimento dell’uranio. Professore alla Yale University.

[4] A quel tempo i chimici parlavano ancora in termini di peso. Di massa si cominciò a ragionare quando Francis Aston nel 1921 introdusse la whole-number rule, secondo cui le masse degli isotopi sono multipli interi della massa dell’atomo di idrogeno. A Francis Aston (1877-1945) fu assegnato il Premio Nobel per la chimica 1922 “per la sua scoperta, grazie all’utilizzo del suo spettrografo di massa, di isotopi di molti elementi non radioattivi e per la sua enunciazione della teoria del numero intero”. Volendo essere precisi, la massa di ciascun isotopo non è un intero causa il difetto di massa durante la sua formazione in cui si libera energia.

Nanoparticelle da batteri, funghi e estratti vegetali.

In evidenza

Luigi Campanella, già Presidente SCI

Le nano-scienze studiano i materiali nelle componenti più piccole di cui sono composti, quindi a livello atomico e molecolare. Alcune delle applicazioni più moderne ed attuali dei nano-materiali sono la protezione da scritte e graffiti di vetri, carrozzerie, pannelli pubblicitari, l’azione di contrasto allo sporco ed all’umidità su superfici di vetro o specchio; l’azione idrorepellente, l’attività antivegetativa su imbarcazioni e cabine marine.

Per grandi applicazioni si utilizzano dispersioni delle nanoparticelle in alcool; tali applicazioni sono sempre più diffuse e variate, allargando i campi di interesse e di studio. Alcune nano particelle hanno dimostrato proprietà di inibizione della crescita di microorganismi, altre sono state applicate alla decontaminazione delle acque reflue da uranio. Tutto ciò mette in evidenza come le nano-particelle rappresentino promettenti opzioni per la chimica sostenibile. In alcuni casi, la maggior parte in realtà, la loro preparazione comporta metodi e processi non ecocompatibili; da qui l’importanza di superare questo limite con metodi di sintesi delle nanoparticelle che siano riconducibili alla green chemistry.

Nasce così la nanotecnologia verde come combinazione delle nanotecnologie con la chimica verde, che punta a creare nano-materiali sostenibili e sviluppare applicazioni per ridurre i residui dannosi a salute ed ambiente da smaltire. Il risanamento di terreni inquinati è uno dei problemi che rientrano in questa casistica. Questo può avvenire in situ senza la necessità di scavare ed ex situ con rimozione del terreno seguita da trattamento adeguato in condizioni controllate. La nanotecnologia verde ha trovato applicazioni proprio nei metodi di risanamento in situ, ovviamente i più ambiti per la maggiore semplicità operativa. Il primo aspetto da considerare per dare credito al carattere green è quello relativo alla preparazione/sintesi rispettosa di ambiente e salute. Le sintesi tradizionali avvengono per via chimica, che può essere con tecnologia tradizionale o con tecnologia green: nel primo caso si utilizzano spesso solventi tossici e condizioni sperimentali estreme, consumi energetici elevati, mentre nel secondo caso si impiegano reagenti green, per lo più estratti naturali, condizioni ambientali miti, catalisi chimica con ridotti consumi energetici. Successiva alla sintesi è la caratterizzazione che avviene con tecniche diverse XRD, UV, FTIR.

Sono note due classi di nano-materiali ,l’organica e l’inorganica, la prima costituita principalmente da carbonio, la seconda da metalli nobili come l’oro e l’argento. Un’altra classificazione distingue le nano-particelle in naturali, sintetiche, ingegnerizzate, a seconda della loro origine; quelle metalliche rientrano in quest’ultima classe.

I microrganismi hanno talvolta la capacità di ridurre gli ioni metallici conducendo alla sintesi di materiali in nanoscala; ciò avviene attraverso l’azione di enzimi extracellulari secreti dai microorganismi. I batteri hanno una speciale affinità per i materiali e questa proprietà di legarli li rende particolarmente utili nel nanobiorisanamento. Oltre ai batteri analoghi usi hanno i funghi ed i lieviti, questi ultimi in particolare nei casi di sintesi di grandi quantità di nano particelle, in ragione dell’elevato contenuto proteico di questi microorganismi. Infine in letteratura si trovano molti esempi di sintesi di nanoparticelle a partire da estratti di piante. Esistono numerosi articoli nella bibliografia scientifica che, in funzione delle nano particelle che si vogliono sintetizzare, indicano la piante o il microorganismo più idoneo.

Alcuni esempi: per la sintesi di nanoparticelle di argento i microrganismi o le piante più adatti sono il lievito del pane, lo staffilococco, la magnolia,la trigonella e il ficus; per quelle di oro aspergillus penicillium ed eucalipto; per quelle di ferro escherichia coli, papaya, tè verde, rosmarino.

Questo fra l’altro getta luce sulla pretesa di alcuni che le nanoparticelle che si ritrovano nei cibi o nell’ambiente siano tutte sintomo di inquinamento. Non sembra sia così e secondo alcuni anzi talune nanoparticelle hanno un ruolo nella crescita delle piante. Diciamo che c’è molto da studiare.

Dopo la loro caratterizzazione le nanoparticelle vengono applicate al nanorisanamento del sistema in cui è richiesto di abbattere la concentrazione di composti pericolosi per l’uomo e per l’ambiente. L’azione delle nano particelle si può esplicare attraverso l’adsorbimento con conseguente rimozione dei composti adsorbiti o attraverso la loro proprietà di donatori elettronici che comporta una reazione con le specie ioniche metalliche e con gli elettronaccettori con la trasformazione di questi in specie meno tossiche; tale minore tossicità auspicata deve essere però testata.

Alcuni dei problemi che assillano queste nuove tecnologie sono la perdita di attività nel tempo delle nanoparticelle, il trasporto di queste, l’azione tossica nei confronti dei biocatalizzatori, spesso indispensabili per lo sviluppo di una reazione. I microorganismi del suolo ,ad esempio, sono estremamente importanti per il ciclo naturale dei nutrienti nell’ambiente, proteggendo anche il suolo da eventuali composti contaminanti. Dovendo decidere sul metodo più adatto per risanare un sito contaminato vanno tenuti in conto numerosi aspetti, quali l’efficienza, la complessità, il rischio, la disponibilità di risorse, il tempo necessario, giungendo alla conclusione che non esiste un metodo che soddisfi completamente ed inducendo quindi la convinzione di ricorrere ad una multi-tecnologia.

Alcuni riferimenti.

Nanochem Res 3(1): 1-16, Winter and Spring 2018

Sustainability 2018, 10, 913; doi:10.3390/su10040913

J Nanomed Nanotechnol
 Volume 5 • Issue 5 • 1000233


­ M.H. Siddiqui et al. (eds.), Nanotechnology and Plant Sciences,
DOI 10.1007/978-3-319-14502-0_2

Anshup A, Venkataraman JS, Subramaniam C, Kumar RR, Priya S, Kumar TS, Omkumar RV, John A, Pradeep T. (2005). Growth of gold nanoparticles in human cells. Langmuir, 21 11562–11567.

Chaudhuri GR, Paria S. (2012). Core/shell nanoparticles: classes, properties, synthesis mechanisms, characterization, and applications. Chem Rev, 112 (4) 2373-433.

Dwivedi AD, Gopal K. (2010). Biosynthesis of silver and gold nanoparticles using Chenopodium album leaf extract. Colloids Surf A Physicochem Eng Asp, 369 (1–3) 27–33.

Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650. Iravani S. (2011). Green synthesis of metal nanoparticles using plants. Green Chem, 13 2638–2650.

Inaugurazione ufficiale dell’Anno Internazionale della Tavola Periodica

In evidenza

Rinaldo Cervellati

Il 29 gennaio a Parigi, nella sede dell’UNESCO (Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura), ha avuto luogo la cerimonia ufficiale inaugurale dell’International Year of Periodic Table (IYPT).

Ne ha parlato Laura Howes su Chemistry & Engineering News del 30 gennaio (The International Year of the Periodic Table officially kicks off in Paris, C&EN, 97 (5))

Il 2019 coincide con il 150° anniversario del primo articolo di Dmitri Mendeleev che proponeva una classificazione degli elementi conosciuti in un sistema basato sulle loro proprietà fisiche e chimiche, da lui stesso chiamato sistema periodico. Molti interventi alla cerimonia di apertura di martedì 29 hanno riguardato il lavoro di Mendeleev e la sua Tavola Periodica che gli permise di prevedere le proprietà di elementi non ancora noti, che vennero poi effettivamente scoperti in base a queste previsioni. Mendeleev è stato un “vero genio della chimica”, ha detto il premio Nobel Ben Feringa durante il suo discorso di apertura.

Feringa ha anche affrontato un tema condiviso in molti altri interventi: l’importanza della collaborazione internazionale. I chimici “hanno un linguaggio universale che usa gli elementi e le molecole e non ha confini” ha affermato Feringa.

Oltre ai discorsi, l’inaugurazione del 29 gennaio ha previsto tavole rotonde e spettacoli musicali. Fuori dall’auditorium principale, i delegati hanno preso parte a dimostrazioni pratiche di chimica e hanno potuto ammirare una serie di tavole periodiche. Questa collezione comprendeva diversi Tavole realizzate dall’insegnante giapponese Nagayasu Nawa e un Tavola da muro del 1885 scoperta da Alan Aitken mentre stava pulendo l’Anfiteatro delle Conferenze all’università di St. Andrews nel 2014.

Questa Tavola potrebbe essere il più antico esempio al mondo di una tavola periodica usata a scopo didattico.

Parlando alla cerimonia di apertura, la presidente della American Chemical Society, Bonnie Charpentier, ha affermato che l’ACS spera che le società scientifiche e le istituzioni educative si riuniscano nel 2019 per condividere l’importanza della chimica e della tavola periodica. “Non vedo l’ora di vedere tutti i modi in cui si festeggerà l’IYPT e discutere su come possiamo lavorare insieme”, ha aggiunto, rivolgendosi alla platea.

La cerimonia di apertura è stata solo l’inizio dell’IYPT. Eventi e convegni sono stati pianificati per tutto l’anno. Queste manifestazioni includeranno anche il sostanziale apporto, troppo spesso dimenticato o ignorato, delle donne scienziate che hanno contribuito al completamento della Tavola con la scoperta di nuovi elementi e più in generale al progresso delle scienze chimiche.

L’IYPT, con il suo tema sugli elementi come linguaggio comune per la scienza, ha pertanto lo scopo di migliorare la consapevolezza globale e l’educazione nelle scienze di base.

Alla cerimonia inaugurale ha partecipato anche il nostro collega Marco Taddia che rappresenta la Società Chimica Italiana nel Working Party on History of Chemistry di EuChemS (Società Europea di Chimica). Sicuramente Marco scriverà su questa cerimonia su La Chimica & l’Industria, rivista ufficiale della SCI.

In questo 2019 cade anche il 100°anno di fondazione della IUPAC (Unione Internazionale di Chimica Pura e Applicata), con lo scopo di promuovere la comunicazione internazionale nelle scienze chimiche attraverso un linguaggio standardizzato condiviso da tutti i settori, accademico, industriale e pubblico. Come ricordato nel precedente post la IUPAC ha convocato un gruppo di lavoro con il compito di dare una raccomandazione aggiornata sulla struttura della Tavola periodica.

La chimica di Star Trek

In evidenza

Claudio Della Volpe

Alla base della tecnologia di Star Trek c’è una macchina che si vede poco ma che giustifica allo spettatore attento tutte le incredibili cose che si possono fare sulle astronavi della Federazione (dei Pianeti Uniti, che lasciatemi dire, oggi a due minuti dalla mezzanotte nucleare, è ancora più incredibile del resto): il replicatore.

Do per scontato che abbiate anche solo sentito nominare Star Trek anche se non siete appassionati di fantascienza; io sono un lettore di fs da sempre, da quando ho letto Dalla Terra alla Luna; in realtà lo sono diventato nel tempo passando dalla fs ingenua, ipertecnologica degli anni iniziali a quella mano a mano più sottile, psicologica e intelligente, una vera letteratura fantastica, ma mica tanto, che aveva attratto anche persone come Primo Levi.Bene, alla base dell’universo di Star Trek c’è una macchina fantastica che è in grado di ricostituire qualunque oggetto le sia richiesto o che abbia in memoria usando la sua capacità di trasformare energia in materia e formarla a partire dagli atomi e dalle molecole sintetizzate; anche se la riproduzione non è esattissima per evitare di poter sintetizzare esseri viventi dal nulla; un limite etico che richiama le 3 leggi della robotica di Asimov. Nell’universo di ST questo avviene solo quando si teletrasportano esseri già viventi, senza crearli ex-novo. Fa anche il contrario ritrasformando in energia qualunque materia e dunque costituendo un perfetto dispositivo di riciclo. Dunque dovremmo farne una sorta di “santo Graal” del blog.

Senza il replicatore le astronavi della Federazione avrebbero ben poco spazio dovendo trasportare cibo e ricambi; anche l’aria viene ricreata e riciclata dal replicatore, eliminando così molti problemi delle nostre piccole astronavi planetarie.

Il replicatore di ST è basato sulla medesima fisica immaginaria che permette di trasferire le persone e le cose da un punto all’altro dell’universo.

Quando furono inventate le stampanti 3D ci fu chi fece un parallelo fra il replicatore di ST e la nuova tecnologia; ovviamente le stampanti 3D sono una grande idea, ma molto lontana dal replicatore; ma si sa gli inventori non stanno a guardare e se non sanno che una cosa è impossibile è meglio.

Necessario ricordare poi che se dietro Star Trek c’è una fisica (ci hanno anche scritto un libro), dietro le applicazioni reali c’è una chimica molto bella.Sull’ultimo numero di Science è stato pubblicato un articolo che racconta di una nuova tecnologia di stampa 3D che manda in soffitta quella presente (eh si chi ha appena comprato una stampante 3D ci rimarrà male) e apre un intero mondo; la nuova tecnologia consente di stampare in blocco, non a strati, oggetti di forma complessa, anche se inglobano altri oggetti e con una superficie molto ben rifinita: il tutto è controllato da una reazione fotochimica e dalle proprietà fotochimiche del materiale usato, che è un polimero. La stampante è basata su un dispositivo che proietta radiazione in quantità ben controllata nello spazio in cui è contenuto un polimero liquido e fotosensibile; man mano che nell’intervallo di pochi minuti la radiazione si accumula nel liquido in opportuna quantità nelle diverse zone del volume di controllo, si inizia una reazione di polimerizzazione che si conclude rapidamente, a questo punto il polimero non reagito viene eliminato per semplice aggiunta di solvente ed aspirazione e rimane l’oggetto che ci serve. Idea semplice e potente. L’acronimo della nuova tecnica è CAL, Computed Axial Lithography; ci avrei visto bene Tomography, perchè ricorda l’inverso della tomografia; nella tomografia NMR o X le radiazioni consentono di ricostruire la forma dell’oggetto, mentre qui la radiazione consente di costruire l’oggetto, casomai analizzato prima con la tomografia.Il primo oggetto stampato è stato “Il pensatore” di Rodin.

Nature battuta dalla eterna rivale si rifà descrivendo magistralmente la tecnologia:

As the projector cycled through the images, which covered all 360 degrees, the container rotated by a corresponding angle. “As the volume rotates, the amount of light received by any point can be independently controlled,” says Taylor. “Where the total amount exceeds a certain value, the liquid will become solid.”This is because a chemical in the resin absorbs photons and, once it reaches a certain threshold, the acrylate undergoes polymerization — the resin molecules link together into chains to make a solid plastic.

La nuova tecnologia oltre a vantare una superficie finale di altissima qualità può anche usare polimeri senza adattatori di viscosità che servono al flusso nell’ugello della matrice; tutte tecniche ormai da gettar via; dalla luce all’oggetto grazie ad una chimica sofisticatissima. La radiazione generata dal proiettore mentre il contenitore del polimero ancora “liquido” ruota consuma poco a poco l’ossigeno che fa da scavenger ai radicali prodotti; appena la soglia di ossigeno scende la polimerizzazione parte veloce e da luogo all’oggetto così, tutto in una volta, come per magia; osservate il filmato .gif che non ho riprodotto sul blog per motivi di proprietà, ma che potete gustarvi sul sito di Nature. Si possono inglobare materiali di altro genere senza problemi. Il polimero usato è stato ottenuto da una miscela delle sostanze denominate comunemente BPAGDA e PEGDA (3:1) con una viscosità di circa 5200cp. Il fotoiniziatore che è l’antenna che permette di “accumulare” la luce in arrivo integrandone gli effetti è il canforchinone (CQ) (che si usa nelle polimerizzazione dentarie) insieme con l’etil 4-dimetilamminobenzoato (EDAB).canforchinone

BPAGDA

PEGDA

La fotochimica e la chimica dei materiali trasformano un sogno in realtà; speriamo che sia usato bene.

PS (Un sogno lo aveva anche Prince Jerry, giovane immigrato economico, laureato in chimica nel suo paese, ma si è infranto sui binari di Tortona.)

Gli elementi della tavola periodica: Arsenico, As.

In evidenza

Mauro Icardi

L’arsenico è un semimetallo. La parola Arsenico deriva dal termine persiano “Zarnik” ossia “ornamento giallo”. In seguito in greco antico il termine venne mutato in “Arsenicon”. Elemento n° 33 della tavola periodica; esiste in tre forme allotropiche: giallo, nero e grigio; la forma stabile è un solido cristallino grigio-argento, fragile, che si appanna velocemente in aria e ad alte temperature brucia per formare una nube bianca di triossido di arsenico. La forma cristallina gialla e una forma amorfa nera sono inoltre conosciute. Si può trovare in minerali quali l’arsenopirite (FeAsS), il solfuro giallo AS3S,l’ossido di arsenico o arsenolite (As2O3).

(Arsenopirite)

Non è estratto come tale perché deriva dalla raffinazione dei minerali di altri metalli, come rame e piombo. La produzione mondiale di arsenico, sotto forma del relativo ossido, è intorno a 50.000 tonnellate all’anno. La Cina è il paese esportatore principale, seguito da Cile e Messico.
E’ un elemento conosciuto ed usato fin dai tempi degli antichi romani. Gli assassini a quel tempo erano soliti utilizzarlo spalmato sui fichi, per compiere i loro delitti, in quanto i suoi composti sono praticamente insapori. E probabilmente a quel momento si può far risalire la cattiva reputazione di cui gode ancora oggi. In realtà l’uso come veleno, che ebbe il suo massimo favore nel Medio Evo, perse di importanza con l’evoluzione delle tecniche analitiche atte a determinarlo anche in tracce. Ma nonostante tutto è ricordato nella commedia, e poi nel successivo film di Frank Capra “Arsenico e vecchi merletti”, come sinonimo stesso di veleno.Credo che nella memoria di molti sia rimasto anche il capitolo de “Il sistema periodico” di Primo Levi, dove si racconta di come un giovane arrogante e sleale, non trovi di meglio che contaminare, proprio con l’arsenico, mezzo chilo di zucchero che regala ad un suo diretto concorrente. Il concorrente in questione è un altro ciabattino, onesto e signorile. Costui, insospettito dall’inaspettato regalo visto la rivalità che li divide, si recherà al laboratorio da poco aperto da Levi in società con l’amico Alberto Salmoni per farlo analizzare. Le suggestioni letterarie e storiche dell’Arsenico non sono finite, e lo stesso Levi lo ricorda, appena ha lo ha identificato come il contaminante dello zucchero: “ Ecco il precipitato giallo di solfuro, e l’anidride arseniosa, l’arsenico insomma, il Mascolino, quello di Mitridate e di Madame Bovary”.

Emma Bovary, protagonista del romanzo di Gustave Flaubert si suiciderà proprio ingoiando arsenico.

Mascolino invece ci rimanda all’etimologia derivante dal greco dove “Arsen” cioè maschio si riferirebbe alle proprietà ed alla potenza farmacologica di questo elemento. L’arsenico ed i suoi composti nel passato hanno avuto grande importanza in campo medico come farmaci. Composti organici dell’arsenico venivano impiegati per curare la sifilide e la tripanosomiasi, ma l’interesse delle terapie arsenicali è considerevolmente diminuito con l’avvento degli antibiotici. Anche in Italia si è utilizzata come curativa l’acqua arsenicale della valle anzasca.

https://ilblogdellasci.wordpress.com/2015/01/09/la-sorgente-miracolosa-della-valle-anzasca/

L’arsenico è stato molto usato in passato come erbicida, insetticida, conservante del legno, rodenticida e antiparassitario zootecnico. L’arseniuro di gallio viene usato come alternativa al silicio nella realizzazione di circuiti integrati.

Oggi l’arsenico è stato classificato dalla IARC (Agenzia Internazionale per la ricerca sul Cancro) come elemento cancerogeno certo per l’uomo. Il comitato di esperti di Fao ed OMS ha proposto una dose di riferimento per l’assunzione di Arsenico fissando un valore pari a 3 microgrammi/kg per chilo di peso corporeo che può provocare un rischio supplementare rispetto al rischio standard dello 0,5% in più di contrarre tumore al polmone. Ne abbiamo parlato in questo articolo del nostro blog dedicato anche la caso Bangladesh e alle riduzioni dei limiti accettabli nelle acque potabili.